Les risques que la technologie générative de l'intelligence artificielle (IA) fait peser sur la cybersécurité, notamment en ce qui concerne les chatbots et les programmes de traitement du langage comme le GPT-3 augmentent de manière significative.
Le nouveau genre d'IA pourrait être comme suit . transformatrice que la révolution industriellele conseiller scientifique en chef sortant du gouvernement britannique, Sir Patrick Vallance, qui a exhorté la Grande-Bretagne à agir immédiatement pour éviter qu'un grand nombre de personnes ne se retrouvent sans emploi à cause des changements qui ont été apportés à la loi sur la protection de l'environnement. ChatGPT-style, generative AI pourrait apporter.
“Il y aura un impact important sur les emplois et cet impact pourrait être aussi important que l'a été la révolution industrielle”, a déclaré Vallance à la commission des sciences, de l'innovation et de la technologie des Communes. “Il y aura des emplois qui pourront être effectués par l'IA, ce qui peut soit signifier que beaucoup de gens n'ont pas d'emploi, soit que beaucoup de gens ont des emplois que seul un humain pourrait faire.”
Depuis son lancement en novembre 2022, ChatGPT, un chatbot d'IA, a fait beaucoup de bruit en raison des réponses étonnamment humaines et précises de ce logiciel. Le système auto-génératif a atteint le chiffre record de 100 millions d'utilisateurs actifs mensuels deux mois seulement après son lancement. Cependant, alors que sa popularité ne cesse de croître, le débat actuel au sein de l'industrie de la cybersécurité est de savoir si ce type de technologie contribuera à rendre l'Internet plus sûr ou s'il fera le jeu de ceux qui tentent de semer le chaos.
L'IA générative a aidé les mauvais acteurs à développer de nouvelles stratégies d'attaque, leur permettant de garder une longueur d'avance sur les protections de la cybersécurité.
Et à mesure que les technologies d'IA deviennent plus sophistiquées, elles sont utilisées par les cybercriminels pour créer des courriels de phishing et des messages d'escroquerie plus convaincants à une échelle beaucoup plus grande. Par exemple, les chatbots alimentés par l'IA peuvent engager la conversation avec des victimes peu méfiantes, ce qui les rend plus susceptibles de divulguer des informations sensibles ou de cliquer sur des liens contenant des logiciels malveillants.
Ces types d'attaques sont de plus en plus courants, et ils peuvent être… difficiles à détecter et à prévenir.. En réponse, les experts en cybersécurité développent de nouveaux systèmes de sécurité alimentés par l'IA qui peuvent identifier et bloquer le trafic malveillant.
Les cybercriminels ont adopté cette technologie pour créer des courriels d'hameçonnage convaincants. Le texte généré par l'IA aide les attaquants à produire des courriels et des messages textes hautement personnalisés, plus susceptibles de tromper les cibles. Cependant, ces systèmes en sont encore aux premiers stades de développement, et il existe un risque qu'ils soient contournés par des attaques sophistiquées alimentées par l'IA.
À mesure que la technologie de l'IA continue de progresser, il sera de plus en plus important pour les organisations d'investir dans des systèmes de cybersécurité robustes capables de les protéger contre ces nouvelles menaces en constante évolution.
Les chatbots alimentés par l'IA soulèvent également la question de la sécurité de l'emploi. Bien sûr, le système actuel ne pourrait pas remplacer un professionnel hautement qualifié, mais cette technologie peut réduire considérablement le nombre de journaux et de rapports qui doivent être inspectés par un employé. Cela pourrait, par exemple, avoir un impact sur le nombre d'analystes qu'un centre d'opérations de sécurité devrait employer.
L'IA a le potentiel d'aider à se protéger contre ces menaces émergentes, mais elle présente également son propre ensemble de risques. Les machines dotées de grandes capacités de traitement pourraient pirater les systèmes plus rapidement et plus efficacement que les humains. Pour contrer ces menaces, nous devons nous assurer que l'IA est utilisée de manière défensive et avec une compréhension claire de ce qui suit. qui a le contrôle.
À mesure que l'IA s'intègre dans la société, il est important que les législateurs, les juges et les autres décideurs comprennent la technologie et ses implications. La création d'alliances solides entre les experts techniques et les décideurs politiques sera cruciale pour naviguer dans l'avenir de l'IA dans la chasse aux menaces et au-delà.
MIT : ZDNet : Business News : Oodaloop : Venturebeat : Flipboard : Guardian : CPO Magazine :
Tu pourrais aussi lire :
Plans de réglementation pour l'intelligence artificielle & ; les algorithmes:
___________________________________________________________________________________________
Si tu aimes ce site Web et que tu utilises l'annuaire complet des fournisseurs de services (plus de 6 500), tu peux obtenir un accès illimité, y compris la série exclusive de rapports approfondis sur les directeurs, en souscrivant à un abonnement Premium.
- Individuel £5 par mois ou £50 par an. S'inscrire
- Multi-utilisateurs, entreprises & ; comptes de bibliothèque disponibles sur demande
Renseignements sur la cybersécurité : Capturé Organisé & ; Accessible