Accueil Cyber Sécurité Le “parrain de l’IA” met en garde contre les dangers imminents

Le “parrain de l’IA” met en garde contre les dangers imminents

65
0

L'homme que l'on appelle souvent le “parrain de l'IA”, Geoffrey Hinton 75 ans, a quitté son emploi chez Google pour pouvoir parler librement des dangers potentiels de la technologie qu'il a contribué à créer. Il a exprimé ses inquiétudes concernant le flot de fausses informations, la possibilité pour l'IA de bouleverser le marché de l'emploi et le “risque existentiel” posé par le… création d'une véritable intelligence numérique..

Hinton est un psychologue cognitif et informaticien canadien vient d'annoncer son départ de Google après y avoir travaillé pendant une dizaine d'années, en faisant part de ses réelles inquiétudes quant aux risques de la technologie de l'IA.

Avant de partir, Hinton pensait que la véritable IA n'arriverait pas avant 30 à 50 ans, voire peut-être plus. Cependant, lors d'une interview accordée à CBS en mars 2023, il a déclaré que “l'IA à usage général pourrait être à moins de 20 ans et pourrait apporter des changements d'une ampleur comparable à celle de la révolution industrielle ou de l'électricité.” Et lors d'une interview au New York Times, Hinton a expliqué sa démission de Google en disant qu'il avait choisi de quitter l'entreprise pour pouvoir “parler des dangers de l'IA sans tenir compte de l'impact que cela a sur Google”.

Lire aussi :  Résilience opérationnelle : Plus que la reprise après sinistre

En 2023, les réseaux neuronaux sont au cœur de l'activité de l'entreprise. la création de puissants outils d'IA générative. , dont ChatGPT et Bard de Google, les programmes suscitant beaucoup d'inquiétude dans l'ensemble de l'industrie technologique.

S'adressant à la BBC, Hinton a déclaré que certains des dangers des chatbots IA sont “assez effrayants”, et il a ajouté : “Pour l'instant, ils ne sont pas plus intelligents que nous, pour autant que je puisse le dire. Mais je pense qu'ils pourraient bientôt l'être.” Hinton a expliqué que les chatbots ont la capacité d'apprendre de façon autonome et de partager leurs connaissances. Cela signifie que chaque fois qu'un exemplaire acquiert de nouvelles informations, celles-ci sont automatiquement diffusées à l'ensemble du groupe. Cela permet aux chatbots IA d'avoir la capacité d'accumuler des connaissances bien au-delà de la capacité de n'importe quel individu.

Dans une interview accordée à la MIT Technology Review, Hinton a également pointé du doigt les “mauvais acteurs” qui pourraient utiliser l'IA d'une manière susceptible d'avoir des répercussions néfastes sur la société, comme la manipulation des élections ou l'incitation à la violence.

Les craintes de Hinton concernant les conséquences de l'IA pour l'industrie et les personnes surviennent au moment même où IBM devrait interrompre les embauches pour les fonctions de back-office, jusqu'à 7 800 emplois pouvant être remplacés par l'IA dans les années à venir, et où les législateurs américains ont proposé un nouveau projet de loi empêchant l'IA de lancer à elle seule des armes nucléaires.

MIT Technology Review : Smithsonian Inst : I-HLS : BBC : NY Times : Guardian : Metro : Independent :

Lire aussi :  Les universités sont visées par un ransomware

Le côté obscur de la nouvelle ère de l'IA:

___________________________________________________________________________________________

Si tu aimes ce site Web et que tu utilises l'annuaire complet des fournisseurs de services (plus de 6 500), tu peux obtenir un accès illimité, y compris la série exclusive de rapports approfondis sur les directeurs, en souscrivant à un abonnement Premium.

  • Individuellement 5€ par mois ou 50€ par an. S'inscrire
  • Comptes multi-utilisateurs, d'entreprise et de bibliothèque disponibles sur demande


” Récompense de 10 millions de dollars pour l'arrestation d'un pirate informatique russe
L'IA va bouleverser la sécurité et l'emploi “

Article précédentRécompense de 10 millions de dollars pour l’arrestation d’un pirate informatique russe
Article suivantLe FBI utilise à mauvais escient l’outil de surveillance des manifestants du 6 janvier