Accueil Cyber Sécurité Le modèle de gouvernance nucléaire ne fonctionnera pas pour l’IA

Le modèle de gouvernance nucléaire ne fonctionnera pas pour l’IA

91
0

L’IA est de plus en plus discutée comme une menace existentielle au même titre que les armes nucléaires et le changement climatique. Ce parallèle fausse la conversation sur la réglementation.

Par Yasmin Afina et Dr Patricia Lewis


Alors que les technologies de l’IA sont développées et déployées à grande échelle, l’inquiétude grandit autour des risques qu’elles posent. En mai, certains chefs d’entreprise et scientifiques sont allés jusqu’à affirmer que l’IA représentait une menace aussi grande pour l’humanité que la guerre nucléaire.

L’analogie entre les deux domaines fait de plus en plus d’adeptes et des personnalités influentes, dont le PDG d’OpenAI, Sam Altman, et le secrétaire général de l’ONU, Antonio Guterres, ont proposé la création d’une agence internationale semblable à l’Agence internationale de l’énergie atomique (AIEA).

Mais il s’agit de types de technologies très différents, et le modèle de gouvernance nucléaire ne fonctionnerait pas du tout pour l’IA.

Ce qu’est l’AIEA

L’AIEA a été créée en 1957 pour promouvoir l’utilisation pacifique de la technologie nucléaire grâce au président américain Eisenhower, qui a proposé l’agence dans son discours “Atomes pour la paix”, dans l’espoir que “… la fission de l’atome puisse conduire à l’unification de l’ensemble du monde divisé”.

L’agence est chargée par son statut de promouvoir l’énergie nucléaire pour la paix, la santé et la prospérité et de veiller – dans la mesure du possible – à ce qu’elle ne soit pas utilisée à des fins militaires. L’AIEA effectue des inspections de contrôle dans les installations nucléaires civiles telles que les centrales nucléaires et les réacteurs de recherche afin de s’assurer que les matières nucléaires des États non dotés d’armes nucléaires ne sont pas transférées à des programmes militaires.

L’agence a connu un succès extraordinaire dans ses contrôles, à l’exception de l’Irak à la fin des années 1980. Elle a découvert plusieurs cas de non-conformité et, sauf dans le cas de la Corée du Nord, a contribué de manière significative à l’inversion des comportements et à la prévention de la prolifération, y compris jusqu’à présent en Iran.

La peur existentielle de la guerre nucléaire

Dès le début de leur développement, les armes nucléaires ont représenté un risque existentiel connu et quantifiable. Le bombardement nucléaire d’Hiroshima et de Nagasaki en août 1945 a attesté de la nature destructrice, aveugle et incontrôlable de ces armes. L’une des principales motivations de la création de l’AIEA et des traités de contrôle des armements tels que le Traité de non-prolifération nucléaire (TNP) était la crainte profonde d’une guerre nucléaire. Ces craintes étaient fondées. Au plus fort de la guerre froide, on disait que les États-Unis et l’Union soviétique de l’époque possédaient suffisamment d’armes nucléaires pour “détruire l’humanité telle que nous la connaissons”.

Des calculs récents révèlent que le nombre d’armes nucléaires nécessaires pour détruire les conditions d’habitation humaine est inférieur à 100.

Les risques posés par l’existence même des armes nucléaires et la menace de leur utilisation sont donc existentiels ; et les profonds risques et conséquences humanitaires qui résulteraient de leur utilisation ont été un élément moteur qui a conduit à l’adoption en 2017 du Traité sur l’interdiction des armes nucléaires.

Lire aussi :  La cyberforce nationale britannique dévoile sa doctrine opérationnelle

La peur de la catastrophe détourne les efforts des risques connus

De nombreuses préoccupations restent hypothétiques et détournent l’attention du public des risques éthiques et juridiques déjà pressants qui découlent de l’IA et des préjudices qui en découlent. Cela ne veut pas dire que les risques liés à l’IA n’existent pas : c’est le cas. Un nombre croissant de preuves documentent les dommages que ces technologies peuvent causer, en particulier sur les personnes les plus exposées, comme les minorités ethniques, les populations des pays en voie de développement et d’autres groupes vulnérables.

Une dépendance excessive à l’égard de l’IA, en particulier pour les infrastructures nationales essentielles (CNI), pourrait être une source de vulnérabilité importante – mais cela ne serait pas catastrophique pour l’espèce. Les inquiétudes concernant les risques plus larges et existentiels de l’IA doivent effectivement être prises en compte, soigneusement, étape par étape, au fur et à mesure que les preuves sont rassemblées et analysées. Mais aller trop vite pour contrôler pourrait aussi faire du mal.

L’IA est difficile, voire impossible, à contenir

Les aspects techniques des armes nucléaires sont intrinsèquement différents de ceux de l’IA. Le développement des armes nucléaires est confronté à des goulets d’étranglement physiques. Leur fabrication nécessite des matériaux spécifiques sous des formes spécifiques – comme le plutonium et l’uranium et le tritium hautement enrichis (plus de 90 pour cent).

Ces matériaux produisent des signatures uniques et mesurables. Les traces les plus infimes peuvent être découvertes lors d’inspections de routine, et les activités clandestines dévoilées.

Les armes nucléaires ne peuvent pas être fabriquées sans ces matériaux spéciaux. Le contrôle de l’accès à ces matériaux interdit physiquement aux pays qui ne sont pas autorisés à les acquérir de le faire. C’est très différent de l’IA, qui est essentiellement basée sur des logiciels et d’usage général.

Bien que le développement et la formation de l’IA puissent nécessiter de lourds investissements et des superordinateurs dotés d’une énorme puissance de traitement, ses applications sont très répandues et de plus en plus conçues pour une utilisation de masse dans tous les segments de la société. L’IA est, en ce sens, tout le contraire des armes nucléaires.

La nature intangible de l’IA la rendrait difficile, voire impossible, à contenir – surtout avec l’augmentation de l’IA à source ouverte.

Les mesures de sauvegarde et les méthodes de vérification semblables à celles employées par l’AIEA ne fonctionneraient donc pas pour l’IA en raison de ces différences techniques inhérentes.

Qu’est-ce qui pourrait fonctionner ?

Des réponses politiques sont nécessaires pour faire face aux risques liés au développement et au déploiement des technologies de l’IA. Mais les modèles de gouvernance éloignés du domaine nucléaire offrent une meilleure inspiration.

Une solution similaire à la Food and Drug Administration (FDA) américaine pourrait constituer une approche judicieuse pour superviser la sortie et la commercialisation des produits d’IA. Il s’agirait d’un modèle de lancement à l’échelle, accompagné d’exigences d’audit solides et d’évaluations des risques complètes pour évaluer les implications directes et indirectes du produit en question.

Lire aussi :  Les assureurs doivent payer les pertes de 1,4 milliard de dollars de Merck pour NotPetya

Le laboratoire de référence de l’UE pour les denrées alimentaires et les aliments pour animaux génétiquement modifiés (EURL GMFF) offre également un moyen utile de réfléchir à certains contrôles et à certaines réglementations en matière d’IA. Les tentatives nationales et internationales de contrôle et de réglementation de l’édition de gènes humains et de la recherche sur les embryons humains méritent d’être étudiées, en tant que tentatives de contrôle et de réglementation d’une technologie amorphe dans des contextes culturels très différents.

L’IA pourrait bénéficier d’une agence internationale, mais celle-ci devrait s’inspirer du Groupe d’experts international sur l’évolution du climat (GIEC) et pousser plus loin la recommandation du Secrétaire général de l’ONU en faveur d’un organe consultatif de haut niveau pour l’IA. Une telle agence contribuerait à fournir à la communauté internationale des données diversifiées et complètes dans le domaine, garantissant que les délibérations ultérieures sont holistiques, fondées sur des preuves et inclusives.

Cette agence internationale pourrait être nouvellement créée ou étendre le travail d’agences spécialisées existantes telles que l’Union internationale des télécommunications (UIT) – qui combine à la fois des normes et des réglementations, révisées régulièrement par la Conférence mondiale des radiocommunications (CMR). Cette structure pourrait convenir à l’IA, compte tenu de sa nature dynamique et de l’évolution rapide de la technologie.

Les activités de l’agence favoriseraient la participation de toutes les parties prenantes, contribueraient aux négociations et aux efforts continus visant à réduire les risques liés à l’IA, et mèneraient des recherches plus approfondies et à long terme.

Les modèles de gouvernance pour l’IA pourraient également être discutés dans le cadre de forums, notamment les Forums sur la gouvernance de l’Internet (IGF), de réunions à l’ONU, notamment le Pacte mondial pour le numérique et le Sommet du futur, et par le biais des travaux de l’Envoyé du Secrétaire général pour la technologie. En 2025, le Sommet mondial sur la société de l’information (SMSI) constituera un moment important pour convenir des voies à suivre en matière de gouvernance de l’IA.

Ces agences et forums représentent de meilleurs modèles de réglementation de l’IA. Ils permettraient également d’exploiter plus efficacement tout le potentiel de l’IA au profit de tous.

Yasmin Afina est chargée de recherche, Initiative pour la société numérique à Chatham House

Dr Patricia Lewis est directrice de recherche ; directrice du programme de sécurité internationale à Chatham House

Tu pourrais aussi lire :

Le danger déstabilisant des cyberattaques sur les systèmes de missiles:

___________________________________________________________________________________________

Si tu aimes ce site Web et que tu utilises l’annuaire complet des fournisseurs de services (plus de 6 500), tu peux obtenir un accès illimité, y compris la série exclusive de rapports approfondis sur les directeurs, en souscrivant à un abonnement Premium.

  • Individuel £5 par mois ou £50 par an. S’inscrire
  • Comptes multi-utilisateurs, d’entreprise et de bibliothèque disponibles sur demande

Renseignements sur la cybersécurité : Capturé Organisé & ; Accessible


” La CIA mène une campagne sur les médias sociaux à l’intention des Russes

Article précédentLa technique d’injection du processus de Mockingjay permet de contourner le CED
Article suivantLes limites de l’IA