Accueil Cyber Sécurité Une brève histoire de l’intelligence artificielle et de son avenir potentiel

Une brève histoire de l’intelligence artificielle et de son avenir potentiel

88
0


Rapport des administrateurs : Cet article est temporairement libre d'accès. Pour un accès illimité au site Web, abonne-toi : 5 £ par mois / 50 £ par an.


La technologie de l' (IA) se développe à grande vitesse et modifie de nombreux aspects de la vie contemporaine, tout comme les précédentes révolutions industrielles ont complètement modifié et changé notre façon de travailler. L'intégration de l'homme à la technologie a toujours été entremêlée. C'est en partie ce qui nous rend uniques par rapport aux autres espèces. Nous créons et utilisons des outils pour améliorer notre vie. Du feu à la machine à vapeur en passant par l'intelligence artificielle.

L'un des principaux aspects de l'IA est sa capacité à rationaliser les informations et la pensée, et à prendre les mesures nécessaires pour atteindre un objectif spécifique. Un sous-ensemble de l'IA est l'apprentissage automatique (Machine Learning, ML), qui se réfère au concept selon lequel les programmes informatiques peuvent apprendre automatiquement à partir de nouvelles et s'y adapter sans être assistés par des humains.

Ces technologies d'apprentissage automatique fonctionnent en absorbant d'énormes quantités de données non structurées telles que du texte, des images ou des vidéos, et ces données permettent à un ordinateur de penser, d'agir et de réagir comme un humain. Un exemple est Siri qui peut te dire quand il va pleuvoir dans ta ville ou ton village aujourd'hui ou si tu es dans un endroit où tu ne maîtrises pas la langue locale, Siri peut t'aider en traduisant rapidement une phrase pour toi. Cependant, certains experts craignent que la technologie de l'IA, qui est souvent utilisée à des fins malveillantes, ne menace de nombreux emplois.

En effet, l'IA peut traiter de grandes quantités de données d'une manière qui échappe aux humains. L'objectif de l'IA est d'être capable de faire des choses comme reconnaître des modèles, prendre des décisions et juger comme les humains.

L'IA est à la base même de certaines choses, comme la reconnaissance d'images et la classification. Elle modifie également notre façon de prendre des décisions, par exemple, elle peut être utilisée pour prédire les systèmes de feux de circulation ou l'heure à laquelle tu vas chercher ton café le matin. L'IA peut être classée en IA analytique, inspirée par l'homme et humanisée, selon les types d'intelligence qu'elle présente. Les ordinateurs peuvent être alimentés par d'énormes quantités d'informations et entraînés à identifier les modèles dans ces données particulières et peuvent être utilisés pour faire des prédictions, résoudre des problèmes et même apprendre de leurs propres erreurs.
Outre les données, l'IA s'appuie sur des algorithmes, des listes de règles qui doivent être suivies dans le bon ordre pour accomplir une tâche. C'est la technologie qui se cache derrière les assistants virtuels à commande vocale Siri et Alexa. Elle permet à Spotify, YouTube et BBC iPlayer de te suggérer ce que tu pourrais vouloir jouer ensuite, et aide Facebook et Twitter à décider quels posts de médias sociaux montrer aux utilisateurs.

Des inquiétudes ont également été soulevées quant à la possibilité que l'IA soit employée à des fins malveillantes, telles que des cyberattaques malveillantes ou des campagnes de désinformation. Par conséquent, de nombreux chercheurs et décideurs tentent de s'assurer que l'IA est créée et appliquée de manière éthique et responsable.

Printemps de l'IA : La naissance de l'intelligence artificielle

Bien qu'elles soient difficiles à cerner, les racines de l'IA remontent probablement aux années 1940, plus précisément à 1942, lorsque l'écrivain américain de science-fiction Isaac Asimov a publié sa nouvelle Runaround. L'intrigue de Runaround, qui raconte l'histoire d'un robot développé par les ingénieurs Gregory Powell et Mike Donavan, évolue autour des trois lois de la robotique :

1. Un robot ne peut pas blesser un être humain ou, par son inaction, permettre à un être humain de se blesser ;

2. Un robot doit obéir aux ordres qui lui sont donnés par des êtres humains, sauf si ces ordres entrent en conflit avec la première loi ;

3. Un robot doit protéger sa propre existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi.

Les travaux d'Asimov ont inspiré des générations de scientifiques dans le domaine de la robotique, de l'IA et de l'informatique, entre autres le cogniticien américain Marvin Minsky, qui a plus tard cofondé le laboratoire d'IA du MIT. À peu près à la même époque, mais à plus de 3 000 kilomètres de là, le mathématicien anglais Alan Turing travaillait sur des sujets beaucoup moins fictifs et développait pour le gouvernement britannique une machine à casser les codes appelée The Bombe, dans le but de déchiffrer le code Enigma utilisé par l'armée allemande au cours de la Seconde Guerre mondiale. La Bombe, qui mesurait environ 7 pieds sur 6 pieds sur 2 pieds et pesait environ une tonne, est généralement considérée comme le premier ordinateur électromécanique fonctionnel.

La puissance avec laquelle la Bombe a pu casser le code Enigma, une tâche auparavant impossible même pour les meilleurs mathématiciens humains, a poussé Turing à s'interroger sur l'intelligence de telles machines. En 1950, il publie son article fondateur “Computing Machinery and Intelligence” dans lequel il décrit comment créer des machines intelligentes et notamment comment tester leur intelligence.

Ce test de Turing est encore considéré aujourd'hui comme une référence pour identifier l'intelligence d'un système artificiel : si un humain interagit avec un autre humain et une machine et qu'il est incapable de distinguer la machine de l'humain, alors on dit que la machine est intelligente.

Les mots Intelligence Artificielle sont ensuite officiellement inventés environ six ans plus tard, lorsqu'en 1956 Marvin Minsky et John McCarthy (informaticien à Stanford) organisent le Dartmouth Summer Research Project on Artificial Intelligence (DSRPAI), d'une durée d'environ huit semaines, au Dartmouth College, dans le New Hampshire. Cet atelier, qui marque le début du printemps de l'IA et a été financé par la Fondation Rockefeller, a réuni ceux qui seraient plus tard considérés comme les pères fondateurs de l'IA.

Parmi les participants figuraient l'informaticien Nathaniel Rochester, qui a plus tard conçu l'IBM 701, le premier ordinateur scientifique commercial, et le mathématicien Claude Shannon, qui a fondé la théorie de l'information. L'objectif du DSRPAI était de réunir des chercheurs de différents domaines afin de créer un nouveau champ de recherche visant à construire des machines capables de simuler l'intelligence humaine.

Histoire de l'IA

Mais l'idée d'une “intelligence artificielle” remonte à des milliers d'années, lorsque les philosophes de l'Antiquité se sont penchés sur les questions de la vie et de la mort. Dans l'Antiquité, les inventeurs fabriquaient des objets appelés “automates” qui étaient mécaniques et se déplaçaient indépendamment de l'intervention humaine. Le mot automatisation vient du grec ancien et signifie “agir de sa propre volonté”.

L'une des premières mentions d'un automate date de 400 avant notre ère et fait référence à un pigeon mécanique créé par un ami du philosophe Platon. Bien des années plus tard, l'un des automates les plus célèbres a été créé par Léonard de Vinci en 1495. Léonard de Vinci a beaucoup écrit sur les automates, et ses carnets personnels sont truffés d'idées de créations mécaniques allant d'une horloge à eau hydraulique à un lion robotisé. Le plus extraordinaire est peut-être son projet d'homme artificiel sous la forme d'un chevalier germanique en armure.

En effet, l'histoire de l'IA remonte à l'Antiquité, avec des philosophes qui réfléchissaient à l'idée que des êtres artificiels, des hommes mécaniques et d'autres automates avaient existé ou pouvaient exister d'une manière ou d'une autre. L'idée que des objets inanimés prennent vie en tant qu'êtres intelligents existe depuis longtemps. Les Grecs de l'Antiquité avaient des mythes sur les robots, et les ingénieurs chinois et égyptiens construisaient des automates.

Entre 380 av. J.-C. et la fin des années 1600 : Divers mathématiciens, théologiens, philosophes, professeurs et auteurs ont réfléchi à des techniques mécaniques, à des machines à calculer et à des systèmes numériques qui ont tous fini par aboutir au concept de pensée “humaine” mécanisée chez des êtres non humains.

Début des années 1700 : Les représentations de machines omniscientes apparentées à des ordinateurs étaient plus largement abordées dans la littérature populaire. Le roman Les voyages de Gulliver de Jonathan Swift mentionne un appareil appelé le moteur, qui est l'une des premières références à la technologie moderne, et plus précisément à un ordinateur. Le but de cet appareil était d'améliorer les connaissances et les opérations mécaniques à un point tel que même la personne la moins douée semblerait compétente, le tout avec l'aide et les connaissances d'un esprit non humain imitant l'intelligence artificielle.

Les débuts de l'IA moderne remontent donc aux tentatives des philosophes classiques de décrire la pensée humaine comme un système symbolique. Mais le domaine de l'IA n'a été officiellement fondé qu'en 1956, lors d'une conférence au Dartmouth College, à Hanover, dans le New Hampshire, où le terme d'intelligence artificielle a été inventé.

L'IA repose sur l'hypothèse que le processus de la pensée humaine peut être mécanisé. L'étude de la mécanique, ou du raisonnement formel, a une longue histoire.

Les philosophes chinois, indiens et grecs ont tous développé des méthodes structurées de déduction formelle au cours du premier millénaire avant notre ère. Leurs idées ont été développées au fil des siècles par des philosophes tels qu'Aristote, qui a donné une analyse formelle du syllogisme, Euclide, dont les Éléments étaient un modèle de raisonnement formel, al-Khwarizmi, qui a développé l'algèbre et donné son nom à l'algorithme, et des philosophes européens tels que Guillaume d'Ockham et Duns Scot. Le philosophe espagnol Ramon Llull (1232-1315) a développé plusieurs machines logiques consacrées à la production de connaissances par des moyens logiques. Llull décrivait ses machines comme des entités mécaniques capables de combiner des vérités fondamentales et indéniables par de simples opérations logiques, produites par la machine par des significations mécaniques, de manière à produire toutes les connaissances possibles. Son travail a eu une grande influence sur Gottfried Leibniz, qui a redéveloppé ses idées.

Lire aussi :  Le stockage immuable est la seule solution pour assurer la sécurité des données

Au 17ème siècle, Leibniz, Thomas Hobbes et René Descartes ont exploré la possibilité de rendre toute la pensée rationnelle aussi systématique que l'algèbre ou la géométrie. Hobbes a écrit dans le Léviathan : “la raison n'est rien d'autre qu'un calcul”. Leibniz a imaginé un langage universel de raisonnement, la “characteristica universalis”, qui réduirait l'argumentation au calcul de sorte qu'”il n'y aurait pas plus besoin de dispute entre deux philosophes qu'entre deux comptables”. “Car il suffirait de prendre leurs crayons en main, de descendre sur leurs ardoises, et de se dire (avec un ami comme témoin, s'ils le souhaitent) : Calculons.”

Ces philosophes avaient commencé à formuler l'hypothèse du système de symboles physiques qui allait devenir la foi directrice de la recherche sur l'IA. Un système de symboles physiques prend des modèles ou des symboles physiques, les combine en structures ou en expressions et les manipule, en utilisant des processus pour produire de nouvelles expressions.

Au 20e siècle : L'étude de la logique mathématique a apporté la percée essentielle qui a rendu l'intelligence artificielle plausible. Les bases avaient été posées par des ouvrages tels que Les lois de la pensée de Boole et Begriffsschrift de Frege. S'appuyant sur le système de Frege, Russell et Whitehead ont présenté un traitement formel des fondements des mathématiques dans leur chef-d'œuvre, les Principia Mathematics, en 1913. Dans les années 40 et 50, une poignée de scientifiques issus de divers domaines (mathématiques, psychologie, ingénierie, économie et sciences politiques) ont commencé à discuter de la possibilité de créer un cerveau artificiel. Le domaine de la recherche sur l'IA a été fondé en tant que discipline universitaire en 1956

Le test de Turing

Alan Turing, un jeune polymathe britannique qui a exploré la possibilité mathématique de l'intelligence artificielle. Turing a suggéré que les humains utilisent les informations disponibles ainsi que la raison pour résoudre des problèmes et prendre des décisions, alors pourquoi les machines ne pourraient-elles pas faire la même chose ? En 1935, Turing a décrit une machine informatique abstraite composée d'une mémoire illimitée et d'un scanner qui va et vient dans la mémoire, symbole par symbole, en lisant ce qu'il trouve et en écrivant d'autres symboles. Les actions du scanner sont dictées par un programme d'instructions qui est également stocké dans la mémoire sous forme de symboles. Il s'agit du concept de programme stocké de Turing, et la possibilité pour la machine d'opérer sur son propre programme, et donc de le modifier ou de l'améliorer, est implicite.

La conception de Turing est aujourd'hui simplement connue sous le nom de machine universelle de Turing. Tous les ordinateurs modernes sont par essence des machines de Turing universelles.

En 1950, Turing a publié un article qui a fait date, dans lequel il spéculait sur la possibilité de créer des machines qui pensent. Il a noté que la “pensée” est difficile à définir et a conçu son célèbre test de Turing. Si une machine pouvait tenir une conversation qui ne se distinguait pas d'une conversation avec un être humain, alors il était raisonnable de dire que la machine “pensait”. Cette version simplifiée du problème a permis à Turing d'affirmer de façon convaincante qu'une “machine pensante” était au moins plausible et le document a répondu à toutes les objections les plus courantes à la proposition.

La maturation de l'IA : 1957-1979 : La période entre la création de l'expression “intelligence artificielle” et les années 1980 a été une période de croissance rapide et de lutte pour la recherche sur l'IA. La fin des années 1950 et les années 1960 ont été une période de création. Des langages de programmation qui sont encore utilisés aujourd'hui aux livres et aux films qui explorent l'idée des robots, l'IA est rapidement devenue une idée dominante. Les années 1970 ont connu des améliorations similaires, comme la construction du premier robot anthropomorphe au Japon, ou le premier exemple de véhicule autonome construit par un étudiant diplômé en ingénierie. Cependant, c'est aussi une période de lutte pour la recherche sur l'IA, le gouvernement américain ne souhaitant pas continuer à financer la recherche sur l'IA.

Les dates notables comprennent :

  • 1958 : John McCarthy crée LISP (acronyme de List Processing), le premier langage de programmation pour la recherche sur l'IA, dont l'utilisation est encore très répandue aujourd'hui.
  • 1959 : Arthur Samuel a créé le terme “apprentissage automatique” lors d'un discours sur l'apprentissage des machines à jouer aux échecs mieux que les humains qui les ont programmées.
  • 1961 : Le premier robot industriel Unimate commence à travailler sur une chaîne de montage chez General Motors dans le New Jersey, chargé de transporter les boîtiers de matrices et les pièces à souder sur les voitures, ce qui était considéré comme trop dangereux pour les humains.
  • 1965 : Edward Feigenbaum et Joshua Lederberg créent le premier “système expert”, qui est une forme d'IA programmée pour reproduire les capacités de réflexion et de décision des experts humains.
  • 1966 : Joseph Weizenbaum crée le premier “chatterbot” qui utilise le traitement du langage naturel (NLP) pour converser avec les humains.1968 : Le mathématicien soviétique Alexey Ivakhnenko publie dans la revue “Avtomatika” la “Méthode de groupe pour le traitement des données”, qui propose une nouvelle approche de l'IA qui deviendra plus tard ce que nous connaissons aujourd'hui sous le nom de “Deep Learning.”
  • 1973 : Un mathématicien appliqué nommé James Lighthill a remis un rapport au Conseil scientifique britannique, soulignant que les avancées n'étaient pas aussi impressionnantes que celles qui avaient été promises par les scientifiques, ce qui a conduit à un soutien et à un financement très réduits de la recherche sur l'IA de la part du gouvernement britannique.
  • 1979 : James L. Adams a créé le Standford Cart en 1961, qui est devenu l'un des premiers exemples de véhicule autonome. En 79, il a réussi à naviguer dans une salle remplie de chaises sans intervention humaine.
  • 1979 : L'Association américaine d'intelligence artificielle qui est maintenant connue sous le nom d'Association pour l'avancement de l'intelligence artificielle (AAAI) est fondée.

L'intelligence artificielle est partout

Nous vivons désormais à l'ère du “big data” une ère dans laquelle nous avons la capacité de collecter d'énormes sommes d'informations trop lourdes à traiter pour une personne. L'application de l'IA à cet égard a déjà été très fructueuse dans plusieurs industries telles que la technologie, la banque, le marketing et le divertissement. Nous avons vu que même si les algorithmes ne s'améliorent pas beaucoup, le big data et l'informatique massive permettent simplement à l'intelligence artificielle d'apprendre par la force brute.
Les percées en informatique, en mathématiques ou en neurosciences servent toutes de sorties potentielles à travers le plafond de la loi de Moore.

L'avenir de l'IA

Si l'on se tourne vers l'avenir, l'IA est susceptible de jouer un rôle de plus en plus important dans la résolution de certains des plus grands défis auxquels la société est confrontée, tels que le changement climatique, les soins de santé et la cybersécurité. Cependant, les implications éthiques et sociales de l'IA suscitent des inquiétudes, en particulier à mesure que la technologie devient plus avancée et autonome.

De plus, à mesure que l'IA continue d'évoluer, elle aura un impact profond sur pratiquement tous les aspects de notre vie, de la façon dont nous travaillons et communiquons, à la façon dont nous apprenons et prenons des décisions.

On peut également s'attendre à voir des voitures sans conducteur circuler sur les routes dans les vingt prochaines années. À long terme, l'objectif est l'intelligence générale, c'est-à-dire une machine qui surpasse les capacités cognitives humaines dans toutes les tâches. Cela va dans le sens du robot sensible que nous avons l'habitude de voir dans les films.

Même si la capacité est là, les questions éthiques serviraient de barrière solide contre la fructification. Lorsque ce moment viendra, nous devrons avoir une conversation sérieuse sur la politique et l'éthique des machines, mais pour l'instant, nous laisserons l'IA s'améliorer régulièrement et se déchaîner dans la société.

L'IA a le potentiel de révolutionner le monde du travail, mais cela soulève des questions sur les rôles qu'elle pourrait supplanter.
Un récent rapport de la banque d'investissement Goldman Sachs a suggéré que l'IA pourrait remplacer 300 millions d'emplois dans le monde à mesure que certaines tâches et fonctions professionnelles seront automatisées. Cela équivaut à un quart de tout le travail que les humains effectuent actuellement aux États-Unis et en Europe.

Selon le rapport, les emplois susceptibles d'être touchés comprennent l'administration, le juridique, l'architecture et la gestion. Mais il a également identifié d'énormes avantages potentiels pour de nombreux secteurs et prédit que l'IA pourrait entraîner une augmentation de 7 % du PIB mondial. Certains domaines de la médecine et de la science tirent déjà profit de l'IA, les médecins appliquant l'IA pour aider à reconnaître les cancers du sein, et les scientifiques l'utilisant pour développer de nouveaux antibiotiques.

L'IA va transformer la méthode scientifique : Nous pouvons nous attendre à voir des ordres de grandeur d'amélioration dans ce qui peut être accompli. Il y a un certain nombre d'idées que les humains peuvent explorer de manière informatique. Il y a un ensemble plus large d'idées que les humains et les ordinateurs peuvent aborder. Et il y a un ensemble beaucoup plus vaste d'idées que les humains et les ordinateurs, plus l'IA, peuvent aborder avec succès. L'IA offre une capacité sans précédent d'analyser d'énormes ensembles de données et de découvrir par calcul des relations et des modèles complexes.

L'IA, en augmentant l'intelligence humaine, est prête à transformer le processus de recherche scientifique, déclenchant un nouvel âge d'or de la découverte scientifique dans les années à venir.

L'IA fera partie de la politique étrangère : La Commission de sécurité nationale sur l'intelligence artificielle a créé d'importantes recommandations, concluant que le gouvernement américain doit accélérer l'innovation en matière d'IA. Il ne fait guère de doute que l'IA sera impérative pour que les États-Unis conservent leur résilience économique et leur leadership géopolitique.

Lire aussi :  Duolingo divulgue les données de 2,6 millions d'utilisateurs

L'IA permettra des expériences de consommation de nouvelle génération : Les expériences de consommation de nouvelle génération telles que le métavers et les crypto-monnaies ont suscité beaucoup d'intérêt. Ces expériences et d'autres du même genre seront rendues possibles par l'IA. Le métavers est intrinsèquement un problème d'IA car les humains n'ont pas le type de perception nécessaire pour superposer des objets numériques à des contextes physiques ou pour comprendre l'éventail des actions humaines et leurs effets correspondants dans un cadre métavers.

Notre vie se déroule de plus en plus à l'intersection du monde des bits et du monde des atomes. Les algorithmes d'IA ont le potentiel d'apprendre beaucoup plus rapidement dans un monde numérique (par exemple, la conduite virtuelle pour former les véhicules autonomes). Ce sont des catalyseurs naturels qui permettent à l'IA de combler les boucles de rétroaction entre les domaines numérique et physique. Par exemple, la blockchain, les crypto-monnaies et la finance distribuée, à la base, visent à intégrer le capitalisme sans friction dans l'économie.

Pour concrétiser cette vision, les applications distribuées et les contrats intelligents nécessiteront une compréhension plus approfondie de la façon dont les activités capitalistiques interagissent avec le monde réel.

La résolution de la crise climatique nécessitera l'utilisation de l'IA : En tant que société, nous avons beaucoup à faire pour atténuer les menaces socio-économiques posées par le changement climatique. Les politiques de tarification du carbone en sont encore à leurs balbutiements. De nombreuses idées émergentes prometteuses nécessitent l'IA pour être réalisables. Une nouvelle approche potentielle implique des marchés de prédiction alimentés par l'IA qui peuvent lier la politique à l'impact, en adoptant une vision holistique de l'information environnementale et de l'interdépendance.

Cela serait probablement alimenté par des simulations numériques de “Terre jumelle” qui nécessiteraient des quantités stupéfiantes de données et de calculs en temps réel pour détecter des tendances nuancées imperceptibles par les sens humains.

D'autres nouvelles technologies telles que la séquestration du dioxyde de carbone ne peuvent réussir sans une modélisation des risques alimentée par l'IA, une prédiction des effets en aval et la capacité d'anticiper les conséquences involontaires.

L'IA va créer une médecine véritablement personnalisée : La médecine personnalisée est une aspiration depuis le décodage du génome humain. Mais tragiquement, elle reste une aspiration. Une application émergente convaincante de l'IA consiste à synthétiser des thérapies individualisées pour les patients. De plus, l'IA a le potentiel de synthétiser et de prédire un jour des modalités de traitement personnalisées en temps quasi réel, sans qu'aucun essai clinique ne soit nécessaire.

En termes simples, l'IA est parfaitement adaptée pour construire et analyser des rubriques de “jumeaux numériques” de la biologie individuelle et est capable de le faire dans le contexte des communautés dans lesquelles vit un individu. Sans l'IA, il est impossible de donner un sens aux ensembles de données massives provenant de la physiologie d'un individu, sans parler des effets de l'environnement, du mode de vie et de l'alimentation sur les résultats de santé individuels. Les solutions d'IA ont le potentiel non seulement d'améliorer l'état de l'art en matière de soins de santé, mais aussi de jouer un rôle majeur dans la réduction des inégalités persistantes en matière de santé.

Philosophie de l'intelligence artificielle

La philosophie de l'IA est une branche de la philosophie de l'esprit et de la philosophie de l'informatique qui explore l'IA et ses implications pour la connaissance et la compréhension de l'intelligence, l'éthique, la conscience, l'épistémologie et le libre arbitre. En outre, la technologie s'intéresse à la création d'animaux artificiels ou de personnes artificielles, de sorte que la discipline présente un intérêt considérable pour les philosophes.

Ces facteurs ont contribué à l'émergence de la philosophie de l'intelligence artificielle. Certains chercheurs affirment que le rejet de la philosophie par la communauté de l'intelligence artificielle est préjudiciable. La philosophie de l'intelligence artificielle tente de répondre à ces questions de la manière suivante :

  • Une machine peut-elle agir intelligemment ? Peut-elle résoudre tout problème qu'une personne résoudrait par la pensée ?
  • L'intelligence humaine et l'intelligence de la machine sont-elles identiques ? Le cerveau humain est-il essentiellement un ordinateur ?
  • Une machine peut-elle avoir un esprit, des états mentaux et une conscience au même titre qu'un être humain ? Peut-elle ressentir la nature des choses ?

Des questions comme celles-ci reflètent les intérêts divergents des chercheurs en IA, des scientifiques cognitifs et des philosophes. Les réponses scientifiques à ces questions dépendent de la définition de l'”intelligence” et de la “conscience” et de la nature exacte des “machines” dont il est question. Parmi les questions importantes de la philosophie de l'IA figurent certaines des suivantes :

  • Si une machine se comporte aussi intelligemment qu'un être humain, alors elle est aussi intelligente qu'un être humain.
  • La proposition de Dartmouth : “Chaque aspect de l'apprentissage ou toute autre caractéristique de l'intelligence peut être décrit avec une telle précision qu'une machine peut être fabriquée pour le simuler.”
  • Un système de symboles physiques possède les moyens nécessaires et suffisants d'une action intelligente générale.
  • L'ordinateur programmé de manière appropriée avec les entrées et les sorties adéquates aurait donc un esprit exactement dans le même sens que les êtres humains ont un esprit.
  • Car la “raison” … n'est rien d'autre que le “calcul”, c'est-à-dire l'addition et la soustraction, des conséquences des noms généraux convenus pour le “marquage” et la “signification” de nos pensées.

Conclusions

Personne ne sait si l'IA nous permettra d'améliorer notre propre intelligence, comme le pense Raymond Kurzweil de Google, ou si elle finira par nous conduire à la Troisième Guerre mondiale, une préoccupation soulevée par . Cependant, tout le monde s'accorde à dire qu'elle entraînera des défis éthiques, juridiques et philosophiques uniques qu'il faudra relever.

Pendant des décennies, l'éthique a traité le problème du chariot, une expérience de pensée dans laquelle une personne imaginaire doit choisir entre l'inactivité qui conduit à la mort de beaucoup et l'activité qui conduit à la mort de peu. Dans un monde de voitures auto-conduites, ces questions deviendront des choix réels que les machines et, par extension, leurs programmeurs humains devront faire. En réponse, les appels à la réglementation ont été nombreux, y compris de la part d'acteurs majeurs tels que Mark Zuckerberg.

Mais comment réglementer une technologie qui évolue constamment d'elle-même et que peu d'experts, et encore moins de politiciens, comprennent parfaitement ? Comment surmonter le défi d'être suffisamment large pour permettre les évolutions futures de ce monde en pleine mutation et suffisamment précis pour éviter que tout soit considéré comme de l'IA ?

Il existe aujourd'hui des dizaines d'applications différentes qui permettent à un utilisateur de jouer aux échecs contre son téléphone. Jouer aux échecs contre une machine, et perdre avec une quasi-certitude, est devenu une chose qui ne mérite même pas d'être mentionnée. Les applications de l'IA sont susceptibles d'avoir un impact sur des facettes essentielles de notre économie et de notre société au cours de la décennie à venir. Nous sommes au début de ce que de nombreux experts crédibles considèrent comme l'ère la plus prometteuse en matière d'innovation technologique et de création de valeur dans un avenir prévisible.

La révolution de l'IA est à nos portes, et les entreprises doivent se préparer à s'adapter à ce changement. Il est important de faire l'inventaire des compétences actuelles au sein de l'organisation afin d'identifier les compétences supplémentaires que les employés doivent apprendre.

Les organisations devront élaborer une stratégie en matière d'IA et identifier les domaines dans lesquels l'IA est la plus efficace, qu'il s'agisse d'un produit ou d'un service. Ne pas agir signifie inévitablement prendre du retard.

Au vu de la façon dont l'IA a été présentée dans les médias, notamment dans certains de nos films de science-fiction préférés, il est évident que le développement de cette technologie a suscité des inquiétudes quant à la possibilité que les humains deviennent un jour superflus sur le lieu de travail. Après tout, de nombreux emplois autrefois effectués par des mains humaines ont été mécanisés au fur et à mesure que la technologie s'est améliorée. Il est logique de craindre que le développement d'ordinateurs intelligents ne marque le début de la fin d'une grande partie des emplois actuels tels que nous les connaissons.

Mais les emplois seront toujours disponibles, tout comme ils l'ont été lorsque les précédentes révolutions industrielles ont pris en charge les anciens emplois et que les humains remplacent progressivement les anciens emplois par les nouveaux emplois actuels, et c'est la réponse de base à ce qu'est l'avenir de l'IA. La productivité de l'IA peut dynamiser nos lieux de travail, ce qui profitera aux gens en leur permettant de faire plus de travail.

À mesure que l'avenir de l'IA remplace les tâches fastidieuses ou dangereuses, la main-d'œuvre humaine est libérée et peut se concentrer sur des tâches pour lesquelles elle est mieux équipée, comme celles qui requièrent de la créativité et de l'empathie.

Références :

LiveScience : LinkedIn Pulse : GoldmanSachs :

Livingetc : Investopedia : BBC :

Forbes : Haenlein &amp ; Kaplan : Tableau :

Harvard SITN : G2 : Coin Telegraph :

Forbes : Forbes : SimpliLearn :

Image : Steve Johnson sur Unsplash

___________________________________________________________________________________________

Si tu aimes ce site Web et que tu utilises l'annuaire complet des fournisseurs de services (plus de 6 500), tu peux obtenir un accès illimité, y compris la série exclusive de rapports approfondis sur les directeurs, en souscrivant à un abonnement Premium.

  • Individuel 5€ par mois ou 50€ par an. S'inscrire
  • Multi-utilisateurs, entreprises &amp ; comptes de bibliothèque disponibles sur demande

Renseignements sur la cybersécurité : Capturé Organisé & ; Accessible


” Le modèle de gouvernance nucléaire ne fonctionnera pas pour l'IA
Le pirate de Twitter va en prison “
Article précédentLa fonction proxy de WhatsApp permet de partager plus de types de contenu
Article suivantLe pirate informatique de Twitter va en prison