Trois semaines auparavant, Samsung avait levé l'interdiction faite à ses employés d'utiliser ChatGPT d'OpenAI pour des raisons de confidentialité des données.
Cependant, depuis que l'interdiction a été levée, il y a eu trois cas distincts d'employés de Samsung qui ont accidentellement divulgué des informations sensibles liées à la division des semi-conducteurs de Samsung sur ChatGPT en l'espace de 20 jours, indique un rapport de The Economist Korea (repéré par Mashable).
L'interdiction visait à l'origine à protéger les données de l'entreprise, mais elle a été levée le 11 mars 2023, afin que les ingénieurs de la division des semi-conducteurs puissent utiliser ChatGPT pour résoudre les problèmes liés au code source, améliorer la productivité et se tenir au courant des dernières évolutions technologiques.
Tout en autorisant l'utilisation de ChatGPT, le géant sud-coréen a également émis un avis à l'intention de la division des semi-conducteurs, lui demandant de “veiller à la sécurité des informations internes et de ne pas saisir d'informations privées” dans le populaire chatbot d'intelligence artificielle (IA).
Dans le premier cas, un employé de Semiconductor and Device Solutions a été confronté à un problème lors de l'exécution d'un logiciel de téléchargement d'une base de données de mesures d'équipements semi-conducteurs.
Comme il semblait s'agir d'un problème de code source, l'employé a copié et collé le code source confidentiel bogué de l'entreprise dans l'outil d'IA. Il a ensuite demandé au chatbot de vérifier les erreurs et de trouver une solution, faisant ainsi du code source une partie des données de formation internes de ChatGPT.
Dans le second cas, un employé qui avait des difficultés à comprendre le rendement de l'appareil et d'autres informations a partagé le code avec le chatbot d'IA et a demandé une “optimisation du code” à ChatGPT.
Dans le troisième cas, un employé a partagé l'enregistrement d'une réunion confidentielle de l'entreprise et a demandé au ChatGPT de le convertir en notes pour une présentation. Les informations partagées avec le ChatGPT à la suite de ces incidents en font désormais partie pour toujours et ne peuvent pas être supprimées.
En conséquence, Samsung a pris des mesures immédiates et a désormais limité la longueur des invites ChatGPT de chaque employé à un kilo-octet ou 1024 caractères de texte. La société enquêterait également sur les trois employés qui ont participé à la fuite et envisagerait de rétablir l'interdiction.
Afin d'éviter de telles mésaventures embarrassantes à l'avenir, Samsung est en train de développer son propre chatbot d'IA, qui est destiné à être strictement utilisé par ses employés à des fins internes.
“Si un accident similaire se produit malgré les mesures d'urgence prises pour protéger les informations, l'accès à ChatGPT peut être bloqué sur le réseau de l'entreprise”, peut-on lire dans une note interne envoyée par Samsung pour conseiller à ses employés de faire preuve de prudence lors de l'utilisation de l'outil d'intelligence artificielle.
“Dès qu'un contenu est saisi dans ChatGPT, les données sont transmises et stockées sur un serveur externe, ce qui rend impossible leur récupération par l'entreprise.”
Le guide d'utilisation du ChatGPT avertit explicitement les utilisateurs de ne pas partager d'informations sensibles dans leurs conversations, car il n'est “pas en mesure d'effacer des messages spécifiques de l'historique”.
Il est important de noter que toutes les questions et tous les textes partagés avec le ChatGPT sont conservés afin d'entraîner et d'améliorer ses modèles d'intelligence artificielle, à moins que les utilisateurs ne choisissent explicitement de s'en désengager. En d'autres termes, il est difficile, voire impossible, d'effacer complètement les données du système.
“Dans le cadre de notre engagement en faveur d'une IA sûre et responsable, nous examinons les conversations afin d'améliorer nos systèmes et de nous assurer que le contenu est conforme à nos politiques et à nos exigences de sécurité… Vos conversations peuvent être examinées par nos formateurs d'IA afin d'améliorer nos systèmes”, explique clairement OpenAI sur son site web.
OpenAI affirme notamment : “Nous supprimons toute information personnelle identifiable des données que nous avons l'intention d'utiliser pour améliorer les performances du modèle. Nous n'utilisons également qu'un petit échantillon de données par client dans le cadre de nos efforts d'amélioration des performances du modèle.”
Il est intéressant de noter que ChatGPT a fait l'objet d'un examen minutieux ces derniers temps concernant ses politiques de collecte de données en Europe, l'Italie ayant temporairement interdit le chatbot IA dans le pays pour des raisons de protection de la vie privée. L'Allemagne pourrait suivre l'exemple de l'Italie et prendre une mesure similaire en bloquant le chatbot dans son pays.