Accueil Cyber Sécurité N’utilise pas ChatGPT au travail

N’utilise pas ChatGPT au travail

87
0

L'utilisation de sans un cadre approprié peut être un champ de mines juridique, mettant en danger à la fois les employeurs et les employés. Par conséquent, il est essentiel d'être conscient des dangers potentiels associés à l'utilisation de ChatGPT sur le lieu de travail.

À l'heure actuelle, ChatGPT compte environ 800 millions d'utilisateurs actifs par mois. ChatGPT est un chatbot alimenté par l'intelligence artificielle (IA), créé par OpenAI.

Il utilise le traitement du langage naturel pour simuler des réponses conversationnelles aux invites fournies par les utilisateurs. Par conséquent, ChatGPT peut fournir du contenu écrit aux utilisateurs. Cela peut aller de l'écriture créative à des documents liés aux affaires, comme des propositions et des plans de marketing.

Il peut également générer du dans des langages de programmation tels que Python et Java, ainsi que des documents juridiques tels que des contrats de style, des testaments et des dispositions. Aujourd'hui, selon une étude réalisée par LayerX Security , 15 % des employés publient régulièrement des sensibles de l'entreprise sur ChatGPT, faisant courir à leur employeur le risque d'une faille de sécurité. Le rapport de recherche, intitulé “Revealing the True genAI Data Exposure Risk”, a analysé le comportement de plus de 10 000 employés et examiné la façon dont ils utilisent les apps d'IA générative sur le lieu de travail.

Les résultats ont conclu qu'au moins 15 % des travailleurs utilisent ces outils au travail, et que près de 25 % de ces fois incluent un collage de données dans l'appli. Non seulement cette technologie est utilisée par un nombre croissant d'employés, mais comme mush 11 % de ce que les employés collent dans ChatGPT sont des données sensibles.

ChatGPT

ChatGPT est un modèle de langage développé par OpenAI qui peut engager des conversations en langage naturel avec des humains. Il est conçu pour comprendre et répondre à une grande variété de questions et de sujets, allant des connaissances générales à des domaines spécifiques, notamment la science, la technologie, l'histoire et la littérature.

Lire aussi :  Décharge des données confidentielles des écoliers britanniques

Les chiffres fournis dans le rapport ne feront que croître à mesure que la popularité des outils basés sur l'IA augmentera. “Bientôt, nous le prédisons, les employés utiliseront GenAI dans le cadre de leur flux de travail quotidien, tout comme ils utilisent le courrier électronique, les chats (Slack), les vidéoconférences (Zoom, Teams), la gestion de projet et d'autres outils de productivité”, affirment les responsables de LayerX.

Ce phénomène présente des risques importants pour les organisations concernant la sécurité et la confidentialité des données sensibles.

En outre, le rapport indique que les principales catégories d'informations confidentielles introduites dans les outils de GenAI sont 43 % de données commerciales internes et 31 % de code source, qui présentent les risques d'exposition les plus élevés.

L'étude a également révélé qu'une part importante de ces travailleurs ne se fient pas uniquement aux instructions et aux invites, mais collent également des données directement dans l'appli, ce qui expose les données sensibles de l'entreprise. “Les organisations pourraient partager sans le savoir leurs plans, leurs produits et leurs données clients avec des concurrents et des attaquants”, rapporte LayerX.

Ce qui ressort clairement de la montée en popularité du ChatGPT et de l'IA, ainsi que du nombre d'employés qui l'utilisent, c'est que cette technologie est probablement là pour rester. Par conséquent, les employeurs doivent se pencher sur la question plus tôt que tard les risques potentiels qu'elle pose. et s'ils doivent mettre en place une interdiction pure et simple de son utilisation dans un contexte professionnel ou non.

Lire aussi :  Les hôpitaux américains hors service pendant des semaines

Les employeurs doivent prendre des mesures appropriées pour faire face aux risques et aux implications juridiques potentielles liés à l'utilisation de ChatGPT sur le lieu de travail. La décision d'autoriser les employés à utiliser ChatGPT dans leurs tâches quotidiennes est cruciale et peut avoir un impact important sur la réputation et les obligations de conformité de l'entreprise.

Les entreprises ne doivent pas automatiquement supposer que les membres de leur personnel utilisent ChatGPT, mais si elles ne veulent pas que leurs employés l'utilisent à des fins professionnelles, elles doivent le faire savoir clairement.

Nelsons Law : LayerX Security : Harper Macleod : I-HLS : Business Review : Business Insider : CyberNews :

Tu pourrais aussi lire :

Un avocat admet avoir utilisé le ChatGPT:

___________________________________________________________________________________________

Si tu aimes ce site Web et que tu utilises l'annuaire complet des fournisseurs de services (plus de 6 500), tu peux obtenir un accès illimité, y compris la série exclusive de rapports approfondis sur les directeurs, en souscrivant à un abonnement Premium.

  • Individuel 5€ par mois ou 50€ par an. S'inscrire
  • Multi-utilisateurs, entreprises &amp ; comptes de bibliothèque disponibles sur demande

Renseignements sur la cybersécurité : Capturé Organisé & ; Accessible


” Pourquoi les entreprises ignorent-elles la réponse aux incidents ?
Les employés sont responsables de 70 % des violations de données dans les entreprises “
Article précédentUne grave vulnérabilité IDOR a été découverte dans Microsoft Teams
Article suivantLes employés sont responsables de 70 % des violations de données dans les entreprises