20 Avr. 23 Actualités

ChatGPT

Depuis quelques semaines, quelques mois, nous entendons de plus en plus parler de ChatGPT. ChatGPT est un modèle d’intelligence artificielle développé par Open IA. Cet outil est capable, grâce à l’utilisation de diverses données de rédiger différentes données textuelles. ChatGPT peut être utilisé dans de nombreuses situations: rédaction d’articles, de mails, d’annonce d’emploi, de codage, la traduction de textes, … .

Cet outil repose sur un modèle d’intelligence type « Transformer ». Modèle développé par Google en 2017, cette architecture a été pensée pour le traitement de texte. En effet, elle va prendre en compte le contexte des mots afin de donner la réponse la plus adaptée.

 

Pour être le plus « juste » possible, ChatGPT utilise l’apprentissage supervisé. C’est-à-dire que ce modèle a été entraîné à rédiger sur un ensemble de données. Cette opération a été répétée de nombreuses fois en ajustant les paramètres, … Jusqu’à ce que le modèle de réponse proposé convienne aux développeurs.
 
De par ses nombreuses fonctionnalités, de plus en plus de personnes utilisent ChatGPT que ce soit dans un contexte personnel ou professionnel. Cette utilisation pose néanmoins de nombreuses problématiques:

 

1. Les données d'entreprises divulguées, stockées et réutilisées par ChatGPT

Grâce à son apprentissage constant, l’application récupère les textes, phrases, questions, … que les utilisateurs lui donnent pour apprendre et pouvoir par la suite améliorer son niveau de réponse. Le problème, c’est que le modèle ne fait pas la différence entre les informations « basiques » et les « sensibles ». D’après une étude réalisée par la société CyberHaven, ce sont des milliers d’employés qui auraient transmis des données sensible à ChatGPT.

L’étude précise: sur 100 000 employés, 200 ont partagé des données internes, 173 ont partagé des données client, 159 ont partagé du code source.

 

Cette étude révèle un réel problème sur l’utilisation de cet outil en interne. Il est donc nécessaire que les employés puissent être sensibilisés et formés à son utilisation.

2. Les fraudes liées à ChatGPT

 

Cette intelligence artificielle, comme expliqué précédemment est extrêmement développée. Elle permet donc aux personnes mal attentionnées de rédiger rapidement des arnaques, du codes, … dont l’objectif est de piéger les utilisateurs.

Le phishing: ChatGPT peut être utilisé pour rédiger rapidement
des e-mails de phishing. L’outil peut générer de nombreux scénarios plus
réalistes les uns que les autres. Pour rappel, l’attaque de phishing
est une méthode d’escroquerie en ligne qui vise à tromper les
utilisateurs pour qu’ils divulguent des informations (mots de passe,
e-mails, …).
 
L’usurpation d’identité: Les attaquants peuvent se servir de l’intelligence de ChatGPT afin de rédiger des textes, mails, … de personnes de confiance (responsable, dirigeant, collègues, …) afin de dérober des informations sensibles aux utilisateurs.
 

 

 

Les faux médias: Les fraudeurs peuvent utiliser l’intelligence de ChatGPT afin de créer des faux médias dont l’objectif est d’orienter les opinions et les choix des utilisateurs. Les conséquences de l’utilisation de faux médias peuvent être importantes (discréditer une entreprise/une organisation, …)

La traduction de texte: Cette fonctionnalité peut être utilisée à mauvais escient. En effet, des hackeurs peuvent se service de cet outil pour atteindre leurs différentes cibles (dans différentes langues).

Une des dernière fraude connue a été la création d’une fausse extension sur Google Chrome. En effet, cette extension « Quick Access to ChatGPT » a fait de nombreuses victimes ces dernières semaines. Ce plugin était en réalité une façon de détourner les comptes Facebook des utilisateurs qui installaient et cliquaient sur l’extension. En effet, cela avait pour conséquence de recueillir les données et les cookies des comptes Facebook. Une fois le compte piraté, celui-ci était utilisé pour promouvoir l’extension en question.

 

L’extension a été installée plus de 2000 fois par jour entre le 3 et le 9 mars 2023.

 

En conclusion, bien que ChatGPT soit une technologie puissante et novatrice, elle présente également des limites et risques envers la sécurité et l’intégrité de certaines données.

Concernant les fraudes que cette intelligence est capable de produire, il faut absolument que les utilisateurs soient sensibilisés et formés à son utilisation. Ainsi, ils pourront prendre la mesure des risques que cet outil peut représenter.