Secrets, santé, sous : ce que ChatGPT n’a pas besoin de savoir

by La Rédaction

Les intelligences artificielles conversationnelles comme ChatGPT sont devenues, pour beaucoup, des compagnons numériques du quotidien. Disponibles à toute heure, réactifs, souvent bluffants… et toujours prêts à écouter. Mais cette oreille numérique n’est pas aussi neutre qu’il n’y paraît. Selon plusieurs experts, y compris ceux cités par le Wall Street Journal, certaines informations ne devraient jamais être partagées avec ces assistants virtuels, aussi séduisants soient-ils.

Premier point d’alerte : les informations personnelles d’identité. Cela paraît évident, et pourtant, beaucoup partagent encore leur nom complet, leur adresse postale, voire leur numéro de téléphone ou de sécurité sociale avec le chatbot. Si OpenAI affirme que son système filtre les données sensibles, un précédent en mars 2023 a rappelé la fragilité du dispositif. À l’époque, un bug avait permis à certains utilisateurs de voir les conversations d’autres personnes, illustrant le potentiel de fuite. L’incident a depuis été corrigé, mais il a laissé des traces.

   

Deuxième zone à risque : les résultats médicaux. Si demander un conseil santé peut sembler anodin, partager des analyses ou un diagnostic précis expose à des dérives bien réelles. Les IA n’ont aucune obligation légale en matière de confidentialité médicale. Une donnée de santé mal stockée ou exploitée pourrait demain être utilisée pour du ciblage commercial… ou par un assureur scrupuleux.

Les informations financières sont également à bannir. Numéro de compte, identifiants bancaires, relevés… autant de données précieuses qu’un chatbot ne protège pas aussi solidement qu’un coffre-fort. Là encore, le risque n’est pas tant dans une volonté malveillante que dans une faille involontaire, avec des conséquences potentiellement dramatiques.

Dans un cadre professionnel, la tentation d’utiliser ChatGPT pour gagner du temps est forte : rédaction d’e-mails, brainstorming, analyse de documents… Mais partager des données confidentielles d’entreprise peut se retourner contre vous. OpenAI précise que certaines interactions peuvent être utilisées pour entraîner les modèles. Résultat : un secret industriel confié par mégarde pourrait, un jour, être restitué à un utilisateur anonyme à l’autre bout du monde.

Enfin, élément souvent négligé : les mots de passe et identifiants. Là encore, la recommandation est claire : utilisez un gestionnaire de mots de passe sécurisé. Les chatbots ne sont pas faits pour stocker des clés d’accès, et aucune IA ne devrait en devenir le gardien.

En somme, ChatGPT est un outil impressionnant, mais il n’a rien d’un confident personnel. Comme le rappelle la chercheuse Jennifer King, de l’Institut de Stanford, « les chatbots sont conçus pour continuer la conversation, mais c’est à vous de savoir où mettre la limite ». Une frontière que chacun doit désormais apprendre à tracer, avec un minimum de bon sens… et une bonne dose de prudence.

   

Vous aimerez aussi