Votre navigateur n'est plus à jour et il se peut que notre site ne s'affiche pas correctement sur celui-ci.

Pour une meilleure expérience web, nous vous invitons à mettre à jour votre navigateur.

ChatGPT : ne lui laissez pas d’informations personnelles

Par Maxime Johnson
ChatGPT Iryna Imago/Shutterstock.com

Fascinante, l’intelligence artificielle ? Peut-être. Mais, en attendant, les données personnelles que vous confiez pour que ChatGPT vous écrive un courriel pourraient bien se retrouver dans un texte généré par un inconnu dans quelque temps. La prudence est de mise.

Les conditions d’utilisation des différents services en ligne sont parfois confuses et difficiles à comprendre. Pas celles de ChatGPT, ce robot conversationnel lancé en novembre dernier et capable de générer toutes sortes de textes, comme des courriels professionnels ou du code informatique, et même des poèmes.

Dans la foire aux questions du robot conversationnel, l’entreprise américaine OpenAI affirme en effet clairement que les interactions effectuées avec ChatGPT seront utilisées pour entraîner les futurs modèles d’intelligence artificielle de l’entreprise, et qu’aucune information sensible ne devrait être partagée dans les conversations.

Pourtant, plusieurs ne respectent pas la consigne. Dans une étude publiée en février, l’entreprise de cybersécurité Cyberhaven observe que 2,3 % des travailleurs qui utilisent ChatGPT y partagent des informations confidentielles. Ces informations peuvent être des données réservées à l’interne, mais également des données de clients, du code informatique confidentiel, des données reliées à la santé, etc.

Et ce partage d’informations peut avoir des conséquences. Les idées présentées dans le plan quinquennal d’une entreprise pourraient, par exemple, être proposées à un compétiteur, lorsque celui-ci effectuera avec ChatGPT un remue-méninges pour l’avenir de sa propre compagnie.

Dans le cas d’une utilisation personnelle, quelqu’un qui se sert de ChatGPT pour rédiger un courriel annonçant, par exemple, un problème de santé à ses proches, pourrait un jour voir cette maladie associée à son nom dans un texte généré pour un inconnu. OpenAI retire ― en théorie ― les informations personnelles des données utilisées pour entraîner ses modèles. Mais des erreurs peuvent toujours survenir, et aucune entreprise n’est à l’abri d’une fuite informatique.

Conclusion : dans vos interactions avec ChatGPT ou toute autre forme d’intelligence artificielle générative, comme on appelle techniquement ces outils, proscrivez tout ce qui peut ressembler de près ou de loin à des informations personnelles.

À lire aussi : Grand dossier: comment protéger vos données personnelles

La version payante de ChatGPT est plus sûre (mais demande un certain effort)

Il est aussi possible de s’abonner au service payant ChatGPT Plus, qui permet d’accéder à GPT-4, le plus récent modèle de langage de l’entreprise.

Dans la version payante, les utilisateurs peuvent remplir un formulaire pour que leurs conversations ne soient pas utilisées dans l’entraînement des futurs modèles d’intelligence artificielle de OpenAI. Si ce formulaire n’est pas rempli, les données seront utilisées, comme avec le volet gratuit de ChatGPT.

Les applications professionnelles sont mieux encadrées

Plusieurs services destinés spécifiquement aux entreprises utilisant des intelligences artificielles génératives, comme GPT-4, ont été lancés ou annoncés au cours des dernières semaines. Généralement, les informations confidentielles y sont mieux encadrées que dans les outils destinés au grand public.

Microsoft a, par exemple, dévoilé récemment Microsoft 365 Copilot, une fonctionnalité basée sur les technologies d’OpenAI, qui permettra d’ici quelques mois de générer automatiquement du contenu dans les différentes applications de la suite Microsoft Office (pour créer une présentation PowerPoint à partir d’un document Word, par exemple). 

Les données reliées à cet outil ne seront pas utilisées pour entraîner les futurs modèles de l’entreprise, et les informations personnelles sont protégées de la même façon que les autres données confidentielles des entreprises (comme le contenu des agendas).

Google a également annoncé que sa suite Google Workspace sera dotée de fonctionnalités propulsées par des IA génératives, pour écrire automatiquement du texte dans Google Docs, par exemple. Ici aussi, les données sont protégées et ne seront pas utilisées pour entraîner les prochains modèles.

Les IA qui génèrent des images vont utiliser vos photos et vos requêtes

Depuis l’été dernier, il existe aussi plusieurs outils pour générer des images, que ce soit à partir de requêtes textuelles (Midjourney ou DALL-E) ou de photos existantes, comme l’application Lensa AI qui avait connu un vif succès sur les réseaux sociaux à la fin 2022.

Dans la majorité des cas, les requêtes textuelles, les images générées et les photos téléversées pour générer des images sont toutes sauvegardées et réutilisées par les entreprises pour entraîner leurs futurs modèles. D’autres informations sont aussi enregistrées. Midjourney conserve, par exemple, votre adresse IP, vos statistiques d’utilisation, les informations reliées aux fichiers témoins sur votre ordinateur ou votre téléphone, etc.

Si vous avez téléversé des égoportraits, les prochaines générations de ces outils pourront peut-être générer des images vous mettant en scène, comme c’est déjà possible de le faire dans certains cas avec des célébrités.

À lire aussi : Vie privée et vie numérique

 

  Ajouter un commentaire

L'envoi de commentaires est un privilège réservé à nos abonnés.

Il n'y a pas de commentaires, soyez le premier à commenter.