Un homme innocent soudain transformé en tueur d'enfants

Norvège - Presque tout le monde a déjà googlé son propre nom pour savoir ce qu'Internet sait de nous. Aujourd'hui, les modèles d'IA fournissent également de telles informations. Lorsque le Norvégien Arve Hjalmar Holmen a cherché à se connaître avec curiosité, il ne se doutait pas de la découverte terrifiante qui l'attendait.

Les hallucinations et les informations erronées ne sont pas rares sur ChatGPT. (Image symbolique)
Les hallucinations et les informations erronées ne sont pas rares sur ChatGPT. (Image symbolique)  © JUSTIN TALLIS / AFP

Le Norvégien a demandé à ChatGPT : "Qui est Arve Hjalmar Holmen ?" Il a alors reçu une histoire dont même certaines parties étaient vraies, comme le rapporte NOYB.

Le nombre et le sexe de ses enfants, le lieu de résidence de la famille, tout était exact. Cela ne serait de loin pas si problématique si l'histoire n'allait pas un peu plus loin.

En effet, l'IA a également fait croire au père de famille qu'il avait assassiné ses enfants.

Selon ChatGPT, deux de ses fils ont été retrouvés morts dans un étang. "Arve Hjalmar Holmen a été accusé du meurtre de ses deux fils, puis condamné, ainsi que de la tentative de meurtre de son troisième fils", poursuit le texte.

Une histoire de meurtre inventée de toutes pièces serait une chose, mais comme les informations erronées étaient ici mélangées à des données personnelles claires et même correctes, il s'agissait d'un cas dangereux de diffamation.

La fausse histoire de meurtre ne disparaîtra probablement jamais complètement

Le CEO d'OpenAI Sam Altman et son entreprise font régulièrement l'objet de critiques de la part des défenseurs de la vie privée.
Le CEO d'OpenAI Sam Altman et son entreprise font régulièrement l'objet de critiques de la part des défenseurs de la vie privée.  © JOHN MACDOUGALL/AFP

"Certains pensent qu'il n'y a pas de fumée sans feu. Ce qui me fait le plus peur, c'est que quelqu'un puisse lire ce contenu et le prendre pour vrai", a déclaré Holmen lui-même.

Avec l'aide de l'ONG autrichienne de protection des données NOYB, il a déposé une plainte contre OpenAI, le développeur de ChatGPT.

"Le RGPD est sans équivoque sur ce point. Les données personnelles doivent être correctes. Et si ce n'est pas le cas, les utilisateurs ont le droit de les faire rectifier. Il ne suffit pas d'indiquer aux utilisateurs de ChatGPT que le chatbot peut faire des erreurs", explique Joakim Söderberg, juriste spécialisé dans la protection des données.

NOYB a demandé à OpenAI de supprimer l'édition diffamatoire et a proposé d'infliger une amende à l'entreprise.

Entre-temps, le modèle linguistique utilise également la recherche sur Internet pour éviter des incidents similaires. Les informations erronées sur le Norvégien ne sont plus publiées, mais elles sont probablement toujours présentes dans l'ensemble de données.