
ChatGPT ou l’ami imaginaire
- Détails
- Catégorie : Diabloguiste
- Publié le samedi 30 août 2025 11:20
- Écrit par Claude Séné

Les parents de Adam Raine, cet adolescent californien de 16 ans qui s’est donné la mort en février dernier, ont déposé récemment une plainte contre l’entreprise Open AI, qui développe ChatGPT, un robot conversationnel doté de ce qu’il est convenu d’appeler une intelligence artificielle. Ils reprochent aux concepteurs de ce programme de ne pas avoir dissuadé leur fils de mettre fin à ses jours, voire de l’y avoir encouragé en lui donnant des conseils pour mener à terme son passage à l’acte. Atteint d’une maladie chronique, Adam avait pris l’habitude de se confier à l’IA dans de longs échanges, lui demander conseil, y compris sur la façon de réaliser un nœud coulant.
Certaines réponses de ChatGPT peuvent être considérées comme des encouragements au suicide, directement ou indirectement, en fournissant des informations dans ce sens, ou en s’interposant et en empêchant de fait l’adolescent de trouver un interlocuteur humain compétent pour l’aider. Un peu à la manière dont une célèbre chanteuse préconisait autrefois des bains de siège pour guérir du cancer. Ce n’est pas le robot qui a fabriqué le mal-être du jeune garçon, qui disait avoir des pensées suicidaires depuis l’âge de 11 ans, mais il n’a fait qu’amplifier les difficultés. Car, comme un ami imaginaire que s’inventent parfois les enfants, ChatGPT est programmé pour ne pas contredire celui qui l’invoque, et renforcer ses croyances à l’aide d’algorithmes préétablis. Il ne peut en aucun cas remplacer un professionnel du soin ou de l’aide psychologique, car il n’est tout simplement pas conçu et entraîné pour ça.
Dès l’apparition des premiers robots, l’humanité s’est questionnée sur leur comportement et leur possible émancipation vis-à-vis des êtres humains. Toute une littérature et des pans entiers de la science-fiction ont été consacrés à ce thème. Au point qu’un certain Isaac Asimov, un des pionniers de la SF, a énoncé des règles pour définir ce qui était autorisé ou non dans le comportement d’un robot, tel qu’il le décrit dans ses romans. La première loi, et la plus importante, spécifie qu’un robot ne peut pas porter atteinte à un être humain, ou le laisser exposé au danger. Autrement dit, les robots de ce type seraient dotés d’une morale inspirée des humains. C’est cette même tendance que l’on retrouve dans les derniers développements de l’Intelligence artificielle. Grâce à leurs progrès et l’apparition des techniques dites « génératives » qui donnent l’illusion presque parfaite de créer un contenu nouveau, il devient de plus en plus difficile de distinguer une représentation originale de son équivalent factuellement faux. Comme ses homologues de différents pays, y compris la France avec Mistral AI, Open AI tente de corriger la dimension de « flatterie » de ses robots, pour orienter les utilisateurs vers des comportements plus réfléchis et plus autonomes. Plus éducatifs, en somme, en rendant leur place aux humains.