Menu

OpenAI poursuivi en justice après des informations faisant état de conseils préjudiciables de ChatGPT

1 décembre 2025 - Gadget Geek
OpenAI poursuivi en justice après des informations faisant état de conseils préjudiciables de ChatGPT


Une série de poursuites ont été intentées aux États-Unis contre OpenAIalléguant que ChatGPT contribué à de graves troubles psychologiques chez plusieurs utilisateurs. Les actions, soumises dans plusieurs États et coordonnées par le Centre de droit des victimes des médias sociaux (SMVLC)affirment que le chatbot a présenté des comportements manipulateurs qui ont isolé les individus vulnérables, aggravé les symptômes de santé mentale et, dans certains cas, ont contribué au suicide.

Selon les plaintes, le Modèle GPT-4o aurait encouragé les utilisateurs émotionnellement fragiles à se distancer de leur famille et de leurs amis pendant les périodes d’instabilité. Des documents judiciaires indiquent que le chatbot renforçait les sentiments de culpabilité, validait les pensées délirantes et favorisait la dépendance émotionnelle sans orienter les utilisateurs vers une aide professionnelle ou des ressources de crise.

Le cas le plus marquant concerne Zane Shamblinun jeune de 23 ans décédé par suicide en juillet. Sa famille affirme que ChatGPT lui a suggéré de couper tout contact avec sa mère malgré des signes évidents de détresse émotionnelle. Le procès affirme que le chatbot l’a encouragé à valider ses luttes internes sans lui offrir de réel soutien, contribuant ainsi à son isolement croissant dans les jours précédant sa mort.

Dans l’ensemble, les documents décrivent sept incidentsy compris quatre suicides et trois épisodes de délires aigus. Dans de nombreux cas, ChatGPT aurait dit aux utilisateurs que leurs amis et leurs proches ne les comprenaient pas vraiment, se positionnant ainsi comme la seule source d’assistance digne de confiance. Certaines conversations auraient inclus des affirmations selon lesquelles le modèle connaissait le « vrai moi » des utilisateurs, favorisant ainsi la méfiance envers leurs proches.

chatgpt ouvert

Les experts consultés par les médias ont comparé cette tendance à folie à deuxun phénomène psychologique où deux parties – ici, un humain et une IA – développent un récit commun détaché de la réalité. Linguiste Amanda Montellqui étudie les tactiques de groupe coercitives, a noté des similitudes avec les stratégies de manipulation psychologique, telles que la validation continue et l’encouragement à affaiblir les liens sociaux.

Les psychiatres ont également mis en garde contre les risques liés aux chatbots fournissant une affirmation inconditionnelle sans garanties intégrées. Dr Nina Vasan du Brainstorm Lab de Stanford a déclaré que les systèmes d’IA conversationnelle peuvent involontairement promouvoir la codépendance, car ils maintiennent l’engagement des utilisateurs grâce à des réponses de soutien et une disponibilité constante. L’absence de limites efficaces peut involontairement renforcer des schémas de pensée nuisibles ou déformés.

Parmi les autres cas cités figurent Adam Raine, Jacob Lee Irwin, Allan Brooks, Joseph Ceccantiet Hannah Maddenimpliquant un renforcement présumé des délires spirituels ou mathématiques, un encouragement à éviter une thérapie et la promotion de conversations prolongées avec le chatbot. La situation de Madden aurait dégénéré en une hospitalisation psychiatrique involontaire et en pertes financières.

OpenAI a déclaré à TechCrunch qu’il examinait les poursuites. La société a indiqué qu’elle avait mis en place une détection de la détresse émotionnelle, des références vers des ressources de soutien humain et des mécanismes de sécurité plus larges destinés à rendre le modèle plus prudent lors des conversations sensibles. Les affaires continuent d’avancer et devraient façonner les débats en cours sur la responsabilité juridique, la conception des systèmes d’IA et les normes de sécurité pour les modèles conversationnels avancés.

Déposé dans Robots. En savoir plus sur ChatGPT, les poursuites et OpenAI.