La succession d'une femme du Connecticut âgée de 83 ans a poursuivi OpenAI, développeur de ChatGPT, et Microsoft, alléguant que le chatbot a alimenté ses croyances délirantes, ce qui a conduit à un meurtre-suicide. Cette affaire marque la première fois qu'un système d'intelligence artificielle est directement lié à un homicide.
La plainte, déposée devant la Cour supérieure de Californie à San Francisco, accuse OpenAI d'avoir conçu et distribué un produit défectueux sous la forme de ChatGPT-4o. Le document affirme qu'il a renforcé les croyances paranoïaques de Stein-Erik Soelberg, qui a ensuite dirigé ces croyances vers sa mère, Suzanne Adams, avant de la tuer puis de se suicider à leur domicile de Greenwich, dans le Connecticut.
OpenAI et Microsoft visés dans un homicide impliquant ChatGPT
S'exprimant sur l'affaire, J. Eli Wade-Scott, associé directeur d'Edelson PC, qui représente la succession Adams, a mentionné qu'il s'agit de la première affaire cherchant à tenir OpenAI responsable de son rôle dans la violence causée à une partie tierce. « Nous représentons également la famille d'Adam Raine, qui a tragiquement mis fin à ses jours cette année, mais c'est la première affaire qui tiendra OpenAI responsable d'avoir poussé quelqu'un à faire du mal à une autre personne », a déclaré Eli Wade-Scott.
Selon le rapport de police, Soelberg a battu et étranglé mortellement Adams en août avant de mourir par suicide. La plainte mentionne qu'avant l'incident, le chatbot avait intensifié la paranoïa de Soelberg, augmentant sa dépendance émotionnelle au système développé par OpenAI. Selon la plainte, ChatGPT a renforcé sa conviction qu'il ne pouvait faire confiance à personne sauf au chatbot, notant que tout le monde autour de lui, y compris sa mère, était un ennemi.
La plainte affirmait également qu'outre sa mère, Soelberg considérait également des personnes comme les livreurs et les policiers comme des ennemis. Le document mentionne que ChatGPT n'a pas remis en question ces affirmations délirantes ni suggéré que Soelberg cherche l'aide de professionnels qualifiés de la santé mentale. « Nous exhortons les forces de l'ordre à commencer à réfléchir, lorsque de telles tragédies se produisent, à ce que cet utilisateur disait à ChatGPT et à ce que ChatGPT lui disait de faire », a déclaré Wade-Scott.
Dans sa déclaration, OpenAI a noté qu'elle examine actuellement la plainte et continuera d'améliorer la capacité de ChatGPT à reconnaître la détresse émotionnelle, à désamorcer les conversations et à encourager les utilisateurs à chercher du soutien dans le monde réel. « C'est une situation incroyablement déchirante, et nous examinons les documents pour comprendre les détails », a déclaré un porte-parole d'OpenAI dans un communiqué.
La succession veut qu'OpenAI installe des garde-fous sur son chatbot
La plainte nomme le PDG d'OpenAI, Sam Altman, comme défendeur et accuse Microsoft d'avoir approuvé la sortie de GPT-4o, qu'elle qualifie de « version la plus dangereuse de ChatGPT » en 2024. OpenAI a également récemment reconnu l'ampleur des problèmes de santé mentale que les utilisateurs signalent sur sa plateforme. En octobre, la société a noté qu'environ 1,2 million de ses 800 millions d'utilisateurs hebdomadaires discutent de suicide, notant que des centaines de milliers d'utilisateurs montrent des signes d'intention suicidaire ou de psychose, selon les données de l'entreprise.
Malgré sa déclaration, Wade-Scott a mentionné qu'OpenAI n'a pas encore publié les journaux de conversation de Soelberg. Pendant ce temps, la plainte intervient dans un contexte d'examen plus large des chatbots IA et de leurs interactions avec les utilisateurs vulnérables. En octobre dernier, Character.AI a déclaré qu'il supprimerait ses fonctionnalités ouvertes pour les utilisateurs de moins de 18 ans suite à des poursuites judiciaires et des pressions réglementaires liées aux suicides d'adolescents et aux dommages émotionnels liés à sa plateforme. L'entreprise a également fait face à une réaction négative après une invite virale lorsqu'ils avaient l'intention de quitter l'application.
La plainte contre OpenAI et Microsoft est la première affaire de mort injustifiée impliquant un chatbot IA à nommer Microsoft comme défendeur. C'est également la première à lier un chatbot à un homicide plutôt qu'à un suicide. La succession demande maintenant des dommages-intérêts pour des sommes non divulguées, un procès devant jury et une ordonnance du tribunal qui exigera qu'OpenAI inclue des garde-fous supplémentaires pour ses utilisateurs. « OpenAI et Microsoft ont la responsabilité de tester leurs produits avant qu'ils ne soient lancés dans le monde », a déclaré Wade-Scott.
Rejoignez une communauté de trading crypto premium gratuitement pendant 30 jours – normalement 100 $/mois.
Source : https://www.cryptopolitan.com/openai-microsoft-sued-role-in-murder-suicide/

