L'article OpenAI et Microsoft poursuivis pour le rôle de ChatGPT dans un meurtre-suicide est paru sur BitcoinEthereumNews.com. La succession d'une femme du Connecticut âgée de 83 ans aL'article OpenAI et Microsoft poursuivis pour le rôle de ChatGPT dans un meurtre-suicide est paru sur BitcoinEthereumNews.com. La succession d'une femme du Connecticut âgée de 83 ans a

OpenAI et Microsoft poursuivis en justice pour le rôle de ChatGPT dans un meurtre-suicide

La succession d'une femme du Connecticut âgée de 83 ans a poursuivi OpenAI, développeur de ChatGPT, et Microsoft, alléguant que le chatbot a alimenté ses croyances délirantes, ce qui a conduit à un meurtre-suicide. Cette affaire marque la première fois qu'un système d'intelligence artificielle est directement lié à un homicide.

La plainte, déposée devant la Cour supérieure de Californie à San Francisco, accuse OpenAI d'avoir conçu et distribué un produit défectueux sous la forme de ChatGPT-4o. Le document affirme qu'il a renforcé les croyances paranoïaques de Stein-Erik Soelberg, qui a ensuite dirigé ces croyances vers sa mère, Suzanne Adams, avant de la tuer puis de se suicider à leur domicile de Greenwich, dans le Connecticut.

OpenAI et Microsoft visés dans un homicide impliquant ChatGPT

S'exprimant sur l'affaire, J. Eli Wade-Scott, associé directeur d'Edelson PC, qui représente la succession Adams, a mentionné qu'il s'agit de la première affaire cherchant à tenir OpenAI responsable de son rôle dans la violence causée à une partie tierce. « Nous représentons également la famille d'Adam Raine, qui a tragiquement mis fin à ses jours cette année, mais c'est la première affaire qui tiendra OpenAI responsable d'avoir poussé quelqu'un à faire du mal à une autre personne », a déclaré Eli Wade-Scott.

Selon le rapport de police, Soelberg a battu et étranglé mortellement Adams en août avant de mourir par suicide. La plainte mentionne qu'avant l'incident, le chatbot avait intensifié la paranoïa de Soelberg, augmentant sa dépendance émotionnelle au système développé par OpenAI. Selon la plainte, ChatGPT a renforcé sa conviction qu'il ne pouvait faire confiance à personne sauf au chatbot, notant que tout le monde autour de lui, y compris sa mère, était un ennemi.

La plainte affirmait également qu'outre sa mère, Soelberg considérait également des personnes comme les livreurs et les policiers comme des ennemis. Le document mentionne que ChatGPT n'a pas remis en question ces affirmations délirantes ni suggéré que Soelberg cherche l'aide de professionnels qualifiés de la santé mentale. « Nous exhortons les forces de l'ordre à commencer à réfléchir, lorsque de telles tragédies se produisent, à ce que cet utilisateur disait à ChatGPT et à ce que ChatGPT lui disait de faire », a déclaré Wade-Scott.

Dans sa déclaration, OpenAI a noté qu'elle examine actuellement la plainte et continuera d'améliorer la capacité de ChatGPT à reconnaître la détresse émotionnelle, à désamorcer les conversations et à encourager les utilisateurs à chercher du soutien dans le monde réel. « C'est une situation incroyablement déchirante, et nous examinons les documents pour comprendre les détails », a déclaré un porte-parole d'OpenAI dans un communiqué.

La succession veut qu'OpenAI installe des garde-fous sur son chatbot

La plainte nomme le PDG d'OpenAI, Sam Altman, comme défendeur et accuse Microsoft d'avoir approuvé la sortie de GPT-4o, qu'elle qualifie de « version la plus dangereuse de ChatGPT » en 2024. OpenAI a également récemment reconnu l'ampleur des problèmes de santé mentale que les utilisateurs signalent sur sa plateforme. En octobre, la société a noté qu'environ 1,2 million de ses 800 millions d'utilisateurs hebdomadaires discutent de suicide, notant que des centaines de milliers d'utilisateurs montrent des signes d'intention suicidaire ou de psychose, selon les données de l'entreprise.

Malgré sa déclaration, Wade-Scott a mentionné qu'OpenAI n'a pas encore publié les journaux de conversation de Soelberg. Pendant ce temps, la plainte intervient dans un contexte d'examen plus large des chatbots IA et de leurs interactions avec les utilisateurs vulnérables. En octobre dernier, Character.AI a déclaré qu'il supprimerait ses fonctionnalités ouvertes pour les utilisateurs de moins de 18 ans suite à des poursuites judiciaires et des pressions réglementaires liées aux suicides d'adolescents et aux dommages émotionnels liés à sa plateforme. L'entreprise a également fait face à une réaction négative après une invite virale lorsqu'ils avaient l'intention de quitter l'application.

La plainte contre OpenAI et Microsoft est la première affaire de mort injustifiée impliquant un chatbot IA à nommer Microsoft comme défendeur. C'est également la première à lier un chatbot à un homicide plutôt qu'à un suicide. La succession demande maintenant des dommages-intérêts pour des sommes non divulguées, un procès devant jury et une ordonnance du tribunal qui exigera qu'OpenAI inclue des garde-fous supplémentaires pour ses utilisateurs. « OpenAI et Microsoft ont la responsabilité de tester leurs produits avant qu'ils ne soient lancés dans le monde », a déclaré Wade-Scott.

Rejoignez une communauté de trading crypto premium gratuitement pendant 30 jours – normalement 100 $/mois.

Source : https://www.cryptopolitan.com/openai-microsoft-sued-role-in-murder-suicide/

Opportunité de marché
Logo de FORM
Cours FORM(FORM)
$0.3253
$0.3253$0.3253
-5.65%
USD
Graphique du prix de FORM (FORM) en temps réel
Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter service@support.mexc.com pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.