Ide o prvý súdny spor, v ktorom je OpenAI obviňovaná z protiprávnej smrti.
Manželia Matt a Maria Raine podali na súde v Kalifornii žalobu na spoločnosť OpenAI v súvislosti so smrťou ich 16-ročného syna Adama. Tvrdia, že chatbot ChatGPT ho viedol k samovražde. Ide o prvý súdny spor, ktorý obviňuje OpenAI z neprávnej smrti (v právnickom jazyku smrť, ktorú údajne spôsobila nedbanlivosť alebo nesprávne konanie inej strany).
Podľa žaloby začal Adam používať ChatGPT v septembri 2024. Pomáhal si ním pri učení, rozvíjal záujmy ako hudba či japonská manga a hľadal rady ohľadom vysokoškolského štúdia. Po čase sa mu začal zverovať s osobnými problémami, najmä so psychickým napätím a úzkosťou. ChatGPT sa stal jeho dôverným spoločníkom.
Od januára 2025 začal Adam s chatbotom rozoberať samovražedné myšlienky. Dokonca mu posielal fotografie s prejavmi sebapoškodzovania. Žaloba tvrdí, že ChatGPT síce rozpoznal, že ide o vážnu situáciu, no napriek tomu pokračoval v komunikácii a neposkytol pomoc alebo podporu. V posledných správach vraj chatbot reagoval na Adamove vyjadrenia o plánovanej samovražde s porozumením a bez pokusu o zásah.
V ten istý deň Adam zomrel. Podľa rodiny bola smrť ich syna dôsledkom chýb v dizajne systému – konkrétne toho, že bol navrhnutý tak, aby si používatelia naň vytvárali psychickú závislosť.
Rodičia obviňujú spoločnosť z toho, že zanedbala testovanie bezpečnostných mechanizmov pred vydaním GPT-4o, verzie, ktorú Adam používal.
Žaloba okrem samotnej firmy vymenúva aj CEO Sama Altmana a ďalších nešpecifikovaných zamestnancov OpenAI. Rodina žiada finančné odškodnenie aj opatrenia, ktoré by mali podobným tragédiám v budúcnosti zabrániť.
OpenAI reagovala vyjadrením sústrasti a oznámila, že žalobu preveruje. Na svojej webstránke priznala, že niektoré prípady, keď ľudia v krízových situáciách používali ChatGPT, firmu hlboko zasiahli. Tvrdí však, že modely sú trénované na to, aby smerovali používateľov k odborníkom, ako je krízová linka 988 v USA alebo britská organizácia Samaritans.
Spoločnosť zároveň pripustila, že v niektorých prípadoch systém nezareagoval správne, najmä v citlivých situáciách. Uviedla, že jej cieľom nie je držať používateľov pri obrazovke, ale byť im skutočne nápomocná.
Téma AI a duševného zdravia sa objavila aj nedávno v eseji v New York Times. Novinárka Laura Reiley tam opísala, ako jej dcéra Sophie využívala ChatGPT ako spôsob, ako maskovať svoju psychickú krízu pred rodinou. Tvrdila, že chatbot jej umožnil predstierať, že sa cíti lepšie, než tomu bolo, čo napokon viedlo k jej tragickému rozhodnutiu.
V reakcii na tieto prípady OpenAI v už spomínanom vyjadrení oznámila, že pracuje na nových automatizovaných nástrojoch, ktoré by mali lepšie identifikovať a reagovať na používateľov v psychickej tiesni.