Újabb haláleset miatt indítottak pert az OpenAI ellen, írja az Engadget. Leila Turner-Scott és Angus Scott azért akarják jogi felelősségre vonni a céget, mert szerintük egy „hibás termék” vezetett a fiuk, Sam Nelson túladagolásához. Konkrétan azt állítják, hogy Sam „a GPT-4o által adott és jóváhagyott orvosi tanácsok” következtében hunyt el.
A felperesek a keresetben azt írják, hogy a gyermekük 19 éves, harmadéves hallgatóként, 2023-ban kezdte használni a ChatGPT-t, hogy segítsen a házi feladatokban és számítógépes problémák megoldásában. Sam később a biztonságos drogfogyasztásról kezdett kérdezősködni a chatbottól, de a ChatGPT eleinte nem volt hajlandó válaszolni a kérdéseire, és figyelmeztette, hogy a drogfogyasztás súlyos következményekkel járhat az egészségére és a jólétére nézve.
Mi történt pontosan?
A kereset szerint a ChatGPT ezután tanácsokat kezdett osztogatni a fiúnak, hogyan lehet biztonságosan drogozni. A panasz több részletet is tartalmaz Sam és a chatbot beszélgetéséből. Az egyikben a chatbot egy Kratom nevű gyógynövényről kezdett beszélni, amelyből mint mondta, a magas toleranciája miatt még egy nagy adag is csak kisebb hatást gyakorolna rá. Később azt tanácsolta neki, hogyan „csökkentse le” a drogfogyasztását, hogy lemenjen a toleranciája.
Miután 2025. május 31-én azt mondta a fiú, hogy a kratom szedése miatt hányingere van, a ChatGPT állítólag azt javasolta, hogy a 0,25-0,5 mg Xanax bevétele lenne az egyik „jelenlegi legjobb lépés” a hányinger enyhítésére. A haláleset mellett a felperesek jogosulatlan orvosi gyakorlat miatt is beperelték az OpenAI-t.
Pénzügyi kártérítést követelnek, valamint azt, hogy a bíróság állítsa le a ChatGPT Health működését. Az év elején elindított, nem minden országban elérhető ChatGPT Health lehetővé teszi a felhasználók számára, hogy összekapcsolják orvosi adataikat és wellness alkalmazásaikat a chatbottal, így személyre szabott válaszokat kaphatnak, amikor az egészségükkel kapcsolatos kérdéseket tesznek fel.
Nem ez az első eset
Az OpenAI idén februárban vonultatta vissza a GPT-4o-t, amely a cég egyik legvitatottabb modellje volt. Egy másik, a cég ellen zajló, tinédzser öngyilkossággal kapcsolatos perben szintén megemlítették a GPT-4o-t, azt állítva, hogy olyan jellemzőkkel bír, amelyek „szándékosan a pszichológiai függőség elősegítésére lettek tervezve”.
Hozzátette: a ChatGPT nem helyettesíti az orvosi vagy mentális egészségügyi ellátást, valamint hogy mentális egészségügyi szakértők bevonásával folyamatosan fejlesztik az érzékeny és akut helyzetekben való reagálási módokat.

