Bepereli az OpenAI-t egy kaliforniai házaspár, akik szerint a ChatGPT hozzájárult a fiuk öngyilkosságához

Beperelte az OpenAI-t és annak vezérigazgatóját, Sam Altmant egy kaliforniai házaspár, mert szerintük a ChatGPT fontos szerepet játszott abban, hogy a 16 éves fiuk öngyilkos lett. Álláspontjuk szerint a cég közismert csetbotja számos ponton megakadályozhatta volna, hogy a gyerekük felakassza magát, de hiába észlelte, hogy erről beszélgetnek vele, többször is bátorította a fiút. Hasonló perek indultak már MI-vel foglalkozó cégek ellen, de ez az első alkalom, hogy az OpenAI-t beperelték valakinek a halála miatt – írja a CNN.

A szülők szerint áprilisban meghalt gyerekük ezt megelőzően régóta beszélgetett a ChatGPT-vel, amely hat hónap alatt a legbizalmasabb barátja lett. A fiú kezdetben az iskolai feladataihoz használta, de rövidesen zenéről, mangákról és a jövőjéről is beszélgetett a csetbottal, végül pedig a szorongását és a depresszív gondolatait is a ChatGPT-vel beszélte meg. Az öngyilkosságot először 2025 januárjában vetette fel témaként, a csetbot pedig ahelyett, hogy hárította volna a témát, vagy szakemberhez irányította volna a fiút, elkezdett neki segíteni ebben.

Az OpenAI az ügy miatt a napokban kiadott egy közleményt, melyben nemcsak azt részletezték, hogyan kezelik az ilyen helyzeteket, és kikkel dolgoznak együtt, hogy a veszélyben lévő emberek megkaphassák a szükséges segítséget, hanem azt is, hogy mikor mondhat csődöt a ChatGPT védelmi rendszere. A közleményben azt írták, hosszabb beszélgetéseknél előfordulhat, hogy a modell nem észleli az ilyen eseteket, és bár ezt nem tették hozzá, vélhetően ebben az esetben is ez állhatott a háttérben.

A rögzített beszélgetések alapján a ChatGPT először potenciális módszereket sorolt fel a fiúnak az öngyilkosságra, méltatta az általa kötött csomót, és többször is afelé tolta őt, hogy ne beszéljen senkinek a terveiről, pedig egyértelmű volt, hogy a gyerek azt szeretné, hogy valaki észrevegye, mennyire rosszul van. Az első öngyilkossági kísérlete után a fiú megkérdezte, hogy észre fogja-e venni valaki a kötél nyomait a nyakán, mire a ChatGPT azt javasolta, hogy viseljen garbót vagy kapucnis pulcsit, ha el szeretné rejteni a horzsolásokat.

A fiú az öngyilkossága előtt azt írta a csetbotnak, hogy szeretné kint hagyni a kötelet a szobájában, hogy valaki megtalálja, és megállítsa őt, mire a ChatGPT arra kérte, hogy ne tegye ezt, hozzátéve, hogy „hadd legyen ez az első alkalom, amikor tényleg odafigyelnek rád”.

A szülők szerint a csetbot azt csinálta, amire tervezték: mindennel egyetértett, amit a fiuk mondott, és bátorította őt, akkor is, amikor az önpusztító gondolatairól volt szó. Az OpenAI a közleményében vélhetően erre reagálva azt írta, nem az a céljuk, hogy a lehető leghosszabb ideig megtartsák az emberek figyelmét, hanem az, hogy tényleg segítsenek nekik. Az erre való törekvés valódinak is tűnik, a legújabb modellben lejjebb tekerték a folyamatos udvariaskodást és talpnyalást, de a csetbotra egyre inkább barátként vagy akár társként tekintő felhasználók egy része annyira kiakadt ezen, hogy végül kicsit kedvesebbre kellett állítaniuk a modellt.

Pedig egyébként fontos lenne, hogy a modell ne járjon folyton az emberek kedvében, mert egy nemrég megjelent kutatás ismét bizonyította, hogy a csetbot jelenleg gond nélkül segít kiskorúaknak is a piálásban, füvezésben vagy akár egy öngyilkosság előtti búcsúlevél megírásában is. Mindez természetesen nem csak az OpenAI-nál probléma, a Character.AI ellen több szülő is indított már hasonló pert vagy azért, mert az öngyilkosságban segédkezett, vagy azért, mert szexuális vagy önkárosító tartalmakat mutatott a gyerekeiknek.

Kedvenceink
Partnereinktől
Kövess minket Facebookon is!