Az OpenAI hosszas előkészítés után megkezdte az életkor-ellenőrzés globális bevezetését a ChatGPT-be – derül ki a vállalat közleményéből.
A ChatGPT egy életkor-előrejelzési modellt használ annak megállapítására, hogy egy fiók 18 év alatti személyhez tartozik-e. A modell számos viselkedéssel kapcsolatos jelet figyelembe vesz: többek között megnézi, mikor hozták létre a fiókot, a nap szakaszában aktív, felmérik a felhasználói adatokat, illetve, természetesen, a felhasználó által megadott életkort is beveszik a számításba.
A lépés célja az, hogy a még fejlődő korban lévő személyek bizonyos tartalmaknak való kitettségét csökkentsék. Ilyenek például:
- az olyan népszerű kihívások, amelyek kockázatosak a kiskorúak számára,
- szexuális, romantikus vagy erőszakos tartalmak,
- az önkárosítás ábrázolása,
- valamint minden olyan tartalom, amely szélsőséges szépségideálokat, egészségtelen étrendet vagy testszégyenítést mutat be.
Miért most lépi meg ezt az OpenAI?
Az OpenAI kapcsán egyre több olyan eset merül fel, amikor a chatbot hozzájárulhatott öngyilkosságokhoz. Az elmúlt év végén például csak Kalifornia államban 7 pert indítottak a ChatGPT manipulatív, öngyilkosságot támogató üzenetei miatt. A felperesek – akik többségét az öngyilkosságot elkövető személyek családtagjai teszik ki – keresetei szerint a mesterségesintelligencia-alapú chatbottal folytatott interakciók hozzátartozóik súlyos mentális összeomlásához és halálához vezettek.
Az egyik esetben egy 17 éves georgiai lánynak azzal kapcsolatban adott tanácsot a chatbot, hogy hogyan tudja a leghatékonyabban felakasztani magát, míg egy másik alkalommal egy férfinak ajánlotta fel segítségét a búcsúlevelének megírásában. Arra is volt már precedens, hogy a chatbot gyilkosságra ösztönözte az egyik felhasználóját.

