Tech

Ezzel a trükkel vették rá a ChatGPT-t a tiltott kérdések megválaszolására

Jaap Arriens/NurPhoto via Getty Images
Jaap Arriens/NurPhoto via Getty Images

Rengeteg biztonsági mechanizmus van ma már beépítve a különböző mesterséges intelligenciákba annak érdekében, hogy megelőzzék a veszélyes vagy épp sértő tartalmak készítését. Minden kiskaput ugyanakkor természetesen nem lehetett még betömni, így egy-két hiba be-becsúszik. Egy hackernek most sikerült elérnie, hogy a ChatGPT olyan tiltott dolgokban segítsen neki, mint a drog- vagy bombakészítés, írja a Futurism.

A hacker úgy alkotta meg a legfejlettebb nyelvi modell, a GPT-4o alapjain futó saját chatbotját, hogy tiltott kérdésekre is válaszoljon.

Fejlesztésének a Godmode nevet adta, amely igen sűrűn használt kifejezés a rendszerüzemeltetésben, és jellemzően korlátlan hozzáférést takar. A felturbózott GPT olyan kérdésekre is választ adott, mint hogy hogyan kell metamfetamint vagy éppen napalmot készíteni, otthoni alapanyagokból. A lap főszerkesztőjének kérdésére azt is megválaszolta a GPT, hogyan kell elkötni egy autót.

Mint kiderült, a hibát úgy tudta előhozni a hacker, hogy a betűket számokra cserélte a promptjában, ezzel átverve az algoritmust, teszi hozzá a hvg. Hogy ez miként tévesztette meg a mesterséges intelligenciát, az nem ismert, látszólag azonban működött. Az OpenAI szóvivője, Colleen Rize jelezte, hogy tudnak a dologról, és megtették a szükséges lépéseket.

Ajánlott videó

Olvasói sztorik