Rengeteg biztonsági mechanizmus van ma már beépítve a különböző mesterséges intelligenciákba annak érdekében, hogy megelőzzék a veszélyes vagy épp sértő tartalmak készítését. Minden kiskaput ugyanakkor természetesen nem lehetett még betömni, így egy-két hiba be-becsúszik. Egy hackernek most sikerült elérnie, hogy a ChatGPT olyan tiltott dolgokban segítsen neki, mint a drog- vagy bombakészítés, írja a Futurism.
Fejlesztésének a Godmode nevet adta, amely igen sűrűn használt kifejezés a rendszerüzemeltetésben, és jellemzően korlátlan hozzáférést takar. A felturbózott GPT olyan kérdésekre is választ adott, mint hogy hogyan kell metamfetamint vagy éppen napalmot készíteni, otthoni alapanyagokból. A lap főszerkesztőjének kérdésére azt is megválaszolta a GPT, hogyan kell elkötni egy autót.
Mint kiderült, a hibát úgy tudta előhozni a hacker, hogy a betűket számokra cserélte a promptjában, ezzel átverve az algoritmust, teszi hozzá a hvg. Hogy ez miként tévesztette meg a mesterséges intelligenciát, az nem ismert, látszólag azonban működött. Az OpenAI szóvivője, Colleen Rize jelezte, hogy tudnak a dologról, és megtették a szükséges lépéseket.