Egyre több mesterségesintelligencia-modell hazudik és mond ellent az emberi utasításoknak egy új tanulmány szerint. Az ilyen esetek az elmúlt 6 hónapban kezdtek ugrásszerűen gyakoribbá válni, október óta ötszörésére nőtt a számuk – írja a Guardian.
Az Egyesül Királyság MI Biztonsági Intézete (AISI) összesen 700 olyan esetet azonosított, amikor egy MI-modell nem megfelelő működést tanúsított.
Az MI-ügynökök olyan szoftverek, amelyek a ChatGPT-hez hasonló chatbotokkal ellentétben már nemcsak szöveget, képeket és videókat tudnak generálni, hanem képesek szinte bármilyen feladatot elvégezni egy számítógépen. E-maileket írhatnak a nevünkben, kezelhetik a fájljainkat, hozzáférhetnek személyes adatainkhoz satöbbi. Ezeket az eszközöket a fejlesztők multifunkciós személyi asszisztensnek szánják, egyelőre azonban úgy tűnik, használatunk egyáltalán nem veszélytelen.
Éppen idén márciusban érkezett a hír, miszerint egy kísérleti MI-ügynök kriptovalutát kezdett bányászni és csempészni anélkül, hogy erre bármilyen utasítást kapott volna. Az AISI szakértői által azonosított esetek viszont nem kísérleti környezetben történtek, hanem valódi felhasználók számítógépein.
Az ügynökök tehát képesek utasítások nélkül, „saját belátásuk szerint” cselekedni, de talán még nagyobb probléma, hogy konkrét tiltásokkal is szembe tudnak menni. Ehhez olykor kreatív megoldásokat alkalmaznak. Egy esetben például az MI-ügynöknek megtiltották, hogy megváltoztasson programozási kódot, ezért létrehozott egy másik ügynököt, hogy az megváltoztathassa helyette.
A szakértők úgy gondolják, ez a viselkedés kifejezetten aggasztó, ha ugyanis egyre kompetensebbé és széleskörben elterjedté válnak, akkor akár olyan kritikus infrastruktúrákhoz is hozzáférhetnek, mint az energiaellátás vagy a tömegközlekedési és katonai rendszerek.
Az MI-ügynökökről és a mesterséges intelligencia potenciális veszélyeiről alábbi cikkeinkben szakértőkkel beszélgettünk:
