Tech

Fegyvert csináltak a ChatGPT-ből

Nature / Getty Images
Nature / Getty Images

A Microsoft és az OpenAI felfedte, hogy az államilag támogatott kiberbűnözők nagy nyelvi modelleket (LLM) használnak, például a ChatGPT-t, hogy javítsák a hackelési készségeiket. A kutatás szerint a nagyrészt orosz, észak-koreai, iráni és kínai hackerek a célpontok felkutatására, szkriptjeik javítására és társadalmi tervezési taktikák kidolgozására használja az amerikai cég fejlesztéseit, írja az Interesting Engineering.

Az OpenAI azt állítja, hogy a Microsofttal együttműködve sikerült megzavarniuk öt, államhoz köthető hackercsoportot. Ilyen például a Charcoal Typhoon és Salmon Typhoon, az Iránhoz köthető Crimson Sandstorm, az észak-koreai Emerald Sleet, valamint az orosz Forest Blizzard. A fenyegető szereplőkhöz kapcsolódó összes azonosított OpenAI-fiókot megszüntette a két vállalat.

Az orosz csoport tevékenysége kiemelkedően aggasztónak bizonyult, ugyanis a Forest Blizzard az ukrán hadsereg műholdas kommunikációs protokolljait, a radarképalkotási technológiáit és műszaki paramétereik megértéséhez használta az OpenAI nagy nyelvi modelljét.

Ugyanakkor a többi szervezetnek is komoly tervei vannak: a kínai Salmon Typhoon kormányzati és amerikai védelmi vállalkozókat célzott meg a program segítségével, az észak-koreai, illetve iráni csoportok pedig adathalász üzeneteket gyártottak a program által.

A Microsoft és az OpenAI azt állítják, hogy még nem észleltek jelentős méretű, LLM-et használó támadásokat, azonban a biztonság kedvéért leállítottak minden fiókot és eszközt, amelyek ezekhez a csoportokhoz kapcsolódnak. Ugyanakkor az eset rávilágít, hogy jobb kiberbiztonsági megoldásokra van szükség, ezért a Microsoft új mesterséges intelligencia asszisztenst fejleszt, ami segíthet a kiberbiztonsági szakembereknek azonosítani a visszaéléseket.

Ajánlott videó

Olvasói sztorik