Nagyvilág

„Kockázatot jelent az emberiségre” – a mesterséges intelligenciák megállítására szólítottak fel szakértők, köztük Elon Musk

Joan Cros / Nur Photo / Getty Images
Joan Cros / Nur Photo / Getty Images
Az elmúlt hónapokban a mesterséges intelligenciával foglalkozó laboratóriumok egy kontroll nélküli versenyfutásba kezdtek azért, hogy egyre hatalmasabb digitális elméket fejlesszenek és telepítsenek, amiket senki, még az alkotóik sem tudnak megérteni, irányítani – olvasható abban a levélben, amelyet ezer, a területtel foglalkozó szakértő írt alá, aki az új modellek és képességek fejlesztésének felfüggesztését kérik. Az aláírók között van Elon Musk, Steve Wozniak Apple-társalapító, a Pinterest, a Skype alapítói és vezetői, illetve a Princeton, a Berkeley egyetemek kutatói is. Kormányzati beavatkozást, szabályozást követelnek, egyelőre nem sok sikerrel.

Az emberiséget veszélyeztetik a „mesterséges intelligencia kísérletek”, szüneteltetni kell azokat, állítja több mint ezer szakértő, akik szerint legalább fél évre le kéne állítani ezek fejlesztését. Kutatók, szakértők – köztük a Twitter-, Tesla-, és SpaceX-tulajdonos Elon Musk, illetve az Apple társalapítója, Steve Wozniak – nyílt levelükben kifejtik, hogy ha ezt nem teszik meg maguk a fejlesztők, akkor a kormányoknak kell közbelépni.

Hozzáteszik, hogy a mesterséges intelligenciának (MI) jelentős haszna lehet a jövőben, de ha így folytatódik az új modellek programozása, akkor az emberi intelligenciával versengő MI-rendszerek komoly kockázatot jelenthetnek a társadalomra és az emberiségre. A nyílt levelet egy nonprofit szervezet, a Future of Life adta ki.

Az elmúlt hónapokban a MI-laboratóriumok egy kontroll nélküli versenyfutásba kezdtek azért, hogy egyre hatalmasabb digitális elméket fejlesszenek és telepítsenek, amiket senki, még az alkotóik sem tudnak megérteni, előrejelezni, megbízhatóan irányítani – olvasható a levélben, amely arra is figyelmeztet, hogy az MI-k hamis információkkal áraszthatják el az információs csatornákat és automatizmusokkal helyettesíthetnek munkákat.

Win McNamee / Getty Images Elon Musk

További problémát jelent, hogy egyes hírek szerint az elmúlt időszakban több nagy techcég, így a Twitter, a Google, a Meta (a Facebook anyavállalata), az Amazon és a Microsoft is részben vagy egészében elbocsátotta az etikus mesterséges intelligenciával foglalkozó csapatát. A levél szerint a MI-laboratóriumoknak, a szakértőknek és minden kulcsfontosságú szereplőnek azon kellene dolgoznia, hogy új elveket dolgozzanak ki a mesterséges intelligencia alapú rendszerek tervezéséhez, vagyis, hogy minden elemük „minden kétséget kizáróan biztonságos” legyen.

A követelés nem az MI-k általános leállítását jelentené, csak az új modellek és képességek fejlesztését. A levél aláírói szerint a döntéshozóknak záros határidőn belül – ők fél évet említettek – létre kellene hozniuk a mesterséges intelligenciát felügyelő és szabályozó szervezeteket, hivatalokat, amelyek nyomon tudnák követni ezen eszközök fejlődését, és biztosítanák, hogy a folyamatnak ne legyen veszélyes végkimenetele.

Mesterséges intelligencia hajt olyan chatbotokat, mint a ChatGPT, a Microsoft Bing és a februárban bemutatott Google Bard. Az emberihez a megtévesztésig hasonló beszélgetéseket képesek folytatni, végtelen sokféle témában tudnak írni, valamint összetettebb feladatokat is végre tudnak hajtani, akár számítógépes kódot is írhatnak.

Jelenleg a legfejlettebb, nyilvánosan is elérhető mesterséges intelligencia-rendszer az OpenAI által fejlesztett GPT-4, amely a hónap elején jelent meg. A levél szerint minden ennél erősebb rendszeren szüneteltetni kellene a munkát a következő hat hónapban, vagy addig, míg meg nem lehet arról bizonyosodni, hogy hatásai pozitívak, kockázatai pedig kezelhetők lesznek.

Mik is ezek?

Ezek a chatbotok úgynevezett nagy nyelvi modellek, hatalmas mennyiségű digitális szövegből tanultak, beleértve a könyveket, a Wikipédia-cikkeket, a csevegési naplókat és az internetről származó egyéb információkat – helyeseket és helyteleneket egyaránt. Korábban a fejlesztők határozták meg, hogyan kell egy szoftvernek viselkednie, ezek a modellek a szövegekben több milliárd mintát határoznak meg, amelyek alapján képességeket, viselkedésmintákat sajátítanak el, képesek önállóan szöveget generálni, így a közösségi médiába posztokat, dolgozatokat vagy akár számítógépes programokat is tudnak írni vagy akár beszélgetni.

 

Az idő haladtával ezeknek a modelleknek egyre több szöveg áll rendelkezésükre, ami javítja képességeiket, de továbbra is hibáznak: félreérthetnek tényeket, téves információkat generálhatnak. Ezt nevezik a kutatók „hallucinációnak”, ezeket pedig sokszor nehezen, vagy egyáltalán nem veszik észre a felhasználóik.

 

Másrészt a szakértők attól tartanak, hogy ezekkel a rendszerekkel a korábbiaknál könnyebb lesz hamis információkat, álhíreket terjeszteni, vagy akár átveréseket kieszközölni (részben azért, mert a megtévesztésig életszerűen kommunikálnak, még a szakértőket is megtéveszthetik).

 

A GPT-4 megjelenése előtt az OpenAI a rendszer veszélyeinek feltárására külső kutatókat kért fel, akik arra jutottak, hogy a chatbot akár illegális fegyverek vásárlására ösztönözheti a felhasználókat, elmagyarázhatja, hogy miként lehet háztartási cikkekből veszélyes anyagokat előállítani, de akár olyan Facebook-bejegyzést is írhat, amelyben nőket győzköd arról, mennyire nem biztonságos az abortusz. Képes a munkaerő-közvetítéssel foglalkozó TaskRabbiton embert bérelni és átverni a Captcha-teszteket, amiket éppen a robotok kiszűrésére alkalmaznak a weboldalak.

 

Ezeket az OpenAI a GPT-4 megjelenése előtt javította, de sok szakértő és tudós attól tart, hogy nagyon komoly károkat okozhatnak a jövőben az MI-k – akárcsak azzal, hogy az emberek ezekhez a rendszerekhez fordulnak orvosi és érzelmi tanácsokért –, de akadnak olyanok is, akik szerint a vége az lesz, hogy elpusztítják az emberiséget.

A nyílt levélben odáig mennek, hogy felteszik a kérdést,

ki kell-e olyan nem emberi elméket fejlesztenünk, amelyek idővel túlléphetnek rajtunk, elavulttá, helyettesíthetővé tesznek minket?

A Goldman Sachs befektetési bank épp a napokban közölte, számításaik szerit az MI-k – amellett, hogy a világ GDP-jét 7 százalékkal növelhetik – a munkák negyedét el tudják majd látni, ezzel nagyjából 300 millió állást vehetnek át. Igaz, más szakértők arra hívják fel a figyelmet, hogy ennek az előrejelzése nagyon összetett és nehéz.

Chen Jimin / China News Service / Getty Images Automatikusan irányított járművek szállítják a konténereket a Nansha kikötő új, teljesen automatizált konténerterminálján 2022. július 28-án, Guangzhouban, Kína Guangdong tartományában.

Az aláírók között – a Future of Life külső szakértőjeként is tevékenykedő – Muskon, illetve Wozniakon kívül a Pinterest, a Skype alapítói és vezetői is ott vannak, ahogy a terület olyan szakértői is, akik a világ vezető egyetemeiről, a Princetonról vagy a Berkeley-ről kerülnek ki. Feltűnik a listán pár olyan személy is, akik a Deepmindnál, a Google anyacégének tulajdonában levő MI-cégnél dolgoznak (zárójelben azért megjegyezzük, aláírásuk annak fényében más megvilágítást nyer, hogy az OpenAI konkurensei).

A Tesla – amely önvezető járműveinél szintén használ MI-t – tulajdonosa, Musk egyébként az OpenAI alapítói közé is tartozik, 2017 végén beszállt a finanszírozásába, pár éve azonban kiszállt, mostanában pedig egyre többször kritizálta a munkájukat, hogy a profit maximalizálása érdekében etikátlan, kontrollálatlan fejlesztéseket végeznek.

Más szakértők is arra figyelmeztetnek a nyílt levél aláíróival egyetemben, hogy a törvényhozók talán nem fogták fel, milyen mértékű kihívással is néznek szembe, és hogy milyen sürgető ennek a gyorsan fejlődő technológiának a megértése és ellenőrzése.

Nem szabad megkockáztatnunk egy atomrobbantást anélkül, hogy tudjuk, hogyan tarthatjuk kordában

nyilatkozta a Politicónak Connor Axiotes, a szabadpiaci agytröszt, az Adam Smith Intézet kutatója. De még az OpenAI is felvetett egy nemrégiben közölt blogbejegyzésében félelmet keltő kockázatokat. „Egy félrevezetett mesterséges általános szuperintelligencia súlyos károkat okozhat a világban, egy autokratikus rezsim egy mérvadó szuperintelligencia irányításával szintén megteheti ezt.”

Az OpenAI vezérigazgatója, Sam Altman úgy fogalmazott egy márciusi interjúban, hogy szoftverük jelentős veszélyt jelenthet a társadalomra, ha rossz célokra használják. Megemlítette, hogy dezinformációra, kártékony programkódok megírására használhatják a GPT4-et. Arról is beszélt, hogy szükség van szabályozó hatóságokra és a társadalommal való diskurzusra, ugyanakkor kijelentette, ő jobban aggódik a technológiát irányító emberek miatt, mint magáért a technológiáért. A BBC rákérdezett, de egyelőre nem kapott az OpenAI-tól választ arra, támogatják-e a nyílt levél törekvéseit, Altman mindenesetre nincs az aláírók között.

A nyílt levél megjelenése napján a brit kormány új tárcájának, a Tudományos, Innovációs és Technológiai Minisztériumnak a vezetője, Michelle Donelan bemutatta tervét, hogyan szabályoznák a mesterséges intelligenciákat. A nyílt levél megfogalmazóival – vagy éppen az EU-val – szemben jóval kevésbé keménykezű javaslata szerint a hatóságoknak egy évük lenne, hogy az ágazat szereplőinek „gyakorlati útmutatást” adjanak a gépi tanulás fejlesztéséhez. Mindehhez új jogszabály elfogadását, vagy szabályozó testület felállítását nem tervezi. Donelan innovációbarát célja az, hogy Nagy-Britannia legyen „a világon a legjobb hely a MI-technológia megépítésére, tesztelésére és használatára”.

Természetesen olyanok is vannak, akik szerint a brit kormány hozzáállása a megfelelő, és felhívják a figyelmet arra, hogy a kormány már az új minisztérium felállítása előtt is két tárcaközi irodával foglalkozott az üggyel. Greg Clark, a brit parlament tudományos és technológiai bizottságának konzervatív elnöke – az üzleti ügyek korábbi minisztere – kijelentette: „Veszélyes az is, ha olyan kiterjedt szabályozások hirtelen elfogadása felé rohanunk, amelyeket nem gondoltak át megfelelően, és amelyeken nem végeztek stresszteszteket, és ami később terhesnek bizonyulhat, és akadályozhatja az MI kedvező alkalmazását”.

Gary Marcus, a New York-i Egyetem MI-vel foglalkozó professzora – ő szintén aláírta a felhívást – úgy véli, a levél fordulópontot jelent.

Szerintem ez egy nagyon fontos pillanat a MI történelmében, és talán az emberiségében is.

idézi a New York Times. Ugyanakkor szerinte nehéz rávenni egy ilyen moratóriumra a szélesebb értelembe vett technológiai közösséget, ahogy a kormányok gyors fellépésére is csekély az eshetőség. Nem csak a brit példa mutatja ezt, hanem az is, hogy az Egyesült Államokban mostanáig szinte semmilyen lépés nem történt ebben a témába.

A szakértők hat hónapot jelöltek meg arra, hogy a törvényhozók a mesterséges intelligenciát felügyelő testület(eke)t hozzanak létre, és ezzel valamilyen szinten foglalkoznak is, az EU például várhatóan még az idén új jogszabályt alkot a témában. Eszerint a vállalatoknak kockázatelemzést kell végezniük annak meghatározására, hogy a MI-t használó alkalmazásaik milyen hatással lehetnek az egészségre, a biztonságra és az egyéni jogokra. Olaszországban az adatvédelmi hatóság pedig odáig ment, hogy egy időre be is tiltották a ChatGPT. Hasonló lépés a több országban – így Franciaországban, Németországban, Írországban – is elképzelhető.

CFOTO / Future Publishing / Getty Images Egy mesterséges intelligencia által irányított teaszedő robot szedi a West Lake Longjing tea bimbóit egy teaültetvényen Hangzhouban, Zhejiang tartományban, Kínában, 2023 március 28-án.

A közvélemény mindenesetre nem helyez a törvényalkotókra komoly nyomást. A Public First több felmérést is végzett a brit felnőtt lakosság körében, és arra jutottak, hogy a MI nincs a prioritások között, amikor az aggodalmakról van szó. Meglehetősen pozitívan állnak tehát a mesterséges intelligenciához az emberek, kivéve, ha az ezzel összefüggő munkanélküliségről van szó.

Kormányzati szabályozókra ettől függetlenül szükség van, már csak azért is, véli James Frayne, a Public First egyik alapítója, mert egyszer eljöhet egy olyan esemény, ami sokkolja majd az embereket. Elégedetlenséget szülhet, ha a kormányokat ez teljesen felkészületlenül éri. A levélben ajánlott megoldásokkal azonban nem elégedett minden szakértő. Joanna Bryson szerint nem a MI önkényes lelassítása a megoldás, hanem a biztonságossá tételük, vagyis a szabályozást és ellenőrzést igénylő jó praktikák követése és dokumentálása.

Ajánlott videó

Olvasói sztorik