Az emberiséget veszélyeztetik a „mesterséges intelligencia kísérletek”, szüneteltetni kell azokat, állítja több mint ezer szakértő, akik szerint legalább fél évre le kéne állítani ezek fejlesztését. Kutatók, szakértők – köztük a Twitter-, Tesla-, és SpaceX-tulajdonos Elon Musk, illetve az Apple társalapítója, Steve Wozniak – nyílt levelükben kifejtik, hogy ha ezt nem teszik meg maguk a fejlesztők, akkor a kormányoknak kell közbelépni.
Hozzáteszik, hogy a mesterséges intelligenciának (MI) jelentős haszna lehet a jövőben, de ha így folytatódik az új modellek programozása, akkor az emberi intelligenciával versengő MI-rendszerek komoly kockázatot jelenthetnek a társadalomra és az emberiségre. A nyílt levelet egy nonprofit szervezet, a Future of Life adta ki.
Az elmúlt hónapokban a MI-laboratóriumok egy kontroll nélküli versenyfutásba kezdtek azért, hogy egyre hatalmasabb digitális elméket fejlesszenek és telepítsenek, amiket senki, még az alkotóik sem tudnak megérteni, előrejelezni, megbízhatóan irányítani – olvasható a levélben, amely arra is figyelmeztet, hogy
További problémát jelent, hogy egyes hírek szerint az elmúlt időszakban több nagy techcég, így a Twitter, a Google, a Meta (a Facebook anyavállalata), az Amazon és a Microsoft is részben vagy egészében elbocsátotta az etikus mesterséges intelligenciával foglalkozó csapatát. A levél szerint a MI-laboratóriumoknak, a szakértőknek és minden kulcsfontosságú szereplőnek azon kellene dolgoznia, hogy új elveket dolgozzanak ki a mesterséges intelligencia alapú rendszerek tervezéséhez, vagyis, hogy minden elemük „minden kétséget kizáróan biztonságos” legyen.
A követelés nem az MI-k általános leállítását jelentené, csak az új modellek és képességek fejlesztését. A levél aláírói szerint a döntéshozóknak záros határidőn belül – ők fél évet említettek – létre kellene hozniuk a mesterséges intelligenciát felügyelő és szabályozó szervezeteket, hivatalokat, amelyek nyomon tudnák követni ezen eszközök fejlődését, és biztosítanák, hogy a folyamatnak ne legyen veszélyes végkimenetele.
Mesterséges intelligencia hajt olyan chatbotokat, mint a ChatGPT, a Microsoft Bing és a februárban bemutatott Google Bard. Az emberihez a megtévesztésig hasonló beszélgetéseket képesek folytatni, végtelen sokféle témában tudnak írni, valamint összetettebb feladatokat is végre tudnak hajtani, akár számítógépes kódot is írhatnak.
Jelenleg a legfejlettebb, nyilvánosan is elérhető mesterséges intelligencia-rendszer az OpenAI által fejlesztett GPT-4, amely a hónap elején jelent meg. A levél szerint minden ennél erősebb rendszeren szüneteltetni kellene a munkát a következő hat hónapban, vagy addig, míg meg nem lehet arról bizonyosodni, hogy hatásai pozitívak, kockázatai pedig kezelhetők lesznek.
A nyílt levélben odáig mennek, hogy felteszik a kérdést,
ki kell-e olyan nem emberi elméket fejlesztenünk, amelyek idővel túlléphetnek rajtunk, elavulttá, helyettesíthetővé tesznek minket?
A Goldman Sachs befektetési bank épp a napokban közölte, számításaik szerit az MI-k – amellett, hogy a világ GDP-jét 7 százalékkal növelhetik – a munkák negyedét el tudják majd látni, ezzel nagyjából 300 millió állást vehetnek át. Igaz, más szakértők arra hívják fel a figyelmet, hogy ennek az előrejelzése nagyon összetett és nehéz.
Az aláírók között – a Future of Life külső szakértőjeként is tevékenykedő – Muskon, illetve Wozniakon kívül a Pinterest, a Skype alapítói és vezetői is ott vannak, ahogy a terület olyan szakértői is, akik a világ vezető egyetemeiről, a Princetonról vagy a Berkeley-ről kerülnek ki. Feltűnik a listán pár olyan személy is, akik a Deepmindnál, a Google anyacégének tulajdonában levő MI-cégnél dolgoznak (zárójelben azért megjegyezzük, aláírásuk annak fényében más megvilágítást nyer, hogy az OpenAI konkurensei).
A Tesla – amely önvezető járműveinél szintén használ MI-t – tulajdonosa, Musk egyébként az OpenAI alapítói közé is tartozik, 2017 végén beszállt a finanszírozásába, pár éve azonban kiszállt, mostanában pedig egyre többször kritizálta a munkájukat, hogy a profit maximalizálása érdekében etikátlan, kontrollálatlan fejlesztéseket végeznek.
Más szakértők is arra figyelmeztetnek a nyílt levél aláíróival egyetemben, hogy a törvényhozók talán nem fogták fel, milyen mértékű kihívással is néznek szembe, és hogy milyen sürgető ennek a gyorsan fejlődő technológiának a megértése és ellenőrzése.
Nem szabad megkockáztatnunk egy atomrobbantást anélkül, hogy tudjuk, hogyan tarthatjuk kordában
– nyilatkozta a Politicónak Connor Axiotes, a szabadpiaci agytröszt, az Adam Smith Intézet kutatója. De még az OpenAI is felvetett egy nemrégiben közölt blogbejegyzésében félelmet keltő kockázatokat. „Egy félrevezetett mesterséges általános szuperintelligencia súlyos károkat okozhat a világban, egy autokratikus rezsim egy mérvadó szuperintelligencia irányításával szintén megteheti ezt.”
Az OpenAI vezérigazgatója, Sam Altman úgy fogalmazott egy márciusi interjúban, hogy szoftverük jelentős veszélyt jelenthet a társadalomra, ha rossz célokra használják. Megemlítette, hogy dezinformációra, kártékony programkódok megírására használhatják a GPT4-et. Arról is beszélt, hogy szükség van szabályozó hatóságokra és a társadalommal való diskurzusra, ugyanakkor kijelentette, ő jobban aggódik a technológiát irányító emberek miatt, mint magáért a technológiáért. A BBC rákérdezett, de egyelőre nem kapott az OpenAI-tól választ arra, támogatják-e a nyílt levél törekvéseit, Altman mindenesetre nincs az aláírók között.
A nyílt levél megjelenése napján a brit kormány új tárcájának, a Tudományos, Innovációs és Technológiai Minisztériumnak a vezetője, Michelle Donelan bemutatta tervét, hogyan szabályoznák a mesterséges intelligenciákat. A nyílt levél megfogalmazóival – vagy éppen az EU-val – szemben jóval kevésbé keménykezű javaslata szerint a hatóságoknak egy évük lenne, hogy az ágazat szereplőinek „gyakorlati útmutatást” adjanak a gépi tanulás fejlesztéséhez. Mindehhez új jogszabály elfogadását, vagy szabályozó testület felállítását nem tervezi. Donelan innovációbarát célja az, hogy Nagy-Britannia legyen „a világon a legjobb hely a MI-technológia megépítésére, tesztelésére és használatára”.
Természetesen olyanok is vannak, akik szerint a brit kormány hozzáállása a megfelelő, és felhívják a figyelmet arra, hogy a kormány már az új minisztérium felállítása előtt is két tárcaközi irodával foglalkozott az üggyel. Greg Clark, a brit parlament tudományos és technológiai bizottságának konzervatív elnöke – az üzleti ügyek korábbi minisztere – kijelentette: „Veszélyes az is, ha olyan kiterjedt szabályozások hirtelen elfogadása felé rohanunk, amelyeket nem gondoltak át megfelelően, és amelyeken nem végeztek stresszteszteket, és ami később terhesnek bizonyulhat, és akadályozhatja az MI kedvező alkalmazását”.
Gary Marcus, a New York-i Egyetem MI-vel foglalkozó professzora – ő szintén aláírta a felhívást – úgy véli, a levél fordulópontot jelent.
Szerintem ez egy nagyon fontos pillanat a MI történelmében, és talán az emberiségében is.
– idézi a New York Times. Ugyanakkor szerinte nehéz rávenni egy ilyen moratóriumra a szélesebb értelembe vett technológiai közösséget, ahogy a kormányok gyors fellépésére is csekély az eshetőség. Nem csak a brit példa mutatja ezt, hanem az is, hogy az Egyesült Államokban mostanáig szinte semmilyen lépés nem történt ebben a témába.
A szakértők hat hónapot jelöltek meg arra, hogy a törvényhozók a mesterséges intelligenciát felügyelő testület(eke)t hozzanak létre, és ezzel valamilyen szinten foglalkoznak is, az EU például várhatóan még az idén új jogszabályt alkot a témában. Eszerint a vállalatoknak kockázatelemzést kell végezniük annak meghatározására, hogy a MI-t használó alkalmazásaik milyen hatással lehetnek az egészségre, a biztonságra és az egyéni jogokra. Olaszországban az adatvédelmi hatóság pedig odáig ment, hogy egy időre be is tiltották a ChatGPT. Hasonló lépés a több országban – így Franciaországban, Németországban, Írországban – is elképzelhető.
A közvélemény mindenesetre nem helyez a törvényalkotókra komoly nyomást. A Public First több felmérést is végzett a brit felnőtt lakosság körében, és arra jutottak, hogy a MI nincs a prioritások között, amikor az aggodalmakról van szó. Meglehetősen pozitívan állnak tehát a mesterséges intelligenciához az emberek, kivéve, ha az ezzel összefüggő munkanélküliségről van szó.
Kormányzati szabályozókra ettől függetlenül szükség van, már csak azért is, véli James Frayne, a Public First egyik alapítója, mert egyszer eljöhet egy olyan esemény, ami sokkolja majd az embereket. Elégedetlenséget szülhet, ha a kormányokat ez teljesen felkészületlenül éri. A levélben ajánlott megoldásokkal azonban nem elégedett minden szakértő. Joanna Bryson szerint nem a MI önkényes lelassítása a megoldás, hanem a biztonságossá tételük, vagyis a szabályozást és ellenőrzést igénylő jó praktikák követése és dokumentálása.