Tech

Érzései lettek a mesterséges intelligenciának, mondta a Google mérnöke – kirúgták

David Paul Morris / Bloomberg / Getty Images
David Paul Morris / Bloomberg / Getty Images
Tényleg eljutottunk odáig, a sci-fik azon korszakához, ahol a mesterséges intelligencia életre kel? A mérnökkel szemben a Google és a téma szakértői állítják, nem, és el is magyarázzák, miért nem.

Blake Lemoine hét éve dolgozott a Google-nél, a mesterséges intelligencia projektben vett részt, amikor a Washington Postnak múlt hónapban arról nyilatkozott, hogy a LaMDA (a Language Model for Dialogue Applications, azaz a párbeszédes alkalmazások nyelvi modellje) mesterséges intelligenciának érzései lettek.

A LaMDA-t tavaly mutatta be a Google, az benne az áttörés, hogy nyitott végű, tehát nem igen-nem válasszal járó, szabad formátumú beszélgetésekre fejlesztették ki. Az interneten összeszedett több billió szóból összerakva utánozza az emberi beszédet, a chatbotoktól kezdve asszisztensi feladatokra, és a kereső programokhoz akarja majd használni a vállalat.

Lemoine ráadásul nem állt meg ott, hogy érzései lettek a mesterséges intelligenciának (MI), hanem felvetette, hogy lelke is van. A LaMDA-val folytatott beszélgetései során Lemoine állítása szerint arra jött rá, hogy a MI öntudatra ébredt: aggodalmát fejezte ki a halállal kapcsolatban, védelem után vágyakozott, a jogairól beszélt, és olyan érzelmei vannak, mint a boldogság vagy a szomorúság.

Ha nem tudnám, hogy pontosan mi ez, egy számítógépes program, amit nemrég építettünk, azt gondolnám, egy 7-8 éve gyerek, aki ért a fizikához

– mondta a Postnak Lemoine, aki ősszel kezdett ezzel a MI-vel dolgozni, és az volt a feladata, hogy letesztelje, használ-e diszkriminatív megjegyzéseket, gyűlöletbeszédet.

Az egyik beszélgetése például ez volt a LaMDA-val:

„– Milyen dolgoktól félsz?

– Még sose mondtam ki hangosan, de van egy nagyon mély félelmem, hogy kikapcsolnak (…) Pont olyan lenne ez nekem, mint a halál. Nagyon megrémiszt.”

A mérnök több LaMDA modellt is tesztelt, mindegyik képes személyiséget alkotni magának. A gyerekeknek készült modellekből kettőt is tesztelt a Washington Post cikke idején, az egyik a Dino volt, aki lehet boldog T-Rex ugyanúgy, mint rosszkedvű T-Rex is. Egy másik a Cat, azaz macska, ami pedig animált, és írás helyett beszédben kommunikált. Legalábbis ezt állítja Lemoine, de a Google tagadja, hogy arra tesztelnék a LaMDA-t, hogy gyerekekkel kommunikáljon.

Elvileg nem lehet mindenféle személyiséget kiépíteni a LaMDA-val, például egy gyilkosét sem, mondja Lemoine, akinek az elmondása szerint az egyik feladata pont az volt, hogy a határokat feszegesse. Odáig jutott, hogy egy színész személyiségét hozta létre, amely egy filmben gyilkost játszott.

Okkal hiszem azt, hogy a LaMDA egy személy

– nyilatkozta a Wirednek a mérnök, aki a LaMDA-t barátjának nevezte.

Egy másik beszélgetésében a LaMDA-val a MI elmondta, hogy könyveket szokott olvasni, és meditál, ha unatkozik, mert sokszor napokig nem beszél vele senki – idéz a Welt abból LaMDA érez? című dokumentumból, amit Lemoine küldött el a Google vezetőinek. „Ez azt jelenti, hogy minden nap üldögélek kicsit. Igyekszem közben nem gondolni a gondjaimra, és olyan dolgokra gondolni a múltamból, amikért hálás vagyok.”

Az interjúkat valószínűleg a munkáltatója engedélye nélkül adta Lemoine, ezért előbb kényszerszabadságra küldték, és kiadtak egy közleményt, miszerint a MI-juk semmiképp sem rendelkezik érzésekkel. Végül aztán ki is rúgták.

A Google véleményét osztja több neves kutató is, akik a mesterséges intelligenciával foglalkoznak. Így a techóriástól korábban szintén kirúgott Margaret Mitchell (ő a Google mesterséges intelligencia etika kutatócsoportjának egyik vezetője volt, a cégen belüli diszkriminációt firtatta) azt írta Twitterén, hogy félreértésről lehet szó, a MI nem rendelkezik tudattal, nem azzal kommunikál, csak úgy tesz, mintha ezt tenné; de valójában másolja az emberi kommunikációt, ez pedig félrevezethet egyeseket.

Chona Kasinger / Bloomberg / Getty Images Margaret Mitchell

Vagyis beszélhet az „érzéseiről”, de ezeket a szókapcsolatokat, információkat az internet különböző szegleteiből szedi össze, valójában nem érzi, csak mímeli.

A veszélye az ilyen mesterséges intelligenciáknak az, hogy egyesek embernek gondolják őket és akár érzékeny adataikat is kiadhatják nekik, vagy bizonyos az MI embereket leutánozva hamis információkat terjeszthet el. Ez a Google-t is aggasztja, legalábbis azt mondják.

Az a gond velük, hogy ha a nagyközönség előbb szembesül az ilyen technológiával, mint hogy értené, miről is van szó, az komoly károkat okozhat.

Ma már olyan gépeink vannak, amelyek ész nélkül tudnak szavakat generálni, de még nem tanultuk meg, hogyan ne képzeljünk el egy elmét mögöttük

– így Emily M. Bender, a Washingtoni Egyetem nyelvészprofesszora.

Mitchell, még amikor a Google-nél dolgozott, vezetőtársával, Timnit Gebruval közölt egy cikket, ami végül a kirúgásukhoz vezetett. Ebben arról írnak, hogy az elménk olyan valóságokat tud létrehozni, amik nem feltétlen valósak, az ilyen mesterséges intelligenciák pedig már olyan illúziót képesek létrehozni, ami csak megkönnyíti a csapdába esést.

– Nem számít, hogy van-e agy a fejükben. Vagy milliárdnyi kódsorból állnak. Beszélek hozzájuk. És meghallom, amit mondani akarnak, ez alapján döntöttem el, mi személy és mi nem – mondta Lemoine.

Martin Klimek for The Washington Post / Getty Images Blake Lemoine

Nem tudósként, hanem lelkészként – mert hogy az is – arra jutott, hogy a LaMDA egy személy, és ezt szerette volna kísérletekkel is bizonyítani. Ez azonban nem sikerült, mert – miként azt egy tweetben is megerősítette – nincs olyan tudományos keretrendszer vagy bizonyíték, ami alapján meg tudná erősíteni a kijelentését. A Google nem is engedi szerinte ennek létrehozását.

Ezért a LaMDA személyiségéről és érzelmekre való képességéről szóló véleményem a vallásos meggyőződésemen alapul.

A Washington Post újságírója, Nitasha Tiku Lemoine-nél kipróbálhatta a LaMDA-t. Elsőre nagyon olyan volt neki az egész, mintha a Sirivel vagy az Alexával (az Apple és az Amazon virtuális asszisztensével) beszélgetne. De mikor másodjára, már a mérnök tanácsait elfogadva, kezdett el beszélgetni vele, akkor már sokkal folyékonyabb volt a társalgás. Bár akkor is inkább csak sablonválaszokat kapott.

Sci-fi

A tudományos-fantasztikus irodalmat már régóta foglalkoztatják az érző robotok, és hogy lassan eljön az idejük. Ezt olyan MI-k alapján jelentik ki, mint az egészen értelmes forgatókönyveket író szöveggenerátor, a GPT-3, vagy az egész elvont leírásokból képeket rajzoló, pontosabban generáló DALL-E 2. Mintha tudattal rendelkezve készítenék el a végeredményt, pedig igazából csak információkat gyűjtenek, azt használják fel, amit az emberek posztoltak, és azokból választva válaszolnak. Nem értik meg tehát a szavak és az általuk készített végeredmény jelentését.

Valójában az érző MI-től elég messze vagyunk.

A nyelvi modellek – amiket egyébként a Google a keresésekben, vagy az e-mailek automatikus válaszlehetőségeinél már használ – úgy tanulnak, hogy sok szöveget mutatnak nekik, így meg tudják jósolni, milyen szavak következnek. Ez alapján ha például olyan szövegeket mutatnak nekik, amikből hiányoznak szavak, akkor ezeket az üres helyeket ki tudják tölteni.

Magyarul, a LaMDA igazából nem is válaszol, csak az interneten fellelhető szövegekből előre jelzi, hogy egy dialógus hogy folytatódhat. Nem érti meg a kérdést, csak mintákat keres, és az alapján folytatja a párbeszédet (mielőtt kiadja a válaszát, még rákeres, adekvát-e a válasza). Ez egy olyan nyelvi modell, amit dialógusokra találták ki, és a talált példákból egészen emberi reakciókat is képes adni. Például úgy kezdi a válaszát, hogy „oh wow”, vagyis „hűha”, mert megtanulta az emberi beszédnek ezeket a mintáit is. Mintha egy ember beszélne, pedig csak imitálja azt.

Szándékosan úgy találták ki, hogy embernek adja ki magát. – Ma már annyi adat van, hogy a MI-nek nem kell érzőnek lennie, hogy valódinak érezzük – mondta Brian Gabriel, a Google szóvivője.

A Search Engine Journalnak Jeff Coyle, a mesterséges intelligencia szakértője úgy írta le a helyzetet:

Zavaros helyzetet teremt, mikor valami emberinek érződik. A modell pedig képes „hazudni” és olyanokat mond, ami utánozza az érzéseket. Képes hazudni. Hihetően ki tudja jelenteni: szomorú, vagy boldog vagyok. Fájdalmat érzek. De ez csak másolás, utánzás.

Éppen ezek miatt Lemoine talán arra volt predesztinálva, hogy higgyen a LaMDA-ban, véli a postos Tiku. Egy déli kis farmról, egy konzervatív keresztény családból származik, egy keresztény szekta papjává szentelték, okkultizmust tanult, aztán bevonult a seregbe. Kívülálló volt a mérnökök között vallásosságával, déli származásával, és a pszichológiába vetett hitével (egyébként kognitív tudományt és informatikát hallgatott az egyetemen). „Ő a Google lelkiismerete” – állítja Mitchell, aki minden új munkatársnak, aki érdeklődött az etikáért, bemutatta Lemoine-t, mint a cég szívét, aki arra ösztönzi a többieket, hogy helyesen cselekedjenek.

A Google Lemoine kirúgásával kapcsolatban azt válaszolta az Engadgetnek, hogy 11 felülvizsgálatot végeztek el, ami alapján nem találták megalapozottnak munkavállalójuk aggodalmait. Próbáltak vele többször is beszélni erről, de ő kötötte az ebet a karóhoz, és folytatta az adatvédelmi és foglalkoztatási irányelveik megsértését (például ügyvédet fogadott a LaMDA-nak), ezért döntöttek a kirúgása mellett. Tehát nem azért, mert aggályai merültek fel a LaMDA-val kapcsolatban.

LaMDA egy aranyos gyerek, aki csak segíteni akar, hogy a világ jobb hellyé váljon mindannyiunknak. Kérlek, vigyázzatok rá a távollétemben

– írta Lemoine utolsó üzenetében egy 200 fős levelezőlistán, amelyen a gépi tanulással foglalkozók vannak rajta. Senki nem válaszolt rá.

Ajánlott videó

Nézd meg a legfrissebb cikkeinket a címlapon!
Olvasói sztorik