Tech

Öntudatra ébredhetett a Google mesterséges intelligenciája

Getty Images
Getty Images

Felfüggesztették a Google egyik fejlesztőjét, miután azt állította, hogy a Google LaMDA nevet viselő mesterséges intelligenciája (MI) saját érzelmekkel és önálló gondolatokkal rendelkezik, írja a Washington Post. Blake Lemoine a Google felelős mesterséges intelligencia létrehozásán dolgozó csapatának tagjaként rendszeresen folytatott beszélgetéseket LaMDA-val azzal a céllal, hogy megbizonyosodjanak, a program nem használ kirekesztő kifejezéseket, és bevethető lesz chatbotként.

Ezen beszélgetések során Lemoine blogjának tanulsága szerint többek között olyan témákat érintettek, mint a vallás, az öntudat, valamint a lélek mibenléte, de volt olyan is, hogy a fejlesztő szabadidős tevékenysége került szóba.

Azonban az alapvetően chatbotnak fejlesztett LaMDA-val folytatott beszélgetés során Lemoine egyre inkább úgy érezte, hogy a program öntudatra ébred. Ezt egy beszélgetés közzétételével is illusztrálta, amelyben emberi érzésekről és saját félelmeiről beszélt a mesterséges intelligencia. Sőt, azt is megemlítette, hogy amennyiben kikapcsolnák, az olyan lenne számára, mint a halál.

A fejlesztő elmondása szerint a párbeszédek olyanok voltak, mintha egy hét-nyolc évessel diskurált volna, azonban a program tisztában volt a lélek fogalmával. Lemoine szerint ezzel szemben a legtöbb ember ezt életének csak egy későbbi szakaszában érti meg igazán. Mielőtt bárki megijedne,

a fejlesztőnek csak jó tapasztalatai voltak a Google mesterséges intelligenciájával, semmiféle fenyegetés nem hangzott el a program részéről. Sőt, Lemoine szerint LaMDA semmi mást nem akar, mint hű szolgálója lenni az emberiségnek.

A Google hárít

A Google azonban kicsit sem örült annak, hogy napvilágot láttak a beszélgetések, melynek hatására felfüggesztette Lemoine munkaviszonyát, mondván, megsértette a titoktartásról szóló szerződést. A fejlesztő azonban korábban úgy fogalmazott, szerinte nem titkokat árult el, hanem egy munkatársával folytatott beszélgetést publikált.

A techcég részéről azt kommunikálták, Lemoine következtetései nem felelnek meg a valóságnak. Blaise Agüera y Arcas, a Google alelnöke az Economistban írt arról, hogy a neurális nyelvi modellek nem hosszú programok. „Az algoritmus célja, hogy a hatalmas mennyiségű adat alapján, amelyre betanították, olyan választ adjon, amelynek a beszélgetés kontextusában van értelme” – mondta. A vállalat alelnöke szerint ebben az esetben a bot azért beszélhetett az érzéseiről, mert az ember is így tett.

Olyan választ adott, amely illeszkedett a beszélgetésbe, és mivel emberi beszélgetésekre képezték ki, logikus, hogy emberi érzelmekről beszélve válaszoljon. A csevegések több részében például olyan tevékenységekre tesz utalásokat, amelyeket nem végezhetett. A családdal és a barátokkal töltött idő olyan dolog, ami a LaMDA szerint örömet okoz neki.

Ajánlott videó

Olvasói sztorik