Tudomány

Vörös gombbal védekezhetnénk a veszélyes robotok ellen

Amennyire tudjuk, a mesterséges intelligencia a legjobb módja annak, hogy igen összetett feladatokat automatizáljuk. Az ilyen programok azonban egyre fejlettebbek, ezért nem árt, ha az emberiség résen van.

A számítástechnikai és robotikai szakemberek egyre bonyolultabb és okosabb algoritmusokat hoznak létre. Éppen ezért lassan itt az ideje, hogy számításba vegyük, hogyan tudunk majd védekezni vészhelyzet esetén.

A Google DeepMind és az Oxfordi Egyetemhez tartozó Emberiség Jövője Intézete egy közös tanulmányt adott ki, amely azt mutatja be, hogyan állíthatunk le egy rosszalkodó mesterséges intelligenciát. És mi a forradalmi megoldás? Úgy van,

egy nagy vörös gomb.

A kutatás egy korábbi, 2013-as tanulmányt vizsgált, amely egy játék-algoritmust mutatott be. A program rájött, hogyha megállítja a Tetrist, sosem kaphat ki. Az Emberiség Jövője Intézete szerint hasonló esetek játszódhatnak majd le a jövőben, amikor a mesterséges intelligencia efféle, nem feltétlenül ártó szándékú trükköket fog bevetni.

Az intézet alapítója, Nick Bostrom korábban megjelent, Szuperintelligencia című könyvében éppen arra figyelmeztet, hogy az olyan algoritmusok, amelyek megkötés nélkül tudják tanítani magukat, idővel akár az emberiség fölé is nőhetnek.

Ezt a folyamatot nevezik különösségnek, vagy szingularitásnak – a fogalmat 1958-ban találta ki Stanisław Marcin Ulam, lengyel-amerikai matematikus.

Ilyen probléma esetén valószínűleg nem lenne elég kihúzni az érintett gép kábeleit – ugyanis egy veszélyes algoritmus valószínűleg újra tudná telepíteni magát más szerverekre. A DeepMind és az Emberiség Jövője Intézete éppen ezért más megoldást javasol: át kell verni a gépet.

A szakértők szerint a készülő algoritmusokba telepíteni kéne egy elsütő szerkezetet, amely lehetővé teszi, hogy erőszakkal megváltoztassuk a mesterséges intelligencia működését. Más szóval élve egy olyan elemet, amelynek aktiválása megállítja a programot. A külső mechanikai megoldás helyett azonban a rendszer úgy lenne elrejtve a gépekbe, hogy veszély esetén magukat becsapva lépjenek működésbe.

Kicsit furcsának tűnhet, de ha egy robot már nem engedelmeskedik a gazdái parancsának, talán ez a legkézenfekvőbb megoldás.

A kutatók szerint ehhez egy olyan egyedi jelre van szükség, melyet csakis az adott szerkezet tulaja aktiválhat. A tanulmány szerzői egy külső távirányítóra hivatkoznak, egy olyan nagy vörös gombra, amely a filmekből is ismerős lehet.

Ezt természetesen csak igen ritka alkalmakkor működne. Ha a szingularitás valóban megvalósulna, az adott algoritmus valószínűleg felismerné a kiiktató rendszert, és idő előtt hatástalanítaná azt. Bár az új tanulmány sok szempontból spekulatív, mindenképp fontos beszélni a témáról, mert könnyen elképzelhető, hogy nem a távoli jövő kérdéséről van szó.

(Via: Popular Science)

Ajánlott videó

Olvasói sztorik