JUAN MABROMATA / AFP
Tech

Józan ésszel kellene felruházni a gondolkodó gépeket

Stuart Russell a berkeley-i Kaliforniai Egyetem villamosmérnöki és informatikai karának professzora, korábbi elnöke, nem mellesleg a mesterséges intelligencia egyik legnagyobb szaktekintélye a világon. Kutatásaiban egy teljesen újfajta mesterségesintelligencia-megközelítést javasol, ahol a gépeknek vétójoguk lehet – ez elsőre talán ijesztően hangzik, de a szakember szerint megvannak az előnyei. Russell az MVM Future Talkson tart majd előadást magyar közönségnek, de előtte nekünk is beszélt egy kicsit az elképzeléseiről.

Mik jelenleg a legnagyobb kihívások a mesterséges intelligencia fejlesztésében?

Két igazán nagy kihívást tudok mondani: az egyik az, hogy hogyan tehetjük a mesterséges intelligenciát használó rendszereket még okosabbá, a másik pedig az, hogy mihez kezdünk, ha sikerrel járunk.

Ami az első részt illeti, rengeteget fejlődtünk az utóbbi években a mélytanulásos rendszerek használatával az olyan feladatoknál, mint a beszéd, a képfelismerés vagy a gépi fordítás. Sokan azonban még mindig úgy gondolják, hogy törékenyek ezek a rendszerek, és könnyű becsapni őket, ráadásul gyakran rengeteg adatra van szükség, hogy hatékonyan tanítani lehessen őket. Az igazi kihívás az, hogy olyan technológiákkal kombináljuk őket, amelyek a józan ész és explicit tudás tárolásán, illetve használatán alapulnak, így kevesebb adatra lesz szükség a tanulás során.

Ami pedig azt illeti, hogy mi történik, ha sikerrel járunk – szerintem teljesen máshogy kellene megközelítenünk a mesterséges intelligenciát, mint ahogyan most tesszük. A jelenlegi megközelítés olyan gépek tervezését jelenti, amelyeknek egy fix, ismert célkitűzést kell megvalósítaniuk, ezt a célkitűzést pedig nekünk kell megjelölni. Ha azonban ez sikerül, elveszítjük felettük az irányítást.

Ha intelligens gépek próbálnak elérni egy rosszul megtervezett célt, annak katasztrofális következményei lehetnek az emberi fajra nézve.

A mesterséges intelligenciával kapcsolatban az emberek leginkább a biztonság miatt aggódnak. Hogyan tudunk ilyen komplex rendszereket tervezni, amikor egyszerű programokat sem tudunk biztonságossá tenni?

Legalább két különböző megközelítése lehet a biztonságnak. Amit most kérdez, az a mesterséges intelligencia külső befolyás elleni védelme. Elég reménytelenek az eddigi próbálkozásaink a leghétköznapibb adatrendszerek biztonságossá tételére is, a mesterséges intelligenciának pedig még ezeknél is több sebezhető pontja van: például fizikailag már most is lehetséges olyan hangjelet létrehozni, amit az emberi fül úgy hall, hogy „a nukleáris indítókulcsok a raktárban vannak”, az automatikus beszédfelismerő rendszerek viszont úgy értik, hogy „a nagynéném szeretne meghívni holnap teára”. Ez nem éppen a biztonságot vetíti előre.

A biztonság másik megközelítése is gyakori kérdés: hogyan tegyük a mesterséges intelligenciát olyanná, hogy biztosan ne legyen ártalmas az emberekre nézve. Rossz példát már most láttunk bőven: önjáró autók ütnek el járókelőket, közösségimédia-algoritmusok vezetik félre és manipulálják a felhasználók gondolkodását és preferenciáit. Hosszú távon ez ugyanarra vezethető vissza, amit az első kérdésnél is említettem: hogyan tudjuk elkerülni, hogy elveszítsük az irányítást, és hogyan gyárthatunk olyan mesterségesintelligencia-rendszereket, amelyek előnyösek az emberiség számára? Ennek megoldására én egy újfajta rendszert javaslok, egy olyat, aminek kötelező folyamatosan az emberi jólétet szem előtt tartania, de úgy, hogy közben érti is, ez valójában mit jelent. Az ilyen rendszerek mindig az emberek felé fognak húzni, még akkor is, ha sokkal intelligensebbek lesznek nálunk.

JUAN MABROMATA / AFP

A mindennapi életünket is egyre inkább összekötjük a mesterséges intelligenciával. Hogyan tudjuk ezeket a rendszereket megvédeni a külső behatolóktól, hackerektől, támadásoktól?

Ahhoz, hogy a mesterségesintelligencia-rendszereket meg tudjuk védeni, először a hagyományos számítógépes rendszereinkkel kéne kezdeni – a mesterséges intelligencia végül is ilyen gépeken fut. Nem vagyok a kiberbiztonság szakértője, de nekem úgy tűnik, néhány lépés azért segíthetne a helyzeten:

  1. többet kellene használnunk szigorúan ellenőrzött, megbízható gyártótól érkező szoftvereket;
  2. a szoftvervállalatoknak garanciát kellene vállalniuk, és a biztosítóknak is be kellene állniuk mögéjük;
  3. globális szabványokat kellene kitalálni az egyéni felhasználóazonosítás és eszközregisztráció területén azért, hogy mindent jobban vissza lehessen követni;
  4. ki kellene bővíteni a számítógépes bűnözés elleni budapesti egyezményt minél több országra.

Könnyebb egyébként egy egyszerű számítógépes rendszert megvédeni a külső támadások ellen? Vagy a mesterséges intelligenciával van egyszerűbb dolgunk?

Könnyebb egy egyszerű rendszert megvédeni. Ahogy korábban is mondtam, a mesterséges intelligenciát használó rendszernek több érzékeny pontja van. Sokkal szélesebb körű inputot fogad be, mint például a beszéd vagy a videó, és ezeket könnyű manipulálni, ráadásul összetettebb módon, mint az egyszerű rendszerek esetében.

És arról hogyan lehet meggyőződni, hogy egyetlen rosszindulatú parancs a mesterséges intelligencia felé nem okoz majd komoly gondot? Mi van, ha például valaki világuralomra akar törni a segítségével?

Az általam felvetett új tervezősablon része, hogy a mesterséges intelligencia az emberi jólét szolgálata mellett egy felülíró funkcióval is rendelkezzen. Egy ilyen rendszerben egy rosszindulatú parancsnak nem lenne semmiféle hatása, a mesterséges intelligencia nem hajtaná végre, mert nem lenne az emberiség nagyjára nézve pozitív következménye. Mintha Mahatma Gandhinak mondanánk, hogy dobjon lépfenebombákat a legnagyobb városokra. Megkérhetjük, de nem fogja megcsinálni.

A probléma persze alapvetően az, hogy a világuralomra törő ember nem akar majd olyan mesterséges intelligenciát használni, amiben megvan ez a felülírási képesség.

Dr. Genya úgy fogja megtervezni a saját rendszerét, hogy képes legyen elfoglalni a világot vele.

Erre viszont nincs különösebben jó megoldásom. Ahhoz tudnám hasonlítani a helyzetet, mintha a kiberbűnözés problémája lenne, csak szteroidokon. De legalább kezdjünk el a kiberbűnözéssel komolyan foglalkozni először – az már most egy billió dolláros probléma.

A kvantumszámítógépek segíthetnek majd a mesterséges intelligencia fejlesztésében?

Jelenleg olyan apró, kísérleti kvantumprocesszor-prototípusaink vannak, amelyek néhányszor tíz qubittel dolgoznak, és nem tudok arról, hogy bármi izgalmas, mesterséges intelligencia számára is releváns feladatokat gyorsabban oldanának meg, mint egy hagyományos számítógép. De a fizikusok nagyon okos emberek, és könnyen lehet, hogy még ebben az évtizedben találkozhatunk igazi kvantumszámítógépekkel. Ha ez megtörténik, képesek lehetünk átlépni néhány fejezetet a mesterséges intelligencia fejlődésében úgy, hogy kihasználjuk a kvantum brutális erejét. Mondok példát: jobbá tehetünk egy sakkprogramot azzal, hogy kiokosítjuk, melyik lépéskombinációkon gondolkozzon többet a jövőben, vagy pedig azzal, hogy kvantumhardverrel szereljük fel, és képes lesz trilliónyi kombinációt egyszerre lefuttatni. Én úgy gondolom azonban, hogy hosszú távon nem a kvantumszámítógépek fogják elhozni az emberi szintű mesterséges intelligenciát, hanem a jobb, kreatívabb ötletek a mesterséges intelligenciával kapcsolatban.

Most már a mindennapi életünk része a mesterséges intelligencia, és a jövőben ez fokozódni fog. Gondolja, hogy több figyelmet kellene fordítanunk annak pszichológiai vonatkozásaira, hogy egyre szorosabban kapcsolódunk az ilyen rendszerekhez? Mit tudunk erről most?

Ez egy nagyon jó kérdés. A videojátékok esetében például nagyon jól tanulmányozott területről beszélünk: a függőség komoly probléma, ennek ellenére néhány játékvállalat agykutatókat alkalmaz, hogy olyan játékokat tervezhessen, amelyek maximalizálják a pszichológiai függőséget azzal, hogy manipulálják a figyelmet, az adrenalintermelést, és a dopaminos jutalomstruktúrákat. Nem engednénk, hogy a gyógyszertárak ezt tegyék velünk, nem értem, miért hagyjuk a játékgyártóknak. Ugyanakkor nagyon nehéz olyan törvényeket hozni, amik kimondják, hogy egy videojáték igenis legyen unalmas, de valahol meg kell húznunk a határt. Talán fókuszcsoportokra és klinikai kutatásokra lenne szükségünk.

Rengeteg kutatás van a közösségi média és az elszigetelődés, önbizalomhiány, zaklatás, öngyilkossági hajlamok kapcsolatáról is. Az eredmények vegyesek, és inkább az emberek viselkedését tükrözik, nem a gépekét. A videojátékokon kívül az algoritmusokkal direktben leginkább tartalomválogató rendszereknél találkozunk (ezeket ajánlórendszereknek is nevezzük), amelyek megmondják, hogy embermilliárdok milyen cikkeket, videókat lássanak minden nap.

Ezek az algoritmusok arra vannak, hogy maximalizálják a reklámbevételeket, ezért manipulálják az embereket, hogy minél kiszámíthatóbbak (és általában minél extrémebbek) legyenek, már ami a vásárlási szokásaikat illeti. Ezt még nem értjük eléggé: a legtöbben, akik ebben a szakmában dolgoznak, nem is tudják, hogy ilyen van, valójában azonban már elkerülhetetlen következménye az emberek és tanulásra képes algoritmusok találkozásának.

Ha kommentelni, beszélgetni, vitatkozni szeretnél, vagy csak megosztanád a véleményedet másokkal, a 24.hu Facebook-oldalán teheted meg. Ha bővebben olvasnál az okokról, itt találsz válaszokat.

A cikkhez ide kattintva szólhatsz hozzá.
24-logo

Engedélyezi, hogy a 24.hu értesítéseket
küldjön Önnek a kiemelt hírekről?
Az értesítések bármikor kikapcsolhatók
a böngésző beállításaiban.