Mobil

A Google megcsinálta a robotika hét törvényét, ami semmit nem ér

Sundar Pichai, a Google vezérigazgatója billentyűt ragadott, és hosszú blogbejegyzésben taglalta, milyen elvek mentén foglalkozik majd a techóriás mesterséges intelligenciával. Az alapvetően pozitív, megnyugtató hangvételű cikket azóta jobbról-balról cincálják szét kritikusok világszerte – vannak, akik hiányosnak tartják, vannak, akik szerint lehetne konkrétabb, és vannak,

akik szerint első szótól az utolsóig hülyeség az egész.

Pichai cikkének első fele hét pontban állapítja meg, hogyan akar a Google biztonságos, szociális haszonnal is bíró MI-ket fejleszteni a jövőben. Később arra is kitér, hogy akadnak olyan szektorok, mint például a kémkedés és a fegyverfejlesztés, amelyekbe soha nem fognak beszállni az algoritmusaikkal.

A Google ezentúl tehát ezen szempontok szerint fejleszt mesterséges intelligenciát:

  • Legyen társadalmi haszna!
  • Ne kreáljon, vagy erősítsen meg unfair előítéleteket!
  • Biztonságos fejlesztés és tesztelés!
  • Legyen elszámolható az emberek felé
  • Legyenek beépítve személyes adatvédelemre szolgáló modulok!
  • Ragaszkodjon a tudományos kiválósághoz!
  • Legyen könnyen elérhető olyan célokra, amik kielégítik ezeket az elveket!

Első blikkre ez egy nagyjából elfogadható lista, ami azért nincs híján szépséghibáknak. Bőven keverednek ugyanis olyan túlságosan tág, sokféleképpen értelmezhető dolgok, mint a „tudományos kiválóság,” vagy a „társadalmi haszon,” de olyan fontos témák is belekerültek, mint az adatvédelem, illetve az előítéletmentesség. Az előbbi kényes téma mostanában a Cambridge Analytica-botrány, és az Amazon lehallgatásra is alkalmas Alexája kapcsán került szóba, az utóbbi szükségességének pedig a rasszista robotok és MI-k egyre dagadó irodalma a tanúja.

Sundar Pichai – Forrás: AFP PHOTO / Elijah Nouvelage

Elég pontatlan és homályos még az a rész, ahol Pichai megígéri, hogy nem fogják a mesterséges intelligenciát olyan célokra használni, ami szembe megy „nemzetközileg széles körben elfogadott törvényes és emberi jogi normáknak.” Mivel a Google-vezér nem pontosítja, hogy mégis milyen normákról van szó, ez az állítás túl sok értelmezési teret ad: egy olyan világban, ahol Kína a saját polgárai után kémkedik, Donald Trump pedig nemrég megpróbálta kitiltani a muszlim vallásúak bejutását az USA-ba, elég labilis, hogy mi számít nemzetközileg elfogadott normának.

BOTRÁNYKEZELÉS ÉS KATONAI MI

Mégis, a hosszúra nyújtott cikk langymelegségében, óvatosságában és frázisosságában komolyan vehető írásnál jobban hasonlít Mark Zuckerberg tavalyi memomarandumára, ami inkább volt egy botrányokra reagáló PR-dokumentum, mint konkrét célkitűzés. És Pichai levele Zuckerbergéhez hasonlóan szintén

egy botrányra próbál választ adni.

A Google kritikusait és dolgozóit is felkavarta nemrégiben az a hír, mely szerint a cég a Pentagonnal közös programba kezdett: a Project Marvennek az volt a célja, hogy mesterséges intelligenciával segítse a harctéri drónok munkáját, hogy azok nagyobb pontossággal tudjanak végezni célpontjaikkal.

A projekt bejelentése után tucatjával mondtak fel a cég MI-szakértői lelkiismereti okokra hivatkozva, illetve több, mint 4 ezer dolgozó nyílt levélben kérte Pichai-t, hogy álljon le a mesterséges intelligencia háborús alkalmazásával. A Google-vezér gyorsan be is jelentette, hogy nem fogja megújítani szerződésüket a Pentagonnal annak 2019-es lejárta után, és most cikkével a közéletben is igyekszik lenyugtatni a kedélyeket.

A drónok kicsapták a biztosítékot a Google alkalmazottaknál –  Forrás: Isaac Brekken / Getty Images / AFP

A közvélemény mellett a Google-nak kiemelten fontos az is, hogy a dolgozói mit gondolnak az MI-projektjeikről. Ez azért van így, mert az egész ágazat egy elképesztően új, nagyrészt feltérképezetlen terület, szűk munkaerővel. Az Element AI nevű kutatócég szerint összesen 22 ezer olyan MI-specialista van a világon, akik értenek annyira a témához, hogy egy fontosabb cégnek dolgozzanak. Így a munkaerőért zajló verseny is iszonyatosan szoros az olyan multik között, mint a Google, az Amazon, vagy éppen a Facebook. Pichai így nem engedheti meg, hogy tömegével mondjanak fel a fejlesztői,

eleget kell tennie a követeléseiknek.

Igen ám, de emellett a zsíros kormányzattal kötött szerződéseket se dobná el a Google: holott Pichai komolyan megígérte, hogy nem foglalkoznak fegyverfejlesztéssel, levele világosan leszögezi, hogy azért minden másban szívesen segítenének az USA hadseregének, szívesen beszállnának kiberbiztonsági, kiképzési, toborzási, illetve mentőakciós projektekbe, illetve mindenbe, aminek nincs közvetlen köze emberélet kioltására illetve kémkedésre alkalmas technológiákhoz.

SZÁMONKÉRHETŐ ROBOT, SZÁMONKÉRHETELEN CÉG

Bármilyen szépen is lavírozik a Google a kormányzati megbízatások és az elit munkaerő lelki békéje között, Pichai listájával még így is marad egy fontos probléma: a majdnem teljes számonkérhetetlenség. Mint ahogy arra több szakértő is rámutatott, nincs senki, aki be tudná tartatni a céggel az MI-vel kapcsolatos ígéreteiket.

Az utóbbi hónapokban pedig már azt is láttuk, hogy Európával szemben mennyire meg vannak kötve Amerikában a hatóságok kezei, ha techóriások elszámoltatásáról van szó. A Facebook-Cambridge Analytica botrány után Mark Zuckerbergnek például elég volt sűrűn bocsánatot kérnie, és egy kongresszusi meghallgatáson túl hivatalos intézkedés nélkül maradt az egész botrány. Közben pedig, PR-katasztrófa ide-vagy oda, a Facebook

működésének 2. legmagasabb negyedéves bevételét könyvelte el.

Szóval akármilyen ártatlannak akar látszani Pichai, belül valószínűleg tudja, hogy gyakorlatilag mindent megtehet. Mi sem bizonyítja ezt jobban, mint az, hogy a Google eddig is sok olyan javaslatot figyelmen kívül hagyott, ami egy a cégnél működő, független felülvizsgálati bizottság létrehozására vonatkozik, legutóbb például az Electronic Frontier Alapítvány főinformatikusától, Peter Eckersley-től.

DON’T BE EVIL

A Google robotikára vonatkozó elvei tehát semmiképpen sem tekinthetők mérvadónak, vagy kőbe vésettnek, a Google jószándékára pedig talán nem a legbiztonságosabb számítani. Gondoljunk csak a cég cinizmusára, olyan ügyekben, mint a 16 milliárd eurós adóelkerülések, vagy az az apró változtatás, amit pár hónapja eszközöltek a cégen belül érvényes magatartási kódexben.

2000 óta ugyanis fontos belsős szlogen volt a Google-nél a „Don’t be Evil” (Ne légy gonosz) kifejezés, ami a céges kultúra sarokkövének számított, és a magatartási kódexnek is kulcsfogalma volt, abban többször is hangsúlyosan szerepelt. Egészen áprilisig, amikor a cég suttyomban, egy fel sem jegyzett frissítésben egy említést leszámítva mindenhonnan eltüntette ezt a kifejezést – mintegy képletesen jelezve dolgozóinak, hogy

a gonoszságot kerülni már nem is annyira téma náluk.

Hogy az a fajta álelkötelezettség, ami Pichai levelében is megjelenik, hova vezethet egy olyan kényes területen, mint a mesterséges intelligencia, nem egészen tiszta. A legpesszimistább meglátások szerint még egy olyan környezetben, amikor mindenki őszinte jószándékkal veti bele magát az MI fejlesztésébe, létrejöhetnek emberek ellen fellázadó robotok, de a reálisabb talajon mozgó szakértők szerint se teljesen oké, ha óriáscégek átláthatóság nélkül dolgozva munkálkodnak azon, hogy minél több profitot facsarjanak ki a fejlesztéseikből. És ezt Sundar Pichai nem tudja eltitkolni, akármennyire is próbálkozik.

Nyitó illusztráció: ThinkStock

Ajánlott videó

Olvasói sztorik