A mesterséges intelligencia (MI) már szervesen beépült rengeteg, nap mint nap használt szolgáltatásba: ott van a dugókat előrejelző, autókba épített navigációs rendszerekben, a Netflix vagy a Spotify ajánlói mögött, és a Facebook is rengeteg feladatot bíz algoritmusokra a hírfolyam kezelésétől a fotók elemzéséig. Naponta választunk olyan opciók közül, amiket a mesterséges intelligencia ajánl nekünk egyedi ízlésünkhöz és korábbi szokásainkhoz igazítva.
Az MI kapcsán pedig egyre többször jelenik meg az a félelem, hogy jönnek a robotok, az algoritmusok, és elveszik a munkánkat. „A jövőtől leginkább azért félünk, mert nem tudunk rá felkészülni, és alapból is hajlamosak vagyunk negatívabban hozzáállni, mint amilyen valójában lesz” – mondta Szökőcs Csaba, az EvoSoft vezető szoftvermérnöke a Neumann Társaság A jelenből a digitális jövőbe című eseményén, melynek témája az MI volt.
A mesterséges intelligencia nagy veszélye, hogy egy lopakodó erő. Ha nem figyelünk oda, könnyen lehet, hogy egyik pillanatról a másikra egy másik világban ébredünk fel. Értem ezt arra, hogy egy iparág teljesen átrendeződött. Az MI egyik legfontosabb attribútuma, hogy adatokból tanuló, magukat fejlesztő rendszerekről van szó, melyek gyorsan képesek nagyokat előreugrani, és átírni bizonyos szabályokat
– fejtette ki kérdésünkre George Tilesch (Tilesch György) mesterségesintelligencia-szakértő, aki szintén előadott a Neumann Társaság eseményén. Tilesch a washingtoni Fehér Ház MI-etikai munkacsoportjának tagja, a Neumann Társaság Mesterséges Intelligencia Nagykövete, őt telefonon értük el kérdéseinkkel.
Tilesch szerint a téma hosszú évekig például a taxisok kiváltására alkalmas önvezető autók fejlődése miatt került fókuszba a médiában, ám elsősorban egy belátható távon belül a trend inkább az lesz, hogy kínai robotok veszik el az európai robotok munkajat. Továbbá, hogy a vállalatok belső folyamatai mennek végig egy szoftveres automatizáción, aminek még nincs szabályozási vagy társadalmi ellensúlya. Emiatt inkább a fehérgalléros munkakörben tevékenykedők vannak veszélyben a közeljövőben, olyanok, akik túlképzettek a pozíciójukhoz képest: rengetegen végeznek például alacsonyabb rangú adminisztratív munkát. Az unióban pedig egyébként is komoly probléma a fiatalok munkanélkülisége.
Az ügyvédet nem fogja teljesen kiváltani az algoritmus
A munkák kiváltásáról általános gondolat, hogy a robotok a rutinszerű fizikai melót, kvázi a robotolást váltják ki, a szellemi munka kapcsán viszont elsőre nem egyértelmű, hogyan jönnek képbe az algoritmusok – például a tárgyalótermekben, az ügyvédi szakmában.
Az amerikai jogrendszer erősen esetjogi alapú. Ez azt jelenti, hogy minden ügy úgy dől el, hogy akik a háttérkutatást végzik, azok mennyire tudják a megfelelő, releváns eseteket megtalálni a múltban, amelyek meghatározzák az aktuális bírói döntést is. A kutatás az amerikaiaknál esszenciálisabb szerepet tölt be a folyamat során, mint Magyarországon, ezt lényeges hangsúlyozni. Amerikában van egy egyedi szakma, az úgynevezett paralegal (Magyarországon kb. jogi asszisztens), aki csinálja ezt a háttérmunkát, az adminisztrációt, ezt képes elvégezni egy MI is. Egyébként én nem hiszem, hogy a peres ügyvédek kenyerét elvenné bármiféle MI-alapú szoftver
– fejtette ki Tilesch a 24.hu kérdésére.
Ennek nyomán az adminisztratív és kutatási feladatokat végző, junior jogi munkát ellátó paralegalból kevesebbre lesz szükség, és az ilyen megoldásokat használó ügyvédi irodák versenyelőnyt szereznek, mivel rövidebb idő alatt végeznek kiterjedtebb kutatásokat, ami alátámasztja a döntést a bírósági tárgyalásban – véli a szakértő. És ez nem a jövő, hiszen Amerikában az elítéltek feltételes szabadlábra helyezését már egy automatizált rendszer segíti, nagyjából az ügyek 30 százaléka valamilyen döntéselőkészítő szoftveren keresztül fut.
Ezt úgy kell elképzelni, hogy egy mesterségesintelligencia-alapú megoldásba beletáplálják a paramétereket, ami aztán a bírónak ad döntési javaslatot, például hogy javasolt-e feltételes szabadlábra helyezni adott személyt. Tilesch még említi, hogy nagy veszélyeket rejt magában az is, hogy a gépek döntését feljebb rangsorolhatjuk az emberekénél.
Komolyan fennáll az a veszély, ha jön egy rendszer, ami tévedhetetlenebbnek tűnik, mint a bíró, akkor a leterhelt bíró azt mondja majd, hogy nem bírálja felül az MI javaslatát, hiszen az úgyis jobban tudja, mint ő. Ezt pedig exrapolálhatjuk más területekre is. Már az európai kormányzati rendszereknél is van valós példa. Lengyelországban egy, a munkanélküliek automatikus kategorizálását végző MI-megoldás 99 százalék fölött hozott olyan döntéseket, amelyeket a köztisztviselő nem bírált felül. Lesz olyan csábítás, hogy az emberek levessék magukról a felelősséget azzal az indokkal, hogy az MI azt mondta. Ezért amiatt aggódom leginkább, hogy az ember hajlamos kiengedni a kezéből a döntés jogát.
Az algoritmust is ember tervezi
A technológusok szerint ha etikai probléma vetődik fel egy algoritmus döntése miatt, annak két forrása lehet. Az egyik maga az adatforrás (mennyire koszos, releváns a bevitt adat), a másik a modellforrás (ez maga a szoftver). Vihetünk be tisztább adatokat, de az adatokat emberek viszik be. Ahogy a világból válogatunk, már alapból elfogult (angol nyelvben a biased kifejezést használják a szakszövegek). Ennek nem csak a továbbviteléről van szó, de az MI skáláz is, tehát a rendszerbe beépült rossz döntések, problémás történetek pillanatok alatt megsokszorozódnak – magyarázza Tilesch.
Erre több valós példa is említhető a világból. Az Egyesült Királyságban például nagy botrányt keltett a nyáron, hogy a koronavírus-járvány miatt elmaradtak az érettségik, így a hallgatók ajánlott jegyekkel jelentkezhettek volna egyetemekre. Az angol kormány erre egy felvételi döntésajánló MI-rendszert használt. Ám az algoritmusos súlyozás nem volt éppen etikus.
Ha valaki jó tanuló volt, de egy alacsonyabban értékelt iskolában folytatott előtanulmányokat, azt a rendszer mínusz pontnak vette. Ugyanígy kivételezett azokkal is, akik kisebb tanulócsoportokból érkeztek – így az elitiskolákból érkezők előnyben voltak, tehát az algoritmus szerint az egyéni jó eredmény mellett fontos a tanuló társadalmi csoportja is. Sokan egyenesen „szegényellenesnek” nevezték a megoldást.
A probléma felfedezhető a HR világában is. Pár éve az Amazon fejlesztett magának egy algoritmust toborzáshoz, ami segített kiválogatni, hogy az e-mailen érkező önéletrajzokból kiket érdemes behívni interjúra. Mivel nem volt elég széles a belső mintavétel, ezért az algoritmus erősen kezdett minden pozícióra fehér férfi szoftverfejlesztőt kellett volna felvenni. Ezt a projektet viszonylag gyorsan le is lőtte a cég.
A bankoknál pedig a hitelbírálatkor csapódhat le az, hogy elfogult szempontok alapján értékel egy szoftver. Volt már példa arra, hogy egy automatizált hitelbírálat során a rendszer azt is figyelte, hogy a hitelt kérvényező személy mobiljának mekkora a töltöttsége – ha nagyon alacsonyan volt, a rendszer azt feltételezte, hogy a kérvényező nem elég pontos, nem elég előrelátó, ami mínusz pontokat érhetett.
Gyorsan szalad, nehéz megfogni
Bár a mesterséges intelligenciák terén még messze nem értünk el a fejlettség végső szintjére, de már most akadnak olyan etikai aggodalmak, amikkel kapcsolatban sürgősen le kell fektetni a jogi alapokat és szabályokat. Az arcfelismerés körül kialakuló vita is azt mutatja, égető az igény arra, hogy a szabályozók nagyobb figyelmet szenteljenek a kérdésnek. Az etikus használathoz ipari sztenderdé váló irányelvekre és szilárd jogi alapokra van szükség. Bár sokan mondják, hogy hova a sietség, hiszen még csak az út elején járunk, de épp ezért nem szabad várni, a tét túlságosan nagy. Az államok épp a jogi keretrendszer kidolgozásán munkálkodnak, de erőteljesen küzdenek a problémákkal. Az egyik probléma a lassúság, ezt jól példázza, hogy a GDPR-t is öt évig készítették elő, majd két év múlva lépett hatályba.
Jogi értelemben a vadnyugaton vagyunk MI szabályozásban. Nagyon gyorsan elmegy mellettünk a technológiai fejlődés, és később nehéz belenyúlni. A másik probléma az úgynevezett fekete-doboz hatás, hogy meg kell tudni magyarázni, mi alapján hozza meg egy komplex algoritmus a döntéseket. Az MI-re nem szabad úgy gondolni, mint egy hagyományos szoftverre. Az a gyönyörű és egyben veszélyes benne, hogy paramétereket adunk neki, az pedig tanulásra van optimalizálva, így mi csak toljuk bele az adatot, aztán hátradőlünk. Utána a rendszer magától von le következtetéseket, és bizonyos értelemben folyamatosan fejleszti magát. A billió kapcsolat a paraméterek közt egy neurális hálóban olyan helyztetet hoz létre, hogy a rendszer fejlesztőjének is nehéz visszakövetni a döntéseket.
– magyarázza Tilesch.
Ilyen téren jelenleg az Európai Unió áll a legjobban, vélhetően 2021 elején várható egy fontos bejelentés a mesterséges intelligencia szabályozásával kapcsolatos keretrendszerről. Októberben az EP brüsszeli plenáris ülésén a mesterséges intelligencia fejlesztésének etikai és jogi vetületeiről elfogadott ajánlás szerint a mesterséges intelligenciára épülő technológiákkal szemben elvárásnak kell lenni, hogy maradjanak emberközpontúak, emberek alkossák meg őket, biztonságos, átláthatók és elszámoltathatók legyenek.
A képviselők kiemelték, hogy az önálló tanulásra képes technológiákat úgy kell megtervezni, hogy működésük minden pontját ember tudja felügyelni. Ha egy adott funkció használata súlyos etikai vétséghez vezetne, vagy veszélyes lehet, biztosítani kell, hogy az ember letilthassa az önálló tanulást, és visszavegye a teljes irányítást a technológia felett.
Tilesch szerint dönteni kell arról is, hogy mely alkalmazási területek potenciálisan veszélyesek, ezek kockázati fokozata határozza majd meg, milyen minősítéssel kerülhetnek a piacra, és az Európai Unió is ebbe az irányba halad. Még nagy küzdelmek várhatók, de szerencsére észrevehető az a trend is, hogy a nagyvállalatoknál megindult egy önszabályozási folyamat, több nagy tech cég is kidolgozza saját etikai kódexeit, vagy éppen saját maga tiltotta le arcfelisméresi rendszer-értékesítéseit. Ahogy a dublini Digital Summiton is hallhattunk róla tavaly, a Microsoft például már megfogalmazott fő irányelveket, amik mentén az etikai szempontoknak is megfelelő szolgáltatásokat lehet tervezni.
A két fő elem a pártatlanság és a megbízhatóság: ez azt jelenti, hogy az MI-rendszereknek minden embert egyenlőként kell kezelnie, mindenkinek előnyöket kell kínálnia. A megbízhatóság és pontosság kérdése is fontos, mivel az algoritmus sem tökéletes. A rendszerek ugyan gyorsan fejlődnek, de még messze vannak a tökéletestől.
Kiemelt kép: Getty Images