Tech

Adatnagyhatalom lehetne Magyarországból, ha akarná

Még mindig nem sikerült egyértelmű szabályozást bevezetni a mesterséges intelligenciára sem globálisan, sem itthon - pedig a kihívások ugyanúgy megvannak, és egyre nagyobb a tét is. Ahogy fejlődik az MI, úgy lesz egyre sürgetőbb, hogy kezdjünk valamit az adatvédelemmel vagy a kötelező etikával. A Smart X konferencián ezt járták körbe a szakértők a mesterséges intelligencia panelen.

A mesterséges intelligenciával szemben alapvetően három elvárást támasztanak a szakértők, ezek nélkül nem működhet megfelelően egy rendszer: legyen igazságos, átlátható és elszámoltatható. Bárd Imre, a Nesta kutatója szerint a mesterséges intelligencia szektora nagyon gyorsan változik és fejlődik, ezért érdemes minél előbb lefektetni az alapokat.

HA ROSSZAK AZ ADATOK, RASSZISTA LEHET A RENDSZER

Nem kérdés, hogy ma már az adat az új olaj – elcsépelt, de így van, ez jelenleg az egyik legértékesebb erőforrás, ami nélkül a mesterséges intelligencia is értelmét veszti. Az adatok mennyisége, de minősége is számít, mert nem lehet igazságos a mesterséges intelligencia, és az arra épülő rendszerek, ha nem elég sokrétű és nem releváns. Bárd az arcfelismerő rendszereket hozta fel példának, amikbe rendszerint szinte kizárólag középkorú fehér férfi arcképét táplálják, emiatt

a kisebbségek, más bőrszínek, nők esetében is hibásak lehetnek.

Nemrég mi is írtunk róla, hogy ugyanez a helyzet az önvezető autóknál, ami akár emberéletbe is kerülhet, de a nemzetbiztonságban sem túl szerencsés, ha hiba csúszik a gépezetbe. Ha az adathalmaz nem reprezentálja azt a jelenséget, amire a mesterséges intelligenciát használjuk, az nem fog tudni úgy tanulni, hogy az igazságos és fair eredménnyel járjon.

Rasszisták lehetnek az önvezető autók
Kevésbé ismerik fel a sötét bőrszínt, mint a világosat, ezért balesetveszélyesek lehetnek.

Rossz az olyan adat például, ami előítéletekre épül: az Egyesült Államokban a színesbőrű vádlottak aránytalanul magas büntetést kapnak a fehérekhez képest, és ha erre a bírói folyamatra mesterséges intelligenciát akarnánk bevezetni, az már alapból ezeket az információkat kapná meg, holott nem túl igazságosak. Az adathalmaz alapján az MI tovább örökítené a prekoncepciókat, az előítéleteket, a használatukkal domináns társadalmi sztereotípiákat örökítenénk tovább a látszólag objektív rendszerekben. Ez pedig még nagyobb egyenlőtlenséghez vezethetne.

Fotó: Thinkstock

De nemcsak az adatok lehetnek rosszak, akkor sem szerencsés MI-t fejleszteni, ha nem átlátható a működése. Ez kétélű dolog, hiszen sajátos érdekfeszültség áll fenn, a felhasználó tudni akarja, hogy működik a rendszer, a fejlesztő vállalat pedig egyértelműen védeni szeretné a saját szellemi tulajdonát. Bárd szerint nagy baj még az is, hogy tulajdonképpen nem is értjük teljesen, hogyan működik a mesterséges intelligencia, nehezen értheti meg valaki olyan az algoritmusokat, aki nem dolgozik rajtuk.

Az elszámoltathatóság sem egyszerűbb: komoly viták zajlanak, hogy ki tehető felelőssé az MI okozta károkért.

Itt nemcsak az olyan egyszerű esetekről van szó, mint az önvezető autók felelőssége, hanem az olyanokról is, hogy kinek a hibája, és ki bűnhődjön egy olyan botrány miatt, mint amilyen a Cambridge Analytica szivárgás is volt. Míg ebben az esetben sűrű bocsánatkéréseken kívül semmi más nem történt, most már vannak törekvések arra, hogy a témát komolyan vegyük.

Persze ezekre a problémákra is vannak különböző megoldások: egy részük technológiai, mint a Google What-if vagy az IBM Fairness 360 Toolkit, amelyek segítségével bele lehet nézni bizonyos algoritmusok működésébe. A DARPA új MI paradigmát akar kifejleszteni, melyben létezik egy új interfész az ember és az MI között, és több mesterséges intelligenciával foglalkozó cég állít fel önszabályozó testületeket, persze több-kevesebb sikerrel.

A Google nem akar rasszista robotokat
Belső ellenőrző bizottságot állít fel a keresőóriás, hogy biztosan ne éljenek vissza a mesterséges intelligenciával.

A legjobb megoldás egyértelműen a szabályozás, ami, az általános vélekedéssel ellentétben nem jelenti az innováció halálát, csupán megjelöli, merre kell haladnia.

MI ÉS EMBER – KI FELÜGYELJEN KIT?

A mesterséges intelligenciával kapcsolatban inkább a negatív hírek érik el az embereket, mondta Varga Gábor, a Microsoft magyarországi stratégiai technológiai tanácsadója. A szakma feladata, hogy megteremtse a közbizalmat vele kapcsolatban, ennek egy része az, hogy ennél is többet kell róla beszélni, és be kell juttatni a köztudatba a különböző aspektusait, másik pedig az, hogy érvényes szabályozást kell bevezetni rá, akár országos, uniós, iparági, vagy akár globális szinten.

Varga Gábor a Smart X konferencián – fotó: 24.hu

Ehhez azonban még nagyon sokat kell fejlődnie a szakmának. Nagyon nehéz például meghatározni, hogy a mesterséges intelligenciának milyen mértékben kell belefolynia az emberi folyamatokba, és az emberi mulasztást milyen mértékig kell korrigálnia.

Varga példaként két repülőgép-szerencsétlenséget hozott, mindkettőt 2009-ből: az egyik az Air France Rio de Janeiróból Párizsba tartó járatÁNAK katasztrófája, ahol az Airbus A330-203-as gép jelzett, hogy baj van, de a pilóta nem hallgatott a figyelmeztetésre, és jórészt ezért zuhant az óceánba. A másik 2009-es eset a Hudson folyóra leszállt kapitányé volt, amikor az  Airbus A320-214 egy madárrajba ütközött felszállás után, mindkét hajtóműve leállt, a pilóta mégis a robotikát kikapcsolva tette le a gépet. Az egyik esetben a gépre kellett volna hagyatkozni, a másikban viszont az emberi tapasztalatra és döntésekre.

Varga szerint a legideálisabb az lenne, ha a mesterséges intelligencia működését ember felügyelné, de ezt az embert is figyelné egy mesterséges intelligencia, hogy biztosan olyan állapotban van-e, amiben ellenőrizni tud. Ezzel lehetne a legkisebb hibaszázalékot elérni.

Forrás: Pixabay

ITTHON NAGYON JÓK VAGYUNK ADATGYŰJTÉSBEN

Bár Magyarország első blikkre nem igazán MI-nagyhatalom, azért van nekünk is Mesterséges Intelligencia Koalíciónk, ami egy önkéntes együttműködés, és egyik célja, hogy létrehozza az ország MI-stratégiáját, a másik pedig az, hogy építse a piacot és az ökoszisztémát abból a célból, hogy itthon is minél sokszínűbb legyen az ilyen algoritmusok felhasználása. Rengeteg országban van stratégia a mesterséges intelligenciára globálisan, legtöbbjük még csak tavaly fogalmazta meg a szabályozásokat és útmutatásokat, ezért nem vagyunk nagyon lemaradva mi sem – mondta el Szertics Gergely, az MI Koalíció szakmai vezetője. Kanada például a mesterséges intelligencia-ökoszisztémára fókuszál,

a finnek pedig az MI egészségügyi felhasználására.

Mesterséges intelligencia szintjén több minden történik itthon, mint amit gondolnánk, csak egyelőre szervezetlenül. Az MI három fő kategóriájában mindenhol van magyar kiválóság vagy magyar vonatkozású projekt: a kutatásban (BME, ELTE, MTA SZTAKI, stb.), az alkalmazásban (pl. Continental), vagy az eszközök bevetése (IBM, Microsoft, Nexogen, stb.).

Hosszú távon egy használható stratégia kiépítéséhez a Mesterséges Intelligencia Koalíciónak elemeznie kell a környező országokat (ezt meg is tette, az EU-n belül, plusz még 15 másik országgal), adatpolitikát kell alkotni, infrastruktúrát és intézményi háttért építeni, oktatást szervezni és új adatokat kell strukturáltan gyűjteni. Rövid távon a meglévő adatokat kell összegyűjteni és rendszerezni (Magyarország ugyanis nagyon jó az adatgyűjtésben, csak egyelőre nem tudunk vele mit kezdeni), valamint adatfelhasználási modelleket kell kialakítani.

Sok még a munka, de elindult, és Szertics szerint őszre már komolyabb változások várhatók a piacon. Egy biztos: Magyarország nincs sokkal lemaradva a környező országoktól, ráadásul adatvagyonban legalább biztosan nagyot tud villantani hozzájuk képest, így ezen az úton érdemes először elindulni.

Ajánlott videó

Nézd meg a legfrissebb cikkeinket a címlapon!
Olvasói sztorik