Nagyvilág europoli

Tényleg olyan fenyegetést jelent a mesterséges intelligencia a demokráciára, mint az atombomba az élővilágra?

Michael Reichel / picture alliance / Getty Images
Michael Reichel / picture alliance / Getty Images
A mesterséges intelligencia alkalmazása során az európai hatóságoknak meg kell találniuk az egyensúlyt a lehetőségek és a kockázatok között. Az Európai Unió éppen egy ilyen keretrendszer kialakításán dolgozik, a jogalkotási folyamat legutóbbi állomása pedig egy parlamenti vita volt. A képviselők szerint a tervezet nem elég szigorú: sokkal keményebb és szerteágazóbb tilalmakat tartanak szükségesnek a mesterséges intelligencia hatósági alkalmazásában.

A mesterséges intelligencia (MI) fénysebességszerű fejlődésének köszönhetően számos olyan automatikus rendszer kiépítése válik lehetővé, melyek jelentősen megkönnyíthetik az életünket. Az orvosok MI-t használó rendszerek segítségével találhatnak meg rákos sejteket, a járművezetést mesterséges intelligencia venné át, és az adminisztrációs folyamatokat is megkönnyítené a technológia.

E hatalmas potenciálból fakadóan több európai állam is alkalmaz már mesterséges intelligenciát valamilyen területen. A holland rendőrség például MI-t használ arra, hogy gyanúsítottak fényképeit gyorsabban hasonlítsa össze a bűnözési adatbázissal. A londoni rendőrség pedig valós idejű arcfelismerő rendszert használ gyanúsítottak azonosítására.

Az éremnek azonban két oldala van. Míg az MI gyógyírt nyújthat a társadalom számos bajára, bőven akadnak veszélyei is.

Így például az MI a valós idejű tömeges megfigyelés alapjait fektetné le, ami veszélyezteti az anonimitást és sértheti az európai polgárok alapvető jogait.

Digitális azonosításkor például az MI gyakrabban ejt hibát a női arcok felismerésében, mint a férfiakéban, a hibás azonosítás pedig téves letartóztatásokhoz és diszkriminációhoz vezethet.

Úgy tűnik tehát, hogy az MI alkalmazása során egyensúlyt kell találni a progresszív lehetőségek és az esetleges káros következmények között. Ezen dolgoztak az Európai Parlament képviselői, amikor egy MI-ről szóló jelentlést vitattak meg október 4-én Strasbourgban. A Petar Vitanov (S&D) által készített dokumentum egy évekig tartó konzultációs folyamat kritikus állomása, amelynek során az Európai Unió egy világszinten is párját ritkító jogi keretrendszert alakítana ki a mesterséges intelligencia használatának szabályozására.

A sztori idén áprilisban kezdődött, amikor az Európai Bizottság előterjesztette a mesterséges intelligencia használatáról szóló jogszabályjavaslatát. A dokumentum több kategóriába sorolja a mesterséges intelligenciára alapuló rendszereket:

  • tiltott MI-gyakorlatok, amelyeket nem engedélyezne a jogszabály. Ilyen például az MI használata arra, hogy egyes személyek társadalmi megbízhatóságát pontozzák.
  • Nagy kockázatú rendszerek: olyanok, melyek nagy befolyással vannak az emberek egészségére, biztonságára vagy alapvető jogaira. Ilyen lehet például az MI alkalmazása orvosi eszközökben. Tekintettel e rendszerek érzékeny mivoltára, a gyártónak magas elvárásoknak kell megfelelniük a fejlesztés közben, mint például a szoftver részletes és érthető dokumentációja, valamint a mesterséges intelligencia emberi felügyelete.
  • Ezen kívül vannak még a korlátozott kockázatú (chatbot használata információkeresésre), illetve alacsony kockázatú rendszerek (levélszemetet szűrő alkalmazások). E két kategória szabályozása kevésbé ellentmondásos, mint a nagyobb kockázatúaké.

A bizottság két tűz közé szorult: egyrészt az Amerikai Egyesült Államok (ahol decentralizált, lazább módon szabályozzák az MI-t) figyelmeztette az EU-t, hogy az MI-szektor túlszabályozása gátolhatja az innovációt. Ugyanakkor a civil szervezetek és a parlamenti képviselők szerint a szabályozás nem elég szigorú és részletes.

Kulcsfontosságú területeket nem tekint „nagy kockázatúnak” a beterjesztett javaslat, így például a közösségi médiát és az online vásárlást.

Továbbá a nagy kockázatú rendszerek esetében a gyártónak kellene megállapítania, hogy a saját terméke összhangban van-e a jogszabályban foglalt paraméterekkel. Külső felülvizsgálat hiányában azonban az önvizsgálat objektivitása megkérdőjelezhető.

Azt is kritizálják, hogy bizonyos rendelkezések kiskaput nyújthatnak az MI használóinak. A javaslat például tiltaná a „valós idejű” biometrikus azonosítást közterületen bűnüldözési okokból (ebben a kontextusban a biometrikus azt jelenti, hogy a kinézet, hang, arc és járás alapján azonosítanának valakit). Ez szigorú rendelkezésnek látszik, csakhogy a biometrikus azonosítás egyáltalán nem kizárt más esetekben, így például felvételről.

Kifogásolták még az MI egyik kulcsfontosságú elemét, a gép tanulási folyamatát. A mesterséges intelligencia ugyanis nem a semmiből terem, a gépet tanítani kell. A bírálat tárgya az, hogy a tanulási folyamat következtében a gép korántsem objektív és semleges, mint ahogy azt sokan hiszik. Amennyiben a gép fejlesztői elfogultak, az MI is az lesz.

A történet következő epizódja júniusban az Európai Adatvédelmi Testület (a tagállamok adatvédelmi hatóságaiból álló testület) és az Európai Adatvédelmi Felügyelő (az uniós intézményeket felügyelő szerv) nyilatkozata volt, miszerint a bizottság jogszabályjavaslatának további területeket kellene még szabályoznia. Az adatvédelmi szervek szerint az MI veszélyezteti az EU-s polgárok alapvető jogait, ezért a lehető legszélesebb körű tilalmakat kell alkalmazni. Javaslatuk szerint tiltani kellene mindenfajta automatizált azonosítást közterületeken, nem csak a „valós idejűeket”.

Sőt, kiterjesztenék a tilalmat olyan MI-rendszerekre, amelyek biometrikus adatokat használnak arra, hogy kategorizálják az embereket etnikum, politikai orientáltság vagy szexuális beállítottság alapján.

A folyamat legutóbbi állomása a fentebb említett parlamenti vita és az utána elfogadott állásfoglalás volt. Az adatvédelmi szervekhez és civil szervezetekhez hasonlóan az Európai Parlament is szigorítaná a szabályokat. Szélesítené például a tiltott alkalmazások körét: az állásfoglalás szerint a hatóságoknak nem szabadna olyan, magánjellegű arcfelismerő adatbázisokat használni, mint az amerikai Clearview AI.

Vitanov szerint az MI hibái a sebezhető társadalmi csoportokat érintik a leginkább, például a bevándorlókat és a szegényeket. Karen Melchior dán képviselő (Renew) szerint pedig az MI-kockázatelemzés és az automatizált döntéshozó rendszerek olyan veszélyt jelentenek a demokráciára, mint az atombombák az élővilágra.

Az Európai Bizottságot Ylva Johansson belügyi biztos képviselte. A biztos emlékeztetett az MI egyik közelmúltbéli sikerére, amikor is a holland bűnügyi újságírót, Peter R. de Vries-t megtámadó gyanúsítottakat rekordgyorsasággal kapta el a rendőrség az MI segítségével. A biztos szerint több indoka is van annak, hogy a mesterséges intelligenciát szélesebb körben alkalmazzák a hatóságok. Bizonyos esetekben például a rendőröknek több ezer terrabájtnyi adatot kellene átvizsgálniuk, amit egy gép sokkal gyorsabban el tudna végezni. Ráadásul ma már a bűnözők is használnak MI-t, főként csalásoknál. E bűnözők elkapásához a hatóságoknak a legmodernebb eszközökre van szükségük.

A pozitív fejlemények és sikertörténetek ellenére az Európai Parlament nyilvánvalóvá tette, hogy a technológiát szkepticizmus övezi: a szigorítást javasló jelentést 377 képviselő támogatta, 248 ellenezte, 62-en tartózkodtak. A bizottság nem köteles megfogadni a jelentésben foglalt útmutatást, de a parlament üzenete világos: a mesterséges intelligenciát szoros kereteken belül kell tartani.

A projekt az Európai Unió társfinanszírozásával, az Európai Parlament kommunikáció területére vonatkozó támogatási programja keretében valósult meg. Előkészítésében az Európai Parlament nem vett részt, és semmilyen felelősséget vagy kötelezettséget nem vállal a projekt keretében nyilvánosságra hozott információkért és álláspontokért, amelyekért kizárólag a szerzők, a megkérdezett személyek, a program szerkesztői és terjesztői felelősek az alkalmazandó jognak megfelelően. Az Európai Parlament nem felel a projekt megvalósításából esetlegesen származó közvetlen vagy közvetett károkért sem.

Ajánlott videó

Olvasói sztorik