Tech

Égető kérdést hagy megválaszolatlanul az EU egyik legfontosabb törvénye

gopixa / Getty Images
gopixa / Getty Images
Március 13-án az Európai Unió elfogadta a világ első, a mesterséges intelligencia megregulázását célzó törvényjavaslatát. Az AI Act előkészítése közel egy évtizeden át zajlott, de évekig is eltarthat, mire érdemi hatása lesz. Cikkünkben bemutatjuk, miről szól ez a történelmi jelentőségű szabályozás, és mi az, ami hiányzik belőle.

Jóllehet a mesterséges intelligencia már hosszú évek óta az életünk része a YouTube-hoz és a Facebookhoz hasonló felületek fejlett algoritmusai révén, az emberek többsége csupán a ChatGPT megjelenése után kapta fel a fejét a trendre, ami azóta is tart, és vélhetően rányomja majd a bélyegét a következő évtizedekre. Szerencsére az Európai Unió – csakúgy mint a világ nagyhatalmai – az átlagemberekhez képest régebb óta követi figyelemmel a gépi tanulás és a mesterséges intelligencia fejlődését.

Már nagyjából egy évtizede folyik a munka, hogy olyan keretrendszer szülessen, ami nem gátolja a jótékony technológiák megjelenését és fejlődését, ugyanakkor véd a kártékony rendszerek térnyerésétől.

Az első komolyabb lépésre 2018 áprilisában került sor, amikor lefektették az alapvető európai mesterségesintelligencia-stratégiát, majd az év végére a döntéshozók már egy koordinált tervvel is előálltak. Ennek nyomán megkezdődött az egyeztetés az érintett cégekkel, amelyek ugyan kezdettől fogva egyetértettek az EU-val abban, hogy korlátozásra van szükség, mégis elhúzódtak a tárgyalások, és az Európai Bizottság csupán 2021 áprilisában tudta bemutatni az első, MI-re fókuszáló jogszabálycsomagot, ami már törvénybetartatási mechanizmusokat is tartalmazott. Ennek első vázlatát az Európai Tanács 2022-ben, majd az Európai Parlament 2023. június 14-én fogadta el.

Az Európai Unió bonyolult törvényalkotási folyamatai azonban nem teszik lehetővé, hogy egy-egy felterjesztés komolyabb lektorálás vagy az érintettekkel zajló egyeztetés nélkül szavazásra kerülhessen. Bár tavaly sokan azt hitték, hogy a világ első, mesterséges intelligenciát célzó törvénycsomagja, az EU AI Act már 2023 év végén szavazásra kerülhet, erre végül 2024. március 13-ig kellett várni.

Az AI Actet a végszavazáson 523 igen szavazattal, 46 nem ellenében, 49 tartózkodással fogadták el, a kihirdetésre pedig várhatóan májusban kerülhet sor.

A mesterséges intelligencia három szintjét szétszálazó, több száz oldalas törvény ezt követően 20 nappal lép hatályba, ezen túlnyúló türelmi időt biztosítva az érintetteknek, hogy megfeleljenek az új jogszabálynak. Akár csak korábban a technológiai nagyvállalatokra (Meta, Apple, Google, ByteDance stb.), illetve a piaci folyamatokra vonatkozó DMA (Digital Market Act), valamint az EU-s állampolgárok védelmét szolgáló Digital Service Act (DSA) esetében.

A döntés szerint lesznek rendelkezések, amiket fél éven belül alkalmazni kell, míg az általános célú rendszereknél 12, a magas kockázatú mesterségesintelligencia-megoldásoknál pedig 36 hónap áll a cégek és az állami szervek rendelkezésére, hogy a törvényeknek megfelelővé tegyék a mesterséges intelligenciát használó megoldásaikat.

De mit is jelentenek pontosan ezek a fogalmak, és mi lesz a napjainkat leginkább befolyásoló generatív mesterséges intelligenciával? Ennek járunk utána cikkünkben.

Tűrt, tiltott, támogatott? Nem egészen

Az évek során az Artificial Intelligence Act rengeteg változtatáson ment keresztül, ami főleg az olyan fejlett uniós országok ellenvetéseinek köszönhető, mint például Franciaország, Németország vagy Olaszország, de az egyeztetéseken résztvevő technológiai cégek is keményen lobbiztak a saját termékük védelméért.

Sokáig úgy tűnt, a végső rendelet négy szintre (betiltandó, magas kockázatú, figyelemmel követendő és általános célú) bontja az MI-fejlesztéseket, de a törvény végül

  • tiltott,
  • magas kockázatú
  • és általános célú (GPAI) rendszereket különböztet meg.

Vegyük sorra, hogy az egyes szintek milyen rendszerekre vonatkoznak.

MARCO BERTORELLO / AFP

A tiltott rendszerek között mindenhol elsőként nevezik meg az úgynevezett társadalmi kreditrendszert, melyet sokan Kínával azonosítanak. Ennek részeként az állam az egyén viselkedése vagy személyes tulajdonságai alapján szab ki jutalmat vagy büntetést egyes tagjaira, melynek pontosságát fejlett megfigyelőrendszer kiépítésével tudnak szavatolni. Az Európai Unió megtiltja az ilyen rendszerek kiépítését.

Ugyanígy tiltottak az olyan rendszerek, amik rassz, politikai vélemény, szakszervezeti tagság, vallási és filozófiai meggyőződés vagy szexuális irányultság alapján kategorizálják az állampolgárokat.

A törvénytervezet a hatóságoknak megtiltja továbbá a valós idejű helyadatokon alapuló távoli biometrikus azonosítást (RBI), leszámítva a súlyos bűncselekmények gyanúsítottjainak azonosítását, például, ha emberrablásról, terrorcselekmény előkészítéséről vagy épp szervezett kábítószer-kereskedelemről van szó. Ugyancsak tiltott az adatbáziskészítés biztonsági kamerák (CCTV) felvételeiből gyűjtött adatokból (ez az úgynevezett data scraping), és tilos pusztán külső jellemzők alapján, bizonyíték nélkül követni egy adott személy tevékenységét.

Fontos ezen felül, hogy tiltott minden olyan rendszer létrehozása, ami tudatalatti, manipulatív vagy megtévesztő technikák alkalmazásával próbál rávenni embereket a viselkedésük megváltoztatására. Ezen felül a sérülékeny társadalmi csoportokra szakosodott rendszerek – így például a fiatalokat vagy időskorúakat, fogyatékkal élőket vagy társadalmi-gazdasági szempontból kiszolgáltatott embereket célzó rendszerek – használata és terjesztése is tilos. Az EU emellett betiltja az olyan iskolai vagy munkahelyi megfigyelőrendszereket, amik az érzelmeket monitorozzák.

Magas kockázatú rendszerek

Amikor egy fejlesztés magas kockázatot jelent, de nem nevezhető egyértelműen destruktívnak, az AI Act úgy rendelkezik, hogy a mesterséges intelligenciát nem kell betiltani, de a forgalomba kerülése előtt át kell esnie egy uniós átvilágításon, ami során ellenőrzik, megfelel-e a követelményeknek. A követelmények között szerepel többek közt a képzési adatok sokfélesége, ezzel elkerülve a diszkriminatív, részrehajló rendszerek létrehozását.

Ezen felül a szoftvernek részletes, közérthető műszaki dokumentációval kell rendelkeznie, kötelező továbbá a folyamatos kockázatértékelés, és a kezelt adatok védelme. Emellett a kiberbiztonsági ellenőrzéseket és fejlesztéseket is előírják a termék teljes életciklusára. A legfontosabb azonban, hogy legyen bármennyire fejlett az adott algoritmus, a végső döntésnek mindig szakképzett emberek kezében kell lennie.

Ezt egyesek viccesen Skynet-passzusként szokták emlegetni.

Ez vonatkozik többek között a kritikus fontosságú infrastruktúra területére, például a digitális rendszereket és a közúthálózatot monitorozó programokra, valamint a lakossági víz-, gáz-, áram- és fűtéshálózat területén használt rendszerekre is. A mesterséges intelligencia megregulázását célzó törvény ezen kívül számos egyéb területet is megnevez, ahol a szoftverek komoly kockázatot jelenthetnek. Ilyen például az oktatás és a humánerőforrás menedzsment.

SPmemory / Getty Images

Magas kockázatot jelentenek például azok a rendszerek, amelyek meghatározzák az oktatási és szakképzési intézményekhez való hozzáférést, valamint az oda történő felvételt. Szintén kockázatos terület az olyan rendszerek fejlesztése, amik az egyén képzettségi szintjének megfelelő intézmény kiválasztására képesek, csakúgy, mint a tiltott tanulói magatartás megfigyelésére használt megoldások. Magas kockázatúak továbbá a célzott álláshirdetések kiküldésére, valamint a jelöltek értékelésére szolgáló rendszerek is, illetve azon szisztémák, amik a már a cégnél dolgozó emberek előléptetéséről, kirúgásáról döntenek.

Az MI-modelleknek ráadásul a törvény szerint csakis szabályozott körülmények között lehet rálátásuk az emberek pénzügyeire, illetve az igazságszolgáltatás és a demokratikus folyamatok területére.

Ennek részeként a hitelképesség értékelését, illetve az egészség- és életbiztosítások árképzését befolyásoló fejlesztéseket is a magas kockázatú MI-fejlesztések kategóriájába sorolja az EU-s törvény. Szintén potenciális veszéllyel bírnak a menedék- és vízumkérelmek elbírálására szolgáló fejlesztések, illetve azok is, amelyek úti okmányokon túl is alkalmasak személyek beazonosítására. Végül pedig az igazságszolgáltatásban, illetve választások, politikai kampányok és népszavazások során használt mesterséges intelligencia alapú megoldásoknak is át kell esniük az említett ellenőrzéseken.

Általános célú mesterséges intelligencia

Az EU-s döntéshozás igencsak bonyolultnak mondható, amivel Brüsszelben is tisztában vannak, így tavaly októberben részletekbe menően is bemutatták az európai újságíróknak az egyes törvények, így például AI Act hátterét is. A háttérbeszélgetésen ismertették, hogy az eddig megjelent és a piacon lévő mesterséges intelligenciák nagyjából 80 százaléka egyébként ártalmatlan, és amennyiben átesnek az engedélyezési folyamaton, semmiféle probléma nem lesz az alkalmazásukkal az Európai Gazdasági Térség területén.

Az AI Act a tiltott és magas kockázatú MI-rendszerek mellett harmadikként az úgynevezett általános célú mesterséges intelligenciát (GPAI) emeli ki, amely besorolás leginkább a GPT-hez hasonló nagy nyelvi modellekre (LLM) vonatkozik. A definíció szerint a GPAI-ok olyan modellek, amelyek önmagukat fejlesztik a rendelkezésükre bocsátott rengeteg adattal, a végeredményt tekintve pedig képesek kompetensen végrehajtani olyan különböző feladatokat, mint például a szöveg-, kép-, zene- vagy videógenerálás.

Ezen modellek többsége alapvetően nem veszélyes, ugyanis a gyártók jelentős korlátokat építenek beléjük (tiltják az erőszak és a pornográfia ábrázolását, közéleti szereplők megjelenítését, stb.), ugyanakkor fontos kiemelni, hogy ezek legtöbbször nyílt forráskódú rendszerek, így a végső felhasználási mód rengetegféle lehet. A törvény részeként így az olyan nagy szolgáltatóknak, mint például az OpenAI (GPT), a Google (Gemini) vagy a Meta (Llama) kötelezettsége:

  • részletes és naprakész műszaki dokumentációval rendelkezni a képzés és a tesztelés paramétereiről,
  • tájékoztatni a rendszer képességeiről és korlátairól a későbbi felhasználókat,
  • tiszteletben tartani a szerzői jogra vonatkozó irányelveket,
  • illetve közzétenni a képzéshez használt adatok részletes listáját.

Bár sokáig vita volt erről, az EU-s döntéshozók végül kötelezték a cégeket, hogy vízjellel vagy megkülönböztető jelzéssel hívják fel a figyelmet a generatív mesterséges intelligencia által készített tartalmakra, kivéve, ha azok egyértelműen beazonosíthatók. Ez a jövőben hasznos lehet például a politikai kampányidőszakban megjelenő potenciális deepfake-ek kiszűrésénél is.

Michael M. Santiago / GETTY IMAGES NORTH AMERICA / Getty Images / AFP

A törvény előírja továbbá, hogy folyamatosan tesztelni kell a modell kijátszhatóságát és megbízhatóságát kiberbiztonsági szempontból, a hibákat vagy visszaéléseket pedig mielőbb jelezni kell a hamarosan felálló EU-s MI Hivatalnak, vagy a területileg illetékes hatóságoknak. Végül érdemes megjegyezni, hogy a GPAI modellek is átcsúszhatnak a magas kockázatú kategóriába, ha például a számítási kapacitásuk meghaladja a 10²⁵ műveletet másodpercenként. Ebben az esetben alaposan a gyártó körmére nézhetnek az EU-s szakértők.

Egy fontos pont hiányzik

Az Európai Bizottság elnöke, Ursula von der Leyen szerint az Európai Unió úttörő törvényének célja nem más, mint hogy világszerte megágyazzon az alapos MI-szabályozásnak, csakúgy, mint ahogy azt a GDPR-szabályozás tette az adatvédelem területén.

Az uniós szabályozás emellett az MI területén leginkább előrehaladott amerikai cégek (OpenAI, Google, Meta) megfékezésével is járhat – lévén a szabályok minden, Európában jelen lévő vállalatra vonatkoznak –, ami lehetőséget teremthet az európai központú cégek felzárkózására, ezzel együtt az adatvédelem-fókuszú mesterséges intelligencia ideájának terjesztésére.

Az informatikai szabályozás területén leegyszerűsítve három modell létezik jelenleg a világon:

  • a kínai,
  • az amerikai
  • és az európai.

Kínában hatalmas mesterségesintelligencia-rendszerek működnek, amiket sokszor megfigyelési céllal használnak, az állampárt pedig nem csinál ügyet a személyiségi jogi kérdésekből, így könnyedén begyűjthetők a felhasználói adatok profilozási célból. Az Egyesült Államokban nem a politikai, sokkal inkább az üzleti célok érvényesülnek: az embereknek adottak a jogai, azonban amint elfogadnak egy üzleti szabályozást, lényegében lemondanak azokról. Az Európai Unió ezzel szemben sokkal nagyobb hangsúlyt fektet az adatvédelemre, ami viszont komoly gazdasági hátrányt jelent.

Dr. Rab Árpád Szörény, a Nemzeti Közszolgálati Egyetem Információs Társadalom Kutatóintézetének tudományos főmunkatársa tavaly lapunknak azt mondta:

Egy jól működő MI-nek rengeteg adatra van szüksége. Márpedig, ha nem szabadítjuk fel az adatokat, sosem lesz jó mesterséges intelligencia az Európai Unióban.

Ezen a téren pedig egyelőre nem látni változást, ami jelentős hiányossága a törvénynek. Az EU-s AI Actből az olvasható ki: az Európai Unió továbbra sem arra fókuszál, hogy fejlesztőként vegye ki a részét a mesterséges intelligencia területének előrehaladásából, sokkal inkább az amerikai modelleket próbálja meg valahogy úgy átalakítani és szabályozni, hogy azok megfeleljenek a saját értékeinek.

Persze előremutató, hogy felhívják a figyelmet a generatív MI szerzői jogi aggályaira, és védik az európai polgárokat az esetleges támadásoktól, Európa hosszú távú versenyképessége szempontjából azonban az is kulcsfontosságú lenne, hogy az öreg kontinensen élő több mint 500 millió ember ne kizárólag amerikai és kínai vállalatok fejlesztéseinek legyen kitéve, ahogy az jelenleg történik a közösségi média területén.

Az európai felhasználók adatainak felhasználásával termelt profit ugyanis messze meghaladja azt, amit az esetleges szabályszegések miatt ki kellene fizetni az Európai Uniónak.

A törvény szerint a bírság maximális értéke 35 millió euró (nagyjából 14 milliárd forint), vagy a jogsértő szervezet előző pénzügyi évében elért éves világpiaci forgalmának 7 százalékát kitevő összeg lehet – attól függően, hogy melyik érték a magasabb a kettő közül. Ez az összeg azonban meg sem kottyan a Meta, a Google vagy épp az OpenAI-hoz gyanúsan közel álló Microsoft teljes éves forgalmának, így a törvénytől való eltérésben rejlő pénzügyi lehetőségek bizonyára sok céget el fognak gondolkodtatni a jövőben, hogy érdemes-e az EU-s szabályok szerint játszaniuk, főleg úgy, hogy első olvasásra a halmozott visszaélések nem vonnak maguk után kitiltást az európai piacról.

Kapcsolódó
A magyar elnökség tehet pontot az MI szabályozásáról szóló vita végére
Hosszú évek óta húzódik már az Európai Unióban a mesterséges intelligencia szabályozásának ügye, most viszont már tényleg a finisben vagyunk.

Ajánlott videó

Olvasói sztorik