Az Európai Parlament (EP) nagy többséggel tárgyalási álláspontot szavazott meg szerdai plenáris ülésén a mesterséges intelligencia (MI) szabályozásáról, amelyben a képviselők azt hangsúlyozzák, hogy a mesterséges intelligencia Európán belüli fejlesztésének és alkalmazásának meg kell felelnie az európai alapjogoknak és értékeknek.
Az EP által megszavazott szabályok a kockázatok szintje szerint állapítanak meg kötelezettségeket a szolgáltatók és a felhasználók számára. Az olyan MI-rendszerekre, amelyek az emberek biztonságára nézve elfogadhatatlan mértékű kockázatot jelentenek – mint például a társadalmi kreditrendszer – tilalom vonatkozna, ahogy az MI magánéletet sértő és diszkriminatív alkalmazásaira is. Ezek magukba foglalják a köztereken végzett “valós idejű” és “utólagos” távoli biometrikus azonosítást; az érzékeny személyes adatokon biometrikus kategorizálást; a profilalkotásra, illetve a tartózkodási helyre vagy bűnözői előéletre alapozott prediktív rendvédelmet; a gépi érzelemfelismerés alkalmazását a bűnüldözésben, a határellenőrzésben, a munkahelyeken és az oktatási intézményekben; arcfelismerő adatbázisok létrehozását az internetről vagy zártláncú televíziós hálózatok felvételeiből nem célirányosan leválogatott arcképek felhasználásával.
A képviselők nagy kockázatúnak minősítenék azokat az MI-rendszereket, amelyek jelentős mértékben veszélyeztetik az emberek egészségét, biztonságát, alapvető jogait vagy a környezetet. A választási eredmények és a szavazók befolyásolására alkalmas MI-rendszerek, illetve a több mint 45 millió felhasználóval rendelkező közösségimédia-platformok által használt ajánlórendszerek a képviselők javaslatában szintén felkerültek erre a listára.
Az EP álláspontja szerint az általános célú MI-rendszerek fejlesztői csak azután hozhatnák forgalomba termékeiket az uniós piacon, hogy felmérték és mérsékelték a lehetséges kockázatokat (az egészségre, biztonságra, az alapvető jogokra, a természeti környezetre, a demokráciára és a jogállamiságra), és bejegyeztették modelljeiket az uniós adatbázisba. Az ilyen modelleken alapuló generatív MI-rendszerekkel szemben, mint például a ChatGPT, elvárás lenne az átláthatóság: minden esetben fel kellene tüntetni, hogy a tartalmat mesterséges intelligencia állította elő, segítséget kellene nyújtani az úgynevezett “deepfake” képeknek az igaziaktól való megkülönböztetéséhez, valamint megfelelő biztosítékokkal kellene elejét venni a jogellenes tartalomgenerálásnak.
Az innováció és a kis- és középvállalkozások támogatása érdekében a képviselők azt javasolták, hogy a kutatási tevékenységekre és a nyílt forráskódú licencek alapján rendelkezésre bocsátott MI-komponensekre ne terjedjen ki minden kötelezettség.
Az EP emellett azt szorgalmazza, hogy a polgároknak legyen lehetősége panasszal élni az MI-rendszerek alkalmazásával szemben, az alapvető jogaikra jelentősen kiható döntésekről pedig részletes tájékoztatást kellene kapniuk, amennyiben azok nagy kockázatú MI-rendszerek bevonásával születtek.
A tárgyalások az uniós tagállamok kormányait tömörítő Tanáccsal a jogszabály végleges szövegéről még szerdán megkezdődnek.
A mesterséges intelligencia írta Tóth Edina beszédét
Tóth Edina, a Fidesz EP-képviselője szerint „a mesterséges intelligenciának rengeteg alkalmazási területe van, és számos lehetőséget rejt magában, ugyanakkor nyilvánvaló, hogy az MI nem maradhat szabályozás nélkül”. A képviselő kiemelte az átláthatóság és a nyomon követhetőség fontosságát.
Támogatjuk az innovációt, ugyanakkor gondolnunk kell az alkalmazás lehetséges veszélyeire is, és azokat kellő körültekintéssel kell szabályoznunk. Bízom benne, hogy ez a jogszabály biztosítani tudja a jogi kereteket ahhoz, hogy a mesterséges intelligencia a polgárok és vállalkozások számára biztonságos eszközként működjön. Jól mutatja a MI-rendszerek fejlettségét, hogy a parlamenti vita során elmondott beszédemet is mesterséges intelligencia írta
– emelte ki a fideszes politikus.
Hidvéghi Balázs, a Fidesz EP-képviselője kiemelte: a mai szavazás fontos mérföldkő egy olyan szabályozás kialakításában, amely képes kezelni a mesterséges intelligenciával szembeni állampolgári félelmeket és kockázatokat, ugyanakkor nem jelent túlszabályozást és nem gátolja az innovációt. Véleménye szerint olyan végső szabályozásra kell törekedni, ami emberközpontú és a fogyasztók védelmére helyezi a hangsúlyt. „Ahhoz, hogy növeljük a MI irányában az állampolgári bizalmat, elsősorban a kockázatokat kell beazonosítani és kiszűrni. Azokat a használati módokat kell előnyben részesíteni, amelyekből az embereknek és a társadalomnak előnye származik. Bizakodásra ad okot, hogy az európai szabályozás is ezt a megközelítést követi” – mondta el a képviselő.
(MTI)