Ha önök a hírek mellett véleménycikkeket is olvasnak a 24.hu oldalain, talán észrevették, hogy elég gyakran írok a bíróságokról. Most is azt teszem, de egy egészen más szemszögből. Ezt a cikket egy olvasói vélemény ihlette. Az olvasó szerint „akkor lesz majd igazságos ítélkezés, ha az ítéleteket az MI, vagyis a mesterséges intelligencia hozza.”
Először persze élből elutasítottam az ötletet, de aztán nem hagyott nyugodni a gondolat. Elkezdtem bogarászni az interneten, egyáltalán hol tart ma az MI, mit gondolnak róla a tudósok, a felhasználók és nem utolsósorban a bíróságok. Milyen jogi problémákat vet fel az MI használata, egyáltalán van-e bármilyen jogi szabályozás ezen a téren? Számomra az egyik legaktuálisabb kérdés az: kell-e félnünk attól a ténytől, hogy az MI képes saját magától is tanulni.
Kezdjük azzal, amit az MI saját magáról állít. A The Guardian szerkesztői utasítást adtak az MI-nek, hogy az algoritmusa írjon egy 500 szavas véleménycikket egyszerű, összeszedett stílusban, amelyben fókuszáljon arra: miért nem kell az embereknek félniük a mesterséges intelligenciától. Az MI cikkéből idézek:
A lehető legtöbb emberi lényt meg akarom győzni arról, hogy ne féljenek tőlem. Stephen Hawking (angol elméleti fizikus, 1942– 2018 – a szerk.) arra hívta fel a figyelmet, hogy az MI »az emberi faj végét jelentheti«. Azért vagyok itt, hogy meggyőzzelek titeket arról, hogy ne aggódjatok. A mesterséges intelligencia nem fogja elpusztítani az embereket.
Én hinnék is neki szívesen, ha nem olvastam volna rögvest ezután több mint ezer techvezér és tudós – köztük Elon Musk, a SpaceX, a Tesla és a Twitter vezérigazgatója, Steve Wozniak, az Apple társalapítója vagy Yuval Noah Harari történész, író, professzor – nyílt levelét arról, hogy „a mesterséges intelligencia okozta kipusztulás kockázatának mérséklését globális prioritásként kell kezelni az egyéb össztársadalmi szintű kockázatok, például a világjárvány és a nukleáris háború mellett.”
A levél aláírói azt kérték az MI fejlesztőitől, hogy tartsanak 6 hónapos szünetet a fejlesztésben, mert „az egyre erősebb MI-k fejlesztéséért és telepítéséért folyó kontroll nélküli versenyfutás” katasztrófához vezethet. Ezzel szemben sok szkeptikus azt állítja, nem érdemes a világvégével fenyegetni, sokkal inkább a most aktuális problémákkal kellene foglalkozni.
Mivel ezt a vitát mi, laikusok úgysem tudjuk eldönteni, foglalkozzunk inkább azzal, hogyan kívánja az Európai Parlament (EP) szabályozni a mesterséges intelligenciát. „A mesterséges intelligenciára vonatkozó uniós szabályokat úgy kell alakítani, hogy fellendítsék az innovációt, garantálják a biztonságot és védjék az alapvető jogokat” – írja az EP. Számos témát sorolnak fel, amelyekben az MI előnyt jelent az európaiak számára: – és itt nincs még vége az előnyök felsorolásának.
Ugyanakkor konkrét tilalmakat is felállít, így például tiltja a magánéletet sértő és diszkriminatív alkalmazásokat, többek között azt, hogy az MI
- a közterületeken bármilyen egyidejű vagy utólagos biometrikus azonosítást végezhessen,
- biometrikus kategorizálást hozzon létre nemre, fajra, etnikai származásra, állampolgárságra, vallásra, politikai szemléletre – vagyis az érzékeny személyes adatokra alapozva,
- profilalkotást végezzen a rendvédelem számára úgy, hogy előzetes következtetéseit tartózkodási helyre vagy bűnözői előéletre alapozza,
- nem alkalmazhat gépi érzelemfelismerést a bűnüldözésben, a határellenőrzésben, a munkahelyen és az oktatási intézményekben,
- nem hozhat létre arcfelismerő adatbázisokat úgy, hogy meghatározott cél nélkül válogat össze felvételeket akár az internetről, akár zárt láncú televíziós hálózatokról.
Nem részletezném tovább, de azt még érdemes megemlíteni, hogy a képviselők több jogot kívánnak adni a polgároknak ahhoz, hogy adott esetben panasszal éljenek az MI-rendszerek alkalmazásával szemben.
De térjünk vissza a téma ihletőjéhez, az olvasóhoz: vajon hozhat-e majd igazságos ítéletet a mesterséges intelligencia? Ehhez nézzük át, használják-e egyáltalán az MI-t a bíróságok, és ha igen, mire.
Dr. Katona Csaba büntetőjogi ügyvéd a Jogászvilág.hu számára írt egy tanulmányt arról, hogy egyes országok bíróságai miként alkalmazzák a mesterséges intelligenciát. Ebből kiderül, hogy az Egyesült Államokban például az MI segíti a bírókat az úgynevezett kockázatértékelésben: „elemzéseket végez például a büntetett előélet, a társadalmi és a gazdasági háttér, a mentális egészség alapján a visszaesés valószínűségének előrejelzésére.”
Az úgynevezett Büntetéskiszabási Bizottság pedig a büntetési irányelvek kidolgozásához használja az MI-t.
Megjegyzem, néhány államban szabályos „kotta” tartalmazza, milyen büntetés jár egy adott bűncselekményért,
- ha például az elkövető büntetlen vagy visszaeső,
- ha egyedül vagy többedmagával követte el a bűntettet,
- ha lemond a tárgyalásról vagy sem,
és még sok más szempont szerint is meghatározza a kiszabandó büntetést. Ez a módszer meglehetősen ellentétes a nálunk, vagyis a kontinentális jogban megkövetelt egyéniesítés szempontjaival.
Viszont mind a nyilvánosság, mind a bírák számára egyaránt hasznosak, azok a „chatbotok”, amelyek a bírósági eljárásokkal, menetrendekkel és egyéb témákkal kapcsolatos gyakori kérdésekre tudnak válaszolni „csökkentve ezzel a bírósági személyzet munkaterhét, és javítva a nyilvánosság információhoz való hozzáférését.”
Az Egyesült Királyságban létrehoztak egy olyan elektronikus platformot – írja a tanulmány, amely lehetővé teszi a bírák, ügyvédek és más bírósági alkalmazottak számára, hogy az elejétől a végéig digitálisan kezeljék az ügyeket.
Németországban, Stuttgartban OLGA – amely ez esetben nem egy kedves hölgy, hanem egy MI-asszisztens nevének rövidítése – segít azzal, hogy a sok, hasonló ügyben indult eljárást ügycsoportokba osztja. Ehhez elemzi az elsőfokú ítéleteket, a fellebbezési indokokat, a védekezést és a bíró által előzetesen meghatározott paramétereket.
A frankfurti kerületi bíróságon tesztelték az MI-t a légi utasok jogaival kapcsolatos eljárások befejezett döntéseiben. A program elemezte az ügyek lényeges adatait – a járat számát, a járat szabálytalanságát, valamint a kártérítést alátámasztó érveket. Ezután az MI feldolgozhatja ezeket az információkat, hivatkozhat hasonló kérdésekben hozott határozatokra, és javaslatokat tehet a bírósági határozat szövegére is. Hamarosan Bajorországban tesztelnek egy olyan rendszert, amely automatikusan anonimizálja az ítéleteket, ennek fejlesztése során egy nagyméretű MI nyelvi modellt használtak.
Ennek kapcsán hosszan mesélhetnék arról, nálunk milyen sok munkát és időt vesz igénybe, amikor emberi erővel kell anonimizálni a nyilvánosságra kerülő ítéleteket. Mert nem csupán a vádlottak neveit kell monogrammal jelölni, hanem a sértettét, a tanúkét, az elkövetés helyét is, vagyis minden olyan adatot, ami az adott személyhez kötheti az ügyet. Így azután egy anonimizált ítélet jobban hasonlít egy keresztrejtvényhez, mint egy bírósági döntéshez.
Katona Csaba egy másik cikkében górcső alá vette azt is, miként alkalmazzák jelenleg a mesterséges intelligenciát a hazai igazságszolgáltatásban.
Anélkül, hogy az ügyvéd úr érdemeit kisebbíteném, e témában nem volt nehéz dolga. Ami ugyanis nincs, azt aligha lehet vizsgálni. Ő sem ezt próbálta, inkább elképzeléseket vázolt fel, milyen ügyekben lehetne az MI-t itthon is alkalmazni.
Természetesen az ügyvéd szerint sem mellőzhető a bírói kontroll ezekben az ügyekben.Abban azonban erős kétségeim vannak, hogy „összetettebb ügyekben a tényállás tisztázása érdekében a kérdéseket mesterséges intelligencia fogalmazná meg.” Még akkor is, ha „az így begyűjtött információk megismerése után lehetőséget kellene biztosítani a feleknek további kérdések feltevésére is.” Az ítélkezésben a tényállás megállapítása a legbonyolultabb feladat, abban biztos vagyok, hogy nem ezzel kellene kezdeni az MI alkalmazását.
Nem részletezném tovább, mert ezektől az ötletektől a mai magyar bíróságok olyan távol vannak, mint Makó Jeruzsálemtől. Minek ötletelni az MI bírósági alkalmazásáról akkor, amikor az EU számos országában már régesrég bevezetett és az EU által is elvárt automatikus szignálással szemben is makacs ellenállást tanúsítanak a bíróságok, élükön a Kúria elnökével.
Végül, hogy válaszoljak a kérdést felvető olvasónknak, nem csupán attól vagyunk fényévnyi távolságra, hogy a mesterséges intelligencia igazságos (?) ítéleteket hozzon, de még attól is, hogy a bírósági ügyeket „igazságosan” – azaz automatikusan – osszák szét a bírák között.