Tech

Valósággá vált a Különvélemény bűnmegelőző mesterséges intelligenciája

Getty Images
Getty Images

Több amerikai városban is elkezdtek tesztelni egy mesterséges intelligenciát, amely képes megjósolni a bűncselekményeket, mielőtt elkövetnék azokat. A program a fejlesztők szerint 80-90 százalékos pontossággal dolgozik, azonban sokan kifogásolták a gépi tanulással működő eszköz hibaarányát, valamint azt is, hogy elfogultan hozhat döntéseket – írja az IFLScience.

A Nature Human Behaviour című folyóiratban megjelent tanulmány szerint Ishanu Chattopadhyay professzor és kollégái nyolc amerikai nagyvárosban mutatták be előrejelző modelljüket. A koncepció úgy fest, hogy az adott város minden egyes bűncselekmény kapcsán kiadja a szükséges jegyzőkönyvet. Ebből kiderül, hol és mikor történt az adott bűncselekmény, majd az adatokat betáplálják a gépi tanulással működő algoritmusba. Ezután a várost 90 négyzetméteres szeletekre osztják, és a nyilvántartással összevetve létrehoznak egy idősort.

A mesterséges intelligencia ezeket arra használja, hogy megjósolja a bűncselekményeket, helyszín és gyakoriság alapján.

A fejlesztők szerint tehát a modell képes megjósolni, hogy egy adott területen mikor várható fegyveres rablás, azt viszont már nem tudja megmondani, ki fogja azt elkövetni. Ebben tehát eltér az MI a 2002-as sci-fi klasszikusban, a Különvéleményben látott orákulumtól, amely névre pontosan meg tudja mondani, ki fog bűncselekményt elkövetni. Chattopadhyay a BBC Science Focusnak adott interjújában elmondta, az embereknek nincs mitől tartania.

Sokan attól tartanak, hogy az MI-t eszközként fogják használni, hogy olyanokat zárjanak börtönbe, akik még semmit sem követtek el. Ez azonban nem fog megtörténni, ugyanis a program nem képes erre. Csak egy adott helyen bekövetkező eseményt jelez előre, de azt, hogy hogyan fog történni a bűncselemény, vagy hogy ki fogja elkövetni, nem tudja megjósolni.

A bűnmegelőző MI kapcsán joggal merülhet fel az emberekben a kérdés: nem fog-e áldozatul esni ez a program is a rasszista előítéleteknek, mint számos korábbi program. Chattopadhyay szerint a módszer, amellyel a modellt képezték, kizárja ennek lehetőségét, mivel nem szubjektív leírásokat, hanem egy konkrét eseménynaplót táplálnak bele. A fejlesztő szerint nagyon kevés az olyan adat, amelyet kézzel táplálnak be a rendszerbe, így nincs sok esély a szubjektív döntéshozatalra.

Kapcsolódó
Rasszistákká és szexistákká válhatnak a robotok
Rengeteget számít, milyen adatsoron tréningezzük a mesterséges intelligenciát.

Ajánlott videó

Olvasói sztorik