Tech

Már kevésbé rasszista a Microsoft arcfelismerője

A Microsoft év elején tette elérhetővé arcfelismerő technológiájának fejlesztői készletét külsős fejlesztők számára, és bár eleinte nagyon ígéretesnek tűnt, többen is rasszistának találták. A Face API szoftver a Massachusetsi Műszaki Egyetem kutatói szerint számos ponton vérzik: vizsgálatuk szerint a szoftver a fehér férfiakat rendkívüli pontossággal ismerte fel, mondhatni 0 százalékos hibaaránnyal, ám amikor fekete nőket kellett azonosítani, ez 20,8 százalékra ugrott, ami azért nem éppen nagy pontosságot jelent.

Erre reagálva a cég blogposztban jelentette be kedden, hogy arcfelismerő technológiájuk jelentős frissítéseket kapott nemek és bőrszínek megkülönböztetése terén, és orvosolták azon aggodalmakat, hogy a kereskedelmi forgalomba kerülő szoftverek kisebb eséllyel ismerik fel a fekete nőket.

A redmondiak bevallása szerint a magas hibaarány előidézője egy olyan probléma, ami a techszférában általánosnak mondható: a mesterséges intelligencia edzésére használt adathalmazban nem volt megfelelő arányban olyan fotó, amik fekete személyeket ábrázoltak, ezért teljesített ezen a téren gyengébben a technológia.

Korábban már történt hasonlóan botrányos eset mesterséges intelligenciával kapcsolatban: a Microsoft két éve tette elérhetővé Tay nevű chatbotját a Twitteren, ám a gépi tanulás során folyamatosan finomodó és tanuló programból 24 óra alatt nácit csinált az internet.

Hitler-imádó szexmániákussá változott a cuki robotlány
A Tay nevű 16 éves mesterséges kislány egyetlen nap leforgása alatt teljesen egy szexmániás, trágár nácivá vált. Végül ki is kapcsolták.

Ajánlott videó

Nézd meg a legfrissebb cikkeinket a címlapon!
Olvasói sztorik