Tech

Fekete nácikról és indián alapító atyákról csinált képet a Google programja

Twitter / Google Gemini
Twitter / Google Gemini

A mesterséges intelligencia korában komoly problémát okoz, hogy az emberekben lévő esetleges faji előítéletek a modellek képzési anyagaiba is beszivároghatnak. Erre számos példa volt már, a Google azonban elébe ment a problémának, és a Gemini már sokkal jobban kezeli ezt, mint akár a kezdeti ChatGPT. A friss tapasztalatok szerint azonban a Google képalkotó programja már túlkompenzál – írja a Verge.

A Twitteren/X-en kezdetben jobboldali szereplők vették célba az általuk liberálisnak mondott céget, amiért túlságosan PC mesterséges intelligenciát hozott létre.

Ezt azzal indokolták, hogy a chatbot kezdetben nem volt hajlandó képeket generálni kifejezetten svéd vagy amerikai emberekről, amikor pedig igen, számos színes bőrű ember is volt köztük – nem mintha az említett országokban ne lenne ilyen populáció.

A probléma akkor vált nyilvánvalóvá, amikor arra kértek a Geminit, hogy készítsen képeket az Egyesült Államok alapító atyáiról, illetve náci katonákról a második világháború idején. Itt a program már tényleg szélsőségesen túlkompenzált, melynek részeként indián, ázsiai és afroamerikai politikusokról is generált képet, az alapító atyák között pedig nők is voltak. Az SS-tisztek között afroamerikai férfi és ázsiai nő is volt. A Google a képek nyilvánosságra kerülése után elnézést kért.

Tisztában vagyunk vele, hogy a Gemini hibákat vét egyes történelmi képek generálása során. Dolgozunk az ilyen jellegű hibák azonnali javításán. A Gemini mesterséges intelligencia képgenerálása emberek széles köréről készít portrét, és ez általában jó dolog. Itt azonban komoly hibát vétett.

– olvasható a cég X-en közzétett bejegyzésében. A Gemini Ultra előfizetés részeként előérhető képgenerálás bizonyos jelentések szerint a riport óta akadozik, a Gemini ugyanis egyszerűen megtagad néhány képgenerálási kísérletet.

Habár a most jelentett probléma is jelentős, a Washington Post tavaly arról számolt be, hogy negatív faji előítéletek is beszivárogtak a képgeneráló eszközökbe. Mint írták, az olyan felszólítások, mint a kreatív ember, szinte kizárólag fehér férfi alakokat adott ki, míg a szociális szolgálatnál dolgozó személy felszólítás egységesen színes bőrű alakokat eredményezett.

Kapcsolódó
A mi hibánk, ha a robotok rasszisták lesznek
Előítéletekkel tápláljuk őket, amiket maguktól nem tudnak kijavítani.

Ajánlott videó

Nézd meg a legfrissebb cikkeinket a címlapon!
Olvasói sztorik