Tech

„Minden szupi, szuper” – Hogyan javíthatnák ki a techóriások az MI torz valóságát?

24.hu
24.hu
A világ legnagyobb techvállalatai példátlan hatalomra tettek szert, miközben az általuk fejlesztett mesterséges intelligencia egyre mélyebben formálja mindennapjainkat. De mi történik, ha ezek a rendszerek torz adatokból tanulnak? – teszi fel a kérdést Parmy Olson újságíró Világuralom című könyvében.

Hogy megértsük, miért nehéz etikusan működő MI-rendszereket tervezni például a Google-nél, azt kell meglátnunk, hogy napjaink techgigászainak a kezében micsoda hatalom összpontosul. Mielőtt 1911-ben a bírósági ítélet eredményeként szétbontották volna, a Standard Oil lefedte az Egyesült Államok olajiparának kilencven százalékát. Jelenleg a Google a keresőmotor-piac körülbelül kilencvenkét százalékát fedi le – világszerte. Emellett több mint kétmilliárdan facebookoznak, és nagyjából másfél milliárd embernek van iPhone-ja.

A történelem során soha egyetlen birodalom nem ért el ennyi embert egyszerre.

Ezek a vállalatok két évtized alatt úgy nőttek ekkorára, hogy felfoghatatlan mennyiségű adatot gyűjtöttek a felhasználóikról. A Facebook, a Google és a hozzájuk hasonló óriások ezen információk birtokában pontosan targetált hirdetéseket és kifinomult ajánlóalgoritmusokat állítanak elő. Így töltik fel az emberek feedjeit, hogy lehetőleg soha véget nem érően görgessünk a kijelzőnkön. A vállalatoknak elemi érdekük, hogy függőségi viszonyba kerüljünk a platformjaikkal – így termelnek több bevételt a hirdetésekből.

Intelligens együttműködés: kockázatok és lehetőségek

Az AI-t érintő aktualitások kerülnek a 24 Extra támogatásával futó BookLab Üzleti Könyvklub április 29-ei eseményének fókuszába. Négy terület: a harcászat, az orvosi robotika, a média és a szervezetfejlesztés szakértői beszélgetnek majd a BMC Könyvtárában.
Szeretettel várunk a programon, ahol a közös gondolkodásé a főszerep, és ahová a 24 Extra Csúcs előfizetői jelentős kedvezménnyel válthatnak jegyet.

Nincsenek történelmi példáink arról, mi történik, amikor egy vállalat ekkorára nő. A Google, az Amazon és a Microsoft jelenlegi piaci értéke előzmény nélküli. Több milliárd felhasználó privát adatai, identitása, véleménye alig néhány mamutvállalat kezébe kerültek, amelyeket néhány, elképzelhetetlenül gazdag ember igazgat. Nem csoda, hogy a techóriásoknál dolgozók számára hiábavalónak tűnik megkongatni a vészharangot. Egy Timnit Gebru nevű MI-tudós azonban mégis tett egy próbát.

Sztereotip adatokon alapuló MI-rendszerek

Egy 2015-ös techkonferencián Gebru körbenézett és azt érzékelte: teljesen kilóg a tömegből. Harmincas évei elején járó, fekete nő volt, és korántsem olyan neveltetésben részesült, mint a körülötte lévők. Villamosmérnökként dolgozó eritreai édesapja meghalt, kamaszként pedig Gebrunak maga mögött kellett hagynia Etiópia háborús vidékét. Massachusettsi középiskolájában rossz szemmel nézték a tanárai, hogy bevándorló létére komoly ambíciókat dédelget. Mégis bejutott a Stanfordi Egyetem villamosmérnöki karára, és végül rátalált a mesterséges intelligencia és a számítógépes látástechnológia területére.

Ez utóbbi olyan szoftvereket takar, amelyek képesek „látni” és kielemezni a való világot. A technológia rendkívül ígéretesnek tűnt, de Gebru észrevett bizonyos intő jeleket. Az MI-rendszerek már akkor egyre nagyobb szerephez jutottak az emberek életében: volt, akinek a hitelképességéről döntöttek, volt, akinek a jelzálogigényét bírálták el, vagy az arcképét jelölték meg a rendőrség számára.

Bár első ránézésre úgy tűnhet, ezek a rendszerek értéksemlegesen végzik a munkájukat, gyakran nem így történik. Ha a betanításukhoz felhasznált adatokban előítéletek tükröződtek, akkor ezek az előítéletek a rendszert is meghatározták. Az MI-t javarészt olyanok fejlesztették, akik nem tapasztalták meg saját bőrükön a rasszizmust, és részben emiatt történhetett meg, hogy a modellek betanításához felhasznált adatok gyakran nem reprezentálták hitelesen a nőket és a kisebbségi csoportokhoz tartozókat.

Az MI már most komoly károkat okoz

Amikor Sam Altman 2015-ben bejelentette az OpenAI indulását, Gebru dühös nyílt levelet írt arról, micsoda pazarlás, hogy egocentrikus milliárdosok istenszerű MI fejlesztésébe öntik a pénzüket.

„Itt van egy fehér techmogul, aki Dél-Afrikában született és nevelkedett, az apartheid idején, és egy rakás fehér férfiból álló befektetői és kutatói csapat, amely próbálja megakadályozni, hogy az MI »átvegye az uralmat a világ felett«, és mindössze annyi potenciális problémát látunk ebben, hogy »mindegyik kutató a mélytanulás módszerére épít«? A Google nemrég előállt egy számítógépes látástechnológiás algoritmussal, amely a fekete embereket emberszabású majmokként kategorizálta. Egyesek azzal próbálják elkenni ezt a tévedést, hogy az algoritmus biztosan a színt vette alapvető megkülönböztető jegynek az emberek kategorizálásánál. Ha lett volna csak egyetlen fekete a csapatban, vagy bárki, aki elgondolkodik a bőrszín kérdésén, nem került volna a világ elé egy fekete embereket emberszabású majmokként kategorizáló termék. (…) Képzeljünk csak el egy algoritmust, amely a fehéreket rendszeresen nem emberekként kategorizálja. Egyetlen amerikai vállalat sem tartana nyilvános használatra késznek egy ilyen személyazonosítási rendszert.”

Gebru végül a levelet megtartotta magának (csak néhány évvel később publikálta), de nem tudott szabadulni a kérdéstől, hogy a Szilícium-völgy legnagyobb hatalmú szereplői miért csak az MI jövőjével kapcsolatos veszélyektől rettegnek, ha egyszer a mesterséges intelligencia már most valós károkat okoz sokak számára.

Két válasz is volt. Az első szerint az MI-fejlesztő cégek vezetőségéből szinte senki nem tapasztalta meg a faji vagy nemi diszkriminációt. A második: paradox módon vállalati érdekük fűződött ahhoz, hogy hangosan káráljanak a mindenható szuperintelligencia veszélyeiről.

Elsőre talán nem érthető, miért éri meg figyelmeztetni a vásárlókat az általunk eladni kívánt technológia kockázataira, pedig zseniális marketinghúzás. Az embereket jobban érdekli az itt és most, mint a hosszú távú jövőjük. Ha hirtelen úgy tűnik, hogy az MI egy nap végezni fog velünk, akkor sokan csak arra tudnak gondolni, hogy már ma is micsoda csodákra lehet képes.

A Nagy Elterelő Hadművelet

A fenti stratégia elterelte a figyelmet a vállalatok számára égető, megoldásra váró problémákról, amelyek miatt lassítaniuk kellett a fejlesztés ütemét, és korlátozniuk MI-modelljeik képességeit.

Nem ez volt az első alkalom, hogy nagyvállalatok elterelték a közönség figyelmét. A hetvenes évek elején az olajvállalatok támogatását élvező műanyagipar kezdte el népszerűsíteni az újrahasznosítás gondolatát, mondván, hogy ez megoldhatja a műanyagszennyezés problémáját.

Az újrahasznosítással természetesen semmi probléma nincs. A gyakorlat népszerűsítésével azonban az ipar széles körben elhintette azt az elképzelést, hogy a műanyag nem jelent gondot, amíg megfelelően újrahasznosítják – vagyis áttolták a felelősséget a gyártókról a fogyasztókra. A műanyaggyártók pontosan tudták, hogy a nagy léptékű újrahasznosítás drága, és nem elég hatékony.

A kampányok abból a szempontból azonban sikeresek voltak, hogy elterelték a közönség figyelmét a műanyaggyártás felpörgéséről és környezetszennyező hatásáról. Az újrahasznosítás a közbeszéd része lett, az viszont háttérbe szorult, hogyan kellene kordában tartani a műanyaggyártó vállalatok tevékenységét.

Ahogy az óriási olajvállalatoknak is sikerült elterelniük az emberek figyelmét környezetkárosító hatásukról, az MI-fejlesztés élvonalbeli képviselői is kihasználhatták a leendő Terminator-forgatókönyv körüli hisztériát, hogy ne kelljen a gépi tanulásos algoritmusok aktuálisan káros hatásairól nyilatkozniuk. Lekerült tehát a felelősség terhe a fejlesztőkről, hogy most azonnal tegyenek valamit az ügy érdekében. Megfoghatatlan problémának tűnt az egész, amivel később is ráérnek foglalkozni.

Pedig lehetne tenni ellene

Gebru nemcsak a vészharangot kongatta, hanem megoldási javaslatokkal is előállt.

A teljes cikket előfizetőink olvashatják el.
Már csatlakoztál hozzánk?
a folytatáshoz!

Ajánlott videó

Olvasói sztorik