Nagyvilág

Facebook mindenhol van, gyűlöletbeszéd elleni harc csak nyugaton

Csóti Rebeka / 24.hu
Csóti Rebeka / 24.hu
A közösségi oldal egykori alkalmazottja kitálalt: a szivárogtatott dokumentumok szerint a Facebook tisztában volt vele, hogy a moderálás hiánya erőszakhoz vezet, mégsem csináltak semmit.

Mark Zuckerberg, a Facebook alapítója és vezérigazgatója októberben jelentette be, hogy a cég új néven folytatja tevékenységét. A vállalat a Metával új szintre emelné a virtuális jelenlétet: egy internethez mérhető kiterjedtségű teret hoznának létre, ahol a felhasználók egy virtuális és kiterjesztett valóságban ingázhatnak a szórakozás, a munka és az oktatás világa között.

A Facebook történetének legfontosabb bejelentésével párhuzamosan a cég legnagyobb botránya is napvilágra került. Frances Haugen, a Facebook volt termékmenedzsere és adattudósa 2021 májusában elhagyta a céget, és több ezer belső dokumentumot vitt magával, majd letette őket az Amerikai Értékpapír- és Tőzsdefelügyelet asztalára, azonnali fellépést sürgetve a közösségi oldallal szemben.

A kiszivárogtatott dokumentumok szerint a Facebook számos ügyben tisztában volt működésének káros következményeivel.

Ezek a dokumentumok képezik a Facebook-iratok (Facebook Papers) alapját, amiket egy konzorciumi megállapodás értelmében tizenhét jelentős amerikai sajtóorgánum tár a nyilvánosság elé.

Samuel Corum/Getty Images

Az iratok alapján a Szövetségi Kereskedelmi Bizottság trösztellenes jogszabályok megsértése miatt pert indíthat a cég ellen, de fény derült arra is, hogy az Apple azzal fenyegette meg a Facebookot, hogy eltávolítja az alkalmazásait az AppStore-ból, amiért az semmit sem tesz a platformon zajló nyílt emberkereskedelem ellen, valamint egy belső kutatás alapján a cég annak tudatában folytatta működését, hogy a Facebook tulajdonában levő Instagram használata minden harmadik amerikai tinédzser testképére negatív hatással van.

A Facebookot az adatbiztonság mellett a gyűlöletbeszéd és a dezinformáció terjedése miatt éri a legtöbb kritika.

Arról azonban kevés szó esik, hogy a félrevezető vagy egyenesen erőszakra buzdító tartalmakat mennyire egyenlőtlenül moderálják a különböző nyelvterületeken.

A bolygó virtuális agorája

A vállalat 2015-ben elindította a Free Basics programját, ami a fejlődő országok digitális felzárkóztatását tűzte célul. A program egy zárt mobilapplikáción keresztül online szolgáltatásokhoz biztosít ingyenes hozzáférést, például időjárás-előrejelzéshez, álláshirdetésekhez és a Wikipédiához, és már 63 országban működik Afrikában, Ázsiában és Latin-Amerikában. Több tanulmány megerősítette, hogy a Free Basics valójában csak kis szolgáltatáskészlethez biztosít hozzáférést, és a Facebook alkalmazását priorizálja, aktívan buzdítva a felhasználókat arra, hogy regisztráljanak a közösségi oldalra. A program keretében milliók csatlakoztak először az internethez, és számukra az online jelenlét a Facebook-használattal lett egyenlő.

Tavalyi adatok szerint a Facebook közel kétmilliárd napi látogatójának 72 százaléka érkezik Észak-Amerikán és Európán kívülről. A Facebook néhány év alatt a fejlődő országok elsődleges kommunikációs csatornájává vált, a cég mégsem tartotta elég fontosnak, hogy megőrizze a kontrollt a platformon megjelenő tartalmak fölött.

A The Verge-höz eljuttatott dokumentumok szerint a Facebook különböző kategóriákba sorolja az országokat, hogy világszerte, a közelgő választások előtt védelmet biztosítson az álhírek cirkulálásával szemben. Egyúttal azt is meghatározzák, melyik területek nem kapnak extra forrásokat.

Palágyi Barbara / 24.hu

A cég nem biztosít ellenőrzést az alacsony kategóriákba sorolt országoknak – amelyek közé harminc kivételével a bolygó összes állama tartozik –, hacsak a moderátorok nem küldenek a választásokkal kapcsolatos konkrét tartalmat felülvizsgálatra. Máskülönben nem moderálják a bejegyzéseket.

Moderálás nélkül az egész csak olaj a tűzre

A Facebook 15 ezer moderátort foglalkoztat, ők 70 nyelven ellenőrzik a tartalmakat, az oldal közösségi irányelvei pedig 50 nyelven elérhetők. Az oldal ennek ellenére 110 opciót kínál fel a nyelv kiválasztásánál, ráadásul a felhasználók kétharmada nem angol nyelven használja az oldalt.

A Facebook tudott a nyelvi egyenlőtlenségekről.

2019 februárjában a vállalat dolgozói létrehoztak egy észak-indai kamuprofilt, hogy megtudják, milyen tartalmak jelennek meg az oldalon, nem sokkal a választások előtt. Ekkoriban éleződött ki a kasmíri konfliktus Pakisztán és India között, miután Narendra Modi, India jobboldali miniszterelnöke megtorló légicsapásokat intézett egy állítása szerint terrorista kiképzőtárbor ellen. Ezt követően a profilt ellepte a Modi-párti propaganda és a muszlimellenes gyűlöletbeszéd. Indiában 410 millió felhasználója van a Facebooknak, ez több mint az Egyesült Államok lakossága, mégis a profilteszt alatt számos extrém tartalom jelent meg hírfolyamban, köztük halott pakisztániakat ábrázoló fotók, gyűlöletkeltő felirattal. Indiában 22 hivatalos nyelv van, de az országban 121 nyelvet beszélnek tízezernél többen, így a teljes moderálás lehetetlen vállalkozás.

Drew Angerer/Getty Images Narendra Modi

A bolygó nyelvi sokszínűségének kezelése rendszerszintű probléma. Annak ellenére, hogy a Facebook egy nyelvként kezeli, az arab sokkal jobban emlékeztet egy nyelvcsaládra, hiszen számtalan dialektusát beszélik a Közel-Keleten és Észak-Afrikában. A Facebook arab nyelvű moderátorainak nagy része Marokkóban dolgozik, ezért egy belső dokumentum szerint a hibázás valószínűsége a nem észak-afrikai tartalmak felülvizsgálásánál szinte garantált. De hasonlóan problémás a pastu és dari nyelvek beszélői számára a tartalommoderálás, ugyanis a Facebook közösségi elvei nincsenek lefordítva Afganisztán két hivatalos nyelvére.

2020-ban az oldal napi felhasználóinak mindössze 10 százaléka érkezett az Egyesült Államokból, ennek ellenére az álhírek elleni küzdelemre elkülönített büdzsé 87 százalékát költik el Amerikában.

A fennmaradó 13 százalékot a világ összes többi országa közt osztják el, a nyilvánosság előtt ismeretlen szempontok mentén.

Miranda Sissions, a Facebook emberi jogi irányelveiért felelős igazgatója 2019-ben csatlakozott a céghez. Ekkor vezették be a politikai erőszak kockázatának kitett országok listáját, ahol a Facebook az Egyesült Államokhoz hasonlóan bővített szolgáltatásokkal igyekszik óvni a közbeszédet. Ezeken a területeken az oldal közösségi alapelvei elérhetőek az ország hivatalos nyelvén/nyelvein, mesterséges intelligencia szűri az álhíreket és a gyűlöletbeszédet, valamint moderátorcsapatok analizálják a nagy elérésű tartalmakat, szűrik az álhíreket, valamint a felbujtó, közösségellenes posztokat.

2020 júniusában a Facebook könyvvizsgálatot tartott a „magas kockázatú” országok helyzetéről, ami jelentős hiányosságokat mutatott ki a Facebook rendszerében. Mianmarban, Pakisztánban és Etiópiában a Facebooknak nem volt olyan algoritmusa, amely képes elemezni a helyi nyelven közölt tartalmakat, és azonosítani a koronavírusról szóló bejegyzéseket, Indiában és Indonéziában pedig nem tudta kiszűrni az álhíreket.

A Facebook elismerte a felelősségét Mianmarban

Amit Mianmarban láttunk, és ami most Etiópiában zajlik csak a kezdete egy nagyon rémisztő történetnek, aminek senki sem szeretné hallani a végét

– mondta Haugen a kongresszusnak tett vallomásában. Miután Mianmarban katonai puccsot hajtottak végre, és rabosították a demokratikusan megválasztott vezetőket, a Facebook letiltotta a fegyveres erőket az oldalról, azonban a Global Witness jogvédő szervezet tényfeltáró munkája szerint a Facebook algoritmusai az oldal közösségi elveit megsértve ajánlottak erőszakra buzdító tartalmakat. Miután a jogvédők lájkolták a mianmari hadsereg – erőszakos tartalmaktól mentes – rajongói oldalát, a Facebook algoritmusa további oldalakat ajánlott, amelyek a mianmari katonai juntát támogatják, és már tele voltak kifogásolható tartalommal.

„Nem kellett sokat keresni a problémás tartalmakat, a Facebook algoritmusa elvezetett hozzájuk” – mondta Rosie Sharpe digitális kutató a jelentésről. A jogvédők számos halálos fenyegetést és a karhatalmi erőszakot életető bejegyzést találtak, valamint az oldalon olyan dezinformációs narratívák jelentek meg, miszerint az Iszlám Állam terrorszervezet jelen van az országban, és választási csalás miatt ragadta magához a hatalmat a hadsereg. A Guardian is számtalan példát talált a közösségi elvek megsértésére: rengeteg poszt buzdít a demokráciapárti tüntetők elleni erőszakra.

2014-ben csupán Mianmar lakosságának egy százaléka rendelkezett internet-hozzáféréssel. Mára az 53 milliós ország népességének fele használja a Facebookot, ráadásul közülük sokan elsődleges hírforrásként tekintenek rá.

Stringer/Anadolu Agency/Getty Images

Több egymástól független kutatás is megerősítette, hogy az országban rendkívül népszerű és nagy befolyással bíró Facebook fontos szerepet játszott a 2017-es mianmari konfliktusban. A közösségi oldalon lényegében kontroll nélkül terjedhettek az álhírek és a rohingya kisebbség ellen uszító tartalmak. A Ma Ba Tha nevű szélsőjobboldali, buddhista szervezet 55 ezer fős csoportjában 200 százalékkal nőtt az aktivitás, miután a hadsereg büntetőakcióba kezdett a Bengál folyóvidéken élő muszlim rohingya kisebbség ellen. Szárnyra keltek olyan álhírek, hogy a yangoni mecsetekben fegyvereket tárolnak, amivel buddhista pagodákat készülnek felrobbantani, a rohingyákra rendszeresen „bengáli terroristaként” hivatkoztak, és elképesztően népszerűek lettek a „muszlimmentes övezet” feliratok a közösségi oldalon. A gyűlöletbeszéd elharapózása után az ENSZ úgy nyilatkozott, hogy a Facebook egy

szörnyeteggé változott.

A Facebook elismerte a felelősségét a mianmari népirtásban, ahol a katonák és a szélsőséges civilek 750 ezer rohingyát üldöztek el hazájukból, és legalább 25 ezer embert gyilkoltak meg. Zuckerberg nyílt levélben kért elnézést az aktivistáktól, és tett ígéretet arra, hogy a jövőben nagyobb figyelmet fordítanak a moderálásra.

Idén decemberben aztán rohingya menekültek egy csoportja több mint 150 milliárd dolláros pert indított a Facebook ellen, miután az oldal algoritmusai erősítették a gyűlöletbeszédet, és képtelenek voltak eltávolítani a közösségellenes, erőszakra felbujtó posztokat.

Etiópiában az elnök is a Facebookon hergel

Haugen úgy nyilatkozott, hogy az egyik kiemelt motivációja a dokumentumok nyilvánosságra hozatalában az volt, hogy bemutassa, milyen rosszul kezeli a Facebook az etióp polgárháborús konfliktust. A nyilvánosságra került iratokból kiderül, a Facebook dolgozói tisztában vannak vele, hogy nem működik megfelelően az erőszakos, hangulatkeltő tartalmak féken tartása olyan térségekben, mint a polgárháború sújtotta Etiópia és további fejlődő országok, ahol a felhasználók száma jelentős, ráadásul folyamatosan növekszik.

Mi történik Etiópiában?

2020 novemberében Abij Ahmed etióp miniszterelnök katonai offenzívát rendelt el Tigré régióban, miután a három évtizede kormányzó, Tigrinya Népi Felszabadító Front (TPLF) kormánycsapatokra támadt. Abij centralizációs törekvéseit a TPLF fenyegetésnek élte meg az ország föderális berendezkedésére nézve, ezért hónapokkal később egyoldalúan kihirdették a tartomány elszakadását az anyaországtól, ami polgárháborúba torkollott. Abij rendszeresen használ dehumanizáló, erőszakra buzdító nyelvezetet a Facebookon: az ország testén élősködő ráknak, gyomnak nevezte a tigrinya szakadárokat, és követőit cselekvésre szólította fel, nevezetesen arra, hogy „temessék el” a kormány ellenségeit. A Facebook az elnök posztjait és kommentjeit eltávolította.

Az idén márciusban továbbított belső jelentés szerint etióp fegyveres erők arra használják a platformot, hogy erőszakra buzdítsanak etnikai csoportok ellen. Az eltávolított csoportok egyike a Fano milícia volt, ami az ENSZ és nemzetközi jogvédő szervezetek szerint etnikai tisztogatást hajtott végre a tigrinya lakosság körében. A jelentés ugyanakkor figyelmeztet, hogy más szereplők is tevékenykednek a radar alatt.

Minasse Wondimu Hailu/Anadolu Agency via Getty Images

A Facebook két külsős szervezettel dolgozik az etiópiai tartalmak moderálásán, azonban az emberhiánnyal küzdő szervezeteknek több nyelven kell sok ezer anyagot elemezniük nap mint nap Afrika második legnépesebb – 115 millió lakosú – országában. Berhan Taye, Afrika digitális jogaival foglalkozó kutató szerint lényegesen nagyobb figyelmet kellene fordítani az országban a tartalmak moderálásra. Erre Hachalu Hundessa meggyilkolása világított rá a legélesebben. Az énekes, aktivista tisztázatlan körülmények között halt meg tavaly nyáron, azonban meggyilkolása előtt egy tévé interjúban kritizálta az Abij elnök ellen szervezkedő, nacionalista oromó vezetők és a tigréi kormánypárt, a TPLF közeledését, továbbá arról beszélt, hogy halálos fenyegetéseket kapott. Ennek ellenére nem valószínű, hogy Abij-ellenes merénylet történt, ugyanis Hundessa támogatóból az elnök éles kritikusává vált a 2018-as kormányváltást követően. Halála után véres erőszakhullám söpört végig az országon, ami összesen 166 áldozatot követelt.

A közösségi média segített kiélezni az etnikai feszültségeket: lincseléseket streameltek élőben, bejegyzésekben különböző etnikumok kiirtásra buzdítottak.

Taye jelenleg önkéntesekkel próbálja kiszűrni az oldalon a problémás tartalmakat, amiket továbbküldenek a Facebooknak moderálásra. Ennek ellenére a jelentett anyagok nagy része – köztük kisebbségek megsemmisítésére buzdító bejegyzések – nem kerülnek le az oldalról, de olyan is elfordult már, hogy a cég arra kérte az aktivistákat, fordítsák le nekik a posztot.

Annak ellenére, hogy a tartalommoderálás nagy része angol nyelvterületen zajlik, egy belső jelentés szerint az oldalon terjedő álhírek hozzájárultak a washingtoni Capitolium 2021. januári ostromához is. Az új, demokrata párti elnök, Joe Biden beiktatásának napján azért szabadulhatott el az erőszak, mert a Facebook egyesével vizsgálta a Stop the Steal (Állítsák meg a lopást) névre keresztelt csoportokat, oldalakat, amelyek gombamód kezdtek szaporodni az elnökválasztás után.

Pedig a Facebook belső kommunikációja szerint a választás legitimációját tagadó oldalak aligha rejtették véka alá szándékukat. Az egyik alkalmazott odáig megy, hogy a cégvezetés döntései kikövezték az utat a Capitoliumban történt eseményekhez, míg egy másik arról beszél, hogy a Facebook régóta önti az olajat a tűzre, most pedig csodálkoznak, hogy kicsúszott a kezükből az irányítás, és elszabadult az erőszak.

Ajánlott videó

Olvasói sztorik