Az álhírek mellett újabb megoldandó problémával szembesült a Facebook, és gyorsan kell előállnia a megoldással.
Két olyan szörnyű eset is történt, amikor erőszakos eseményt közvetítettek a közösségi oldalon keresztül. A múlt hónapban a clevelandi Steve Stephens streamelte élőben, hogyan lőtte fejbe 74 éves áldozatát. A múlt héten pedig egy thaiföldi férfi, Wuttisan Wongtalay akasztotta fel kamera előtt 11 hónapos kislányát. Mindkét videó kendőzetlenül mutatta meg a gyilkosságokat.
Mivel a Facebooknak nem sikerült időben lépnie, több ezer emberhez jutottak el a felvételek. Wongtalay videóját például 112 ezren, Stephensét pedig 258 ezren tekintették meg, mielőtt azokat eltávolították.
Az élő közvetítést néző felhasználók közül többen feltették a kérdést:
- miért nem hívja valaki a rendőrséget?
- Miként történhet az meg, hogy egy brutális videót több százezren néznek egy időben, a Facebook reakciója azonban órákat késik?
Megoldás egyelőre még nincs, a probléma viszont sürgető. Történhetnek majd újabb erőszakos cselekmények, amelyeket élőben közvetítenek, a Facebooknak ez ellen tennie kell.
Azok az emberek, akik mentális gondokkal küzdenek, bátorítást kaphatnak ezáltal arra, hogy maguk is valami hasonlót hajtsanak végre
– mondta Sherry Towers, az Arizonai Egyetem kutatója.
Tűt a szénakazalban
A lassúság oka, hogy a közzétett posztok és képek szűrését a közösségi oldal a felhasználókra bízza. Ha sértő, erőszakos, vagy a Facebook szabályzatát sértő tartalmat találunk, nekünk kell jelentenünk. Csak ezután bírálja azt felül a moderátori csapat.
A helyzet viszont korántsem egyszerű: már most is több ezer moderátor dolgozik a bejelentések elbírálásán, amelyekből írta a cég a clevelandi eset után kiadott közleményében.
–Ezért nem sikerül elég gyorsan kiszúrni, ha valaki éppen élő adásban követ el erőszakos cselekményt, akár gyilkosságot.
A kívülállók passzivitása
Steve Stephens gyilkosságról készült videója közel három órán át volt fenn a közösségi portálon, mielőtt eltávolították, az elkövető teljes Facebook-fiókjával együtt. A Facebook szerint azért a késlekedés, mert csak a moderátori csapat pedig ettől számítva húsz perc múlva tudott intézkedni. Részben tehát a felhasználókra hárították a felelősséget, akik lassan reagáltak a látottakra.
A szociálpszichológiában járókelő-effektusként (bystander effect) hívják azt a jelenséget, amikor minél többen tudnának segíteni egy rászorulónak, annál kevesebb az esélye annak, hogy valaki megteszi.
A felhasználók kevésbé érzik, hogy az ő felelősségük lenne tenni valamit. Erre rásegít az is, hogy az internet egy olyan elidegenítő környezet, ahol kívülállókként tekinthetünk be szörnyű cselekedetekbe.
Másrészt a netezők számára is furcsa a helyzet: pörgetik egy átlagos délután a hírfolyamot, látják, hogy valami szörnyű történik, de nincsenek tisztában azzal, hogy ezen ők miként segíthetnének. Sokan még azzal sincsenek tisztában, hogy a posztokat lehet jelezni a Facebook felé.
Kinek a felelőssége?
Sarah T. Roberts a Kaliforniai Egyetem professzora szerint a Facebook jelenlegi moderátori felállása, melyben a felhasználókat állítják a frontvonal élére, megkérdőjelezhető. A rendszert is átláthatóbbá kéne tenni, enélkül nem lehet egyértelműen kideríteni, hol csúszik el a dolog: a felhasználók nem hajlandók gyorsan cselekedni, vagy nem tudják, hogy kellene azt megtenni?
Mark Zuckerberg áprilisi fejlesztői konferenciájukon közölte, hogy még sokat kell dolgozniuk azon, hogy a hasonló tragédiákat képesek legyenek megelőzni automatizált megoldással, pár év még biztos kell ahhoz, hogy egy videó tartalmát képes legyen valós időben elemezni egy algoritmus. Már most is használnak ugyan mesterséges intelligenciát, de az nem elég fejlett. Korábban ebből több félreértés is származott, például pornográfiára hivatkozva eltávolították a vietnámi háborúban készült ikonikus fotót, amelyen egy meztelen kislány fut.
Ha még meg is valósulna egy ilyen algoritmus, az sem lehet tökéletes megoldás, mert van olyan erőszakot ábrázoló tartalom, ami sok esetben akár bizonyítékként is szolgálhat. Erre jó példa Diamond Reynolds nevű nő videója, akinek párját élő közvetítésben lőtték le rendőrök.
Mi is sárosak vagyunk?
Mindegy milyen összetett algoritmusokat fejlesztünk a jövőben, a cenzúra kérdése inkább függ majd az emberektől, mintsem a technikai korlátok legyőzéséről. „A tömeggyilkosságokról szóló történetek azért olyan népszerűek a médiában, mert érdeklik a nyilvánosságot. Az emberek azokat továbbosztják, és virálissá teszik” – vélekedik a jelenségről Sherry Towers, az Arizonai Egyetem professzora.
Miután az idős férfi meggyilkolásáról szóló videó eltűnt a Facebookról, más platformokon ismét felbukkant, az egyiket már 1,6 millióan látták. A meggyilkolt 74 éves idős ember unokája a Twitteren kérte arra a netezőket, hogy ne osszák tovább a videót, tartsák tiszteletben nagyapja halálát.
Please please please stop retweeting that video and report anyone who has posted it! That is my grandfather show some respect #Cleveland
— Ryan A. Godwin (@god_winr) April 16, 2017
A Facebook mesterséges intelligenciát használó algoritmusa egyelőre még nem tart ott, hogy minden egycsapásra megoldjon. Addig is marad a manuális szűrés: a cégnek addig akár több önkéntessel, vagy alkalmazott moderátorral kellene felgyorsítania a folyamatot. Bár a fő felelősség a cégé, részben mi is hibásak vagyunk, ha nem cselekszünk időben, és továbbra is a körforgásban tartjuk ezeket a tartalmakat – erre pedig nincs app vagy fejlesztés.