Néhány hónappal ezelőtt bukkant fel Redditen egy magát deepfake-nek nevező felhasználó, aki híres sztárok fejét montázsolta bele a pornófilmekbe, a felnőttfilmes színésznők saját fejének helyére – így került komoly bajba Gal Gadot is, aki ugyan szexvideót soha nem forgatott, de áldozatául esett az azóta már fogalomként emlegetett deepfake módszernek. Az egész a fotómanipuláció egy továbbfejlesztett változata, csak itt
Az egészhez mindössze egy rakás fotóra és videóra van szükség, hogy a célszemély minél több arckifejezését realisztikusan mintázhassák a manipuláció során.
Bárki lehet pornószínész vagy színésznő egy napra
A fentiek alapján egyértelmű, hogy a deepfakes nem éppen pozitív felhanggal startolt el, de egy amerikai pornóvállalat, a Naughty America most változtatna a megítélésén: bevállalták, hogy a gépi tanulást felhasználva bárkit belemontázsolnak a kedvenc pornófilmjébe, és akár a hátteret vagy az eszközöket is szívesen megváltoztatják. Ehhez, a módszer sajátosságait figyelembe véve, mindössze jó néhány képre és videofelvételre van szükségük, amelyeken a megrendelő minél több arckifejezését láthatják, minél több szögből.
“A személyre szabásban látjuk a jövőt” – mondta el a Naugthy America vezérigazgatója, Andreas Hronopoulos a Variety-nek adott interjújában. A vállalat ráadásul nemcsak hagyományos pornóvideókat ajánl fel manipulációra, hanem VR-filmeket is, így meg aztán pláne bárki kiélheti minden titkos fantáziáját a módszerrel.
A technológia nem gonosz, ne tessék rosszra használni
Persze rengeteg problémát felvet az ötlet, többek között azt is, hogy nagyjából semmi nem garantálja, hogy ezek a videók ne kerüljenek illetéktelen kezekbe – bárhonnan kiszivároghatnak ugyanis, és talán egyedül egy bazinagy vízjellel lehetne garantálni, hogy nem tévesztik őket össze valódi filmekkel. A Naughty America bevállalja, hogy lerendezi a videókban szereplőkkel a jogokat, de az sem mindegy, hogy a beküldött képek és videók, amelyek alapján a filmek elkészülnek,
A Naugthy America szerint azonban ezek a problémák nem rájuk tartoznak: ahogy Hronopoulos fogalmazott, maga a technológia nem gonosz, csak az emberek, akik visszaélnek vele – ők nem fognak, ezért nem is érdemes azon gondolkozni, hogy mennyire szerencsés deepfake pornókat gyártatni magunkról.