Mi is tájékoztattuk olvasóinkat annak az alkalmazásnak a létezéséről, ami gombnyomásra generált meztelen fotókat amúgy ruhában látható hölgyekről a mesterséges intelligencia végtelen lehetőségeit kihasználva. A hirtelen jött népszerűség elgondolkodtatta az app készítőit, akik pár napra rá úgy döntöttek, hogy inkább lelövik az egészet, és elérhetetlenné teszik a DeepNude-ot. A szoftvert ingyen lehetett használni, de csak 50 dollár fejében kapta meg a felhasználó azt a verziót, ami nem rakott vízjelet a képekre.
„Nem akarunk ilyen módon pénzre szert tenni. Nyilván a DeepNude néhány másolata felbukkan majd a neten, de nem mi akarunk lenni, akik így szereznek bevételt. A világ még nem áll készen a DeepNude-ra”- írta az egyik készítő, akit főleg az aggasztott, hogy túl sokan használnák rossz célra az alkalmazását.
Ahogy fejlesztői a Vice-nak is elárulták, a DeepNude azon a Pix2Pix algoritmuson alapult, amit a Kaliforniai Egyetem kutatói fejlesztettek azon célból, hogy fekete-fehér képekből készíthessenek színeset. Ez egy szélesebb körben elérhető algoritmus, amit bárki felhasználhat arra, hogy saját szoftvert „tanítson” ki változatos célokra.
A DeepNude készítője az app lelövése után Twitteren fejtette ki, hogy elkészítésével nem az volt a célja, hogy ártalmas eszközt adjon a rosszakarók kezébe, egyszerűen csak kísérletnek szánta. „Annak ellenére, hogy vízjeleket is használtunk, nagy a valószínűsége annak, hogy az 500 ezer felhasználóból sokan rosszra használhatták az alkalmazást”. Hozzátette, hogy a teljes verziót megvásárló netezők pénzét természetesen visszatérítik.
— deepnudeapp (@deepnudeapp) June 27, 2019
Ugyan a DeepNude eltávolításának morális okai voltak, azzal a problémával is szembe kell nézni, hogy a szoftver valahol a net bugyraiban még nagy valószínűséggel előkerül majd.
„Biztos vagyok benne, hogy a DeepNude néhány másolatát megosztják majd a neten” – fűzte hozzá készítője, aki hozzátette, hogy a szoftver másolása és osztása ugyan tiltja a felhasználási feltételeket, de ez nyilván nem elég ahhoz, hogy az app reinkarnációját megállítsák.
Nemrég mi is írtunk bővebben a deepfake videókról, amik a szakértők szerint igazán nagy károkat a dezinformáció újfajta módjaként, politikai célzattal okozhatnak, hiszen a használatával olyan mondatokat adhatnak közéleti szereplők szájába, amiket ők valójában sosem ejtettek ki. Ennek ellenére az ilyen célú felhasználásuk még nem terjedt el különösebben, de a pornó világában annál inkább: