Tech

Biztosan nem látta még Mona Lisát videón panaszkodni

A deepfake videókhoz, vagyis azokhoz a kamufelvételekhez, amelyeket algoritmusokkal készítenek fényképekből, általában több ezer fotóra van szükség a célszemélyről, hogy minden oldalról és minden szögből élethűen lehessen manipulálni a videót, amire az ő arcát maszkírozzák. A Samsung viszont most olyan programot fejlesztett, amelyhez elegendő egyetlen fotó, és máris le lehet animálni egy rövid videót úgy, hogy nagyjából élethűnek is tűnjön – írja a CNet.

via GIPHY

 

 

Bár a felvételeken még látszik, hogy mesterséges intelligencia gyártotta őket, ez a módszer egy fontos lépés lehet az egyszerűsített deepfake-gyártáshoz, aminek aztán katasztrofális következményei lehetnek.

A deepfake videókat ugyanis általában nem olyan ártalmatlan dolgokra szokták használni, mint a Mona Lisa leanimálása – politikusokat, sztárokat hoznak velük kellemetlen helyzetbe, sőt, szélsőséges esetben még választást is lehet velük manipulálni. És mindez egyelőre a deepfake jelenlegi technológiájával értendő, ha a módszer ilyen gyorsan fejlődik, még károsabb következményei lehetnek később. A mesterséges intelligenciát egyébként a Samsung egy orosz laboratóriumában fejlesztették ki.

via GIPHY

 

A rendszer el is nevezte a rövid, animált videókat: valósághű neurális beszélő fejeknek hívja őket. Az MI-t kifejlesztő kutatók szerint olyan dolgokra lehet majd használni az algoritmust, ami hasznos a tévében, a filmekben vagy a videojátékokban. Persze a deepfake rosszindulatú felhasználásáról szó sem esik – pedig könnyen lehet, hogy hamarosan már egy Facebook-profilképpel is lehet valakiről lejárató célból hamis videókat csinálni.

Ajánlott videó

Olvasói sztorik