Bár a Channel 4 döntését egyetlen hivatalos szerv sem hiúsítja meg, ez még nem jelenti azt, hogy mindenki felhőtlen örömmel fogadta a csatorna bejelentését. A Buckingham-palota nem is kívánta kommentálni a hírt, a BBC királyi tudósítója pedig nincs elragadtatva a királynő-imitációtól, aki egyébként Debra Stephenson brit színésznő hangján szólal meg, noha technikailag megoldható lenne az eredeti hangalámondás is. (A videót az Oscar-díjas vizuáliseffekt-stúdió, a Framestore készítette.)
És hogy miről is beszél az uralkodónő? Többek között unokája, Harry sussexi herceg és Meghan Markle sussexi hercegnő külföldre költözéséről, valamint fia, András yorki herceg idei döntéséről, miszerint lemond királyi feladatairól a hírességeknek fiatal lányokat szállító Jeffrey Epsteinnal ápolt kétes kapcsolata miatt. A deepfake videót tetézi, hogy a „királynő” még egy TikTok-féle táncos kihívásban is részt vesz (ez látszik az alábbi videó kezdőképén), a felvételen azonban valójában nem látszik ez a jelenet, a kissé életszerűtlen hang viszont jól kivehető. A Channel 4 azzal hárítja a kritikákat, hogy akciójukkal csupán a fake news veszélyeire kívánják felhívni a figyelmet. Veszélyekből pedig akad bőven, a technológia ugyanis egyre olcsóbb, egyszerűbb. A kép-és videóhamisításra használt deepfake technológia már 2018 közepén olyannyira fejlett volt, hogy egyes szakértők információs apokalipszist emlegettek. A dublőrök és a technológia egyvelegével elkészített kamuvideók elterjedése ugyanis alapjaiban megváltoztatja a kijelentést, miszerint ha másnak nem, legalább a szemünknek hihetünk.
A University College London kutatói nyáron publikálták tanulmányukat, amelyben a mesterséges intelligenciához kötődő lehetséges csalásokat, bűncselekményeket taglalták, rangsoruk elejére pedig a videó- és hanghamisítás került, és a következő tizenöt év legnagyobb biztonsági fenyegetésének nevezték a deepfake-et. Ahogy fogalmaznak, mi emberek hajlamosak vagyunk a szemüknek és a fülüknek hinni. A deepfake technológia bűnügyi felhasználásai roppant szerteágazóak lehetnek: gyerekek nevében kérhetnek pénzt az idősebb felmenőktől videohívás keretében, telefonon kérhetnek hozzáférést biztonságos rendszerekhez, vagy közszereplőket eljátszva manipulálhatják a hallgatóságot különböző célok érdekében.
A technológiát 2020 februárban alkalmazták először választási kampányban, Indiában viszont még csak arra használták, hogy segítségével egy politikus az általa nem beszélt nyelveken és dialektusokban is megszólíthatja a szavazókat, az utólag felvett beszédhez pedig illeszkedjen a szájmozgása. Az amerikai elnökválasztási kampányt valamilyen csoda folytán mostanáig elkerülte a deepfake, egyedül a RepresentUs korrupcióellenes szervezet próbált olyan videókat a tévébe küldeni, amelyeken Vlagyimir Putyin és Kim Dzsongun deepfake verziói hívják fel a figyelmet a demokrácia törékenységére – a felvételek közlésétől végül a Fox, a CNN és az MSNBC is elállt. Számottevő politikai támadások híján a deepfake – legalábbis a felszínen – egyelőre az maradt, amivel 2018-ban népszerűvé vált: a vicces videók, a filmes szerepcserék és az alternatív történelem kedvelőinek kedvenc technológiája.
Aki kipróbálta már a Messenger-filtereket, vagy a FaceAppet, az már kapcsolatba került a deepfake technológiával. Bár ezek esetében még nem volt annyira szembetűnő, hogy ez a veszélyes technológia lapul mögöttük, hiszen csak egy saját fotóra vagy videóra került új effekt, 2020 nyarán egy olyan applikáció terjedt el szélsebesen a felhasználók között,
amely egy gombnyomásra tett elérhetővé korábban napok alatt megvalósítható funkciókat.
Az ukrán tervezésű Reface app ingyenes verziójában a naponta ajánlott körülbelül tíz jó minőségű videó mellett szinte minden ismert gifen kicserélhető a kiválasztott arc a sajátunkra, és ehhez csak egy szelfit kell készíteni. A tíz másodperc alatt elkészült mozgóképek letölthetők, megoszthatók. Az appot mostanra több tízmillióan telepítették, és ki tudja hányan fizettek elő a napi limitet feloldó, reklám- és vízjelmentes Pro verzióra.
Bár a deepfake technológia az alany testmozgását is alakíthatja, vagy az eredetitől eltérő beszédhez igazíthatja a száj mozgását, a deepfake veszélyeit kutató Sensity vezetője, Giorgio Patrini szerint az interneten keringő kamuvideók kilencvenkilenc százaléka egyszerű és ingyenes vagy nagyon olcsó programokkal készült, és arccserén alapul. A Sensity 2019-ben közel tizenötezer deepfake videót talált a weben, ezek kilencvenhat százaléka arccserélős pornó volt. A cég idén júniusban egy újabb kutatás során már negyvenkilencezer deepfake videót talált, és bár még mindig a pornó vezet, mégis jelentős változást észleltek. Míg 2017-ben szinte csak színésznők és popsztárok estek a technológia áldozatául,
mára egyre gyakrabban tűnik fel internetes hírességek (influenszerek, youtuberek, Instagram-sztárok) arca ezekben a videókban.
A Sensity felmérése szerint havonta mintegy ezer deepfake videó kerül fel a legnézettebb pornóoldalakra, amelyek szabályzata hiába tiltja a videókban szereplő személyek hozzájárulása nélkül készült felvételek közzétételét, a deepfake-kel nem nagyon tudnak (vagy akarnak) mit kezdeni. Ugyanakkor már megjelentek a kifejezetten deepfake-fókuszú pornóoldalak is, több százmilliós közönséggel, és olyan is van közöttük, amely kérésre gyártja a hamisított videókat. A szakértők a trendekből arra következtetnek, hogy a hírességek mellett hamarosan a hétköznapi embereket – leginkább a nőket – is fenyegetheti a deepfake-pornó veszélye. Bár az algoritmus segítségével levetkőztető DeepNude alkalmazását megjelenése után gyorsan letiltották, forráskódját valószínűleg sikeresen visszafejtették , mivel valószínűleg ez állt a tavalyi Telegram-botrány mögött. A titkosított üzenetek küldésére használt applikáció több mint százezer felhasználóját érintő ügyben fiatalkorú lányok is érintettek, a manipulált képeket pedig nemcsak terjesztették, de pénzért is árulták.
Míg a hagyományos felvételeken szereplők beleegyezése nélkül feltöltött képek vagy videók esetében becsületsértés vagy személyiségi jogok megsértése miatt lehet perelni, esetleg szerzői jogi panasszal élni, a deepfake-pornóra egyelőre nincs megfelelő jogi eszköz. A Wired szerint az USA-ban elsőként elfogadott deepfake-törvények csak a politikai célú felhasználásra vonatkoznak, Nagy-Britanniában pedig már elkezdték vizsgálni az intim képek (a deepfake felvételeket is ideértve) online megosztásának szabályozási lehetőségeit, de a jogi környezet változása évekbe telhet. „Ez a technológia immáron köztünk van, és sokkal gyorsabban fejlődik, mint amivel a társadalom tarthatná a lépést. Nem vagyunk felkészülve arra a mesterséges média korára, amelyben már a videókat is bárki könnyen manipulálhatja" – mondta a lapnak Nina Schick, a Deepfake és az Infokalipszis című könyv szerzője. Szerinte a problémára a technológiai szektor szereplőinek, a politikusoknak és a jogászoknak együtt kellene megoldást nyújtani, a nyilvánosság bevonásával, ennek jeleit azonban egyelőre nem látni.
A Facebook tavaly szeptemberben hirdette meg versenyét, melynek keretében a leghatékonyabb deepfake-vadász algoritmust keresték, idén júniusban pedig meg is lett a győztes, akit több mint kétezer pályázó közül választottak ki. Mike Schroepfer, a közösségi oldal technológiai igazgatóját elmondása szerint rendkívül frusztrálta, hogy
okos kutatók mennyi időt és energiát fektettek abba, hogy minél jobb deepfake-eket készítsenek, anélkül, hogy az ezeket felismerő módszerek kifejlesztésébe fektettek volna.
A verseny tízmillió dollárjába fájt a cégnek, és több mint háromezer-ötszáz embert bízott meg deepfake videók ezreinek készítésével, a profi felvételek helyett azonban a közösségi médiában terjedő, telefonos minőségű amatőr felvételekre fókuszáltak. A győztes algoritmus nyolcvankét százalékos pontossággal felismerte a deepfake videókat, amit Schroepfer sikernek könyvelt el. A Facebook saját deepfake-detektora ugyan a cég állítása szerint pontosabb, de a szervezők szerint a verseny arra mindenképp jó volt, hogy az amatőr és hivatásos mesterségesintelligencia-kutatókat ráállították egy olyan probléma megoldására, amely a következő években meghatározó lehet.
A deepfake-elhárítás ugyanis lassan önálló iparággá válik. A Facebookhoz hasonló techcég, a Microsoft, ami szintén saját megoldással lép fel a deepfake ellen, szeptemberben jelentette be a manipulált videók felismerését célzó Video Authenticator nevű szoftver fejlesztését, míg más cégek kifejezetten a deepfake biztonsági fenyegetéseinek elhárításán dolgoznak. Utóbbiak közé tartozik az izraeli Cyabra is, amely már több amerikai partnerrel együtt próbál fellépni a deepfake technológiákkal megtámogatott félrevezető kampányokkal szemben. Ahogy a cég társalapítója, Yossef Daar az Observernek elmondta, egy jól felépített dezinformációs kampány három, piramisban is elképzelhető elemre épül: a piramis alján a kétségkívül kamuprofilok és Twitter-botok állnak, melyek feladata egy adott üzenet tömeges terjesztése; középen helyezkednek el az igazinak tűnő, mesterséges intelligencia által generált fotóval is rendelkező profilok, amelyek emberi arcot adnak az üzenetnek; míg a piramis tetején a valós személyek állnak, akiket többnyire lefizetnek az üzenet terjesztéséért, hogy az még hitelesebbnek tűnjön. Vannak, akik szerint az egyszeri bombaként használható deepfake videók helyett az emberfeletti ütemben szaporodó, mesterségesen generált arcképekkel megtámogatott kamuprofilok jelentenek valódi veszélyt.
A deepfake-hez hasonló, ugyancsak generatív versengő hálózatokat (GAN) hasznosító technológia első kiterjedt használatára tavaly decemberben talált rá a Graphika közösségimédia-elemző cég és az Atlantic Council digitális kutatóintézete: egy olyan, több mint kilencszáz oldalt, csoportot és profilt felölelő hálózatot lepleztek le, amelynek szálai a szélsőjobbos-trumpista-konteós Epoch Media Groupig vezettek.
„Kamuprofilokkal erősítették Facebook-jelenlétüket, hogy üzeneteik még szélesebb közönséghez eljuthassanak” – kommentálta az esetet a kutatás résztvevője, Max Rizzuto a Financial Timesnak.
A Graphika mindemellett már Kínában és Oroszországban is felfedezte a technológia megjelenését. A vizsgált kínai Facebook-kampányokban fiktív személyekkel mondatják a pekingi propagandát érzékeny külpolitikai ügyekkel kapcsolatban, míg az oroszok nem létező újságírók nevében hoztak létre profilokat, hogy megpróbálják befolyásolni az olvasók gondolkodását.
(Fotó: Channel 4, Wikimedia, Getty Images Hungary)