Nagyon könnyen leleplezhető, ha valaki deepfake-kel próbálja másnak kiadni magát

2022 / 08 / 09 / Bobák Áron
Nagyon könnyen leleplezhető, ha valaki deepfake-kel próbálja másnak kiadni magát
Politikusok átverése mellett akár érzékeny adatok ellopására vagy ipari kémkedésre is alkalmas lehet a deepfake, de ha valaki tudja, hogy mire kell figyelni, akkor nagyon gyorsan kiderítheti, ha valaki nem a saját arcával vesz részt egy online megbeszélésen.

Hétfőn több lap is beszámolt róla, hogy Karácsony Gergelyről egy olyan videó került fel a netre, amelyen a budapesti főpolgármester egy magát Vitalij Klicskónak kiadó emberrel beszélget, ám a hívó fél valójában nem a kijevi főpolgármester volt, hanem a Vovan és Lexus néven működő orosz humoristák, akik néhány kényelmetlen kérdéssel igyekeztek zavarba hozni a politikust. A deepfake technológiával dolgozó páros korábban már Emmanuel Macront, Boris Johnsont és számos más nyugati politikust is átvert, noha a mesterséges intelligencia segítségével megváltoztatott arc leleplezésére létezik egy nagyon egyszerű módszer.

A kifejezetten ilyen videókra szakosodott, Metaphysic nevű cég (akiknek a munkájából itt látható egy kis ízelítő) egy másik közelmúltbeli esemény kapcsán járt utána, hogy milyen lehetőségek vannak annak felfedésére, ha valaki egy élő videóban deepfake-et használ. Ahogy korábban mi is beszámoltunk róla, az FBI nemrég figyelmeztetést adott ki azzal kapcsolatban, hogy egyre többen igyekeznek az online állásinterjúk során ezzel a módszerrel másnak kiadni magukat, amivel a céljuk általában az, hogy üzleti titkokat szerezzenek meg a vállalattól. A Metaphysic szakértője, Martin Anderson szerint ez ráadásul csak az egyike azoknak a lehetőségeknek, ahogyan a deepfake ártalmas eszközzé válhat rossz kezekben, hiszen a bűnözők akár arra is felhasználhatják a technológiát, hogy valaki más nevében azonosítsák magukat banki, vagy egyéb, fokozott biztonságot igénylő alkalmazásban.

Anderson szerint ugyanakkor van egy rendkívül egyszerű módszer, amivel a deepfake programok egyelőre nem nagyon tudnak mit kezdeni:

ha arra gyanakszunk, hogy a beszélgetőpartnerünk nem is az, akinek mondja magát, kérjük meg, hogy forduljon oldalra.

A deepfake programok általában nem túl jók abban, hogy profilból is képesek legyenek lecserélni az emberek arcát, a hiba pedig azonnal kiütközik, amint valaki 90 fokban elfordítja a fejét. Ennek illusztrálására a Metaphysic a széles körben elterjedt DeepFaceLive nevű deepfake-programot használta, ami - ahogy azt a blogbejegyzésben közzétett fotó is alátámasztja - normál esetben igencsak jó munkát végez: a tesztalany arca pillanatok alatt alakul át élő egyenes adásban Ryan Reynolds-éra, Elon Muskéra vagy éppen Keanu Reeves-ére, ám amint a kamera előtt ülő ember elfordul, az arca helyén csak egy elmosódott massza lesz látható.

 

Ahogy a Metaphysic szakértője írja, elméletileg lehetséges lenne, hogy egy mesterséges intelligenciát betanítsanak arra, hogy profilból is képes legyen létrehozni a deepfake-et, ehhez viszont rendkívül nagy mintára van szükség, amit legalább 6-10 napba telne betáplálni a rendszerbe. Bár a Karácsony Gergelyről közzétett videón nem látható a másik fél, de ez alapján még az sem kizárt, hogy az orosz humoristáknál a fent bemutatott módszer sem működött volna, hiszen Vlagyimir Klicskóról sportolói múltja miatt számos jó minőségű fotó és videofelvétel áll rendelkezésre. Ebben az esetben is van ugyanakkor lehetőség arra, hogy leleplezzük a deepfake-et, ugyanis az ilyen programok ma még azt sem tudják igazán kezelni, ha valami az ember arca elé kerül, így ha megkérjük a beszélgetőpartnerünket, hogy integessen egy kicsit az arca előtt a kezével, akkor azonnal láthatóvá válik, ha deepfake-kel megváltoztatta az arcát.

Utóbbi módszer a technológia fejlődésével valószínűleg egyre kevésbé lesz megbízható indikátora a deepfake-nek, a profillal kapcsolatos nehézségek viszont jó eséllyel azt jelenthetik, hogy az átlagos embereknek a jövőben sem kell tartaniuk attól, hogy valaki a deepfake segítségével ellopja az identitásukat. A legtöbb emberről csak nagyon korlátozottan vagy egyáltalán nem áll rendelkezésre olyan fotó vagy videó, amelyen minden oldalról jól látható az arca, így pedig legfeljebb akkor tudnák tökéletesen leutánozni a megjelenésüket, ha a technológia eljutna arra a szintre, hogy egy kétdimenziós portréfotó vagy videó alapján rekonstruálni tudja, hogyan néz ki az adott ember oldalról. Az Anderson által megkérdezett szakértők szerint plusz védelmet biztosíthat, ha az arcazonosítással dolgozó cégek olyan kéréseket is megfogalmaznak az azonosítási folyamat során, hogy vágjuk különböző arcokat, így még ha valakiről lehet is találni olyan videót, amin oldalról is látható az arca, a szokatlan arcmimikákat akkor sem fogják tudni pontosan leutánozni.

A mesterséges intelligenciával létrehozott deepfake videók ellen hosszú távon éppen a mesterséges intelligencia nyújthat majd a fentinél valamivel kifinomultabb védelmet, hiszen már ma is számos cég - köztük a Facebook anyavállalata, a Meta is - dolgozik olyan technológián, ami képes kiszűrni a manipulált felvételeket. Amíg ezek a programok elterjednek, addig pedig marad a "józan paraszti ész", hiszen az MIT Lab kutatói nemrég azt is feltárták, hogy az emberek minden előzetes információ nélkül is 65%-os pontossággal képesek megkülönböztetni a deepfake videókat a valódiaktól.

(Borítókép: Cristian Calderon/EyeEm/Getty Images)

Mesterséges intelligencia-alapú hangutánzással loptak el milliárdokat egy bankból Az eset az Egyesült Arab Emirátusokban történt, majd amerikai bírósági dokumentumok alapján derült rá fény.


Ismerd meg a ROADSTER magazint!
AUTÓK - DESIGN - GASZTRO - KULT - UTAZÁS - TECH // Ha szereted a minőséget az életed minden területén, páratlan élmény lesz!
Ezek is érdekelhetnek
HELLO, EZ ITT A
RAKÉTA
Kövess minket a Facebookon!
A jövő legizgalmasabb cikkeit találod nálunk!
Hírlevél feliratkozás

Ne maradj le a jövőről! Iratkozz fel a hírlevelünkre, és minden héten elküldjük neked a legfrissebb és legérdekesebb híreket a technológia és a tudomány világából.



This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.