A deepfake technológia műholdképeken is veszélyes lehet
2021 / 04 / 28 / Felkai Ádám
A deepfake technológia műholdképeken is veszélyes lehet
A deepfake szóösszetétel a deep learning (mély tanulás) és a fake (hamis) szavak összevonásából jött létre – a kifejezés tehát egyszerre utal az eszközre és a végeredményre.

Ha szeretnénk röviden és leegyszerűsítve összefoglalni, hogy mi az a deepfake, akkor a fentieknek megfelelően azt mondhatjuk, hogy olyan hamis, jellemzően képanyag, amit mesterséges intelligencia segítségével hoztak létre. A végeredmény adott esetben „jópofa” lehet, mint a mesterséges intelligencia által alkotott, a valóságban sosem létezett autók és macskák, időnként felkavaró, mint a sosem létezett emberek, vagy akár kifejezetten ártalmas, mint amikor valakinek az arcát cserélik ki egy pornószínész arcára egy-egy jelenetben. Hogy a mesterséges intelligencia mire képes ma már, azt egy egyszerű webböngészőben is megtekinthetjük, a lenti cikkben össze is gyűjtöttünk egy csokrot ezekből, de egy nemlétező várost használtunk ennek a cikknek az illusztrálására is.

Nézegessünk városokat, embereket és autókat, melyek nem léteznek, csak az MI hozta őket létre! Sosem létezett autók, emberek, akik meg sem születtek, véletlenszerűen generált bogarak. A mesterséges intelligencia összerak bármit: a cikkben közölt linkeken bepillanthatunk egy univerzumba, amely csak digitálisan létezik.

A deepfake technológia különböző területeit pedig ennek megfelelően régóta tanulmányozzák, egy új tanulmány azonban most a deepfake műholdképek veszélyeivel foglalkozott a szerzők szerint valószínűleg az első, ilyen célú empirikus kutatás keretein belül. Az első kérdés, hogy milyen veszélyt jelenthet egyáltalán egy deepfake műholdkép. Aki átbogarászta a fentebb linkelt cikket, abban is találhat sosem-létezett-város generátort, ami érdekes látványosság, de kifejezetten ártalmatlannak tűnik az egy adott személy lejáratására is alkalmas deepfake pornóhoz képest. Pedig a hasonló műholdképekkel pontosan olyan sikeresen lehet akár emberek nagyobb csoportját is félrevezetni, mint a technológia egyéb területen történő felhasználásával (vagy akár azoknál sikeresebben is – de erről később). Ennek egyik módja lehet például áradások, bozóttüzek vagy egyéb természeti katasztrófák hamisítása. Katonai szempontból veszélyes lehet például egy nemlétező híd megjelenése ezeken a képeken, de szóba kerülhet olyan emberi jogi visszaélés, mint akár az ujgur munkatáborok eltüntetése ezekről a képekről, hiszen például ezekről egyáltalán csak a műholdaknak köszönhetően tudunk. Vagyis a deepfake technológia a földrajzi információs rendszerek (GIS) korában számtalan módon okozhat kárt.

Bo Zhao, a Washingtoni Egyetem professzora pedig a kutatásával elsősorban épp ezt a veszélyt kívánta tudatosítani. Mint a professzor írja, a térképek különböző célú meghamisítása olyan régre nyúlik vissza, mióta térképek egyáltalán léteznek. Ezeknek célja lehetett az ellenséges haderők összezavarása, de akár a szerzői jogi védelem. Erre az említett példa a papírváros, tehát egy kitalált, valóságban nem létező város feltüntetése a térképen, amit ha lemásolt valaki a teljes térképpel együtt, akkor a bíróságon lehetett rá hivatkozni, mint bizonyítékra a másolással kapcsolatban. A műholdképek és a deepfake technológia kapcsán azonban az eddigiekhez képest két veszély sejlik fel: egyrészről a műholdképek mögött az emberek kormányokat, szakértőket, bonyolult technológiai rendszereket feltételeznek, így ezeket nagyon sokan tartják perdöntően hitelesnek. Másrészről a mesterséges intelligencia segítségével hamis műholdképeket könnyebb létrehozni, mint akár egy emberi arcot. Vagyis a műholdképeket rendkívül hitelesnek vélik az emberek általában, pedig ezeket igen könnyű „hamisítani”.

Zhao és kollégai a tanulmányhoz felépítettek egy olyan deep learning technológiára épülő rendszert, amilyeneket tehát mi is összegyűjtöttünk a fenti linken, majd készítettek egy szoftvert, amely képes ezeket a hamis felvételeket kiszűrni. Azonban, ahogy az a deep fake technológiákra általában igaz, ezzel egy végtelen fegyverkezési verseny vette kezdetét, hiszen ahogy javulnak a hamisítványok, úgy kell folyamatosan fejleszteni az ezek kiszűrésére alkalmazott technológiákat. A tanulmány legfőbb célja ugyanakkor éppen az volt, hogy erre a veszélyre – tehát a deepfake műholdképek lehetséges megjelenésére felhívja a szélesebb közvélemény figyelmét.

(Kép: thiscitydoesnotexist.com)

További cikkek a témában:

Egy fiatal női Twitter-influenszerről kiderült, hogy ötven éves férfi, aki deepfake videókat posztolt Az utóbbi egy évben meredeken emelkedett az olyan, nagy figyelmet kapott esetek száma, melyekben a deepfake technológia komoly szerepet kapott, és most itt a legújabb történet, ami átverésnek indult, de jó vége lett.

Szinte lehetetlen észrevenni, hogy ezeket a Tom Cruise videókat egy számítógép készítette Mi lesz, amikor nem szólnak a készítők, hogy átveréssel állunk szemben?

A mesterséges intelligencia a sosem élt emberek arcai után már sosem létezett DNS-t is generál Az elmúlt években a mesterséges intelligencia egyre több korábban elképzelhetetlen formájú vagy komplexitású tartalom tömeges véletlenszerű generálásával hívta felt magára a figyelmet. Most már komplett, életképes emberhez tartozó DNS-t is képes hamisítani.  

 


Ismerd meg a ROADSTER magazint!
AUTÓK - DESIGN - GASZTRO - KULT - UTAZÁS - TECH // Ha szereted a minőséget az életed minden területén, páratlan élmény lesz!
Kövesd a Rakétát a Facebookon is!
Kövess, üzenj, kommentelj a Rakéta Facebook oldalán!
Ezek is érdekelhetnek
HELLO, EZ ITT A
RAKÉTA
Kövess minket a Facebookon!
A jövő legizgalmasabb cikkeit találod nálunk!

Hírlevél feliratkozás

Ne maradj le a jövőről! Iratkozz fel a hírlevelünkre, és minden héten elküldjük neked a legfrissebb és legérdekesebb híreket a technológia és a tudomány világából.