Kiskorú lányokat 'vetkőztetett' egy deepfake algoritmus

2020 / 10 / 28 / Perei Dóra
Kiskorú lányokat 'vetkőztetett' egy deepfake algoritmus
A DeepNude app továbbfejlesztett változata 2020 júliusáig mintegy 100 ezer nőről készített meztelen fotót az érintettek tudomása nélkül. Az áldozatok többsége ráadásul kiskorú.

A Vice magazin tavaly júniusban rántotta le a leplet a DeepNude, mesterséges intelligencia által vezérelt applikációról, ami ötven dolláros díj ellenében bármilyen fotónak elkészítette erotikus változatát. A szoftver valójában generatív kontradiktórius hálózatokat (GAN), vagyis a mélyhamisítások algoritmusát használta, mellyel a női ruhákat megtévesztően valóságos meztelen testekre cserélte. Minél lengébb ruhát viselt valaki a képen, annál könnyebb dolga volt az algoritmusnak, célcsoportját ráadásul kifejezetten nők alkották, férfiaknál ugyanis nem működött. Még egy nap sem telt el a Vice cikkének megjelenése után, mire a fejlesztők eltávolították az applikációt, Twitter közleményükben pedig azt írták, nem lesz több frissítése.

Ehhez képest a Sensity AI, egy manipulált tartalmakkal való visszaélések felderítésével foglalkozó kiberbiztonsági vállalat új vizsgálata a napokban nagyon hasonló technológiát talált egy nyilvánosan elérhető bot által a Telegram üzenetküldő alkalmazásban. Ezúttal ráadásul még egyszerűbbre tervezték a felhasználói felületet: bárki elküldheti a botnak a Telegram mobil- vagy webalkalmazáson keresztül a fényképét, és percek alatt megkapja annak akt változatát. A szolgáltatás teljesen ingyenes, bár a felhasználók száz rubelért (körülbelül másfél dollárért) olyan extrákat vásárolhatnak, mint például a „lecsupaszított” fotók vízjelének eltávolítása. A DeepNude app továbbfejlesztett változata 2020 júliusáig mintegy százezer nőről készített meztelen fotót, méghozzá az érintettek tudomása nélkül.

Giorgio Patrini, a Sensity vezérigazgatója és vezető kutatója szerint ráadásul az áldozatok többsége valószínűleg kiskorú.

A zaklatás gamifikációja, azaz játékosítása

A 2019. július tizenegyedikén elindított deepfake algoritmus hét Telegram csatornához kapcsolódik, összesen több mint százezer felhasználóval. (Ez a szám nem tartalmazza a duplikált regisztrációt az egyes csatornákon, de a főcsoport így is több mint negyvenötezer egyedi felhasználót jelent.) A központi csatorna a bot tárolására szolgál, míg a többit olyan funkciókra használják, mint a technikai támogatás és a képmegosztás. A képmegosztó csatornák olyan interfészeket tartalmaznak, amelyeket a felhasználók meztelen fotóik közzétételére és megítélésére használhatnak. Minél több lájkot szerez egy adott fotó, annál több prémium funkció illeti a usert.

"Ezzel olyan ösztönzést kapnak, mintha csak egy játékot játszanának" - mondja Patrini.

Képmegosztó oldalakra feltöltött képek

A kiberbiztonsági cég elemzői szerint ez a kereséseken, és a közösségi médián keresztül könnyen beazonosítható közösség az elmúlt évben folyamatosan bővült. Egy hétezer-kétszáz fős közvélemény-kutatás azt mutatta, hogy nagyjából hetven százalékuk Oroszországból vagy más orosz ajkú területről származik. Úgy tűnik azonban, hogy az áldozatok szélesebb körből kerülnek ki, beleértve Argentínát, Olaszországot, Oroszországot és az Egyesült Államokat.

Többségük magánszemély, akit a deepfake bot felhasználói a való életben is ismernek, vagy az Instagramon találtak.

Patrini elmondása alapján csak kis számú nőt sikerült beazonosítaniuk, akikkel megpróbáltak kapcsolatba lépni annak reményében, hogy hátha megosztják velük tapasztalataikat az esetről, de egyikük sem válaszolt. A kiberbiztonsági kutatók egyébként a Telegramot, és az érintett bűnüldöző szerveket, beleértve az FBI-t szintén felkeresték. A Telegram nem válaszolt sem a Sensity AI, sem az MIT Technology Review megkeresésére.

Deepfake pornó

A bántalmazók egy ideje már használnak pornográf képeket a nők zaklatására: 2019-ben az Amerikai Pszichológiai Szövetség tanulmányából kiderült, hogy

tizenkét nőből egy biztosan a deepfake pornó áldozatává válik élete során.

Az ausztrál kormány felmérése szerint, amely Ausztráliát, az Egyesült Királyságot és Új-Zélandot vizsgálta, megállapította, hogy ez az arány olyan magas, hogy minden harmadik nőt érint. A deepfake pornó ráadásul egy teljesen új dimenziót ad a zaklatásnak, mert az áldozatok legtöbbször nincsenek is tudatában a képek létezésének. Számos olyan eset is előfordult, amikor hírességeket vettek célba, hiszen a deepfake pornóban a technológia segítségével még az is megoldható, hogy Scarlett Johansson arca kerüljön a számítógép által generált pucér női testekre. Csakhogy a színésznő nem egy virtuális lény, és ez az egész egyáltalán nem tetszett neki. De az is megesett már, hogy női újságírók elhallgattatására irányuló zaklatási kampányok részeként alkalmaztak deepfake pornót. Patrini pedig elárulta, hogy korábban kapcsolatba lépett olyan influenszerekkel és a YouTube-vloggerekkel is, akikről szintén készültek aktfotók, a zsarolók ráadásul közvetlenül a szponzoraiknak küldték azokat, ami hatalmas érzelmi és pénzügyi megterhelést jelentett az érintetteknek.

A szakértő gyanítja, hogy ezek a célzott támadások a jövőben sokkal rosszabbá válhatnak, annál is inkább, hiszen Patrini és kutatótársai már most testközelből látják a technológia fejlődését és terjedését. Felfedeztek például egy új, több mint háromszáznyolcvan oldalas adatbázist, amely kifejezetten deepfake hamisítványok létrehozását és megosztását tette lehetővé az orosz VK közösségi média platformon. (A cikk közzététele után a VK szóvivője nyilatkozatot küldött az MIT Technology Review-nak arról, hogy a VK nem tolerálja az ilyen tartalmakat vagy linkeket, és blokkolja azokat a közösségeket, amelyek terjesztik őket. Valamint további ellenőrzést, és a sértő tartalmak felülvizsgálatát ígérték.) Patriniék továbbá megállapították, hogy

a 'vetkőztető' algoritmust egyre gyakrabban alkalmazzák videókon, például a kifutón sétáló bikinis modellek felvételeinél.

"Jelenleg elemenként alkalmazzák csak ezeket az algoritmusokat, mivel még nagyon kezdetlegesek” - magyarázza Patrini. "De biztos vagyok benne, hogy idővel tökéletesíteni fogják, és licencszolgáltatást is létrehoznak mellé." Sajnos még mindig kevés módja van az ilyen jellegű tevékenységek leállításának - mindenesetre pozitívumként tekinthetünk a vállalatok egyre növekvő tudatosságára. Az olyan óriáscégek, mint a Facebook és a Google, valamint a deepfake létrehozásához szükséges eszközöket gyártó kutatók ugyanis egyre komolyabb eszközökkel próbálnak fellépni a deepfake tartalmak ellen. Tavaly az Egyesült Államok Kongresszusa pedig egy új törvényjavaslatot is benyújtott, amely jogilag is lehetővé tenné az áldozatok védekezését a jó hírnevüket ért támadás miatt. Mindeközben a Sensity továbbra is nyomon követi és beszámol az ilyen típusú rosszindulatú hamisítványokról, és igyekszik jobban megérteni az azokat létrehozók motivációit és az áldozatok életére gyakorolt hatásokat. Merthogy Patrini szerint a jelentésükben megosztott adatok csupán a jéghegy csúcsát jelentik.

(Fotó: Pixabay)


Így lettek a szexuális játékszerekből digitális kütyük
Így lettek a szexuális játékszerekből digitális kütyük
Lassan már senkit sem lep meg, hogy egy intim segédeszköznek legalább olyan jól kell tudnia csatlakoznia a wifihez vagy egy telefonhoz, mint a viselőjéhez, használójához.
Előfordult a valóságban, hogy egy utas vette át egy utasszállító repülőgép irányítását?
Előfordult a valóságban, hogy egy utas vette át egy utasszállító repülőgép irányítását?
Katasztrófafilmek visszatérő motívuma, hogy a pilóták elájulnak/meghalnak, így egy utasnak kell átvennie a gép irányítását, aki aztán a földi irányítás utasításai alapján biztonságosan landol a reptéren. Na de történt-e ehhez hasonló dolog a valóságban?
Ezek is érdekelhetnek
HELLO, EZ ITT A
RAKÉTA
Kövess minket a Facebookon!
A jövő legizgalmasabb cikkeit találod nálunk!
Hírlevél feliratkozás

Ne maradj le a jövőről! Iratkozz fel a hírlevelünkre, és minden héten elküldjük neked a legfrissebb és legérdekesebb híreket a technológia és a tudomány világából.



This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.