Mesterséges intelligencia-alapú hangutánzással loptak el milliárdokat egy bankból

2021 / 10 / 15 / Pőcze Balázs
Mesterséges intelligencia-alapú hangutánzással loptak el milliárdokat egy bankból
Harmincötmillió dollárt tulajdonítottak el bűnözők egy cég számlájáról az Egyesült Arab Emirátusokban. A bűntény egyik kulcsmozzanata az volt, hogy az elkövetők felhívták telefonon a bank fiókvezetőjét, tökéletesen utánozva az egyik ügyfelük hangját, egy deepfake-rendszer segítségével.

Az elmúlt néhány évben sokféle kontextusban találkozhattunk az úgynevezett deepfake technológiákkal. Ezeknek a célja, hogy a mesterséges intelligenciákat tanító és tökéletesítő deep learning módszereket alkalmazzák azért, hogy megtévesszenek embereket. A legártalmatlanabb példa talán az volt, amikor családi fotókat kelthettünk életre így, de korábban a Rakétán beszámoltunk arról, hogy egy Tom Cruise-hasonmás és egy speciális effektus-szakértő az igazi sztárra megszólalásig hasonlító videókat tudott így posztolni a TikTokra, egy tévétársaság Erzsébet királynőt utánozta így, egy édesanya pedig deepfake videókat készített a lánya csapattársairól, hogy így zsarolja őket. A technológiát még politikai manipulációra is használták, így nem csoda, hogy a Facebook, de még a kínai kormány is fellép ellene.

Akvizícióra készülünk, el kellene utalnunk harmincötmillió dollárt

Ezzel hívták fel a bűnözők a bankfiók vezetőjét 2020 januárjában. A menedzser felismerte az egyik ügyfelük igazgatójának a hangját, majd emailen is kapott megerősítést a tervezett tranzakcióról, így nem gyanakodott - írja a Gizmodo. A hatóságok azt feltételezik, hogy tizenhét ember volt érintett a bűntényben, amelyet követően az ellopott pénz a világ számos pontján vezetett bankszámlákon bukkant fel. Ezek közül kettő az Egyesült Államokban van, ahol bírósági dokumentumok alapján derült most fény az esetre. A Gizmodo cikke emlékeztet, hogy korábban egy energetikai vállalat az Egyesült Királyságban már hasonló csalás áldozatául esett 2017-ben, és valószínűleg nem ez az utolsó ilyen hír, amelyről hallani fogunk.

Ugyan a Twitter például már két éve bejelentette, hogy arra készül, hogy jelezze a valószínűleg így készült tartalmaknál, hogy azok manipuláltak, de a hasonló kezdeményezéseknek komoly korlátai vannak. A deepfake-eket azonosító algoritmusok nem tudnak száz százalékos pontossággal működni, ám ez csak a legnyilvánvalóbb gyenge pont. Ha két személy közti, vagy egy csoporton belüli kommunikációban, például egy titkosított chaten osztunk meg egy hamisított képet, videót, vagy hangfájlt, akkor a címzett ügyességére van bízva, hogy felismerje, hogy át akarják verni. És látva például a Tom Cruise videókat, ez rendkívül nehéz feladat.

(Fotó: Pixabay, Unsplash)

További cikkek a témában:

Mostantól akár Schwarzeneggerként is beülhetünk a munkahelyi online megbeszélésre, ha unjuk a saját arcunkat Egy új deepfake program valós időben cseréli ki a beszélő arcát az élő videókon.
A Facebook kiszűri a deepfake videókat A deepfake videók ma már általános jelenségnek számítanak, a Facebook új módszerével azonban kiszűrhetővé válnak.
Szinte lehetetlen észrevenni, hogy ezeket a Tom Cruise videókat egy számítógép készítette Mi lesz, amikor nem szólnak a készítők, hogy átveréssel állunk szemben?


Így lettek a szexuális játékszerekből digitális kütyük
Így lettek a szexuális játékszerekből digitális kütyük
Lassan már senkit sem lep meg, hogy egy intim segédeszköznek legalább olyan jól kell tudnia csatlakoznia a wifihez vagy egy telefonhoz, mint a viselőjéhez, használójához.
A META AI-ja azt állítja, gyereke lett
A META AI-ja azt állítja, gyereke lett
Aki ráadásul egyszerre nagyon tehetséges és fogyatékkal élő is.
Ezek is érdekelhetnek
HELLO, EZ ITT A
RAKÉTA
Kövess minket a Facebookon!
A jövő legizgalmasabb cikkeit találod nálunk!
Hírlevél feliratkozás

Ne maradj le a jövőről! Iratkozz fel a hírlevelünkre, és minden héten elküldjük neked a legfrissebb és legérdekesebb híreket a technológia és a tudomány világából.



This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.