Deepfake videókkal próbálnak állásokhoz jutni csalók

2022 / 07 / 02 / Pőcze Balázs
Deepfake videókkal próbálnak állásokhoz jutni csalók
Az FBI figyelmeztetést adott ki: egyre többször fordul elő, hogy bűnözők online állásinterjúkon vesznek részt, ahol deepfake videók segítségével adják ki magukat valaki másnak. A céljuk valószínűleg az lehet, hogy üzleti titkokhoz jussanak hozzá, miután felvették őket.

A Gizmodón olvasható hír szerint több cégtől érkeztek jelentések az amerikai Szövetségi Nyomozóiroda (FBI) internetes bűnügyekkel kapcsolatos panaszközpontjába, melyek arról tanúskodnak, hogy ismeretlenek lopott adatokkal, mások személyazonosságát felvéve, a hangjukat és az arcukat is deepfake technológiákkal utánozva pályáznak állásokra. A pozíciók egy része felhasználók, ügyfelek személyes adataihoz, pénzügyi információkhoz, vállalati adatbázisokhoz és egyéb érzékeny adatokhoz enged hozzáférést, húzza alá az FBI közleménye. A Gizmodo emlékeztet rá, hogy nemrég észak-koreai kormányzati alkalmazottakat kaptak rajta, hogy távolról végezhető informatikai állásokra jelentkeznek. Ők is hamis dokumentumokkal hoztak létre profilokat a munkát kereső szabadúszók számára létrehozott portálokon.

A Rakétán számtalanszor írtunk már a deepfake technológiákról, illetve az általuk létrejövő hamis tartalmakról: első pillantásra ártalmatlan, de aggasztó királyi üdvözletről, kamu arccal előadott tehetségkutató fellépésről, vagy olyan Tom Cruise videókról, amelyek valójában nem Tom Cruise videók. Ezek a megdöbbentően élethű filmek persze nem két gombnyomással jöttek létre, hanem szakemberek ideje és tudása kellett hozzá, hogy ennyire megtévesztőek legyenek. Igaz, a tehetségkutatós klip már élőben jött létre, nem lehetett kockáról kockára korrigálni az algoritmusok tévedéseit. Emellett egyre több az olyan program, amely hétköznapi felhasználóknak segít deepfake-eket létrehozni, például az őseik fotóinak a megmozgatásával.

Az FBI szerint a leggyakrabban az buktatja le a deepfake-ekkel jelentkezőket, ha köhögnek vagy tüsszentenek. A valós időben generált, nem teljesen profi deepfake videók amúgy is gyakran csúsznak, a szájak nem mozognak tökéletes szinkronban az elhangzó szavakkal, de egy-egy ilyen hirtelen gesztust végképp nem tudnak lekövetni. Egyelőre. Valószínűleg a saját szemünk és megérzéseink is egyre gyakrabban fognak becsapni minket ilyen helyzetekben, miközben a mesterséges intelligenciával készült videókat tetten érő mesterséges intelligenciák még közel sem tökéletesek: a pontosságuk valahol harminc és kilencvenhét százalék között van kutatók szerint.

(Borítókép: Unsplash)

Olyan kamuvideó terjed a neten, amiben az ukrán elnök fegyverletételre szólítja fel az ukrán katonákat A deepfake videót ellenséges hekkerek tették közzé az egyik ukrán tévécsatorna oldalán, azóta pedig számtalan más helyen is felbukkant.


Robotlázadás zajlott le Kínában - egy robot megszöktetett tizenkét másikat
Robotlázadás zajlott le Kínában - egy robot megszöktetett tizenkét másikat
Úgy tűnik, hogy a robotforradalom elkezdődött, de az egész esemény valójában egy teszt volt.
Instant üzleti nyelvvizsga vagy bábeli zűrzavar: jövőre érkezik az automata szinkrontolmácsolás a Teams-be
Instant üzleti nyelvvizsga vagy bábeli zűrzavar: jövőre érkezik az automata szinkrontolmácsolás a Teams-be
De nem csak ezzel tenné hatékonyabbá az online megbeszéléseket a Microsoft.
Ezek is érdekelhetnek
HELLO, EZ ITT A
RAKÉTA
Kövess minket a Facebookon!
A jövő legizgalmasabb cikkeit találod nálunk!
Hírlevél feliratkozás

Ne maradj le a jövőről! Iratkozz fel a hírlevelünkre, és minden héten elküldjük neked a legfrissebb és legérdekesebb híreket a technológia és a tudomány világából.



This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.