A nem szokványos könyvbemutatót Szadai Károly, a Médiatanács tagja nyitotta meg, ezután pedig Aczél Petra, az NMHH Médiatudományi Intézetének kutatásvezetőjének, a kötet szerkesztőjének előadása következett, amelyben többek között elmondta, hogy a mesterséges intelligencia (MI) semmivel nem tud többet annál, mint amit az ember adattá, vagy médiatartalommá tett. Többre képes, de egyelőre nem tud többet nálunk, ugyanakkor az MI is képes hazudni. A deepfake, vagy mélyhamisítás tulajdonképpen nem más, mint a személy plágiuma. Egy olyan médiatartalom, amely szimulálja az embert, ultrarealisztikus, és azt az érzetet kelti, mintha az, amit látnánk, tényleg létezne, hogy például az a személy tényleg azt mondta, ott, akkor és úgy, ahogy azt látjuk.
Ezek szerint akkor minden médiatartalomra gyanakodnunk kell? Tette fel a kérdést a professzorasszony, majd meg is válaszolta saját kérdését: igen. Ami média, arra egy értelmes, művelt ember illően gyanakszik. Inkább az a kérdés, hogy attól, hogy gyanakszunk, a deepfake-tartalmakat fel tudjuk-e ismerni. Sokféle festményt, tárgyat hamisítottak már, ez nem áll távol az emberi kultúrától. A kérdés mindig az, mennyivel egyedibb maga a hamisítvány, mennyiben van önértéke, illetve mennyiben viseli magán annak az alkotónak a szerepét, aki hamisít. A deepfake esetében nincs ilyen. Aki hamisít, gyakorlatilag egy mélytanuló program, ezért felmerülhet a kérdés, hogy ki ő? Egy személy? Egy tárgy, vagy csak egy program? A mögötte álló személy, cég, vállalat, beruházó az, aki hamisít? Esetleg pont mi, befogadók vagyunk azok, akik szeretnének közreműködni abban, hogy ez a hamisítás élvezetes legyen? A Deepfake: A valótlan valóság című tanulmánykötet hiánypótló, tárgyilagos, mint minden tudományos igényű mű, azonban ez nem akadályozza abban, hogy közérthető legyen, mondta Aczél Petra.
Veszelszki Ágnes, az NMHH Médiatudományi Intézetének kutatásvezető-helyettese, a kötet társszerkesztője ezután a könyv 14 szerzőjét kérdezte, mintegy „promptolta”, ahogy a mesterséges intelligencia-rendszereket szokás instruálni. A szakértőknek mindössze egy perce volt megválaszolni a deepfake-kel kapcsolatos rövid, de összetett kulcskérdéseket.
Hogyan lehet tanítani az MI használatát, a promptolást?
Mezriczky Marcell grafikus, deepfake-kutató, a Corvinus Egyetem oktatója szerint a promptolással kapcsolatban az egyik legfontosabb dolog, hogy nem a saját fejünkkel kell gondolkodni, amikor az MI-t utasítjuk valamire, hanem azt a logikát kell szem előtt tartanunk, amelyet a gép használ. Tudható az, hogy amikor valaki mesterségesen állít elő művészeti alkotást, akkor a prompt sokkal egyszerűbb annál, mint amennyire absztrakt a végeredmény. A promptolás nem igazán tanítható, inkább a biciklizéshez hasonló dolog, az ember egyszer ráérez, hogy kell csinálni, utána pedig gyakorolja.
Egy 1-től 10-ig tartó skálán mennyire félelmetes a deepfake a kiberbiztonság szempontjából?
Amennyiben a 10-es szint a legfélelmetesebb, akkor a deepfake körülbelül 8-as, válaszolta a kérdésre Keleti Arthur, kiberbiztonsági szakértő. Mégpedig azért, mert az emberek nagyon hisznek az érzékelésükben, és a deepfake pontosan azt teszi próbára. Az emberek hajlamosak azt hinni, hogy észreveszik az ilyesfajta megtévesztő csalást, de valójában nem fogják, hangsúlyozta a szakértő. Ez pedig alapvetően az ember és ember közötti bizalmat és hitelességet ássa alá, hiszen ha az érzékszerveinkben nem bízhatunk, akkor nem tudni, hogy mégis miben hihetünk. Emellett pedig a mai technológia egyszerűen nem tudja jelenleg azt garantálni, hogy egy ember hitelességéről 100 százalékban meg tudjunk győződni.
Valóban kell-e a jogászoknak minden olyan új technológiával foglalkozniuk, mint a deepfake?
Lendvai Gergely Ferenc, az NMHH jogi szakértője szerint a jogászoknak dolguk foglalkozni minden új technológiával, hiszen rengeteg a jogi hézag és kihívás például a deepfake-kel kapcsolatban is, ezért kulcskérdés, hogy mennyire naprakészek és felkészültek az ezekkel foglalkozó szakemberek.
Átveszik a virtuális és deepfake bemondók a valós szereplők helyét, ha igen, mennyi időn belül?
Technikailag van erre lehetőség, de remélhetőleg az emberi mivolt megmarad ezen a területen, válaszolta a kérdésre Gocsál Ákos, a Pécsi Tudományegyetem adjunktusa. Már most is léteznek ilyen bemondók, azonban a technológia még nem tökéletes. Gondoljunk csak például a pályaudvarokon hallható mesterséges bemondók furcsa hangsúlyozására. Jó példa, hogy nemrégiben átadták a komlói buszpályaudvar új utastájékoztató automatáját, a közönségtől pedig rengeteg olyan visszajelzés érkezett a közösségi oldalakon, hogy az új „hölgy” hangja bár nagyon kedves, de úgy hallatszik, kissé többet ivott a kelleténél.
Hol okozhat kárt és veszélyt a deepfake?
Szabados Levente, mesterséges intelligencia-szakértő szerint mindenhol, ahol az embereknek bíznia kellene egymásban.
Azt az evolúciós adottságunkat, hogy akkor építünk társadalmat, és akkor cselekszünk egymással összhangban, ha bízunk egymásban, nagyszerűen alá lehet ásni akkor, ha nem tudjuk, hogy ki kicsoda.
Márpedig technikailag elértük, hogy már nem tudjuk biztosan, kivel beszélünk, kit látunk, kit hallunk, ki küldött üzenetet. Ezek után egy olyan egészséges szkepszist kell elsajátítanunk, amellyel eddig nem rendelkeztünk, és valahogy el kell érnünk azt, hogy ennek ellenére ne zárkózzunk be, illetve ne hagyjuk abba az emberként való viselkedést, cselekvést.
Félti-e a jogászkutató a szeretteit az MI-től a szeretteit, különös tekintettel a deepfake-re?
Mikós Gellért jogász igennel válaszolt a kérdésre. A szakértő szerint a deepfake számos módon okozhat kárt jelenleg is, a jogi szabályozás lényegében pedig csak fut a technológia után. Fontos, hogy képesek legyünk elkülöníteni a tudatlan terjesztőket a szándékos rosszakaróktól, illetve, hogy tisztában legyünk a deepfake lehetséges hatásaival, ami a politikai választásokba való beavatkozástól a bosszúpornóig terjed, vagyis hatalmas kockázatnak vagyunk kitéve mindannyian, egyéni és társadalmi szempontból egyaránt.
A negatív hatások mellett jó-e valamire a deepfake, vagyis vannak-e pozitív felhasználási lehetőségei ennek a technológiának?
Eszteri Dániel, jogász, a Nemzeti Adatvédelmi és Információszabadság Hatóság munkatársa szerint a deepfake alkalmas eszköz arra, hogy minden személyiségi jogot megsértsenek vele, a kérdés tehát az, lehet-e ezt jogszerűen csinálni. A válasz igen, azonban rengeteg előírásnak meg kell felelni közben. Ezért aztán egészen az MI-rendszer tanítása közben használt adatok jogszerű felhasználásától a valótlan tartalom közzétételéig rengeteg szabály van, amelynek meg lehet felelni, de nagyon nehéz.
Vajon feladata-e az oktatásnak felkészíteni a deepfake-tartalmak felismerésére az embereket, és ha igen, milyen szinten?
Dr. Kárpáti Andrea, egyetemi tanár válaszában azt hangsúlyozta, hogy a tanárok két olyan tulajdonsága értékelődik fel a technológia fejlődése kapcsán, amelyeket eddig, szigorú tantervi keretek között esetleg nem is tudtak használni. Ez a két dolog a műveltség és az intuíció. Előbbi segít abban, hogy megállapítsuk, lehetséges-e az, ami valóságosnak tűnik, utóbbival pedig észrevehetjük majd az úgynevezett „glitch-eket”, hibákat, kisiklásokat, zökkenéseket a beszédben, illetve a képen azt a finom unalmat, amely El Greco követőjének művén az ovális fejeket átlengi, miközben a valódi képet nézve csak ámulunk. Az intuíció fejleszthető, a műveltség pedig megszerezhető.
Hogyan reagálna a médiakutató, ha az engedélye nélkül készült deepfake-videó keringene róla az interneten?
Alapvetően erre mindannyian rosszul reagálnánk, mondta Aczél Petra, a kötet szerkesztője, kommunikációkutató, egyetemi tanár. Hozzátette, a legfontosabb, amit tehetünk, hogy beszélünk a problémáról, mégpedig olyan közegben, ahol segítséget is kaphatunk, és a saját példánkon át megmutathatjuk, hova vezet ez a probléma.
A filmesek között mozgalmak, tüntetések indultak az MI filmiparban való felhasználása ellen. Vajon mi lesz a következő terület, ahol sztrájk várható a mesterséges intelligencia térhódítása kapcsán?
Mezriczky Marcell, deepfake-kutató szerint az összes művészeti területen lesznek majd ezzel kapcsolatos tiltakozások. Gondoljunk például arra a zeneszerzőre, aki a YouTube-on ráakad egy olyan műre, amelyet az ő nevében generáltak, teljes mértékben megfelel a saját stílusának, azonban egyáltalán nem kap utána jogdíjat, hiszen hivatalosan nem ő az alkotó. Ugyanígy, joggal tehetnek majd panaszt azok a képzőművészek, akiknek a műveit az MI-rendszerek tanítására használták, hiszen az algoritmus által generált tartalom az ő tevékenységük nélkül nem jöhetett volna létre.
Alábbi videón a látszat ellenére nem Morgan Freeman, csupán a színész egy deepfake technológiával előállított digitális másolata szerepel:
Milyen gyorsan változik a deepfake?
Ilyen elképesztő tempójú fejlődést eddig az informatikában még nem láttunk, mondta a kérdésre Keleti Arthur, kiberbiztonsági szakértő. Gyakorlatilag naponta több órát kell azzal foglalkoznia egy szakértőnek, hogy naprakész maradjon, de még így is megalapozott félni attól, hogy az emberi agy, amely sokkal lassabb változásokhoz szokott, egyszerűen képtelen lesz lekövetni a technológia fejlődésének óriási sebességét.
Korlátozza-e a szólásszabadságot a deepfake esetleges szabályozása?
Lendvai Gergely Ferenc, az NMHH jogi szakértőjének véleménye szerint a válasz igen. Ez egy eddig soha nem látott, teljesen új jelenség, így nagy kérdés, hogy a generált tartalmat, vagy „szólást”, mi alapján, miért, illetve milyen körülmények mellett lehet korlátozni. Ez azért is fontos, mert az már most is látható, hogy a bosszúpornótól az egyéb, személyiségi jogokat sértő tartalmakon át, az egészen szélsőséges gyűlöletbeszédig bármilyen audiovizuális tartalom generálható.
Félünk-e a mesterséges karakterek hangjától?
Gocsál Ákos, a Pécsi Tudományegyetem adjunktusa szerint nem, már most is elfogadjuk őket. Egy embert meghatároz a hangja, olyan értelemben, hogy a másik személy kialakít egy képet róla a hangszíne, a beszéde alapján. Azért fontos megismernünk ezeket a mesterséges mechanizmusokat, hogy helyén tudjuk őket kezelni.
Mi az a viselkedéses konszenzus, és hogy tudja ez mérsékelni a deepfake társadalomra gyakorolt hatását?
A hamisításnak nagy hagyománya van az emberi kultúrában, vegyük például a pénzhamisítás jelenségét, mondta Szabados Levente, mesterséges intelligencia-szakértő. A pénzhamisítással kapcsolatos konszenzusunk például, hogyha valakitől kapunk egy nagyon hitelesnek tűnő nagy értéket képviselő bankjegyet, azt nem fogadjuk el feltétel nélkül, hanem megvizsgáljuk, hogy meggyőződjünk a valódiságáról. Megtanultuk azokat a mechanizmusokat felépíteni, amik a kételyt egy működtethető, mégis élhető szintig redukálják.
Kit büntethetnek a deepfake kapcsán? A készítőt, a terjesztőt, vagy a platformot?
Ebben a sorrendben, mondta Mikós Gellért, jogász. Az Európai Unió MI-jogszabályában például az ezekben a folyamatokban résztvevő minden szereplőre vonatkoznak bizonyos kötelezettségek, amelyek adott esetben szankcionálhatók. Például lehetséges a bírság kiszabása, vagy a nagy platformok esetében a terjesztők teljes felfüggesztése is. A deepfake esetében is különböző motivációk vezérlik a résztvevőket, így különbséget kell tenni például azok között, akik a hamis tartalmat meggyőződésből terjesztik, esetükben a profil felfüggesztése például jó megoldás lehet. Azok ellen viszont, akik álprofilokkal, egyszer használatos felhasználókkal, gazdasági, vagy egyéb érdekből osztják meg ezeket a videókat, képeket, más szankciót kell bevetni.
Mi lehet a legnagyobb retorzió, vagy legsúlyosabb szankció, ami megjelenhet a deepfake-kel kapcsolatban?
Konkrét deepfake-kel kapcsolatos hatósági eljárásról egyelőre nem tudunk, válaszolta Eszteri Dániel, jogász. Kérdés, hogy kit akarunk büntetni: a deepfake készítőjét, a platformot, amelyen megjelenik, vagy a szoftver gyártóját, amelyben a tartalmat előállították. Megoszlik a felelősség, a platformokra, adatkezelőkre például már most is elég komoly, akár 20 millió eurós bírságot is ki lehet szabni a GDPR alapján, illetve a küszöbön van a mesterséges intelligenciára vonatkozó EU-s rendelettervezet, amely tovább emeli majd ezt az összeget. Emellett egy bűncselekmény deepfake technológiával való elkövetése esetén természetesen egy büntetőeljárás során is felmerülhet a felelősség ezzel kapcsolatban.
Lehet-e szerepe az oktatásban az A Deepfake: A valótlan valóság című tanulmánykötetnek?
Feltétlen, hiszen a hallgatóknak szükségük van arra, hogy ezt az eszközt megismerjék, felelte Dr. Kárpáti Andrea, egyetemi tanár. Ne felejtsük el, hogy először minden új, digitális technológiától féltünk, a számítógép megjelenésekor is temették az oktatást és a művészetet, de mindkét terület felnőtt a feladathoz, amely elé a megváltozott környezet állította, nem lesz ez másképp a deepfake-kel és a mesterséges intelligencia-rendszerekkel kapcsolatban sem.
Fognak-e még a kutatók 5 év múlva is a deepfake-kel foglalkozni?
Aczél Petra, egyetemi tanár a kérdésre kérdéssel válaszolt: fog-e az MI a kutatókkal foglalkozni? Az igazi nagy kérdés, hogy pontosan miért fordulunk az új információs technológia felé, inspirációért, vagy végrehajtásért. Mindaddig, amíg az utóbbiért, addig nincs akkora baj, hiszen az MI a hatékonyságával segít minket, támogat. Az viszont komoly problémát fog okozni, ha már az ötletért is ezekhez a rendszerekhez fordulunk, és az nem a mi környezetünkből, motivációinkból születik meg.
Megjelölhetőek-e biztossággal az MI által generált tartalmak, van-e olyan technológia, ami felismeri a mesterségesen előállított, esetlegesen hamis alkotást?
Szabados Levente, mesterséges intelligencia-szakértő azt mondta, ha egy hamis, 20 ezer forintos bankjegyet 5 ezer forint költséggel elő lehet állítani, mindig lesz, aki végre is hajtja a csalást, azonban ha technológiai, vagy jogi eszközökkel elérjük, hogy a bankjegyet egyszerűen ne érje meg hamisítani, akkor nem is fogják. Aczél Petra szerint
az MI-rendszerek már képesek arra, hogy úgy tegyenek, mintha az általuk előállított tartalom nem mesterséges lenne, vagyis képesek önmaguk álcázására.
Kérdés, hogy mennyire kívánjuk meg a fejlesztőktől, hogy álljanak meg a fejlődésben, hol szabunk határt ennek a folyamatnak. Keleti Arthur, kiberbiztonsági szakértő több mint 30 éve ezen a területen dolgozik. Véleménye szerint hiába áll rendelkezésünkre olyan módszer, amivel megállapítható egy adott tartalom valótlansága, vagy nem használjuk azt, vagy nem elég hatékony. Példaként az emailek segítségével elkövetett csalásokat említette, amelyekben még csak deepfake sincs, csupán egy nagy pénzösszegű nyeremény, lehetőség hamis ígérete. Az emberek nagyon sérülékenyek ezekkel a támadásokkal szemben, mert nem volt idejük az alkalmazkodásra. Gondoljunk a teknősre, ami hosszas evolúciós folyamat során növesztett páncélt a külső hatások ellen, az ilyen mértékű változás, mint ahogy az emberi gondolkodás és természet átalakulása sem megy végbe néhány nap alatt. Keleti hozzátette, hogy jelenleg nem tud olyan technológiáról, amely egyértelműen kimutatja, ha MI által generált tartalommal állunk szemben, de az is kérdés, ha lesz ilyen eszköz, akkor hogy fogjuk használni. Az MI – és sok más terület - esetében ugyanis sokszor nem egyértelmű, hogy mennyire hamis az adott tartalom. Lehet némi, vagy nagy igazságtartalma is, így rendkívül nagy kihívás megállapítani, hogy milyen aránynál bélyegezzük meg a tartalmat, vagy hagyjuk figyelmen kívül az MI – például a deepfake – valóságmódosító szerepét. Szabados Levente hozzátette, hogy a pénz valódiságát, tulajdonságait elemző numizmatikusokhoz hasonlóan, a generált tartalmak köré is ki fog alakulni egy szakma olyan emberekkel, akik segítenek eldönteni az adott anyag valódiságát. Nagy kérdés persze, hogy kit bízunk meg ezzel a feladattal, társadalmi konszenzus szükséges ahhoz, hogy azt mondjuk, hogy az adott személy vagy intézmény megfelelő ellenőre a valóságnak.
(Borítókép: Getty Images/dem10)