A Gizmodón olvasható hír szerint Věra Jourová, az Európai Bizottság a politikai értékek és az átláthatóság koordinációjáért felelős alelnöke, egy sajtótájékoztatón úgy fogalmazott, hogy olyan technológiákat kell alkalmazniuk a szolgáltatóknak, amelyek "felismerik és egyértelműen jelölik a felhasználók számára" az ilyen tartalmakat. Emellett a jövőben akkor is figyelmeztetéseket kell, hogy lássunk, ha egy MI-vel támogatott chatbottal beszélgetünk, például egy webáruház online ügyfélszolgálati alkalmazásában. Mindez a digitális szolgáltatásokat szabályozó törvény, a DSA részeként lép érvénybe,
és a hátterében az európaiak félretájékoztatásának a megnehezítése áll.
Azt az elmúlt hónapok eseményei után nem kell hosszasan magyarázni, hogy miért válik egyre fontosabbá az MI-módosította tartalmak azonosítása: Ferenc pápa ál-pufidzsekije csak ártalmatlan tréfa volt, de Donald Trump kamu letartóztatása vagy a Pentagon szintén kamu kigyulladása már ízelítőt adtak abból, hogy ijesztően jól meg tudják téveszteni az embereket a generatív mesterséges intelligenciák. Pár évvel ezelőtt Erzsébet királynő deepfake-üdvözletén vagy Tom Cruise kamuvideóin még szakemberek dolgoztak, ma már sokkal egyszerűbben és gyorsabban állíthatóak elő hasonló anyagok, adott esetben akár videók is.
Nem véletlen azonban, hogy egyelőre nincs elfogadott, automatizált módja az ilyen tartalmak felismerésének. Donald Trump "letartóztatásánál" például az egyenruhákon ugyan egyértelműen látszik, hogy krikszkrakszok szerepelnek a feliratok helyén, de ezt egy ember könnyebben észreveszi, mint egy gép - már ha figyel. Az egyes videók, képek, hangok előállításának a menete nem állandó, kiszámítható, ezért nehezebb azokon "kézjegyeket" felismerni, hiszen már a rendszerek tanulása sem teljesen transzparens. Ha pedig vízjelek kerülnének a végleges anyagokra, azokat még mindig el lehetne távolítani kézzel, igaz, ehhez egy ideig biztosan szakemberre volna szüksége az álhírterjesztőknek. Mindezt tovább bonyolítja, hogy a szoftverek folyamatosan fejlődnek, így a felismerő rendszereknek is követniük kell azokat, a szokásos macska-egér koreográfia jegyében.
A kínai kormány egyelőre engedélyekhez szeretné kötni a generatív MI-k működését, ami Nyugaton nehezen lenne elképzelhető. Az OpenAI külön rendszert készített a saját maga által előállított tartalmak felismeréséhez, ám az egyelőre megbízhatatlan. Az Adobe is évek óta küzd azért, hogy a képlopást megnehezítse, ami hasonlóan összetett feladat, mint az MI-képek azonosítása. Vagyis hiába lenne, lesz, vagy van meg a szándék a platformok részéről, hogy lassítsák a félinformációk, hazugságok terjedését, nem biztos, hogy a technológiájuk is meglesz ehhez augusztus 25-re. És akkor arról ne is beszéljünk, hogy vajon az MI-vel feltupírozott nyári szelfijeink is kapnak-e majd figyelmeztető címkéket.
(Fotó: Markus Spiske/Unsplash)