Nyár végére minden fotó, videó mellett ott fog virítani, hogy mesterséges intelligencia készítette-e

2023 / 06 / 07 / Pőcze Balázs
Nyár végére minden fotó, videó mellett ott fog virítani, hogy mesterséges intelligencia készítette-e
Az Európai Unió augusztus 25-ig adott időt a legnagyobb technológiai platformoknak, köztük a Google-nek, a Metának és a TikToknak, hogy megoldják az MI-alkotta képek, videók egyértelmű megjelölését.

A Gizmodón olvasható hír szerint Věra Jourová, az Európai Bizottság a politikai értékek és az átláthatóság koordinációjáért felelős alelnöke, egy sajtótájékoztatón úgy fogalmazott, hogy olyan technológiákat kell alkalmazniuk a szolgáltatóknak, amelyek "felismerik és egyértelműen jelölik a felhasználók számára" az ilyen tartalmakat. Emellett a jövőben akkor is figyelmeztetéseket kell, hogy lássunk, ha egy MI-vel támogatott chatbottal beszélgetünk, például egy webáruház online ügyfélszolgálati alkalmazásában. Mindez a digitális szolgáltatásokat szabályozó törvény, a DSA részeként lép érvénybe,

és a hátterében az európaiak félretájékoztatásának a megnehezítése áll.

Azt az elmúlt hónapok eseményei után nem kell hosszasan magyarázni, hogy miért válik egyre fontosabbá az MI-módosította tartalmak azonosítása: Ferenc pápa ál-pufidzsekije csak ártalmatlan tréfa volt, de Donald Trump kamu letartóztatása vagy a Pentagon szintén kamu kigyulladása már ízelítőt adtak abból, hogy ijesztően jól meg tudják téveszteni az embereket a generatív mesterséges intelligenciák. Pár évvel ezelőtt Erzsébet királynő deepfake-üdvözletén vagy Tom Cruise kamuvideóin még szakemberek dolgoztak, ma már sokkal egyszerűbben és gyorsabban állíthatóak elő hasonló anyagok, adott esetben akár videók is.

Nem véletlen azonban, hogy egyelőre nincs elfogadott, automatizált módja az ilyen tartalmak felismerésének. Donald Trump "letartóztatásánál" például az egyenruhákon ugyan egyértelműen látszik, hogy krikszkrakszok szerepelnek a feliratok helyén, de ezt egy ember könnyebben észreveszi, mint egy gép - már ha figyel. Az egyes videók, képek, hangok előállításának a menete nem állandó, kiszámítható, ezért nehezebb azokon "kézjegyeket" felismerni, hiszen már a rendszerek tanulása sem teljesen transzparens. Ha pedig vízjelek kerülnének a végleges anyagokra, azokat még mindig el lehetne távolítani kézzel, igaz, ehhez egy ideig biztosan szakemberre volna szüksége az álhírterjesztőknek. Mindezt tovább bonyolítja, hogy a szoftverek folyamatosan fejlődnek, így a felismerő rendszereknek is követniük kell azokat, a szokásos macska-egér koreográfia jegyében.

A kínai kormány egyelőre engedélyekhez szeretné kötni a generatív MI-k működését, ami Nyugaton nehezen lenne elképzelhető. Az OpenAI külön rendszert készített a saját maga által előállított tartalmak felismeréséhez, ám az egyelőre megbízhatatlan. Az Adobe is évek óta küzd azért, hogy a képlopást megnehezítse, ami hasonlóan összetett feladat, mint az MI-képek azonosítása. Vagyis hiába lenne, lesz, vagy van meg a szándék a platformok részéről, hogy lassítsák a félinformációk, hazugságok terjedését, nem biztos, hogy a technológiájuk is meglesz ehhez augusztus 25-re. És akkor arról ne is beszéljünk, hogy vajon az MI-vel feltupírozott nyári szelfijeink is kapnak-e majd figyelmeztető címkéket.

(Fotó: Markus Spiske/Unsplash)


Így lettek a szexuális játékszerekből digitális kütyük
Így lettek a szexuális játékszerekből digitális kütyük
Lassan már senkit sem lep meg, hogy egy intim segédeszköznek legalább olyan jól kell tudnia csatlakoznia a wifihez vagy egy telefonhoz, mint a viselőjéhez, használójához.
A META AI-ja azt állítja, gyereke lett
A META AI-ja azt állítja, gyereke lett
Aki ráadásul egyszerre nagyon tehetséges és fogyatékkal élő is.
Ezek is érdekelhetnek
HELLO, EZ ITT A
RAKÉTA
Kövess minket a Facebookon!
A jövő legizgalmasabb cikkeit találod nálunk!
Hírlevél feliratkozás

Ne maradj le a jövőről! Iratkozz fel a hírlevelünkre, és minden héten elküldjük neked a legfrissebb és legérdekesebb híreket a technológia és a tudomány világából.



This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.