A “deepfake kamera”, a NUCA Mathias Vef művész és Benedikt Groß tervező együttműködésének a gyümölcse, és lényegében annyit tud, hogy a fényképalanyok ruháit digitálisan eltávolítja függetlenül azok jóváhagyásától. Méghozzá villámgyorsan.
Ha nagyon alulfogalmazzuk a helyzetet, akkor mindez némileg aggasztónak hangzik a személyiségi jogok, a magánélet és egy sereg más szempont alapján is, ugyanakkor ezzel a művészi projekttel Vef és Groß egy komoly problémára kívánják ráirányítani a reflektorfényt: a generatív mesterséges intelligencia a valóságérzékelésünkre gyakorolt káros hatásait hangsúlyozzák ezzel.
A projekt így meglehetősen provokatív, de azzal nem vádolható, hogy ne lenne aktuális, elvégre több fentebb említett szempont immár napi rendszerességgel kerül akár a mindennapi életünkben is az AI és a deepfake technológiák miatt – legyen szó a beleegyezés megkerüléséről, a személyiségi jogok sárba tiprásáról, az algoritmusok “igazságérzetéről” vagy úgy általában az AI által generált tartalom szélesebb társadalmi következményeiről.
Maga a NUCA kamera egy könnyű, kompakt eszköz, amely 3D-nyomtatott alkatrészekből épül fel. A képrögzítéshez okostelefont használ, amely aztán a képet egy stabil diffúziós motoron keresztül dolgozza fel, és az alany arcát egy mesterséges intelligencia által generált meztelen testre helyezi.
Mint az Vef elmondta, az egyik legnagyobb kihívást az jelentette, hogy a kép elkészülési idejét tíz másodpercre szorítsák.
Vef és Groß hangsúlyozzák, hogy nem a magánélet veszélyeztetése a céljuk, hanem az, hogy a NUCA-t a művészi felfedezés eszközeként használják. A kamerát, amely jelenleg prototípus, egy berlini kiállításon mutatják be, és a célja értelemszerűen elsősorban a provokatív gondolatébresztés, nem pedig a magánélet megsértése.
Az eszköz azonban nyilvános elérhető technológiákkal készült, így a NUCA valójában egy figyelemfelhívás is, ami nem csak aktuális, de kicsit meg is késett. Az AI által létrehozott egyre realisztikusabb deepfake tartalmak ugyanis már ma komoly problémát jelentenek – legutóbb a téma a Taylor Swiftet ábrázoló deepfake pornóképek miatt került elő, de valójában ilyen felvételek rengeteg emberről keringenek és keringtek eddig is, és az ezeket terjesztő felületek sem igazán próbálnak hatásos ellenintézkedéseket tenni.
(Kép: nuca.rocks)