Tizenkétmillió képet lophatott a világ legismertebb képügynökségétől a Stable Diffusion nevű mesterséges intelligencia

2023 / 02 / 08 / Pőcze Balázs
Tizenkétmillió képet lophatott a világ legismertebb képügynökségétől a Stable Diffusion nevű mesterséges intelligencia
A Getty Images azt állítja, hogy tizenkétmillió képet lopott tőlük a szövegek alapján képeket készítő rendszer, ezért darabonként százötvenezer dollár kártérítést követelnek.

Január közepén írtunk arról a Rakétán, hogy három alkotó pert indított két olyan mesterséges intelligencia (MI) tulajdonosaival szemben, amelyek szövegből képeket generálnak. Szerintük ugyanis sérti a szerzői jogaikat, hogy a beleegyezésük nélkül edzik, tanítják ezeket a szoftvereket az alkotásaik felhasználásával. A Stable Diffusion, a Midjourney vagy a DALL-E, ahogyan minden mesterséges intelligencia, hatalmas mennyiségű adatot dolgoznak fel, elemeznek, majd tanulnak meg utánozni, hogy egyre élethűbben adhassák vissza, amit kérünk tőlük.

Úgy tűnik, hogy a világ minden táján ismert, többek között a Rakétának is képeket, videókat biztosító Getty Images is úgy gondolja, hogy ez a gyakorlat a jelenlegi formájában nem legális.


Egy, a Stable Diffusionnal generált kép, amelybe a mesterséges intelligencia a Getty Images vízjelét is belekomponálta (Forrás: Rakéta.hu/Stable Diffusion)

A Gizmodón olvasható hír szerint azzal vádolják a Stability AI-t, a Stable Diffusion fejlesztőit, hogy az engedélyük nélkül használták fel tizenkétmillió képüket, a leírásaikkal és metaadataikkal együtt; utóbbi kategóriába tartozik például a felvétel helye, vagy az alkalmazott eszközök technikai paraméterei. Nem elég, hogy egy-egy MI-generálta "fotó" gyakorlatilag az eltorzított mása az eredetinek, még a képlopást meggátolni hivatott vízjel, a "Getty Images" felirat is rá-rákerül néhány képre. Ennek az lehet az oka, hogy az MI tanulás közben olyan gyakran találkozik a motívummal bizonyos képek, például politikus-portrék vagy tüntetésekről készült fotók esetében, hogy azt gondolja, hogy a vízjel természetes része ezeknek - hiszen nem értelmezi, amit lát, csak utánozni próbálja az ismétlődő mintákat. Korábban a Google zenekészítő MI-jével kapcsolatban is megemlítették a fejlesztők, hogy az esetek egy százalékában a rendszerük egyszerűen csak koppint.

A Gizmodo ugyanakkor kiemeli, hogy a Stable Diffusiont egy olyan, nyílt forráskódú adattömegen edzették, amely több mint háromszáznyolcvan terabájtos, vagyis ennek még a tizenkétmillió Getty-kép is csak kis része. Akárhogy is, ha a bíróság úgy látja, hogy valóban illetéktelenül használta fel a Stability AI a képeket, és torzítás ide vagy oda, de ezzel árt a Getty jó hírnevének, akkor a kért büntetés töredéke is komoly pénzügyi veszélybe sodorhatja az egymilliárd dollárra értékelt céget - és ezzel szinte az összes, hasonló elven működő szoftvert.

(Borítókép: Rakéta.hu/Stable Diffusion)

Meglopja a művészeket, ha mesterséges intelligenciákat edzenek az alkotásaikon? Három alkotó szerint igen, ezért beperelték a legismertebb, képeket generáló rendszereket.


Olyan tömegmegfigyelést, mint a párizsi Olimpián, nem látott még Európa
Olyan tömegmegfigyelést, mint a párizsi Olimpián, nem látott még Európa
Jogvédők szerint ez veszélyes, a technológiát szállító cég szerint viszont a módszereik merőben másak, mint amit Kínában vagy Katarban láthatunk.
A futók, úgy érezhetik, mintha repülnénk egy új edzési módszerrel
A futók, úgy érezhetik, mintha repülnénk egy új edzési módszerrel
A futók számára az ETH Zürich fejlesztett olyan berendezést, ami csökkenti a légellenállást. Az olimpiára készülők is kipróbálták.
Ezek is érdekelhetnek
HELLO, EZ ITT A
RAKÉTA
Kövess minket a Facebookon!
A jövő legizgalmasabb cikkeit találod nálunk!
Hírlevél feliratkozás

Ne maradj le a jövőről! Iratkozz fel a hírlevelünkre, és minden héten elküldjük neked a legfrissebb és legérdekesebb híreket a technológia és a tudomány világából.



This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.