Rasszizmusnak nézheti a fekete-fehér sakkbábukról szóló kommenteket a mesterséges intelligencia

2021 / 02 / 20 / Bobák Zsófia
Rasszizmusnak nézheti a fekete-fehér sakkbábukról szóló kommenteket a mesterséges intelligencia
A YouTube 2020 júniusában egy napra letiltotta egy sakkcsatorna fiókját, de magyarázatot nem adtak a történtekre. A Carnegie Mellon kutatói nem hagyták annyiban a dolgot és a vizsgálatok alatt kiderítették, az algoritmus gyűlöletbeszédnek hiheti a fekete, fehér, támadás vagy ütés szavakat a kommentekben.

2020 június 28-án az Agadmator néven ismert Antonio Radic, horvát sakkjátékos és youtuber csatornáját, melyen sakkról szóló videókat elemez és oszt meg a közönséggel, a YouTube felfüggesztette. Éppen a japán nagymesterről, Hikaru Nakamuráról szóló podcastot közvetítette, mikor blokkolták az adást, mivel az "káros és veszélyes tartalmat foglalt magában". Huszonnégy óra elteltével helyre állították a fiók státuszát, de magyarázatot nem adtak rá, hogy mi is volt ez a káros és veszélyes tartalom pontosan.

Radic még csak négy éve vágott bele a közvetítésekbe, de máris övé az egyik legnépszerűbb tematikus csatorna a platformon, havi tizenöt millió megtekintéssel, azonban a videók sakkról szólnak, nem politikáról, így érthetetlen volt számára az eset. Úgy gondolta, hogy a jelenlegi politikai hangulatot tekintve, lehet, hogy a Nakamurával készített interjú közben elhangzó "fehér a fekete ellen" típusú megjegyzések szúrhatták a szemét a politikailag korrekt algoritmusnak.

Hogy teszteljék ezt a hipotézist és egyben megvizsgálják a tartalommoderálással foglalkozó mesterséges intelligencia programok megbízhatóságát, a Carnegie Mellon Egyetem kutatója, Ashiqur R. KhudaBukhsh és az egyetem Nyelvészeti Technológiai Intézetének mérnöke, Rupak Sarkar összegyűjtötték a videómegosztó öt legnépszerűbb sakkoldalának 8818 videójához tartozó 681,995 kommentjét, és ráeresztettek két, gyűlöletbeszéd kiszűrésére tréningezett algoritmust. Az egyik egy egyszerű beszédelemző program volt, melyet előzetesen Twitter posztokon gyakorlatoztattak, a másik Bert programot pedig egy fehér felsőbbrendűséget hirdető fórum bejegyzéseivel táplálták.

Az algoritmusok a hatalmas mennyiségű adatból csak elenyészően keveset bélyegeztek gyűlöletbeszédnek.

Az ebbe a kategóriába osztott kommentekből ezer darabot a kutatók saját kezűleg (értsd: nem mesterséges intelligenciával) kiválogattak és megnézték, valóban tartalmaznak e uszító jellegű vagy rasszista kijelentéseket, melyek alapján a MI úgy dönthetett, hogy kiszűri őket. A minták 82,4%-a bizonyult fals pozitívnak, és mindössze 11,9%-a tartalmazott valóban gyűlöletkeltő elemeket. A fehér szupremáciával foglalkozó oldalon betanított algoritmus jobban teljesített, tehát pontosabban tudta elkülöníteni a valóban negatív kommenteket a szimplán a sakkjátékot elemző megjegyzésektől, mint a Twitteren tréningezett társa, valószínűleg azért, mert több tapasztalatot szerzett a bőrszínnel kapcsolatos megjegyzések terén, mint a kollégája. A kutatók tapasztalata szerint a fekete, a fehér, a támadás és a fenyegetés szavak, melyeket a sakkal kapcsolatban gyakran elhangzanak, vezettek tiltáshoz a legtöbb esetben.

"Nem tudjuk, hogy a YouTube milyen eszközöket használ, de ha a rasszista nyelvezetet mesterséges intelligenciával szűrik, az ilyen balesetek előfordulhatnak."

- mondta KhudaBukhsh. A probléma az, hogy a betanítás során az algoritmusok sokféle helyről érkező információkat kapnak, de nem feltétlenül olyat, ami hatásosan segíti a munkájukat, ebben az esetben például a kutatók programjai nem kaptak specifikusan sakkról szóló bejegyzéseket a betanítás alatt. Ez hibákhoz, akár ok nélküli letiltásokhoz is vezethet, amit emberi ellenőrzés nélkül nehéz elkerülni. Arra nyilvánvalóan nincs elég dolgozó, még a legnagyobb közösségi média oldalaknál sem, hogy a mesterséges intelligencia munkáját is ellenőrizzék utólag.

KhudaBukhsh felidéz egy esetet, ami világosan bemutatja, milyen könnyű félrevinni az algoritmusokat, mikor meg szeretnénk tanítani nekik valamit: a kutató egy olyan programot akart írni, amely meg tudja különböztetni egymástól az aktív kutyákat és lusta kutyákat ábrázoló képeket. A szoftver egy idő után olyan képeket is az aktív kutya kategóriába sorolt, amelyen csak a füves táj látszott, kutyának hűlt helye sem volt a fotón. KhudaBukhsh rájött, hogy ez azért történt, mert az aktív kutya sokszor egyet jelentett a szaladó állattal, ezek a képek pedig kinti, füves terepen ábrázolták az alanyt.

A mesterséges intelligencia felkészítése egy feladatra és későbbi sikeres teljesítménye így nagyban függ az előzetesen betáplált adatok minőségétől, amire a jövőben érdemes nagyobb hangsúlyt fektetni, ha már olyan sok területen átengedjük nekik a munkát. Ahogy a sakkcsatorna esetéből is látszik, nem csak az alulteljesítő algoritmus, hanem a túlbuzgó is igazságtalan helyzetekhez tud vezetni.

(Fotó: Pixabay)

Ez is érdekelhet:

Az embernek nincs esélye a mesterséges intelligencia ellen - indokolta visszavonulását a korábbi Go világbajnok, Lee Se-dol Ő az egyetlen ember a világon, akinek valaha is sikerült meccset nyernie mesterséges intelligencia ellen, mégis úgy érzi, olyan ellenfelet teremtettek, amit nem lehet legyőzni.
Mennyi energiát égetünk el gondolkodás közben? A sakkozók akár 6000 kalóriát is elégetnek egy nap alatt, de vajon a fokozott agyi tevékenység miatt?
A Twitteren bárki lehet tartalom moderátor a Birdwatch programnak köszönhetően A közösségi média tartalmának szűrése embertpróbáló feladat, de a Twitter most lehetőséget ad bárkinek (az Egyesült Államokban), hogy kipróbálja magát.


Hello Szülő! Ha a gyereked nem tud valamit, akkor téged fog kérdezni. De ha te szülőként nem tudsz valamit, akkor kihez fordulsz?
A digitális kor szülői kihívásairól is találhattok szakértői tippeket, tanácsokat, interjúkat, podcastokat a Telekom családokat segítő platformján, a https://helloszulo.hu/ oldalon.
Hogyan válasszunk külföldi egyetemet? És mennyibe fog ez kerülni a családnak?
Hogyan válasszunk külföldi egyetemet? És mennyibe fog ez kerülni a családnak?
Repül már a vén diák. Hová? Hová?
Hogyan vélekednek a magyarok a net veszélyeiről – és kik a leginkább fenyegetettek?
Hogyan vélekednek a magyarok a net veszélyeiről – és kik a leginkább fenyegetettek?
Hogy áll a magyar lakosság generációkra bontva a kiberbiztonsághoz? – Erről szól az ESET rendkívül átfogó felmérése, amelyből olyan meglepő eredmények is kiderülnek, hogy kik a romantikus csalások legfőbb célpontjai, miközben az adott csoport nem is nagyon ismeri ezt a fenyegetést.
Ezek is érdekelhetnek
HELLO, EZ ITT A
RAKÉTA
Kövess minket a Facebookon!
A jövő legizgalmasabb cikkeit találod nálunk!
Hírlevél feliratkozás

Ne maradj le a jövőről! Iratkozz fel a hírlevelünkre, és minden héten elküldjük neked a legfrissebb és legérdekesebb híreket a technológia és a tudomány világából.



This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.