2020 június 28-án az Agadmator néven ismert Antonio Radic, horvát sakkjátékos és youtuber csatornáját, melyen sakkról szóló videókat elemez és oszt meg a közönséggel, a YouTube felfüggesztette. Éppen a japán nagymesterről, Hikaru Nakamuráról szóló podcastot közvetítette, mikor blokkolták az adást, mivel az "káros és veszélyes tartalmat foglalt magában". Huszonnégy óra elteltével helyre állították a fiók státuszát, de magyarázatot nem adtak rá, hogy mi is volt ez a káros és veszélyes tartalom pontosan.
Radic még csak négy éve vágott bele a közvetítésekbe, de máris övé az egyik legnépszerűbb tematikus csatorna a platformon, havi tizenöt millió megtekintéssel, azonban a videók sakkról szólnak, nem politikáról, így érthetetlen volt számára az eset. Úgy gondolta, hogy a jelenlegi politikai hangulatot tekintve, lehet, hogy a Nakamurával készített interjú közben elhangzó "fehér a fekete ellen" típusú megjegyzések szúrhatták a szemét a politikailag korrekt algoritmusnak.
Hogy teszteljék ezt a hipotézist és egyben megvizsgálják a tartalommoderálással foglalkozó mesterséges intelligencia programok megbízhatóságát, a Carnegie Mellon Egyetem kutatója, Ashiqur R. KhudaBukhsh és az egyetem Nyelvészeti Technológiai Intézetének mérnöke, Rupak Sarkar összegyűjtötték a videómegosztó öt legnépszerűbb sakkoldalának 8818 videójához tartozó 681,995 kommentjét, és ráeresztettek két, gyűlöletbeszéd kiszűrésére tréningezett algoritmust. Az egyik egy egyszerű beszédelemző program volt, melyet előzetesen Twitter posztokon gyakorlatoztattak, a másik Bert programot pedig egy fehér felsőbbrendűséget hirdető fórum bejegyzéseivel táplálták.
Az algoritmusok a hatalmas mennyiségű adatból csak elenyészően keveset bélyegeztek gyűlöletbeszédnek.
Az ebbe a kategóriába osztott kommentekből ezer darabot a kutatók saját kezűleg (értsd: nem mesterséges intelligenciával) kiválogattak és megnézték, valóban tartalmaznak e uszító jellegű vagy rasszista kijelentéseket, melyek alapján a MI úgy dönthetett, hogy kiszűri őket. A minták 82,4%-a bizonyult fals pozitívnak, és mindössze 11,9%-a tartalmazott valóban gyűlöletkeltő elemeket. A fehér szupremáciával foglalkozó oldalon betanított algoritmus jobban teljesített, tehát pontosabban tudta elkülöníteni a valóban negatív kommenteket a szimplán a sakkjátékot elemző megjegyzésektől, mint a Twitteren tréningezett társa, valószínűleg azért, mert több tapasztalatot szerzett a bőrszínnel kapcsolatos megjegyzések terén, mint a kollégája. A kutatók tapasztalata szerint a fekete, a fehér, a támadás és a fenyegetés szavak, melyeket a sakkal kapcsolatban gyakran elhangzanak, vezettek tiltáshoz a legtöbb esetben.
"Nem tudjuk, hogy a YouTube milyen eszközöket használ, de ha a rasszista nyelvezetet mesterséges intelligenciával szűrik, az ilyen balesetek előfordulhatnak."
- mondta KhudaBukhsh. A probléma az, hogy a betanítás során az algoritmusok sokféle helyről érkező információkat kapnak, de nem feltétlenül olyat, ami hatásosan segíti a munkájukat, ebben az esetben például a kutatók programjai nem kaptak specifikusan sakkról szóló bejegyzéseket a betanítás alatt. Ez hibákhoz, akár ok nélküli letiltásokhoz is vezethet, amit emberi ellenőrzés nélkül nehéz elkerülni. Arra nyilvánvalóan nincs elég dolgozó, még a legnagyobb közösségi média oldalaknál sem, hogy a mesterséges intelligencia munkáját is ellenőrizzék utólag.
KhudaBukhsh felidéz egy esetet, ami világosan bemutatja, milyen könnyű félrevinni az algoritmusokat, mikor meg szeretnénk tanítani nekik valamit: a kutató egy olyan programot akart írni, amely meg tudja különböztetni egymástól az aktív kutyákat és lusta kutyákat ábrázoló képeket. A szoftver egy idő után olyan képeket is az aktív kutya kategóriába sorolt, amelyen csak a füves táj látszott, kutyának hűlt helye sem volt a fotón. KhudaBukhsh rájött, hogy ez azért történt, mert az aktív kutya sokszor egyet jelentett a szaladó állattal, ezek a képek pedig kinti, füves terepen ábrázolták az alanyt.
A mesterséges intelligencia felkészítése egy feladatra és későbbi sikeres teljesítménye így nagyban függ az előzetesen betáplált adatok minőségétől, amire a jövőben érdemes nagyobb hangsúlyt fektetni, ha már olyan sok területen átengedjük nekik a munkát. Ahogy a sakkcsatorna esetéből is látszik, nem csak az alulteljesítő algoritmus, hanem a túlbuzgó is igazságtalan helyzetekhez tud vezetni.
(Fotó: Pixabay)
Ez is érdekelhet:
Az embernek nincs esélye a mesterséges intelligencia ellen - indokolta visszavonulását a korábbi Go világbajnok, Lee Se-dol
Ő az egyetlen ember a világon, akinek valaha is sikerült meccset nyernie mesterséges intelligencia ellen, mégis úgy érzi, olyan ellenfelet teremtettek, amit nem lehet legyőzni.
Mennyi energiát égetünk el gondolkodás közben?
A sakkozók akár 6000 kalóriát is elégetnek egy nap alatt, de vajon a fokozott agyi tevékenység miatt?
A Twitteren bárki lehet tartalom moderátor a Birdwatch programnak köszönhetően
A közösségi média tartalmának szűrése embertpróbáló feladat, de a Twitter most lehetőséget ad bárkinek (az Egyesült Államokban), hogy kipróbálja magát.