Egy friss kutatás szerint a mesterséges intelligencia (MI, AI) is hasonló „agyrothadásban” szenvedhet, mint az emberek, ha túl sok felszínes közösségimédia-tartalmat fogyaszt. A Texasi Egyetem, a Texas A&M és a Purdue Egyetem közös vizsgálata kimutatta:
ha nagy nyelvi modelleket (LLM-eket) népszerű, de silány minőségű posztokkal tréningeznek, azok észrevehetően elveszítik a gondolkodási képességüket, vagyis elbutulnak.
A kutatók több mint egymillió posztot gyűjtöttek az X-ről, hogy azokkal képezzenek ki két nyílt forráskódú modellt, a Meta Llamáját és az Alibaba Qwenjét. Az egyik csoport a közösségi médiából származó, kattintásvadász bejegyzéseket kapta, tele olyan szavakkal, mint „hűha”, (wow) „nézd” (look) vagy „csak ma” (today only), a másik csoport ezzel szemben kiegyensúlyozottabb, informatívabb szövegeken tanult.
Az eredmény egyértelmű volt: a „szeméttartalommal” etetett modellek memóriája romlott, érvelési képességük gyengült, sőt etikai iránytűjük is megzavarodott, bizonyos tesztek szerint pedig még pszichopatikusabbá is váltak.
A jelenség kísértetiesen hasonlít az embereknél megfigyelt hatásokra, korábbi kutatások ugyanis kimutatták, hogy a gyenge minőségű online tartalmak rontják az emberek kognitív képességeit – nem véletlen, hogy a „brain rot” (agyrothadás) kifejezés lett az Oxford Dictionary 2024-es év szava.
Junyuan Hong, a tanulmány társszerzője és a Szingapúri Nemzeti Egyetem leendő adjunktusa szerint – aki még a Texasi Egyetemen, doktoranduszként vett részt a kutatásban – a következmények az MI-iparra nézve is komolyak, ugyanis sok fejlesztő feltételezi, hogy a közösségi médiából származó posztok jó alapot jelentenek a modellek betanításához, „csakhogy ez csendben aláássa a modellek logikáját, etikáját és a hosszú távú figyelmét”.
A probléma azért különösen aggasztó, mert az MI egyre gyakrabban generálja saját közösségimédia-tartalmait, amelyek jellemzően szintén az elérésre vannak optimalizálva és nem a minőségre. A kutatók azt is megállapították, hogy a gyenge minőségű tartalommal „megfertőzött” modelleket újratanítással sem lehet teljesen helyrehozni, vagyis a modellek minősége visszafordíthatatlanul romolhat.
„Ahogy egyre több MI által generált szemét árasztja el a közösségi médiát, az megmérgezi azokat az adatokat, amelyekből a jövő modelljei tanulnak. Eredményeink pedig azt mutatják, hogy ha ez az agyrothadás egyszer beindul, a későbbi, tiszta képzés sem tudja teljesen visszafordítani.”
(Forrás: Wired, fotó: Getty Images)
Ez is érdekelhet: