s

Lehet, hogy a mesterséges intelligencia épp az összeomlás szélén táncol

2024 / 07 / 25 / Felkai Ádám
Lehet, hogy a mesterséges intelligencia épp az összeomlás szélén táncol
Úgy még a Skynetből sem lesz semmi, ha az egész modell még a világhódítás előtt összeomlik.

A kutatók arra figyelmeztetnek, hogy a mesterséges intelligencia (MI) rendszerek értelmetlen eredményeket produkálhatnak, méghozzá ironikus mód épp azért, mert az internet egyre inkább mesterséges intelligencia által generált tartalommal telítődik. A hírről a The Independent számolt be. A jelenség, amelyet “modellösszeomlásnak” neveznek, alááshatja az olyan rendszerek hatékonyságát és megbízhatóságát, mint például az OpenAI ChatGPT-je.

A szöveggeneráló mesterséges intelligenciák elterjedése az általuk létrehozott online tartalom növekedéséhez vezetett. Ezeket az MI-eszközöket az őket fejlesztő vállalatok gyakran internetes forrásokból származó szövegekkel tanítják be, ami visszacsatolási hurkot hoz létre. Hála azonban az egyre növekvő, MI-generált tartalomnak, a mesterséges intelligencia immár a saját kimenetén alapulva tanul. Azonban így az eddig bevált visszacsatolásos tanulási modell gyorsan ronthatja az MI által generált tartalom minőségét, ami még tovább rontja a modell működését, és ami végül teljesen értelmetlen eredményekhez vezethet.

A modellösszeomlás alapja, hogy ahogy a mesterséges intelligencia folyamatosan adatokat állít elő, amelyeket aztán újra felhasználnak a továbbképzéshez, a ritkábban előforduló adatelemek fokozatosan “elpárolognak”. Emily Wenger kutató egy analógiával magyarázta ezt: ha egy mesterséges intelligencia-rendszert különféle kutyafajták képeivel képeznek ki, de az adathalmaz kezdetben több golden retrievert tartalmaz, a következő képzési ciklusok egyre inkább a golden retrieverekre fognak összpontosítani, míg végül teljesen figyelmen kívül hagyják a többi fajtát.

A modellösszeomlásnak nevezett jelenség eddig is ismert volt, kérdés azonban, hogy mennyire égető a probléma? Egy, a Nature folyóiratban publikált tanulmány szerint eléggé.

A friss tanulmányból ugyanis kiderült például, hogy egy középkori építészetről szöveget generáló mesterséges intelligenciarendszer mindössze kilenc generációs rekurzív képzés után ismétlődő és irreleváns listákat állított elő.

Ez a hatás a nagy nyelvi modelleknél is megfigyelhető, mint például a ChatGPT és a Google Gemini. A kutatók olyan megoldásokat javasolnak, mint a mesterséges intelligencia által generált tartalom vízjelezése, hogy kiszűrjék azokat a képzés során. Az ilyen intézkedések hatékonysága azonban kérdéses, mivel a vízjelek könnyen eltávolíthatók, és a mesterséges intelligencia vállalatok gyakran ellenállnak bármiféle, az együttműködésre tett próbálkozásnak.

Mindez azonban egy másik következménnyel is jár: azok a korai MI-vállalatok kerülhetnek versenyelőnybe, amelyek rendelkeznek korábbi, ember által generált adatokkal – az ő MI-rendszereik ugyanis könnyebben őrzik meg a minőségüket, mint azok a cégek, amelyek a modelljeiket immár egy MI-től erősen szennyezett interneten próbálják betanítani.

(Kép: Pixabay/BrianPenny)


Gombnyomásra rádióműsort csinál egy tankönyvből a Google NotebookLM programja
Gombnyomásra rádióműsort csinál egy tankönyvből a Google NotebookLM programja
Leesett az állunk, amikor meghallgattuk a cég talán leghasznosabb mesterséges intelligenciáját.
Nincs menekvés a robotkutyák elől, a víz alatt is szembejöhet egy
Nincs menekvés a robotkutyák elől, a víz alatt is szembejöhet egy
Milyen érzés lehet, ha egy medence mélyén egy robotkutya sétál velünk szemben? Egy, talán kevésbé ismert lengyel robotgyártó víz alá küldte egyik fejlett modelljét, hogy kiderüljön.
Ezek is érdekelhetnek
HELLO, EZ ITT A
RAKÉTA
Kövess minket a Facebookon!
A jövő legizgalmasabb cikkeit találod nálunk!
Hírlevél feliratkozás

Ne maradj le a jövőről! Iratkozz fel a hírlevelünkre, és minden héten elküldjük neked a legfrissebb és legérdekesebb híreket a technológia és a tudomány világából.



This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.