Lehet, hogy a mesterséges intelligencia épp az összeomlás szélén táncol

2024 / 07 / 25 / Felkai Ádám
Lehet, hogy a mesterséges intelligencia épp az összeomlás szélén táncol
Úgy még a Skynetből sem lesz semmi, ha az egész modell még a világhódítás előtt összeomlik.

A kutatók arra figyelmeztetnek, hogy a mesterséges intelligencia (MI) rendszerek értelmetlen eredményeket produkálhatnak, méghozzá ironikus mód épp azért, mert az internet egyre inkább mesterséges intelligencia által generált tartalommal telítődik. A hírről a The Independent számolt be. A jelenség, amelyet “modellösszeomlásnak” neveznek, alááshatja az olyan rendszerek hatékonyságát és megbízhatóságát, mint például az OpenAI ChatGPT-je.

A szöveggeneráló mesterséges intelligenciák elterjedése az általuk létrehozott online tartalom növekedéséhez vezetett. Ezeket az MI-eszközöket az őket fejlesztő vállalatok gyakran internetes forrásokból származó szövegekkel tanítják be, ami visszacsatolási hurkot hoz létre. Hála azonban az egyre növekvő, MI-generált tartalomnak, a mesterséges intelligencia immár a saját kimenetén alapulva tanul. Azonban így az eddig bevált visszacsatolásos tanulási modell gyorsan ronthatja az MI által generált tartalom minőségét, ami még tovább rontja a modell működését, és ami végül teljesen értelmetlen eredményekhez vezethet.

A modellösszeomlás alapja, hogy ahogy a mesterséges intelligencia folyamatosan adatokat állít elő, amelyeket aztán újra felhasználnak a továbbképzéshez, a ritkábban előforduló adatelemek fokozatosan “elpárolognak”. Emily Wenger kutató egy analógiával magyarázta ezt: ha egy mesterséges intelligencia-rendszert különféle kutyafajták képeivel képeznek ki, de az adathalmaz kezdetben több golden retrievert tartalmaz, a következő képzési ciklusok egyre inkább a golden retrieverekre fognak összpontosítani, míg végül teljesen figyelmen kívül hagyják a többi fajtát.

A modellösszeomlásnak nevezett jelenség eddig is ismert volt, kérdés azonban, hogy mennyire égető a probléma? Egy, a Nature folyóiratban publikált tanulmány szerint eléggé.

A friss tanulmányból ugyanis kiderült például, hogy egy középkori építészetről szöveget generáló mesterséges intelligenciarendszer mindössze kilenc generációs rekurzív képzés után ismétlődő és irreleváns listákat állított elő.

Ez a hatás a nagy nyelvi modelleknél is megfigyelhető, mint például a ChatGPT és a Google Gemini. A kutatók olyan megoldásokat javasolnak, mint a mesterséges intelligencia által generált tartalom vízjelezése, hogy kiszűrjék azokat a képzés során. Az ilyen intézkedések hatékonysága azonban kérdéses, mivel a vízjelek könnyen eltávolíthatók, és a mesterséges intelligencia vállalatok gyakran ellenállnak bármiféle, az együttműködésre tett próbálkozásnak.

Mindez azonban egy másik következménnyel is jár: azok a korai MI-vállalatok kerülhetnek versenyelőnybe, amelyek rendelkeznek korábbi, ember által generált adatokkal – az ő MI-rendszereik ugyanis könnyebben őrzik meg a minőségüket, mint azok a cégek, amelyek a modelljeiket immár egy MI-től erősen szennyezett interneten próbálják betanítani.

(Kép: Pixabay/BrianPenny)


Robotlázadás zajlott le Kínában - egy robot megszöktetett tizenkét másikat
Robotlázadás zajlott le Kínában - egy robot megszöktetett tizenkét másikat
Úgy tűnik, hogy a robotforradalom elkezdődött, de az egész esemény valójában egy teszt volt.
Instant üzleti nyelvvizsga vagy bábeli zűrzavar: jövőre érkezik az automata szinkrontolmácsolás a Teams-be
Instant üzleti nyelvvizsga vagy bábeli zűrzavar: jövőre érkezik az automata szinkrontolmácsolás a Teams-be
De nem csak ezzel tenné hatékonyabbá az online megbeszéléseket a Microsoft.
Ezek is érdekelhetnek
HELLO, EZ ITT A
RAKÉTA
Kövess minket a Facebookon!
A jövő legizgalmasabb cikkeit találod nálunk!
Hírlevél feliratkozás

Ne maradj le a jövőről! Iratkozz fel a hírlevelünkre, és minden héten elküldjük neked a legfrissebb és legérdekesebb híreket a technológia és a tudomány világából.



This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.