A „Dragon Hatchling” egy újfajta nagy nyelvi modell, amely nem egyszerűen csak „elkészül” egy betanulási fázist követően, mint a ma használt transformer-alapú rendszerek, például a ChatGPT vagy a Gemini. Ehelyett úgy tervezték, hogy futás közben folyamatosan alakítsa a saját „huzalozását”: apró „neurorészecskéi” állandóan információt cserélnek, egyes kapcsolatokat erősítve, másokat gyengítve – ahogy az agyunk szinapszisai is teszik.
A kutatók szerint a modell így képes „időben általánosítani”, vagyis rugalmasan beépíti a friss tapasztalatokat a működésébe.
Adrian Kosowski társalapító úgy fogalmazott:
„Jelenleg a gépek nem általánosítják a következtetéseiket úgy, mint az emberek – ezen szeretnénk változtatni.”
A szeptember 30-án az arXivra feltöltött, még nem lektorált tanulmány szerint a prototípus már most hozza a GPT-2 szintjét. Hogy ez valóban nagy lépés-e az AGI felé, azt majd a következő évek kísérletei döntik el.
Tegyük azért hozzá, hogy az AGI felé vezető út mások szerint nem a nagy nyelvi modelleken keresztül vezet, hanem egy másfajta, de már létező struktúrán át – erről itt írtunk részletesebben.
(Kép: Pixabay)