A Transactions on Machine Learning Research című folyóiratban 2025 februárjában megjelent tanulmány azt vizsgálta, hogyan képesek a nagy nyelvi modellek (LLM-ek) analógiás gondolkodásra, amely az emberi megismerés egyik alapvető eleme. A kutatók többféle analógiás feladat elé állították az AI-t, például egyszerű betűsorokkal és számmátrixokkal, majd összehasonlították az eredményeket az emberek teljesítményével. Az eredmények alapján emberek folyamatosan jól teljesítettek, míg a mesterséges intelligencia eredményei jelentősen romlottak a feladatok komplexebbé válásával.
Martha Lewis, az Amszterdami Egyetem adjunktusa és a tanulmány társszerzője konkrét példákat említett ezekre a gyengeségekre. „Ha például azt kérdezzük, hogy ha 'abcd' átalakul 'abce'-vé, akkor 'ijkl'-ből mi lesz, a legtöbb ember helyesen 'ijkm'-et válaszol, és az AI is hasonlóan reagál” – magyarázta Lewis a Live Science-nek.
„Amikor azonban összetettebb mintával találkoznak, például 'abbcd' helyett 'abcd' lesz, akkor 'ijkkl'-ből mi lesz, az emberek többsége helyesen 'ijkl'-et válaszol, felismerve az ismétlődő elem eltávolítását. A GPT-4 viszont gyakran nem képes megoldani az ilyen problémákat.”
A kutatók emellett azt is megfigyelték, hogy az AI válaszait jelentősen befolyásolja az információk sorrendje („válasz-sorrend hatás”). Ez arra utal, hogy a mesterséges intelligencia inkább újrafogalmazza a feladatokat, mintsem valóban megértené őket. Fontos különbség továbbá, hogy az AI-modellekből hiányzik az emberekre jellemző „nulladik próbás” tanulási képesség, tehát nem képesek előzetes példák nélkül, teljesen új helyzetekben alkalmazni a megtanult fogalmakat.
Lewis hangsúlyozta a probléma szélesebb következményeit: az emberek természetesen képesek konkrét mintákat általános szabályokká alakítani, míg az AI-ből ez a képesség hiányzik.
„Az AI kiválóan felismeri és egyezteti a mintákat, de gyenge az általánosításban”
– tette hozzá Lewis. Az emberekkel ellentétben az AI pusztán nagy adatmennyiségekre támaszkodik, míg az emberek képesek túlmutatni a közvetlen példákon és általánosítani.
Ennek a korlátnak súlyos következményei lehetnek, különösen olyan területeken, mint például a jog, ahol a mesterséges intelligencia egyre gyakrabban segíti a jogi kutatást, az esetek elemzését vagy akár az ítéletek ajánlását. Ha pedig az adott modell nem rendelkezik erős analógiás érvelési képességekkel, az AI könnyen figyelmen kívül hagyhat finom, de kritikus különbségeket az új esetekben, ami komoly problémákhoz vezethet.
A tanulmány azt is aláhúzza, hogy az AI-modelleket nem csupán pontosságuk, hanem kognitív robusztusságuk szempontjából is alaposan meg kell vizsgálni, különösen azért, mert ezeknek a rendszereknek az alkalmazása érzékeny, valós élethelyzetekben egyre szélesebb körben terjed.