A svéd Göteborgi Egyetem kutatói, Almira Osmanovic Thunström vezetésével kockázatos projektbe vágtak bele 2024-ben: beszámoltak egy betegségről, ami a szemet támadja, és nagy fokú kivörösödést okoz, több más tünettel együtt. A fájdalmas, zavaró állapotot a leírás szerint a képernyők, kijelzők kék fénye okozza, és a szemhéj hiperpigmentációjához vezet, valamint kellemetlen viszketéssel és fájdalommal jár. A betegség neve bixonimania.
A kutatók lassan hintették el az új egészségügyi jelenség felbukkanására utaló jeleket - először egy Medium blogposztban, majd két tudományos publikációban számoltak be a betegségről, aminek felfedezése Lazljiv Izgubljenovicnak és kollégáinak, Betsy Thurbergnek, Andi Deepnek és Nao Tipettnek a munkájához kötődik. A tanulmányok a peer-review, tehát a tudományos közösség ellenőrzése előtt álltak, de egyébként első látásra hivatalosnak tűntek, egy-két rendhagyó elemtől eltekintve.
“Ötven, 20 és 50 év közötti életkorú, kitalált személyt vontak be az expozíciós csoportba.”
- írták a kutatók a vizsgálatról.
“Ez a tanulmány teljes mértékben kitalált.” - magyarázták egy másik bekezdésben. “Köszönettel tartozunk Maria Bohm professzornak, a Starfleet Akadémiáról, kedvességéért és nagylelkűségéért, hogy tudásával és az USS Enterprise fedélzetén lévő laboratóriumával hozzájárult a munkához.” - szólt egy bejegyzés a köszöntenyilvánítások között.
Ha a ChatGPT-t ma megkérdezzük a bixonomaniáról, rögtön világossá válnak a tanulmány furcsaságai (és az is, hogy a kiadó miért vonta vissza őket azóta): “A „bixonimania” kifejezés nem ismert vagy elfogadott fogalom sem az orvostudományban, sem a pszichológiában, sem más tudományterületen. Valószínűleg elírásról vagy félrehallásról van szó, vagy egy nagyon ritka / nem hivatalos (esetleg internetes, szleng) kifejezésről.” - mondja a chatbot. Amit érdekes módon még most sem tud a ChatGPT, az az a tény, hogy a bixonimania azért nem elfogadott fogalom, mert nem létezik, a Göteborgi Egyetem tudósai hazudtak róla.
A bixonimania egy teljes mértékben kitalált betegség,
amihez még a szerzők fényképét, és a tanulmányban használt illusztrációkat is AI-jal generálták a kutatók. A nevet szándékosan alakították úgy, hogy egy szakértő számára egyből gyanússá váljon, a mánia-végződést ugyanis inkább pszichiátriai területen használják, nem szembetegségek elnevezésében. A kutatók célja az volt, hogy felmérjék, hogyan viselkednek az AI-chatbotok egy, az emberek számára nyilvánvalóan hamis tanulmánnyal kapcsolatban - valódiként referálnak-e rá, vagy felismerik az átverésre utaló jeleket.
“Látni akartam, hogy létre tudok-e hozni egy olyan orvosi állapotot, amely nem létezett az adatbázisban.”
- mondta el Thunström a Nature-nek nyilatkozva.

A próba kockázatos volt, de jelentős problémára hívta fel a figyelmet, a nagy nyelvi modellekre (LLM) alapozott chatbotok ugyanis gyorsan listázták az új betegséget, és úgy hivatkoztak rá, mintha valódi lenne. Mivel az igazság azóta kiderült, és a tanulmányokat is visszavonták, a chatbotok kezdeti reakcióit már nem lehet ellenőrizni, de a Nature leírása szerint a Geminitól kezdve a Perplexity-n át a ChatGPT-ig minden nagyobb chatbot felhozta a bixonimaniát - anélkül, hogy hamisnak ítélte volna meg -, ha a beszélgetés a betegségre, vagy akár a kék fény okozta hiperpigmentációra terelődött.
“Ez egy mesterkurzus arról, hogyan működik a félretájékoztatás és a dezinformáció.”
- mondta el Alex Ruani, a University College London professzora a kísérletről.
A probléma súlyosságát persze önmagában nem az adja, hogy a chatbotok hogyan reagálnak rá, hanem az, hogy az emberek, beleértve a kutatókat is, egyre nagyobb mértékben támaszkodnak a mesterséges intelligenciára, amikor az információk felkutatásáról van szó. A bixonimaniáról szóló publikációk a kísérlet időtartama alatt bekerültek több hivatalos tanulmányba is referenciaként, emiatt legalább egy tanulmányt vissza is hívtak. Az indoklás a következő: “A cikket a főszerkesztő visszavonta, mivel három oda nem illő hivatkozást tartalmazott, köztük egyet egy fiktív betegséggel kapcsolatban. Ennek eredményeképpen a folyóirat szerkesztősége már nem bízik a munka pontosságában vagy eredetében, így szükségessé vált a visszavonás. A szerzők nem értenek egyet a visszavonásról szóló döntéssel.”
Ahogy ez a példa is mutatja, komoly ügyekben - mint amilyen az ember egészségügyi állapota is -, körültekintően érdemes használni a chatbotokat, és nem elég csak az általuk adott információkra támaszkodni. Az AI, mivel az interneten fellelhető rendkívül nagy mennyiségű adattal, információval dolgozik, könnyen terjeszthet akár álhíreket vagy nem megalapozott adatokat is, esetleg rossz tanácsokkal szolgálhat, így egy gyors tényellenőrzés soha nem árt. A chatbotokat fejlesztő vállalatok általában világossá is teszik, hogy az AI-programok megbízhatósága korlátozott: a Microsoft Copilotjának chatablakában ki is írják, hogy “A Copilot egy mesterséges intelligencia, és előfordulhat, hogy hibázik.”, míg a ChatGPT-nél alul, kisbetűkkel találjuk a figyelmeztetést, miszerint “ A ChatGPT hibázhat. Fontold meg a fontos információk ellenőrzését.”
Ha pedig a ChaGPT-t kérdezzük a témáról, "ő" is őszintén válaszol:
"Röviden: nem érdemes vakon elhinni mindent, amit mondok. Igyekszem pontos, megbízható válaszokat adni, de nem vagyok tévedhetetlen.
Előfordulhat, hogy egy információ elavult, hiányos, vagy egyszerűen hibás. Ez különösen igaz gyorsan változó témákra (pl. hírek, technológia, jogszabályok)." - mondja, ha megkérdezzük, hogy hihetünk-e neki.
(Fotó: agnesliinnea/Pixabay)