Bixonimania - egy szörnyű szembetegség, amiről hazudtak a tudósok

2026 / 04 / 20 / Bobák Zsófia
Bixonimania - egy szörnyű szembetegség, amiről hazudtak a tudósok
Svéd tudósok feltaláltak egy nem létező betegséget, hogy az AI-t teszteljék. A történet gyorsan aggasztó irányt vett.

A svéd Göteborgi Egyetem kutatói, Almira Osmanovic Thunström vezetésével kockázatos projektbe vágtak bele 2024-ben: beszámoltak egy betegségről, ami a szemet támadja, és nagy fokú kivörösödést okoz, több más tünettel együtt. A fájdalmas, zavaró állapotot a leírás szerint a képernyők, kijelzők kék fénye okozza, és a szemhéj hiperpigmentációjához vezet, valamint kellemetlen viszketéssel és fájdalommal jár. A betegség neve bixonimania.

A kutatók lassan hintették el az új egészségügyi jelenség felbukkanására utaló jeleket - először egy Medium blogposztban, majd két tudományos publikációban számoltak be a betegségről, aminek felfedezése Lazljiv Izgubljenovicnak és kollégáinak, Betsy Thurbergnek, Andi Deepnek és Nao Tipettnek a munkájához kötődik. A tanulmányok a peer-review, tehát a tudományos közösség ellenőrzése előtt álltak, de egyébként első látásra hivatalosnak tűntek, egy-két rendhagyó elemtől eltekintve.

“Ötven, 20 és 50 év közötti életkorú, kitalált személyt vontak be az expozíciós csoportba.”

- írták a kutatók a vizsgálatról.

“Ez a tanulmány teljes mértékben kitalált.” - magyarázták egy másik bekezdésben. “Köszönettel tartozunk Maria Bohm professzornak, a Starfleet Akadémiáról, kedvességéért és nagylelkűségéért, hogy tudásával és az USS Enterprise fedélzetén lévő laboratóriumával hozzájárult a munkához.” - szólt egy bejegyzés a köszöntenyilvánítások között.

Ha a ChatGPT-t ma megkérdezzük a bixonomaniáról, rögtön világossá válnak a tanulmány furcsaságai (és az is, hogy a kiadó miért vonta vissza őket azóta): “A „bixonimania” kifejezés nem ismert vagy elfogadott fogalom sem az orvostudományban, sem a pszichológiában, sem más tudományterületen. Valószínűleg elírásról vagy félrehallásról van szó, vagy egy nagyon ritka / nem hivatalos (esetleg internetes, szleng) kifejezésről.” - mondja a chatbot. Amit érdekes módon még most sem tud a ChatGPT, az az a tény, hogy a bixonimania azért nem elfogadott fogalom, mert nem létezik, a Göteborgi Egyetem tudósai hazudtak róla.

A bixonimania egy teljes mértékben kitalált betegség,

amihez még a szerzők fényképét, és a tanulmányban használt illusztrációkat is AI-jal generálták a kutatók. A nevet szándékosan alakították úgy, hogy egy szakértő számára egyből gyanússá váljon, a mánia-végződést ugyanis inkább pszichiátriai területen használják, nem szembetegségek elnevezésében. A kutatók célja az volt, hogy felmérjék, hogyan viselkednek az AI-chatbotok egy, az emberek számára nyilvánvalóan hamis tanulmánnyal kapcsolatban - valódiként referálnak-e rá, vagy felismerik az átverésre utaló jeleket.

“Látni akartam, hogy létre tudok-e hozni egy olyan orvosi állapotot, amely nem létezett az adatbázisban.”

- mondta el Thunström a Nature-nek nyilatkozva.


A tanulmányban felhasznált kép, amit a mesterséges intelligencia alkotott (Kép: Preprints.org https://doi.org/qzm4 ,2024)

A próba kockázatos volt, de jelentős problémára hívta fel a figyelmet, a nagy nyelvi modellekre (LLM) alapozott chatbotok ugyanis gyorsan listázták az új betegséget, és úgy hivatkoztak rá, mintha valódi lenne. Mivel az igazság azóta kiderült, és a tanulmányokat is visszavonták, a chatbotok kezdeti reakcióit már nem lehet ellenőrizni, de a Nature leírása szerint a Geminitól kezdve a Perplexity-n át a ChatGPT-ig minden nagyobb chatbot felhozta a bixonimaniát - anélkül, hogy hamisnak ítélte volna meg -, ha a beszélgetés a betegségre, vagy akár a kék fény okozta hiperpigmentációra terelődött.

“Ez egy mesterkurzus arról, hogyan működik a félretájékoztatás és a dezinformáció.”

- mondta el Alex Ruani, a University College London professzora a kísérletről.

A probléma súlyosságát persze önmagában nem az adja, hogy a chatbotok hogyan reagálnak rá, hanem az, hogy az emberek, beleértve a kutatókat is, egyre nagyobb mértékben támaszkodnak a mesterséges intelligenciára, amikor az információk felkutatásáról van szó. A bixonimaniáról szóló publikációk a kísérlet időtartama alatt bekerültek több hivatalos tanulmányba is referenciaként, emiatt legalább egy tanulmányt vissza is hívtak. Az indoklás a következő: “A cikket a főszerkesztő visszavonta, mivel három oda nem illő hivatkozást tartalmazott, köztük egyet egy fiktív betegséggel kapcsolatban. Ennek eredményeképpen a folyóirat szerkesztősége már nem bízik a munka pontosságában vagy eredetében, így szükségessé vált a visszavonás. A szerzők nem értenek egyet a visszavonásról szóló döntéssel.”

Ahogy ez a példa is mutatja, komoly ügyekben - mint amilyen az ember egészségügyi állapota is -, körültekintően érdemes használni a chatbotokat, és nem elég csak az általuk adott információkra támaszkodni. Az AI, mivel az interneten fellelhető rendkívül nagy mennyiségű adattal, információval dolgozik, könnyen terjeszthet akár álhíreket vagy nem megalapozott adatokat is, esetleg rossz tanácsokkal szolgálhat, így egy gyors tényellenőrzés soha nem árt. A chatbotokat fejlesztő vállalatok általában világossá is teszik, hogy az AI-programok megbízhatósága korlátozott: a Microsoft Copilotjának chatablakában ki is írják, hogy “A Copilot egy mesterséges intelligencia, és előfordulhat, hogy hibázik.”, míg a ChatGPT-nél alul, kisbetűkkel találjuk a figyelmeztetést, miszerint “ A ChatGPT hibázhat. Fontold meg a fontos információk ellenőrzését.”

Ha pedig a ChaGPT-t kérdezzük a témáról, "ő" is őszintén válaszol:

"Röviden: nem érdemes vakon elhinni mindent, amit mondok. Igyekszem pontos, megbízható válaszokat adni, de nem vagyok tévedhetetlen.

Előfordulhat, hogy egy információ elavult, hiányos, vagy egyszerűen hibás. Ez különösen igaz gyorsan változó témákra (pl. hírek, technológia, jogszabályok)." - mondja, ha megkérdezzük, hogy hihetünk-e neki.

(Fotó: agnesliinnea/Pixabay)

Amikor a mesterséges intelligencia átmegy kreténbe A nagy nyelvi modelleken alapuló chatbotok, mint a ChatGPT, a Gemini, a Claude vagy a Perplexity számos területen jelenthetnek segítséget, ugyanakkor az is köztudott, hogy ezeknek a chatbotoknak a jelenlegi generációja még közel sem tévedhetetlen, néhány esetben pedig kétségbeejtően rossz válaszokkal tudnak előállni - akár egyszerű kérdések esetében is.


Így vehetsz részt a tavasz legjobb boros-zenés buliján!
Így vehetsz részt a tavasz legjobb boros-zenés buliján!
Országszerte négy hétvégén, csaknem száz borászat várja azokat, akik a tavasz ritmusát egy pohár kiváló bor társaságában élveznék.
Az utazók új kedvence – REDMI Note 15 sorozat
Az utazók új kedvence – REDMI Note 15 sorozat
Ha van telefon, amit mintha csak a sokat utazóknak találtak volna ki, akkor az a REDMI Note 15 sorozat.
RakétaAutószalon
További ajánlatok
Ezek is érdekelhetnek
HELLO, EZ ITT A
RAKÉTA
Kövess minket a Facebookon!
A jövő legizgalmasabb cikkeit találod nálunk!
Hírlevél feliratkozás

Ne maradj le a jövőről! Iratkozz fel a hírlevelünkre, és minden héten elküldjük neked a legfrissebb és legérdekesebb híreket a technológia és a tudomány világából.



This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.