A kolumbiai Avianca légitársaság elleni ügyben benyújtott beadvány hat olyan korábbi esetre hivatkozott, amelyek nem léteznek, de a felperest képviselő ügyvéd azt mondta a bíróságnak, hogy a ChatGPT szerint ezek márpedig valódiak. A The New York Times cikke szerint, miután a beperelt légitársaságot védő ügyvédek rámutattak, hogy az ügyek, amelyekre a dokumentumban hivatkoznak, nem léteznek, Kevin Castel az ügyvivő bíró is megerősítette, hogy a benyújtott ügyek közül hat hamis bírósági határozat, valótlan idézetekkel és belső hivatkozásokkal. A bíró ezután meghallgatást rendelt el, ahol majd a ChatGPT-t használó ügyvéd büntetését mérlegelik.
Az alperest védő ügyvédek által közzétett részletekből többek között az derül ki, hogy egy esetben a ChatGPT a Varghese kontra China Southern Airlines Co., Ltd. nem létező ügy neve alatt egy másik valós esetre, a Zicherman kontra Korean Air Lines Co., Ltd.-re hivatkozik, de a dátumot - és egyéb részleteket - illetően téved, ugyanis a chatbot szerint az ügyben 2008-ban született döntés, ez a dátum viszont a valóságban 1996.
Schwartz, a chatbotot használó ügyvéd azt nyilatkozta, „nem volt tudatában annak a lehetőségnek, hogy a tartalom hamis lehet”.
Hozzátette, hogy „nagyon sajnálja, hogy a generatív mesterséges intelligenciát használta fel az itt végzett jogi kutatások kiegészítésére, és a jövőben nem fogja ezt megtenni hitelességének abszolút ellenőrzése nélkül”.
A fenti abszurd eset is arra világít rá, hogy a chatbotok által szolgáltatott információkban nem lehet megbízni anélkül, hogy duplán – vagy akár triplán – ellenőriznénk őket egyéb források segítségével. Persze ez nem csak a ChatGPT esetében igaz. Az OpenAI riválisa, a Google által fejlesztett Bard például már első nyilvános szereplése alkalmával jókorát tévedett, amikor azt mondta, hogy a James Webb Űrteleszkóp volt az első, amely először képet készített egy, a naprendszerünkön kívüli bolygóról. A kijelentés helytelenségére csillagászok mutattak rá, miszerint az első, exobolygóról készített kép 2004-ben született, amelyet természetesen nem készíthetett a 2022-ben üzembe helyezett James Webb Űrtávcső. Egy másik példa arról tanúskodik, hogy azt sem szabad készpénznek venni, amit a Microsoft Bing chatbotja mond, ugyanis ez márciusban azt állította, hogy a versenytárs Google Bard-ot már leállították. A Bing az általa adott információt úgy próbálta alátámasztani, hogy egy cikkre hivatkozott, amiben valaki azzal viccelődött, hogy a Google egy éven belül leállítja a Bardot, valószínűleg arra utalva, hogy a technológiai óriás már több szolgáltatását is lekapcsolta. A Bard figyelmen kívül hagyta a poszt szövegkörnyezetét és humoros jellegét, és tényként osztotta meg, eztuán pedig a Bing is ugyanígy tett.
Kérdés, hogy mennyit ér az írott nyelv szinte tökéletes utánzása, illetve a tökéletes magabiztosság, amivel a mesterséges intelligenciát használó chatbotok rendelkeznek, ha még azt sem tudják megbízhatóan megmondani, hogy hány darab „e” betű szerepel a ketchup szóban. Az viszont, mondhatni, nem sok jót ígér a jövőre nézve, hogy az álhírekben és dezinformációban már amúgy is bővelkedő online térben még több hamis, de valódinak tűnő információ jelenik meg a chatbotok közreműködésével.
(Borítókép: Getty Images/naruecha jenthaisong)