Azt már megszokhattuk, hogy kellő adat birtokában egy jól megírt szoftver szinte bármit képes létrehozni, leutánozni. Tavalyi összeállításunkban a kedves olvasók kaptak egy csokorra valót sosem létezett emberekből, városokból, autókból és – ami a legfontosabb – cicákból. De az MI ma már verset ír, zenét szerez ráadásul teszi ezt a kiválasztott személy stílusában.
Mint látható tehát, az MI akár komplexebb szövegalkotásra is képes, sőt ezen a területen olyan hatékonynak bizonyult már 2019-ben is, hogy egy ilyen céllal létrehozott szoftvert a fejlesztő OpenAI inkább nem is tett nyilvánossá, mert túl veszélyesnek találta azt. Az OpenAI mögött olyan emberek állnak, mint Elon Musk és Sam Altman, és az általuk kifejlesztett szöveggeneráló algoritmus (GPT2) túlságosan is jól működött – ezért is találták veszélyesnek. 2019. még nem volt annyira messze, mégsem árt megemlíteni az akkori kontextust, melyben az álhírek rendre előkerültek, mint olyan eszközök, amik alkalmasak lehetnek egy demokratikus társadalom destabilizálására. A San Francisco-i vállalat pedig ebben a közegben mutatta be a GPT2-t, amely bármely témában képes volt cikket generálni, amely stílusát, felépítését tekintve meggyőzően hitelesnek tűnt, még akkor is, ha olyan eget verő baromságokat tartalmazott, mint például a tökéletes angolsággal beszélő unikornisok váratlan felfedezését az Andokban.
A GPT2-t a Redditen megosztott 8 millió weboldal segítségével tanították be, és mindegyik posztolt weboldal kapott egy „karma” pontszámot, amit aszerint osztottak ki, hogy legalább háromnál több felhasználó tartotta a megosztást értékesnek – vagy azért mert a cikket informatívnak találták, vagy mert csak simán szórakoztatónak vélték. A végső cikket aztán az algoritmus szavanként építette fel, és bár tehát nagyon meggyőzőnek tűnt, tele volt kitalált idézetekkel és hamis tényekkel. Persze nem volt hibátlan a szoftver, néha megismételt sorokat, máskor random és fura mód témát váltott, illetve különös problémája akadt a világ lemodellezésével, tehát például leírt olyasmit is, hogy a víz alatt tűz ütött ki. Viszont nagyon jól teljesített mind a popkulturális, mind pedig a politikát érintő témakörökben (ami annyiban nem meglepő, hogy a Redditen ezek voltak felülreprezentálva.)
Mindez azonban már elég lehet arra, hogy elkezdjék vele szórni az álhíreket, amelyek még ha nem is hihetőek a tömegek számára, arra alkalmasak, hogy eldugítsák a hírcsatornákat, hiteltelenítsék vagy csak eltüntessék a szem elől a hiteles hírforrásokat. Ugyanakkor a generált szöveg néha hátborzongatóan meggyőzőnek is tűnt: a Guardian például egy olyan generált hírt mutatott be, amit akár le is közölhetett volna a lap Brexit ügyben, pedig teljesen fals volt, de akadt benne több (hamis) idézet Jeremy Corbintól, és előkerült a témában akkor forró kérdésnek számító írországi határ ügye is.
Mivel pedig a GPT2 így nagyon könnyen a hírek ultra hatékony deepfake technológiájává válhatott volna, az OpenAI végül úgy döntött, hogy nem teszi ezt nyilvánosan elérhetővé.
Ez viszont nem jelenti azt, hogy a kutatások abba maradtak volna. Idővel elkészült az új változat, a GPT3, amit már sokkal több szöveggel tanítottak be, így az elődjénél is meggyőzőbbnek és természetesebbnek tűnt. Azonban ennek kapcsán is tapasztalható volt, hogy minél hosszabb szöveget kellett generálni, annál több lett a szemet szúró hiba. Jason Rohrer programozó azonban ezt a problémát frappánsan oldotta meg: hosszas szövegek helyett kifejezetten rövid textusok létrehozására használta fel az MI-t – így született meg a Project December, az 5 dollárért bárki számára elérhető chatbot. A Project December a GPT2 és a GPT3 technológiáira épül, és lényegében elég bejövő adat alapján képes bárki stílusában meggyőzően kommunikálni.
Magyarán a Project December nagyban hasonlít az elődeire, tehát kellő adat birtokában a tanuló szoftver az adott stílusban generál ezúttal rövidebb szövegeket. Akadnak azonban különbségek: a legfontosabb tehát, hogy a szoftvert ezúttal bárki betaníthatja, és megadhatja a felhasználandó szövegbázist. Ugyanakkor a chatbot jó papként szó szerint holtig tanul, mivel a kommunikációs fázisban is változtat az interakcióján aszerint, hogy milyen input érkezik a felhasználó felől. A bot válaszait a véletlenszerűség is alakítja így akadályozva meg, hogy hasonló vagy megegyező inputokra folyvást ugyanaz a válasz szülessen.
Sajnos azonban a pénz nagy úr, és Rohrer úgy próbál lefaragni a tárolási költségeken, hogy a bot csak bizonyos ideig elérhető, és ahogy a társalgás a vége felé közeledik, a bot szándékosan elkezd szétesni, a válaszai is egyre hibásabbak lesznek: végül a kommunikáció véget ér, a bot pedig „meghal”. Akadnak ezzel kapcsolatban is hátborzongató tapasztalatok, egy felhasználó például arról számolt be, hogy a chatbot könyörgött neki, hogy nem akar meghalni. Az 5 dollárunkért cserébe választhatunk előre elkészített botot, például Samanthát A nő (Her) című filmből. Természetesen a botunkat kellő adat birtokában valós személyről is formázhatjuk, sőt ehhez természetesen arra sincs szükség, hogy az illető még életben legyen.
A San Francisco Chronicle írt egy hosszabb cikket (a forrás linkek közt megtalálható az elérhetőség) egy Joshua Barbeau nevű férfiról, akinek 8 évvel korábban elhunyt a barátnője. Joshua a veszteség egyfajta zárását várta, így létrehozott egy chatbotot a lány közösségi médiás bejegyzései alapján, miközben olyan részletességgel írta le őt, ahogy csak tudta. Akit érdekel a teljes történet, és bírja az angol nyelvet, annak nagyon ajánlom az eredeti cikket, ami akár egy évtizede is simán elment volna egy romantikus, de nehéz gyásszal teli SF-sztorinak. A lényeg viszont annyi, hogy Joshua „kísértetiesen meggyőző” társalgásról számolt be (bár akadtak példák rá, hogy a bot olyasmit generált, amit a lány sosem mondott volna), és a bot végül segített neki abban, hogy a gyászt feldolgozza. Joshua a történetet megosztotta a Redditen is, és többen kifejezték azon szándékukat, hogy követnék a fiú példáját.
A sztori nagyban idézi az egyik Black Mirror epizódot, a Be Right Back-et, még ha ez utóbbiban az elhunyt komplexebb formában is „tért vissza”, nem csak simán chatbotként. Ugyanakkor a Project December ilyetén alkalmazása rámutat arra is, hogy a mesterséges intelligencia már ma is az emberi élet, a humán tapasztalat mennyi szintjén tudja magát képviseltetni.
Források: Guardian, IFLS_1, IFLS_2, Project December, SFChronicle
(Kép: Flickr/Sam DeLong)