Project December: a veszélyes mesterséges intelligencia, amellyel lehet „kommunikálni” a holtakkal is

2021 / 09 / 12 / Felkai Ádám
Project December: a veszélyes mesterséges intelligencia, amellyel lehet „kommunikálni” a holtakkal is
A Project December Elon Musk és Sam Altman cégének, az OpenAI által fejlesztett szoftvernek egy továbbfejlesztett változata, amit korábban maga a vállalat tartott túl veszélyesnek ahhoz, hogy megjelentesse.

Azt már megszokhattuk, hogy kellő adat birtokában egy jól megírt szoftver szinte bármit képes létrehozni, leutánozni. Tavalyi összeállításunkban a kedves olvasók kaptak egy csokorra valót sosem létezett emberekből, városokból, autókból és – ami a legfontosabb – cicákból. De az MI ma már verset ír, zenét szerez ráadásul teszi ezt a kiválasztott személy stílusában.

Nézegessünk városokat, embereket és autókat, melyek nem léteznek, csak az MI hozta őket létre! Sosem létezett autók, emberek, akik meg sem születtek, véletlenszerűen generált bogarak. A mesterséges intelligencia összerak bármit: a cikkben közölt linkeken bepillanthatunk egy univerzumba, amely csak digitálisan létezik.

Mint látható tehát, az MI akár komplexebb szövegalkotásra is képes, sőt ezen a területen olyan hatékonynak bizonyult már 2019-ben is, hogy egy ilyen céllal létrehozott szoftvert a fejlesztő OpenAI inkább nem is tett nyilvánossá, mert túl veszélyesnek találta azt. Az OpenAI mögött olyan emberek állnak, mint Elon Musk és Sam Altman, és az általuk kifejlesztett szöveggeneráló algoritmus (GPT2) túlságosan is jól működött – ezért is találták veszélyesnek. 2019. még nem volt annyira messze, mégsem árt megemlíteni az akkori kontextust, melyben az álhírek rendre előkerültek, mint olyan eszközök, amik alkalmasak lehetnek egy demokratikus társadalom destabilizálására. A San Francisco-i vállalat pedig ebben a közegben mutatta be a GPT2-t, amely bármely témában képes volt cikket generálni, amely stílusát, felépítését tekintve meggyőzően hitelesnek tűnt, még akkor is, ha olyan eget verő baromságokat tartalmazott, mint például a tökéletes angolsággal beszélő unikornisok váratlan felfedezését az Andokban.

A GPT2-t a Redditen megosztott 8 millió weboldal segítségével tanították be, és mindegyik posztolt weboldal kapott egy „karma” pontszámot, amit aszerint osztottak ki, hogy legalább háromnál több felhasználó tartotta a megosztást értékesnek – vagy azért mert a cikket informatívnak találták, vagy mert csak simán szórakoztatónak vélték. A végső cikket aztán az algoritmus szavanként építette fel, és bár tehát nagyon meggyőzőnek tűnt, tele volt kitalált idézetekkel és hamis tényekkel. Persze nem volt hibátlan a szoftver, néha megismételt sorokat, máskor random és fura mód témát váltott, illetve különös problémája akadt a világ lemodellezésével, tehát például leírt olyasmit is, hogy a víz alatt tűz ütött ki. Viszont nagyon jól teljesített mind a popkulturális, mind pedig a politikát érintő témakörökben (ami annyiban nem meglepő, hogy a Redditen ezek voltak felülreprezentálva.)

Mindez azonban már elég lehet arra, hogy elkezdjék vele szórni az álhíreket, amelyek még ha nem is hihetőek a tömegek számára, arra alkalmasak, hogy eldugítsák a hírcsatornákat, hiteltelenítsék vagy csak eltüntessék a szem elől a hiteles hírforrásokat. Ugyanakkor a generált szöveg néha hátborzongatóan meggyőzőnek is tűnt: a Guardian például egy olyan generált hírt mutatott be, amit akár le is közölhetett volna a lap Brexit ügyben, pedig teljesen fals volt, de akadt benne több (hamis) idézet Jeremy Corbintól, és előkerült a témában akkor forró kérdésnek számító írországi határ ügye is.

Mivel pedig a GPT2 így nagyon könnyen a hírek ultra hatékony deepfake technológiájává válhatott volna, az OpenAI végül úgy döntött, hogy nem teszi ezt nyilvánosan elérhetővé.

Ez viszont nem jelenti azt, hogy a kutatások abba maradtak volna. Idővel elkészült az új változat, a GPT3, amit már sokkal több szöveggel tanítottak be, így az elődjénél is meggyőzőbbnek és természetesebbnek tűnt. Azonban ennek kapcsán is tapasztalható volt, hogy minél hosszabb szöveget kellett generálni, annál több lett a szemet szúró hiba. Jason Rohrer programozó azonban ezt a problémát frappánsan oldotta meg: hosszas szövegek helyett kifejezetten rövid textusok létrehozására használta fel az MI-t – így született meg a Project December, az 5 dollárért bárki számára elérhető chatbot. A Project December a GPT2 és a GPT3 technológiáira épül, és lényegében elég bejövő adat alapján képes bárki stílusában meggyőzően kommunikálni.

Magyarán a Project December nagyban hasonlít az elődeire, tehát kellő adat birtokában a tanuló szoftver az adott stílusban generál ezúttal rövidebb szövegeket. Akadnak azonban különbségek: a legfontosabb tehát, hogy a szoftvert ezúttal bárki betaníthatja, és megadhatja a felhasználandó szövegbázist. Ugyanakkor a chatbot jó papként szó szerint holtig tanul, mivel a kommunikációs fázisban is változtat az interakcióján aszerint, hogy milyen input érkezik a felhasználó felől. A bot válaszait a véletlenszerűség is alakítja így akadályozva meg, hogy hasonló vagy megegyező inputokra folyvást ugyanaz a válasz szülessen.

Sajnos azonban a pénz nagy úr, és Rohrer úgy próbál lefaragni a tárolási költségeken, hogy a bot csak bizonyos ideig elérhető, és ahogy a társalgás a vége felé közeledik, a bot szándékosan elkezd szétesni, a válaszai is egyre hibásabbak lesznek: végül a kommunikáció véget ér, a bot pedig „meghal”. Akadnak ezzel kapcsolatban is hátborzongató tapasztalatok, egy felhasználó például arról számolt be, hogy a chatbot könyörgött neki, hogy nem akar meghalni. Az 5 dollárunkért cserébe választhatunk előre elkészített botot, például Samanthát A nő (Her) című filmből. Természetesen a botunkat kellő adat birtokában valós személyről is formázhatjuk, sőt ehhez természetesen arra sincs szükség, hogy az illető még életben legyen.

A San Francisco Chronicle írt egy hosszabb cikket (a forrás linkek közt megtalálható az elérhetőség) egy Joshua Barbeau nevű férfiról, akinek 8 évvel korábban elhunyt a barátnője. Joshua a veszteség egyfajta zárását várta, így létrehozott egy chatbotot a lány közösségi médiás bejegyzései alapján, miközben olyan részletességgel írta le őt, ahogy csak tudta. Akit érdekel a teljes történet, és bírja az angol nyelvet, annak nagyon ajánlom az eredeti cikket, ami akár egy évtizede is simán elment volna egy romantikus, de nehéz gyásszal teli SF-sztorinak. A lényeg viszont annyi, hogy Joshua „kísértetiesen meggyőző” társalgásról számolt be (bár akadtak példák rá, hogy a bot olyasmit generált, amit a lány sosem mondott volna), és a bot végül segített neki abban, hogy a gyászt feldolgozza. Joshua a történetet megosztotta a Redditen is, és többen kifejezték azon szándékukat, hogy követnék a fiú példáját.

A sztori nagyban idézi az egyik Black Mirror epizódot, a Be Right Back-et, még ha ez utóbbiban az elhunyt komplexebb formában is „tért vissza”, nem csak simán chatbotként. Ugyanakkor a Project December ilyetén alkalmazása rámutat arra is, hogy a mesterséges intelligencia már ma is az emberi élet, a humán tapasztalat mennyi szintjén tudja magát képviseltetni.

Források: Guardian, IFLS_1, IFLS_2, Project December, SFChronicle

(Kép: Flickr/Sam DeLong)

További cikkek a témában:

Közel emberi kommunikációra képes a Google chatbotja A különböző virtuális asszisztensek hosszú évek óta körülvesznek bennünket, beszélgetni mindazonáltal nem nagyon lehet velük. A helyzet szerencsére változóban van.

Rém egyszerű applikációnak tűnik, de valójában memóriagéppé változtatja az agyat A MemoryOS nevű startup szerint ideje lecserélni az okostelefonok emlékeztetőit, és helyette a memóriafejlesztésre koncentrálni. Ehhez készítettek egy alkalmazást, amelyben szó szerint játszva javíthatunk emlékezőképességünkön.

Egy új szoftver úgy ír cikket, verset, bármit, hogy nem jössz rá, hogy csak egy gép írta A természetes nyelvi feldolgozási modell (NLP) felhasználható hangulatelemzéshez, nyelvfelismeréshez, és most már cikket vagy verseket is úgy ír, hogy nem lehet megkülönböztetni az embertől. Átverte egy komplett fórum teljes közönségét.


Tényleg rémes hatása van az azték halálsípnak az emberi agyra
Tényleg rémes hatása van az azték halálsípnak az emberi agyra
Az agyi szkennelés szerint kifejezetten kísérteties hatással van a síp az emberi agyra, ami a leginkább az uncanny valley jelenségre hasonlít.
A súlyos covid-fertőzés hatására elkezdtek visszahúzódni a rákos daganatok
A súlyos covid-fertőzés hatására elkezdtek visszahúzódni a rákos daganatok
Meglepő, de a covid-fertőzés során kialakult immunválasz igen ígéretes lehet a rákkutatásban: a súlyos fertőzés hatására ugyanis elkezdtek visszahúzódni a legmakacsabb daganatok is.
Ezek is érdekelhetnek
HELLO, EZ ITT A
RAKÉTA
Kövess minket a Facebookon!
A jövő legizgalmasabb cikkeit találod nálunk!
Hírlevél feliratkozás

Ne maradj le a jövőről! Iratkozz fel a hírlevelünkre, és minden héten elküldjük neked a legfrissebb és legérdekesebb híreket a technológia és a tudomány világából.



This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.