A Rakétán az elmúlt héten kénytelenek voltunk többször beszámolni a szappanoperákat megszégyenítő eseménysorozatról, hiszen gyakorlatilag nem telt el úgy huszonnégy óra, hogy ugyanaz lett volna a szereplők helyzete, mint egy nappal korábban. Mint emlékezetes, magyar idő szerint péntek éjjel az OpenAI igazgatótanácsa bármiféle előzetes jelzés nélkül megvált a szervezet arcaként működő Sam Altmantól. A dolgozók egy szombati, majd vasárnapi határidőt szabtak az igazgatótanács tagjainak, hogy mondjanak le, és ültessék vissza a társalapítót a vezérigazgatói székbe. Ez nem történt meg, helyette egy kevésbé ismert ideiglenes vezetőt neveztek ki, miközben az OpenAI legfontosabb partnere és befektetője, a Microsoft bejelentette, hogy állást ajánlott Altmannek, és a vele szintén felmondott Greg Brockmannek. Ezzel együtt a dolgozók kilencvenöt százaléka jelezte, hogy a Microsofthoz távozik, ha az OpenAI nem veszi vissza Altmant. A cég végül szerdán bejelentette, hogy visszatér az egykori CEO, és az igazgatótanács összetétele is alaposan megváltozik.
Mindeközben folyamatosan zajlott a találgatás, hogy mi áll az események hátterében
Az igazgatótanács csak annyit nyilatkozott, hogy Altman "nem volt következetesen őszinte" a velük folytatott kommunikációjában, ami "akadályozta őket a feladataik gyakorlásában", de hogy ez pontosan mit jelent, nem részletezték. Felmerült, hogy az irányító testület úgy látta, hogy Altman túlságosan komolyan veszi a kereskedelmi területet a kutatóival szemben, ahogyan az is, hogy olyan szintlépés előtt vagy után áll a GPT program, amely veszélyes lehet. A Reuters csütörtöki írása utóbbit látszott alátámasztani: a magyar orgánumok által is idézett cikk szerint kutatók figyelmeztették az igazgatótanácsot egy "áttörésre", ami "veszélyeztetheti az emberiséget", és ez lett a kirúgás kiváltó oka.
A Q* nevű projekt ugyanis a kutatók állítása szerint eljutott oda, hogy általános iskolai matematika feladatokat oldjon meg. Ez elsőre nem tűnik hatalmas teljesítménynek, de az általános mesterséges intelligenciához (AGI) vezető úton fontos lépés, hogy a szoftver ne csak valószínűség-számítási alapokon írjon szövegeket vagy alkosson képeket, hanem, hogy megértsen és megoldjon problémákat. Állítólag ennek a veszélyeire figyelmeztették a meg nem nevezett kutatók az igazgatótanácsot, ám a cég a levél tényét is vitatja, ahogyan azt is, hogy Altman kirúgásának bármilyen köze lett volna kutatási előrelépésekhez, vagy egyéb, biztonsági kérdésekhez - számolt be a The Verge. Ezt az új ideiglenes vezérigazgató is aláhúzta még múlt héten, az egyik első, a témával kapcsolatos X-bejegyzésében, illetve az OpenAI operatív vezetője is hangsúlyozta akkor. Ezzel szemben Altman és Ilya Sutskever vezető kutató is utaltak arra az elmúlt hetekben, hogy egy szintlépésnek lehettek, lehetnek tanúi.
A kirúgás valódi okát tehát csak az igazgatótanács egykori, azóta sem nyilatkozó tagjai tudják, mi pedig csak bízhatunk abban, hogy valóban nem született meg egy, az emberiséget veszélyeztető technológia az OpenAI-nál.
(Fotó: Justin Sullivan/Getty Images)