Karen Hao újságíró, A MI Birodalma című, hamarosan megjelenő könyvéhez készített interjúiban úgy mutatja be Sutskevert, mint aki nemcsak mélyen hisz az AGI közelgő eljövetelében, hanem a legrosszabb forgatókönyvre is komolyan felkészült – számol be róla a Futurism. Egy 2023-as nyári megbeszélésen Sutskever állítólag megdöbbentette kollégáit, amikor apokaliptikus képet festett az AGI következményeiről.
„Mindenképpen építünk egy bunkert, mielőtt az AGI-t piacra dobjuk”
– jelentette ki határozottan. Amikor arra kérték, hogy magyarázza meg kijelentését, hozzátette:
„Természetesen nem kötelező bevonulni a bunkerbe.”
Bár a megjegyzés enyhén zavarba ejtő volt, több résztvevő is megerősítette, hogy valóban elhangzott. Lehet, hogy Sutskevert csak a Terminátor filmek traumatizálták, vagy bölcsen hisz a jobb félni, mint megijedni erejében, de az eset egy dologra élesen rávilágít: az OpenAI nem csak a levegőbe beszél. A vállalat vezetése komolyan hisz az általuk fejlesztett technológia átalakító – és esetleg veszélyes – erejében. Sutskever, aki korábban már utalt arra, hogy bizonyos MI-modellek „talán már kissé tudatosak” is lehetnek, úgy tűnt, szinte vallásos eseményként tekint az AGI megjelenésére.
„Van egy csoport – Ilja is közéjük tartozott –, akik úgy gondolják, hogy az AGI megalkotása egyfajta elragadtatással jár majd”
– nyilatkozta egy kutató Hao-nak.
2023 közepére Sutskever egyre kevésbé tudott azonosulni az OpenAI technológiai irányításának a vonalával, ami végül komoly belső konfliktushoz vezetett a cégnél. A kutató aggodalmai végül drámai lépéshez vezettek: több igazgatósági taggal együtt megpróbálta leváltani Sam Altman vezérigazgatót 2023 novemberében – ez az eset világszerte ismert. Az akció azonban gyorsan kudarcba fulladt, miután az OpenAI alkalmazottai egy emberként Altman mellé álltak. A növekvő nyomás hatására Sutskever végül visszakozott – amely lépés mintha a kár enyhítését célozta volna, de végül így is lemondásra kényszerült.
A sikertelen puccs – amelyet házon belül „A villanásnak” neveztek – fordulópontot jelentett az OpenAI történetében, és rávilágított a belső feszültségekre, valamint arra, milyen hatalmas tétekkel jár az AGI fejlesztése. Hogy valóban szükség lesz-e bunkerre, azt még nem tudni – de Sutskever számára a kockázatok elég valósnak tűntek ahhoz, hogy elkezdjen felkészülni a világvégére.
(Kép: Pixabay/mwewering)