Az OpenAI-nál bunkert akartak építeni, mielőtt aktiválják az AGI-t

2025 / 05 / 23 / Felkai Ádám
Az OpenAI-nál bunkert akartak építeni, mielőtt aktiválják az AGI-t
Ilya Sutskever, az OpenAI egykori vezető tudósa és társalapítója régóta a mesterséges általános intelligencia (AGI) megjelenésére összpontosít – arra a spekulatív pontra, amikor a gépi intelligencia túlszárnyalja az emberi kognitív képességeket.

Karen Hao újságíró, A MI Birodalma című, hamarosan megjelenő könyvéhez készített interjúiban úgy mutatja be Sutskevert, mint aki nemcsak mélyen hisz az AGI közelgő eljövetelében, hanem a legrosszabb forgatókönyvre is komolyan felkészült – számol be róla a Futurism. Egy 2023-as nyári megbeszélésen Sutskever állítólag megdöbbentette kollégáit, amikor apokaliptikus képet festett az AGI következményeiről.

„Mindenképpen építünk egy bunkert, mielőtt az AGI-t piacra dobjuk”

– jelentette ki határozottan. Amikor arra kérték, hogy magyarázza meg kijelentését, hozzátette:

„Természetesen nem kötelező bevonulni a bunkerbe.”

Bár a megjegyzés enyhén zavarba ejtő volt, több résztvevő is megerősítette, hogy valóban elhangzott. Lehet, hogy Sutskevert csak a Terminátor filmek traumatizálták, vagy bölcsen hisz a jobb félni, mint megijedni erejében, de az eset egy dologra élesen rávilágít: az OpenAI nem csak a levegőbe beszél. A vállalat vezetése komolyan hisz az általuk fejlesztett technológia átalakító – és esetleg veszélyes – erejében. Sutskever, aki korábban már utalt arra, hogy bizonyos MI-modellek „talán már kissé tudatosak” is lehetnek, úgy tűnt, szinte vallásos eseményként tekint az AGI megjelenésére.

„Van egy csoport – Ilja is közéjük tartozott –, akik úgy gondolják, hogy az AGI megalkotása egyfajta elragadtatással jár majd”

– nyilatkozta egy kutató Hao-nak.

2023 közepére Sutskever egyre kevésbé tudott azonosulni az OpenAI technológiai irányításának a vonalával, ami végül komoly belső konfliktushoz vezetett a cégnél. A kutató aggodalmai végül drámai lépéshez vezettek: több igazgatósági taggal együtt megpróbálta leváltani Sam Altman vezérigazgatót 2023 novemberében – ez az eset világszerte ismert. Az akció azonban gyorsan kudarcba fulladt, miután az OpenAI alkalmazottai egy emberként Altman mellé álltak. A növekvő nyomás hatására Sutskever végül visszakozott – amely lépés mintha a kár enyhítését célozta volna, de végül így is lemondásra kényszerült.

A sikertelen puccs – amelyet házon belül „A villanásnak” neveztek – fordulópontot jelentett az OpenAI történetében, és rávilágított a belső feszültségekre, valamint arra, milyen hatalmas tétekkel jár az AGI fejlesztése. Hogy valóban szükség lesz-e bunkerre, azt még nem tudni – de Sutskever számára a kockázatok elég valósnak tűntek ahhoz, hogy elkezdjen felkészülni a világvégére.

(Kép: Pixabay/mwewering)


Amikor egy virtuális sárkány segít a gyógyulásban – Te is részese lehetsz!
Amikor egy virtuális sárkány segít a gyógyulásban – Te is részese lehetsz!
Egyetlen százalék is elég lehet ahhoz, hogy egy beteg kisgyerek újra mosolyogjon – tedd meg Te is a Tőled telhetőt!
Magyarul viccelődik velünk a TP-Link robotporszívója
Magyarul viccelődik velünk a TP-Link robotporszívója
Jobb lesz-e a takarítás attól, ha a porszívónk a dolga végeztével kurjongatva közli velünk, hogy ő most elindul haza, majd a dokkoló felé tartva rá is gyújt egy vidám nótára? Ha jobb nem is, de mindenképpen szórakoztatóbb.
Ezek is érdekelhetnek
HELLO, EZ ITT A
RAKÉTA
Kövess minket a Facebookon!
A jövő legizgalmasabb cikkeit találod nálunk!
Hírlevél feliratkozás

Ne maradj le a jövőről! Iratkozz fel a hírlevelünkre, és minden héten elküldjük neked a legfrissebb és legérdekesebb híreket a technológia és a tudomány világából.



This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.