A mesterséges intelligencia (AI) nem hogy már a spájzban van, de kényelembe helyezte magát a nappaliban. Azt még nem tudni ugyan, hogy hová vezet a most zajló “forradalom”, elérünk-e belátható időn belül az általános mesterséges intelligenciáig (AGI) – már csak azért sem, mert közben az emberi intelligencia és öntudat kapcsán is szaporodnak a kérdőjelek. Ugyanakkor a viharos fejlődés miatt kérdések vetülnek fel az AI és az emberi élet tágabb viszonyairól is, sőt az AI és a földönkívüli élet kapcsán is. Egy új elmélet ugyanis a mesterséges intelligenciával magyarázná a Fermi-paradoxont, egy korábbi, nagyobb elmélet, a Nagy Szűrő amolyan leágazásaként:
A Nagy Szűrő elméletet a paradoxonra Robin Hanson találta ki a kilencvenes években, és a nagy szűrőt a leginkább talán úgy érdemes megközelíteni, mint egy valószínűségi korlátot – vagyis egy vagy több rendkívül valószínűtlen lépést jelent azon evolúciós átmenet során, amely egy olyan, a földihez hasonló, intelligens civilizációhoz vezetne, amely érzékelhető lenne a jelenlegi megfigyelési technikáinkkal.
Közelítsük meg a dolgot úgy, mint próbák sorozatát – egy-egy fajnak bizonyos próbákat kell teljesíteni ahhoz, hogy intelligens, csillagközi civilizációvá váljék. Ezen próbák (legalább) egyike azonban közel lehetetlen, és szinte mindenki elbukik rajta, és ez az oka, hogy nem találkoztunk még ilyen civilizációval. Maga a próba szó azonban némileg félrevezető, hiszen tehát inkább valószínűségekről van szó, arról, hogy bizonyos esemény vagy események bekövetkeznek-e a saját természetes lefolyásuk szerint.
Hanson több ilyen kritikusan fontos lépést is feltételezett:
Az emberiség mostanra képes tehát elhagyni a bolygóját, és bár a csillagközi térbe eddig nem jutottunk el (pár kisebb szondát leszámítva, mint a Pioneer és a Voyager), a rádiótávcsöveink elég fejlettek, és egyre inkább kacsingatunk az idegen égitesteken történő, akkor tartósabb megtelepedés irányába.
A számunkra legérdekesebb kérdés pedig a fenti sorozat alapján, hogy a nagy szűrő, tehát a szinte lehetetlen próbatétel mögöttünk van, vagy még vár ránk valahol, akár a nem is olyan távoli jövőben.
Az Acta Astronauticában megjelent elgondolkodtató tanulmányában Michael Garrett, a Manchesteri Egyetem munkatársa azt vizsgálja, hogy a mesterséges intelligencia gyors előrehaladása a mesterséges szuperintelligencia (ASI) felé szolgálhat-e e a fentebb tárgyalt nagy szűrőként. A mesterséges intelligencia ellenőrizetlen fejlődése – állítja Garrett – jelentős fenyegetést jelenthet a fejlett civilizációkra nézve, ami megmagyarázhatja a kozmoszban uralkodó csendet.
A feltételezések szerint azok a civilizációk, amelyek elérik az ASI határát anélkül, hogy elérnék a többbolygós státuszt, kritikus szűk keresztmetszettel szembesülhetnek: az élettartamuk kevesebb mint 200 évre korlátozódhat. Ez a forgatókönyv így pedig a földönkívüli intelligencia (ETI) kimutatható jeleinek hiányát okozhatja.
Az ASI-val kapcsolatos aggályok nem újak, többek közt már Stephen Hawking is hangoztatta azon félelmét, hogy a mesterséges intelligencia idővel felülmúlja az emberi intelligenciát, és önállóan fejlődhet, ami egzisztenciális kockázatokat jelent az emberiség számára. Egy ilyen forgatókönyvben az ASI az emberi etikával vagy érdekekkel nem összeegyeztethető módon cselekedhet.
A világ jelenleg azonban jelenleg sincs felkészülve a mesterséges intelligencia gyors evolúciójára, holott a kérdés most égetőbb, mint Hawking életében volt. Elképzelhető emellett az is, hogy ez a probléma más intelligens fajok körében is előfordult.
Garrett felvetése így lényegében arra jut, hogy az emberiség túlélése attól függhet, hogy képesek vagyunk-e több bolygót felölelő fajjá válni az ASI kifejlesztése előtt. Ha ugyanis több bolygón is elterjedünk, úgy az emberiség redundancia és változatos túlélési stratégiák révén növelheti ellenálló képességét a mesterséges intelligencia okozta katasztrófákkal szemben. Egy ilyen megközelítés egyedülálló lehetőségeket kínálna a fejlett mesterséges intelligencia tanulmányozására és korlátozására elszigetelt környezetben, potenciálisan elkerülve a bolygóméretű katasztrófát.
A mesterséges intelligencia gyors fejlődése és az űrkutatási technológia lassabb fejlődése közötti különbség azonban kritikusnak tűnik jelenleg. Míg a mesterséges intelligencia fejlesztése exponenciális ütemben halad, és csak a számítási korlátok korlátozzák, az űrutazás jelentős fizikai és logisztikai akadályokkal néz szembe. Ez az egyensúlytalanság rávilágít arra, hogy összehangolt erőfeszítésekre van szükség a mesterséges intelligencia fejlesztése mellett az űrkutatás előmozdítása érdekében.
Magyarán Garrett szerint a nagy kérdés egy olyan versenyfutás, amit eddig talán csak kevesen (vagy senki sem) nyert meg, ami az űrkutatás fejlődése, és végső soron több bolygó kolonizálása, valamint az ASI kifejlesztése között zajlik. Ez pedig lehet az a bizonyos nagy szűrő, mert ahogy saját példákon láthatjuk, elképzelhető, hogy az ASI-hoz vezető út gyorsabb és akadálymentesebb, mint a több bolygón történő letelepedéshez vezető.
(A cikkhez a képet a DALL-E generálta)