A tudósok szerint az a fő probléma, hogy egy ilyen algoritmus nem tartható féken olyan technológia nélkül, ami sokkal fejlettebb annál, mint amit ma képesek vagyunk megépíteni.
A csapat elsősorban a visszafogottság kérdésére összpontosított. Ha egy mindenható algoritmus valahogy arra a következtetésre jutna, hogy ártania kell az embereknek, vagy Terminator stílusban teljesen ki kell irtania az emberiséget, vajon hogyan akadályozhatnánk meg abban, hogy cselekedjen?
A Max Planck tudósainak javaslatában egyfajta „elszigetelő algoritmusra” lenne szükségünk, ami képes szimulálni a veszélyes algoritmus viselkedését, és megakadályozni, hogy az bármi károsat tegyen - de mivel ennek az algoritmusnak legalább olyan erősnek kellene lennie (ha nem erősebbnek), mint a bevadult MI-nek, a tudósok lehetetlennek nyilvánították a probléma megoldását a kialakuló paradoxon miatt. (Ha ugyanolyan erős lenne az elszigetelő algoritmus, vagy erősebb, vajon miért ne akarna az is azonnal kiirtani minket, ha már a bevadult MI erre a következtetésre jutott?)
Ez persze mind csak elmélet. Az emberiség fenyegetéséhez elég fejlett MI valószínűleg még a messzi jövő zenéje, bár komolya tudósok nagy erőkkel dolgoznak a létrehozásán. És éppen emiatt kell erről már ma vitázni és elmélkedni, hogy megelőzhessük a veszélyt, még mielőtt bekövetkezne.
"A világot irányító szuperintelligens számítógép tudományos-fantasztikus fantáziának hangzik. De már vannak olyan gépek, amelyek bizonyos fontos feladatokat önállóan hajtanak végre anélkül, hogy a programozók teljesen megértenék, hogyan tanulták meg őket. Felmerül tehát a kérdés, hogy ez valamikor ellenőrizhetetlenné és veszélyesé válhat-e az emberiség számára” - mondta el sajtótájékoztatóján Manuel Cebrian, a Max Planck Humán Fejlesztési Intézet Emberek és Gépek Központja Digitális Mobilizációs csoportjának vezetője. A kutatók a Journal of Artificial Intelligence Research folyóiratban tették közzé tanulmányukat.
(Forrás: MPG Kép: Unsplash)