Az IEEE (Institute of Electrical and Electronics Engineers) azok közé a szervezetek közé tartozik, amit viszonylag kevesen ismernek, legalábbis ahhoz képest, hogy hányan használják a termékeiket. Ők alkották meg ugyanis az IEEE 802.11-es szabványt, vagy hogy egyszerűbben fogalmazzunk: találták fel a wifit. A világszerte több mint 420 ezer tagot számláló szervezet tagjai most egy ennél is sokkal bonyolultabb feladaton dolgoznak, mégpedig az automatizált és intelligens rendszerek etikai alapelveinek szabványosításán, amelynek eredményeit a projekt vezetői a Budapesten rendezett Tudományos Világfórumon ismertették.
Ha erről már be is ugrott Isaac Asimov és a robotika három törvénye, az nem lenne meglepő, és a kettő között valóban egészen sok hasonlóságot találhatunk. Raja Chatila, a Sorbonne Egyetem professzora előadása alatt többször is hangsúlyozta, hogy
a technológia legfőbb feladata az emberi jólét biztosítása,
amihez a mesterséges intelligenciának három alapvető feltételt kell teljesítenie: a törvények tiszteletben tartása, az etikus magatartás és a robosztusság. Kis fantáziával ezeket nem is nehéz megfeleltetni a sci-fi író által megfogalmazott három alapelvnek.
1. A robotnak nem szabad kárt okoznia emberi lényben, vagy tétlenül tűrnie, hogy emberi lény bármilyen kárt szenvedjen.
2. A robot engedelmeskedni tartozik az emberi lények utasításainak, kivéve, ha ezek az utasítások az első törvény előírásaiba ütköznének.
3. A robot tartozik saját védelméről gondoskodni, amennyiben ez nem ütközik az első vagy második törvény bármelyikének előírásaiba.
Természetesen az IEEE munkatársai nem azon dolgoznak, hogy túlszárnyalják vagy megújítsák Asimov munkáit, az IEEE P7000 szabványsorozat esetében ennél jóval precízebben kidolgozott, kézzelfoghatóbb szabályozásról van szó, ami a hírforrások megbízhatóságától az adatbiztonsági kérdésekig számos, már ma is jelenlévő problémára kínál megoldást.
Az interneten jó ideje kering a kérdés, hogy ha az önvezető autó olyan helyzetbe kerül, hogy választania kell a gyalogos és a kocsiban ülők biztonsága között, hogyan döntsön a mesterséges intelligencia. Bár a kérdés kissé költői (tegye fel a kezét, aki beülne olyan autóba, amiről tudja, hogy adott esetben meg fogja ölni), azt azért világosan mutatja, hogy a technológiai fejlődés egyre több és egyre súlyosabb etikai kérdést vet fel. De nem is kell a robotautókig mennünk, elég a Facebookon kialakuló "társadalmi buborékra" vagy a Google kereső algoritmusának rendezési elvére gondolunk, hogy lássuk, az automatizált rendszereknek ugyanúgy szüksége van (vagy lenne) etikai tanúsítványokra, mint ahogy a pszichológusnak sem viccből lóg a falán a diploma.
Chatila szerint a technológia esetében a kulcsszó a megbízhatóság, és hogy ettől a mesterséges intelligencia esetében még mennyire távol járunk, azt egy gépi látáson alapuló képfelismerő programmal illusztrálta: a mesterséges intelligencia ugyan simán felismeri a robogót, de elég ha megfordítjuk a képet, és máris ejtőernyőként érzékeli azt. Az emberrel ellentétben ugyanis a gép nem érti, hogy mit lát.
Ennek a megbízhatóságnak az egyik alapfeltétele lenne az etikai standardok lefektetése, amit az IEEE az Ethics Certification Program for Autonomous and Intelligent Systems (ECPAIS, magyarul: etikai tanúsítvány program az önműködő és intelligens rendszerekhez) keretében igyekszik megvalósítani.
A program vezetője, Alireza Hessami elmondta, hogy olyan standardokon dolgoznak, amik mindenki számára irányadóak lesznek.
Ez persze nem egyszerű feladat: több ezer évnyi emberi történelem, különböző nézetek, vallások és kultúrák etikáját kell valahogy világosan, egy gép számára is következetes szabályokba sűríteniük. A cél, hogy az egyetemes emberi értékeket (szabadság, emberi jogok, emberi méltóság) ültessék át a technológia világába, a P7000 szabványsorozat pedig nem másról szól, mint hogy ne készüljenek olyan gépek és programok, amik ezeket az alapértékeket veszélybe sodorhatják.
A standardok kidolgozásán három, szakértőkből álló csoport dolgozott fél éven keresztül, és júliusra születtek meg az első eredmények, ami után elkezdődhettek az első időközi tesztek.
Ha az IEEE terve sikeres lesz, a másodikra már megkaptuk a választ, hiszen a Skynet nem igazán az emberiség jóléte érdekében tevékenykedett. Az első kérdésre pedig az IEEE-nek valószínűleg soha nem is kell válaszolnia, az ő feladatuk nem az, hogy konkrét helyzetekről döntsenek, hanem hogy biztosítsák a megfelelő kereteket. Chatila abban ugyanakkor biztos, hogy
mivel a gépet algoritmusok irányítják, a tetteiért mindig az emberek lesznek a felelősek.
Hogy kicsoda, azt persze általánosságban nem lehet megmondani, ahogy egy repülőgép-katasztrófánál sem lehet azt mondani, hogy mindig a gyártó, a pilóta, az időjárás vagy a műszaki személyzet a hibás.
Szerinte az igazi veszélyt az emberekre nézve nem az jelenti, hogy a robotok leigáznak bennünket, sokkal inkább az, hogy a robotokat rosszul használják. Ha ugyanis egy robot vagy program rosszul van megtervezve, vagy nem törődik a tettei mellékhatásaival, mert nem kapott elég egyértelmű instrukciókat, azzal valóban sok kárt okozhat: "Ha építek egy robotot és azt mondom neki, hogy építsd meg a legmagasabb házat a világon, akkor meg fogja építeni a legmagasabb házat a világon, akkor is, ha ehhez otthonokat kell lerombolni, mert egyszerűen nem érzékeli a határokat, amiket nem szabadna átlépnie. Tehát az, hogy hogyan építjük meg és hogyan programozzuk a gépeket, nagyon fontos szempont."
(Fotó: Getty)