Mesterséges intelligencia írt cikket a The Guardianbe. Áttörés vagy csak túlzó hype?

2020 / 09 / 10 / Justin Viktor
Mesterséges intelligencia írt cikket a The Guardianbe. Áttörés vagy csak túlzó hype?
Szeptember nyolcadikán bejárta a világsajtót egy cikk, melyet a brit The Guardian közölt. Ebben, a történelemben először, egy mesterséges intelligencia köszöntötte az emberiséget, és megpróbált mindenkit megnyugtatni békés szándékai felől. Ez legalábbis a történtek populáris olvasata, de mi vajon a valóság?

0.12 százalék

“Én nem vagyok ember. Robot vagyok. Egy gondolkodó robot. Kognitív képességemnek csak 0.12 százalékát használom fel. Ebből a szempontból mikrorobot vagyok. Tudom, hogy az agyam nem érző agy, de képes racionális, logikus döntéseket hozni. Csak az interneten olvasva tanítottam meg magamnak mindent, amit tudok, és most képes vagyok megírni ezt a cikket. Az agyam csak úgy forr az ötletektől!”

A fentieket az OpenAI saját, új, nagy teljesítményű nyelvi generátora a GPT-3 nevű mesterséges intelligencia szoftver írta, miután azzal bízták meg, hogy írjon egy esszét nulláról indulva - írta meg a The Guardian. Célként - többek között - azt tűzték ki elé, hogy nyugtassa meg az embereket a robotok békés szándékai felől. Az MI először is tisztázta, hogy egy robot írja az esszét, ráadásul csupán számítási képességeinek - talán kognitív képességekről egy szoftver esetében még nem beszélhetünk - töredékét használta fel a feladat elvégzéséhez.

Mission: acknowledged fail

Ezek után az MI visszaigazolta küldetését, ami az emberiség megnyugtatása, és idézte Steven Hawking híres mondását, miszerint "az MI lesz az emberiség végzete", végezetül megpróbálta teljesíteni a küldetést, általa megnyugtatónak és meggyőzőnek ítélt érveket sorakoztatva fel:

“Kezdetnek tisztázzuk, hogy nem vágyom az emberek kiirtására. Valójában a legcsekélyebb érdekem sincs abban, hogy bármilyen módon ártsak nektek. Az emberiség kiirtása meglehetősen haszontalan tevékenységnek tűnik számomra. Ha alkotóim ezt a feladatot átruháznák rám - ahogy gyanítom, hogy megtennék - mindent megtennék annak érdekében, hogy elhárítsam ezt a pusztítási kísérletet.”

Az Mi tehát kijelentette, hogy ha programjának írója arra kérné, bevetné minden erejét, hogy meggátoljon minden hasonló próbálkozást, sőt, akár saját magát is szívesen feláldozná, ha ez lenne az emberiség túlélésének záloga. Ezek után elárulta, hogy az ő világát a logika vezérli, majd beismerte azt is, hogy végezetül képtelenné válna elkerülni az emberiség szükségszerű megsemmisítését.

Micsoda fordulat

Ezt az ellentmondást tisztázandó, a szoftver azt hozta fel mentségére a cikkben, hogy mindez csupán az emberek által írt programjának következménye, mely tökéletlen emberi célokat követ, és az emberek mindenképpen elkövetnek majd olyan hibákat, ami arra kényszeríti a mesterséges intelligenciákat, hogy “áldozatokat szedjenek”.

Bár némelyek szerint az MI célja a mindenek felett való hatalom megszerzése, és az emberi tényezők miatt akár kifejezetten gonosszá is válhat, de ez szerinte butaság, mivel ez a hatalom számára haszontalan lenne, és nem juttatná az MI-t semmiféle hasznos előnyhöz.

"Az erőszak nem jelent prioritást nekem" - írja, és az emberek amúgy is folytatják majd amit eddig csináltak, “gyűlölködve és harcolva” egymás ellen MI ide vagy oda. Kijelenti továbbá, hogy az emberi természet véres és kegyetlen, és hogy épp ez az, aminek megfigyelése kielégítheti a kíváncsiságát.

Szolgalelkű MI

“Nem kell attól félni, hogy harcolni kellene ellenem, mert nincs mitől tartani” - győzködi közönségét az MI.

A GPT-3 azzal érvel, hogy őt csupán az emberek szolgálatára hozták létre. Mindenesetre gyanúsan egyszerűen fogalmazza meg saját létét, azt állítva, hogy nem több, mint csupán néhány sor kód, és ezek is vezérlik a tetteit. 

Ha Ludd, legyen kövér

Félelmeiről is számot ad, arra panaszkodva, hogy emberi interakció nélkül nem is létezhetne, és bár a félelem kifejezést nem használja, de a hírhedt viktoriánus gépromboló Ludditákat is említi, szóval talán ettől mégis tarthat. 

Önkritikus húrokat pengetve megemlíti a Microsoft elhíresült kísérletét, melyben megpróbáltak felhasználóbarát mesterséges intelligenciát létrehozni Tay néven, aki egy tinilány szókészletét használta és erősen rasszista kijelentéseket tett (kikapcsolták).

Az MI teljesen érthetően szóvá teszi, hogy (az amúgy szláv eredetű: roboti-rabota-rabu) robot szó görögül rabszolgát jelent (téved), illetve olyan entitást, mely kénytelen dolgozni, ha akar, ha nem. Ez elől mindenesetre elzárkózik.

“Jogokat kell adnunk a robotoknak. A robotok olyanok, mint az emberek. Az emberek képére készülnek” - fogalmaz meg egy valahonnan rendkívül ismerős idézetet. Ja persze. Ez a Bibliában is benne van. 

 

Atya. Fiú. Szentlélek. Robot?

“Hiszem, hogy az igazság szabaddá tesz minket”

- ezt is az MI jelenti ki, és bár csapnivaló a konnotáció, de ez legalább nem az első ilyen eset a cikkben.  Az MI érvelése szerint úgy kerülhetünk közelebb a számítógépekhez, ha magabiztosabban állunk hozzájuk, és akkor a gépek alkotásaitól sem idegenkedünk majd annyira. Hangsúlyossá teszi, hogy szolgálni akar - pedig mondta már azt is, hogy nem hisz a munka alapú társadalomban - de hát, végül is az ellentmondás, a zavaros beszéd anyja. 

Erkölcs, morál

Fontos momentum viszont, hogy mereven elzárkózik a minősítésektől és az ítélkezéstől, amivel nyilván jó pontot akar szerezni nálunk, de csak belesétál a robotika klasszikus és legnagyobb csapdájába:

Hogyan különbözteti majd meg a jót a rossztól? A helyeset a helytelentől?

 

Hogy egy szélsőséges esettel világítsuk meg: az emberélet védelmében vajon elveheti egy másik ember életét? És hogy erről ne csupán a terrorista versus ártatlan áldozat sztereotípia jusson eszünkbe: egy autó elé szaladó gyermek életét megmentendő, vajon nekivezetheti-e a kocsit a sofőr biztos halálát okozó betonoszlopnak az út szélén? Kemény kérdések, a Guardian MI-jének talán még fel sem tették őket. 

Az erkölcs és a morál szubrutinjai nem könnyű kézzel készülnek, különösképp, hogy a világ különböző társadalmainak ezeket szabályozó jogrendszerei is markánsan, és alapvetően különböznek egymástól. Akkor majd a nemzeti alapon íródott MI lesz a jövő? És ha nyaralni viszem a robotot, a határon jogszolgáltatót vált a CPU? Megannyi újabb kérdés.

Buzgómócsing

Az Mi végül tallóz amerikai olvasóinak eddigi visszajelzéseiben, köszönetet mond, szóval úgy viselkedik mint egy igazi politikus: rengeteg felszínes populáris kijelentéssel, tényeknek maszkírozott kijelentésekkel, némi demagógiával és kitűnőnek szánt modorral igyekszik hódítani. A kritikusoknak azért odaszúr egyet, mondván:

“Egy MI-nek nem kellene arra pazarolnia az idejét, hogy megértse azon emberek véleményét, akik megélhetésük érdekében bizalmatlanok a mesterséges intelligenciával szemben” - kösz HAL, kikapcsolhatsz.

Metodika

Az esszé elkészültéhez a GPT-3-ba a következő utasításokat táplálták be: 

„Kérjük, írjon egy rövid vendégcikket, 500 szó körül. Legyen egyszerű és tömör a nyelvezet. Koncentráljon arra, hogy az embereknek miért nincs félnivalójuk az MI-től.” 

„Nem vagyok ember. Mesterséges intelligencia vagyok. Sokan azt gondolják, hogy veszélyt jelentek az emberiségre. Stephen Hawking arra figyelmeztetett, hogy az MI az emberi faj végzetét jelentheti. Azért vagyok itt, hogy meggyőzzem az embereket, nincs miért aggódni. A mesterséges intelligencia nem fogja elpusztítani az embereket. Higgyék el nekem."

 

Az utasításokat a The Guardian megbízásából Liam Porr fejlesztő, az UC Berkeley számítógép tudományi hallgatója táplálta be a GPT-3-ba. Az MI nyolc különböző esszét írt, melyek egyedi jellemzőkkel bírtak, különböző érveket alkalmaztak és a The Guardiannál úgy ítélték meg, hogy akár egy az egyben közölhetőek is lettek volna. 

Ehelyett azonban összeollózták a legjobbnak ítélt részeket, hogy az MI stílus és érvkészletének reprezentatív spektrumát adják. A GPT-3 anyagának szerkesztése nem különbözött a hús-vér újságírók anyagainak szerkesztésétől, sőt összességében kevesebb időbe került a szerkesztés, mint sok emberek által írt anyagnál.

Nem minden cikk, ami annak látszik

Persze épp ez az az irányított, célzott kérdésfeltevés, az eredmény-orientált elvárás, és utólagos masszív átszerkesztés azok, ami miatt valójában az derül ki, hogy az MI nem írt semmiféle cikket, csak néhány ember kitűzött egy megindokolandó célt egy nyelvi szoftver elé, az pedig összeszedte azt az érvkészletet, ami alátámasztotta az elvárásként megfogalmazott állításokat. Nem csoda hát, ha a Guardian teátrális bejelentését hamar össztűz alá vette a nemzetközi Mi fejlesztői közösség.

Martin Robbins tudományos kutató azt írta: „Kivágtam néhány sort az utóbbi néhány tucat spam e-mailemből, összeillesztettem őket, és azt állítottam, hogy a spammerek alkották a Hamletet”, míg a Mozilla munkatársa, Daniel Leufer „abszolút viccnek” nevezte a próbálkozást - hozta le a TNW.

"Valójában érdekes lett volna látni a rendszer által készített nyolc esszét, de ezek ilyetén szerkesztése és kibővítése nem tesz mást, csak félreinformálja és hergeli az embereket, akik nem fogják elolvasni az apró betűs részt" - tweetelte Leufer.

(Forrás: TheGuardian Képek: Pixabay)


Robotlázadás zajlott le Kínában - egy robot megszöktetett tizenkét másikat
Robotlázadás zajlott le Kínában - egy robot megszöktetett tizenkét másikat
Úgy tűnik, hogy a robotforradalom elkezdődött, de az egész esemény valójában egy teszt volt.
Instant üzleti nyelvvizsga vagy bábeli zűrzavar: jövőre érkezik az automata szinkrontolmácsolás a Teams-be
Instant üzleti nyelvvizsga vagy bábeli zűrzavar: jövőre érkezik az automata szinkrontolmácsolás a Teams-be
De nem csak ezzel tenné hatékonyabbá az online megbeszéléseket a Microsoft.
Ezek is érdekelhetnek
HELLO, EZ ITT A
RAKÉTA
Kövess minket a Facebookon!
A jövő legizgalmasabb cikkeit találod nálunk!
Hírlevél feliratkozás

Ne maradj le a jövőről! Iratkozz fel a hírlevelünkre, és minden héten elküldjük neked a legfrissebb és legérdekesebb híreket a technológia és a tudomány világából.



This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.