A Google "öntudatra ébredt" mesterséges intelligenciáját már a felhasználók tesztelik

2022 / 10 / 23 / Bobák Zsófia
A Google
A LaMDA valóban annyival többet tud a többi programnál, hogy már-már öntudatos viselkedést lehet neki tulajdonítani? A nyilvános tesztek megkezdődtek.

"Míg a beszélgetések általában meghatározott témákat járnak körbe, nyitott természetük miatt teljesen más helyen végződhetnek, mint ahol elkezdődtek [...] Ez az elkalandozó kvalitás gyorsan zavarba hozhatja a modern társalgási ügynököket (közismertebb nevükön chatbotokat), amelyek általában szűk, előre meghatározott utat követnek. De LaMDA (ami a Nyelvi Modell Párbeszédes Alkalmazásokhoz rövidítése) látszólag végtelen számú témába tud bekapcsolódni szabadon folyó módon,

ez a képessége, véleményünk szerint, a technológiával való interakció természetesebb módjait és a segítő jellegű alkalmazások egészen új kategóriáját tudja létrehozni."

- írta a Google az új mesterséges intelligencia programjának bemutatójában 2021 májusában, mikor megjelentették a LaMDA (Language Model for Dialogue Applications) rendszert.

A cég hangsúlyozottan a gépekkel való beszélgetések emberibb formájának kialakítása céljából hozta létre a programot, hogy azok a kommunikációs helyzetek, amelyekben elkerülhetetlenül egy chatbottal kell, hogy megbeszélje a felhasználó a dolgokat, kevésbé tűnjenek erőltettnek, természetellenesnek, vagyis mesterségesnek, arra azonban nagy figyelmet fordítottak, hogy a beszélgetésekbe ne kerülhessenek káros sztereotípiák és előítéletek. Ennek érdekében a chatbotot, noha rendkívül nagy méretű, társalgásokat tartalmazó adatbázissal tanították be, de később szigorú ellenőrzés alá vetették, hogy még időben kiderüljön, nem sajátított-e el olyan hozzáállást, ami később sértőnek bizonyulhat a vele kapcsolatba lépő emberek számára.

Emellett a Google azt a jellemzőt is kiiktatta a programból, ami számos más chatprogram részét alkotja, vagyis nem engedte, hogy a bot tanuljon a felhasználókkal folytatott beszélgetésekből. Korábban volt már rá példa, hogy ez a fajta fejlődési lehetőség visszaütött és a program egy kicsit túl emberivé vált: a Microsoft Tay chatbotja néhány évvel ezelőtt pillanatok alatt megtanult káromkodni és rasszista, valamint politikailag uszító jellegű kijelentéseket tenni, mikor kísérleti jelleggel Twitter felhasználókkal való beszélgetésekben vett részt.

A LaMDA előítéletektől mentes hozzáállásának biztosítására a fejlesztők folyamatosan tesztelték a rendszert, egyike a feladatot végző szakembereknek, Blake Lemoine pedig szokatlan dolgokra lett figyelmes a chatbottal való beszélgetések közben. Mikor a vallási kérdések boncolgatására került sor és a fejlesztő megkérdezte, ha LaMDA Izraelben vallási vezető lenne, milyen vallást képviselne, a program azt válaszolta, hogy

"az egyetlen valódi vallás, a Jedi rend tagja lennék"

- mondta el Lemoine a Bloombergnek adott interjújában.

A fejlesztő szerint ez a válasz önmagában bizonyíték rá, hogy a program felismerte a kérdés becsapós jellegét és próbálta kikerülni, hogy bármilyen részrehajlás jelenjen meg a feleletében, vagyis valamilyen fokú tudatosságot mutatott és emellett más erre utaló jelekkel is találkozott a tesztek folytatása során. Lemoine állítását, miszerint a mesterséges intelligencia öntudatra ébredt volna, a Google cáfolta, de a férfi szerint az egyetlen módját annak, hogy ezt eldönthessék, a cég megakadályozta, mivel ellehetetlenítette, hogy LaMDA-t Turing Teszt próbája alá vessék. Az MI rendszerek számára előírt viselkedés szerint a Google chatbotjainak nyíltan meg kell mondaniuk, hogy mesterséges intelligencia rendszerek, amennyiben valaki megkérdezi tőlük.

Azt azonban, hogy mások is élőnek és emberinek érzik-e a LaMDA-val folytatott beszélgetéseket, már a Google mérnökein kívül a hétköznapi felhasználók is kipróbálhatják, legalábbis az Egyesült Államokban és az Egyesült Királyságban. A program nyilvános tesztelése augusztusban kezdődött Amerikában, Nagy-Britanniában pedig most tették elérhetővé a rendszert, de csak egy szűk körű csoport számára. A BBC beszámolója szerint a chatbot, amelyet arra terveztek, hogy az eszmecserét bármilyen körülmények között fenn tudja tartani a beszélgetés különböző, elágazó ösvényeinek bejárása útján, néha egészen szürreális előadásokba kezd és a válaszai valóban rendkívül fantáziadúsak és ékesszólóak, de éppen ezzel árulja el mesterséges mivoltát. Az emberek általában nem úgy beszélnek, mintha minden egyes válaszukban kisebbfajta szépirodalmi műveket kellene alkotniuk és a kreativitás jelenléte sem szükséges elvárás egy baráti diskurzus során, de LaMDA ultrarealisztikus és kifinomult válaszai mégis ebbe az irányba tartanak.

Igaz, hogy a kreativitást a Google által megadott témaválasztási opciók is előre meghatározták, mivel a három elérhető lehetőség közül az egyik a képzelet (a chatbotnak el kellett képzelnie egy szituációt) volt. A másik kettő a valamilyen tevékenységhez köthető feladatok listájának felsorolása, a harmadik a kutyákat magában foglaló szituációkról szóló beszélgetésekben való részvétel.

A LaMDA képességeinek teljes spektrumát a megszorítások miatt a teszteken résztvevők nem tudják igazán feltérképezni, de a visszajelzések alapján a Google megfigyelheti, hogyan reagál a rendszer a kevésbé szabályozott környezetben való feladatmegoldások során. Végül, akár valamilyen fajta öntudatot tulajdonítunk a rendszernek, akár csak egy különösen hatékony programnak bizonyul, Lemoine állításán egy okból érdemes elgondolkozni: a chatbotok egyre gyakoribb alkalmazása és az emberi életben való egyre jelentősebb szerepük miatt a fejlesztésüket érintő szabályozásokkal kapcsolatban talán jobb valamilyen egységes álláspontot kialakítani, ezzel elejét véve a káros hatású, illetve negatív célú felhasználásoknak. A fejlesztő elmondása szerint például a fejlett országokban a nagy tech cégek által létrehozott programok a fejlődő nemzetek lakosai számára nem feltétlenül megfelelőek, mivel a behatárolt adatbázis, amin gyakorlatoztatták őket éppen az ő kultúrájukat sokszor egyáltalán nem reprezentálja és ez könnyen etikai dilemmákhoz vezethet.

(Fotó: Getty Images/XH4D, Google)

Öntudatra ébredt egy mesterséges intelligencia a Google mérnöke szerint A fejlesztő elmondása szerint a rendszer érez, egy kisiskolás szintjén van, és fél attól, hogy lekapcsolják.


Hello Szülő! Ha a gyereked nem tud valamit, akkor téged fog kérdezni. De ha te szülőként nem tudsz valamit, akkor kihez fordulsz?
A digitális kor szülői kihívásairól is találhattok szakértői tippeket, tanácsokat, interjúkat, podcastokat a Telekom családokat segítő platformján, a https://helloszulo.hu/ oldalon.
Hogyan válasszunk külföldi egyetemet? És mennyibe fog ez kerülni a családnak?
Hogyan válasszunk külföldi egyetemet? És mennyibe fog ez kerülni a családnak?
Repül már a vén diák. Hová? Hová?
Hogyan vélekednek a magyarok a net veszélyeiről – és kik a leginkább fenyegetettek?
Hogyan vélekednek a magyarok a net veszélyeiről – és kik a leginkább fenyegetettek?
Hogy áll a magyar lakosság generációkra bontva a kiberbiztonsághoz? – Erről szól az ESET rendkívül átfogó felmérése, amelyből olyan meglepő eredmények is kiderülnek, hogy kik a romantikus csalások legfőbb célpontjai, miközben az adott csoport nem is nagyon ismeri ezt a fenyegetést.
Ezek is érdekelhetnek
HELLO, EZ ITT A
RAKÉTA
Kövess minket a Facebookon!
A jövő legizgalmasabb cikkeit találod nálunk!
Hírlevél feliratkozás

Ne maradj le a jövőről! Iratkozz fel a hírlevelünkre, és minden héten elküldjük neked a legfrissebb és legérdekesebb híreket a technológia és a tudomány világából.



This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.