"Míg a beszélgetések általában meghatározott témákat járnak körbe, nyitott természetük miatt teljesen más helyen végződhetnek, mint ahol elkezdődtek [...] Ez az elkalandozó kvalitás gyorsan zavarba hozhatja a modern társalgási ügynököket (közismertebb nevükön chatbotokat), amelyek általában szűk, előre meghatározott utat követnek. De LaMDA (ami a Nyelvi Modell Párbeszédes Alkalmazásokhoz rövidítése) látszólag végtelen számú témába tud bekapcsolódni szabadon folyó módon,
ez a képessége, véleményünk szerint, a technológiával való interakció természetesebb módjait és a segítő jellegű alkalmazások egészen új kategóriáját tudja létrehozni."
- írta a Google az új mesterséges intelligencia programjának bemutatójában 2021 májusában, mikor megjelentették a LaMDA (Language Model for Dialogue Applications) rendszert.
A cég hangsúlyozottan a gépekkel való beszélgetések emberibb formájának kialakítása céljából hozta létre a programot, hogy azok a kommunikációs helyzetek, amelyekben elkerülhetetlenül egy chatbottal kell, hogy megbeszélje a felhasználó a dolgokat, kevésbé tűnjenek erőltettnek, természetellenesnek, vagyis mesterségesnek, arra azonban nagy figyelmet fordítottak, hogy a beszélgetésekbe ne kerülhessenek káros sztereotípiák és előítéletek. Ennek érdekében a chatbotot, noha rendkívül nagy méretű, társalgásokat tartalmazó adatbázissal tanították be, de később szigorú ellenőrzés alá vetették, hogy még időben kiderüljön, nem sajátított-e el olyan hozzáállást, ami később sértőnek bizonyulhat a vele kapcsolatba lépő emberek számára.
Emellett a Google azt a jellemzőt is kiiktatta a programból, ami számos más chatprogram részét alkotja, vagyis nem engedte, hogy a bot tanuljon a felhasználókkal folytatott beszélgetésekből. Korábban volt már rá példa, hogy ez a fajta fejlődési lehetőség visszaütött és a program egy kicsit túl emberivé vált: a Microsoft Tay chatbotja néhány évvel ezelőtt pillanatok alatt megtanult káromkodni és rasszista, valamint politikailag uszító jellegű kijelentéseket tenni, mikor kísérleti jelleggel Twitter felhasználókkal való beszélgetésekben vett részt.
A LaMDA előítéletektől mentes hozzáállásának biztosítására a fejlesztők folyamatosan tesztelték a rendszert, egyike a feladatot végző szakembereknek, Blake Lemoine pedig szokatlan dolgokra lett figyelmes a chatbottal való beszélgetések közben. Mikor a vallási kérdések boncolgatására került sor és a fejlesztő megkérdezte, ha LaMDA Izraelben vallási vezető lenne, milyen vallást képviselne, a program azt válaszolta, hogy
"az egyetlen valódi vallás, a Jedi rend tagja lennék"
- mondta el Lemoine a Bloombergnek adott interjújában.
A fejlesztő szerint ez a válasz önmagában bizonyíték rá, hogy a program felismerte a kérdés becsapós jellegét és próbálta kikerülni, hogy bármilyen részrehajlás jelenjen meg a feleletében, vagyis valamilyen fokú tudatosságot mutatott és emellett más erre utaló jelekkel is találkozott a tesztek folytatása során. Lemoine állítását, miszerint a mesterséges intelligencia öntudatra ébredt volna, a Google cáfolta, de a férfi szerint az egyetlen módját annak, hogy ezt eldönthessék, a cég megakadályozta, mivel ellehetetlenítette, hogy LaMDA-t Turing Teszt próbája alá vessék. Az MI rendszerek számára előírt viselkedés szerint a Google chatbotjainak nyíltan meg kell mondaniuk, hogy mesterséges intelligencia rendszerek, amennyiben valaki megkérdezi tőlük.
Azt azonban, hogy mások is élőnek és emberinek érzik-e a LaMDA-val folytatott beszélgetéseket, már a Google mérnökein kívül a hétköznapi felhasználók is kipróbálhatják, legalábbis az Egyesült Államokban és az Egyesült Királyságban. A program nyilvános tesztelése augusztusban kezdődött Amerikában, Nagy-Britanniában pedig most tették elérhetővé a rendszert, de csak egy szűk körű csoport számára. A BBC beszámolója szerint a chatbot, amelyet arra terveztek, hogy az eszmecserét bármilyen körülmények között fenn tudja tartani a beszélgetés különböző, elágazó ösvényeinek bejárása útján, néha egészen szürreális előadásokba kezd és a válaszai valóban rendkívül fantáziadúsak és ékesszólóak, de éppen ezzel árulja el mesterséges mivoltát. Az emberek általában nem úgy beszélnek, mintha minden egyes válaszukban kisebbfajta szépirodalmi műveket kellene alkotniuk és a kreativitás jelenléte sem szükséges elvárás egy baráti diskurzus során, de LaMDA ultrarealisztikus és kifinomult válaszai mégis ebbe az irányba tartanak.
Igaz, hogy a kreativitást a Google által megadott témaválasztási opciók is előre meghatározták, mivel a három elérhető lehetőség közül az egyik a képzelet (a chatbotnak el kellett képzelnie egy szituációt) volt. A másik kettő a valamilyen tevékenységhez köthető feladatok listájának felsorolása, a harmadik a kutyákat magában foglaló szituációkról szóló beszélgetésekben való részvétel.
A LaMDA képességeinek teljes spektrumát a megszorítások miatt a teszteken résztvevők nem tudják igazán feltérképezni, de a visszajelzések alapján a Google megfigyelheti, hogyan reagál a rendszer a kevésbé szabályozott környezetben való feladatmegoldások során. Végül, akár valamilyen fajta öntudatot tulajdonítunk a rendszernek, akár csak egy különösen hatékony programnak bizonyul, Lemoine állításán egy okból érdemes elgondolkozni: a chatbotok egyre gyakoribb alkalmazása és az emberi életben való egyre jelentősebb szerepük miatt a fejlesztésüket érintő szabályozásokkal kapcsolatban talán jobb valamilyen egységes álláspontot kialakítani, ezzel elejét véve a káros hatású, illetve negatív célú felhasználásoknak. A fejlesztő elmondása szerint például a fejlett országokban a nagy tech cégek által létrehozott programok a fejlődő nemzetek lakosai számára nem feltétlenül megfelelőek, mivel a behatárolt adatbázis, amin gyakorlatoztatták őket éppen az ő kultúrájukat sokszor egyáltalán nem reprezentálja és ez könnyen etikai dilemmákhoz vezethet.
(Fotó: Getty Images/XH4D, Google)