Általánosságban elmondhatjuk, hogy a mesterséges intelligencia előbb tanul, majd alkalmazza elsajátított tudását a különféle szituációkban, reagál a környezetére és képes megfejteni annak jelzéseit. Minden előnye ellenére a kétes érzelmekkel átszőtt kommunikáció értelmezésénél azonban még nem ért el átütő eredményt, így például nem érti a viccet, az iróniát vagy a szarkazmust. Egy, részben az amerikai hadsereg által finanszírozott új algoritmus tesztelése azonban sikerrel végződött a projekt kísérleti fázisában: a program 'kiszagolta' a szarkazmust az emberi kommunikációban. Az esemény jelentős mérföldkő a mesterséges intelligencia történetében, hiszen segítheti a szakembereket, köztük például a titkosszolgálat munkatársait a komolytalan közösségi média bejegyzések kiszűrésénél.
A Közép-Floridai Egyetem két kutatója az Entropy folyóirat márciusi cikkében írt arról, hogy bizonyos szavak meghatározott kombinációkban kiszámítható jelzői lehetnek a szarkazmusnak a különböző bejegyzésekben még akkor is, ha a szavak között egyébként nincs más összefüggés. Garibay és munkatársa, Ramya Akula, a Twitter, a Reddit és a The Onion nevű portál különféle párbeszédeinek, valamint címsorok adatsorainak felhasználásával feltérképezte, hogy néhány kulcsszó hogyan viszonyul más szavakhoz. Például az olyan - angol nyelvű - mondatelemek, mint a "csak" (just), a "már megint" (again), vagy a "teljesen" (totally), árnyalják a mondat többi részét, és úgyszólván 'sötétebb' jelentéssel ruházzák fel. Ezek azok a szavak a mondatban, amelyek szarkazmusra utalnak, és ahogy arra a kutató számítottak, ezek nagyobb figyelmet is kapnak más kifejezésekhez képest.
Ivan Garibay, a projekt egyik kutatója a Defense One internetes portálnak beszélt arról, hogy az algoritmus fejlesztése során az úgynevezett önfigyelem módszert alkalmazták, és úgy programozták a rendszert, hogy bizonyos, a mondatban felbukkanó szavakra helyezzen nagyobb hangsúlyt, méghozzá a teljes szövegkörnyezet vizsgálatának függvényében. Hozzátette: a figyelem egy olyan mechanizmus, amely az adott feladat megoldásához elengedhetetlen inputok mintáit fedezheti fel. "A gépi tanulás során az önfigyelem egy olyan szekvencia-mechanizmus, ami segít az adott szekvencia különböző elemei közötti feladatspecifikus kapcsolat megismerésében egy jobb szekvenciaábrázolás létrehozása érdekében" - magyarázza a kutató.
A szarkazmus algoritmusokkal történő észlelése katonai szempontból nem tűnik jelentősnek, kivéve, ha figyelembe vesszük, hogy az emberek mennyivel több időt töltenek online, mint néhány évvel ezelőtt. Emellett a nyílt forráskódú intelligencia egyre növekvő szerepét is figyelembe kell venni, például a közösségi média posztokat, segítve a hadsereget abban, hogy megértsék, mi történik azokon a kulcsfontosságú területeken, ahol egyébként ők is jelen vannak. A munkát a DARPA, az Egyesült Államok Védelmi Minisztériumának kutatásokért felelős részlege támogatja az Online Social Behavior Computational Simulation programon keresztül. A program a globális információs környezetnek a jelenleginél
"mélyebb, mennyiségi és minőségi megértésére" törekszik.
Nem ez az első alkalom, hogy a kutatók megpróbáltak mesterséges intelligenciát használni a szarkazmus közösségi médiában való kimutatására, a jelenlegi metódus azonban javíthat korábbi erőfeszítéseinken, amelyek nem a megfelelő szavakra koncentráltak, emiatt nem sikerült fellelni többek között az iróniát és a szarkazmust a szövegben. Míg más módszerek neurális hálózatokat használtak a rejtett kapcsolatok megtalálásához. Ezek Garibay szerint általában jobban teljesítenek, de még mindig van egy fontos hiányosságuk, amire viszont az új algoritmus már képes. Ez nem más, minthogy a kutatók visszafejthetik a leghosszabb szöveget is, és maguk is láthatják, hogy pontosan hol észlelte a szarkazmus jeleit a mesterséges intelligencia.
(Fotó: Getty Images Hungary)