Valószínűleg alulfogalmazzuk a helyzetet azzal, hogy a mesterséges intelligencia és kiemelten a nyelvi modellek környékén elszabadult a vadnyugat. A legnagyobb cégek dobnak el kaszát, kapát és minden ésszerű megfontolást, hogy rohanjanak saját GPT-analógot (Generative Pre-Trained Transformer) fejleszteni. Mark Zuckerberg például könnyű csuklómozdulattal elengedte a metaverzumot, amely egyébként annyira fontos volt számára nem is oly rég, hogy a céget is ez alapján nevezte át, és nagyban az MI-fejlesztésre kezdett koncentrálni. A Terminátor filmek rajongói pedig arra eszmélhettek, hogy egyre nyíltabban és egyre szélesebb körű katonai alkalmazásként tekintenek a mesterséges intelligenciára, amely Skynetnként akár katonai stratégiákat is elkezdhet kidolgozni – amire az egyre komplexebb hadszíntereken valószínűleg szükség is van. Hiába tehát minden hang, amely óvatosságra vagy lassításra int, a mesterséges intelligencia már átlépett a küszöbön, és éppen a cipőjét veszi le az előszobában. Már ha leveszi egyáltalán, és nem csak bemasírozik.
Nagyon úgy fest tehát, hogy épp az történik, aminek a fentebbi cikkünkben foglaltak alapján nem lenne szabad: szaporodik a nyelvi modellek száma, vagyis berobbant az evolúciójuk. Legutóbb a Tom’s Hardware oldala egy új ilyen modellről számolt be: DarkBERT pedig még a többi modellhez képest is baljós, mivel eleve a sötét weben tanult be. DarkBERT a RoBERTa architektúrára épül, amit még 2019-ben fejlesztettek – 4 évvel ezelőtt azonban a modellt nem sikerült megfelelően betanítani, így messze nem volt olyan hatékony, mint lehetett volna. Ezt most a koreai kutatók meglepő módon orvosolták: a modellt az anonimitást lehetővé tevő Tor hálózaton keresztül rákötötték a sötét webre, majd a nyers adatok filterezése után elkészítettek egy sötét web alapú adatbázist. Lényegében akár egy Frankenstein filmben az összetákolt szörnyeteg, ebből született meg DarkBERT, miután az említett adatbázissal betanították RoBERTát.
DarkBERT képes elemezni a sötét web tartalmát – a sajátos dialektusokat és erősen kódolt üzeneteket – és hasznos információkat nyer ki ezekből. A Tom’s Hardware szerint az túlzás, hogy az angol a sötét web lingua francája, de azért elég erősen jelen lehet itt is, mivel az itt betanult DarkBERT a kutatás alapján felülmúlja a többi nyelvi modellt. Mindez ráadásul állítólag azt is lehetővé teszi a biztonsági szakemberek és a bűnüldöző szervek számára, hogy mélyebbre ereszkedjenek a sötét web bugyraiaba.
Persze DarkBERT fejlesztése sem zárult le (ahogy egy nyelvi modellé sem), hanem a finomhangolása továbbra is folyik. Hogy végül miként használják majd fel DarkBERT-et, azt egyelőre nem tudni.
(Kép: Pixabay/squarefrog)