Ez itt DarkBERT – a sötét weben betanított ChatGPT-klón

2023 / 05 / 19 / Felkai Ádám
Ez itt DarkBERT – a sötét weben betanított ChatGPT-klón
DarkBERT a sötét web legmélyebb bugyraiban érlelődött, de kizárólag tudományos célzattal. Lássuk, mi sült ki belőle!

Valószínűleg alulfogalmazzuk a helyzetet azzal, hogy a mesterséges intelligencia és kiemelten a nyelvi modellek környékén elszabadult a vadnyugat. A legnagyobb cégek dobnak el kaszát, kapát és minden ésszerű megfontolást, hogy rohanjanak saját GPT-analógot (Generative Pre-Trained Transformer) fejleszteni. Mark Zuckerberg például könnyű csuklómozdulattal elengedte a metaverzumot, amely egyébként annyira fontos volt számára nem is oly rég, hogy a céget is ez alapján nevezte át, és nagyban az MI-fejlesztésre kezdett koncentrálni.  A Terminátor filmek rajongói pedig arra eszmélhettek, hogy egyre nyíltabban és egyre szélesebb körű katonai alkalmazásként tekintenek a mesterséges intelligenciára, amely Skynetnként akár katonai stratégiákat is elkezdhet kidolgozni – amire az egyre komplexebb hadszíntereken valószínűleg szükség is van. Hiába tehát minden hang, amely óvatosságra vagy lassításra int, a mesterséges intelligencia már átlépett a küszöbön, és éppen a cipőjét veszi le az előszobában. Már ha leveszi egyáltalán, és nem csak bemasírozik.

Az evolúció a mesterséges intelligenciának kedvez, nem nekünk, embereknek Ha akad bármi tanulság a természetes szelekció kapcsán, úgy a mesterséges intelligencia idővel és törvényszerűen másodlagos fajjá fog minket változtatni ezen a bolygón, és elveszítjük a világ irányítását.

Nagyon úgy fest tehát, hogy épp az történik, aminek a fentebbi cikkünkben foglaltak alapján nem lenne szabad: szaporodik a nyelvi modellek száma, vagyis berobbant az evolúciójuk. Legutóbb a Tom’s Hardware oldala egy új ilyen modellről számolt be: DarkBERT pedig még a többi modellhez képest is baljós, mivel eleve a sötét weben tanult be. DarkBERT a RoBERTa architektúrára épül, amit még 2019-ben fejlesztettek – 4 évvel ezelőtt azonban a modellt nem sikerült megfelelően betanítani, így messze nem volt olyan hatékony, mint lehetett volna. Ezt most a koreai kutatók meglepő módon orvosolták: a modellt az anonimitást lehetővé tevő Tor hálózaton keresztül rákötötték a sötét webre, majd a nyers adatok filterezése után elkészítettek egy sötét web alapú adatbázist. Lényegében akár egy Frankenstein filmben az összetákolt szörnyeteg, ebből született meg DarkBERT, miután az említett adatbázissal betanították RoBERTát.

DarkBERT képes elemezni a sötét web tartalmát – a sajátos dialektusokat és erősen kódolt üzeneteket – és hasznos információkat nyer ki ezekből. A Tom’s Hardware szerint az túlzás, hogy az angol a sötét web lingua francája, de azért elég erősen jelen lehet itt is, mivel az itt betanult DarkBERT a kutatás alapján felülmúlja a többi nyelvi modellt. Mindez ráadásul állítólag azt is lehetővé teszi a biztonsági szakemberek és a bűnüldöző szervek számára, hogy mélyebbre ereszkedjenek a sötét web bugyraiaba.

Persze DarkBERT fejlesztése sem zárult le (ahogy egy nyelvi modellé sem), hanem a finomhangolása továbbra is folyik. Hogy végül miként használják majd fel DarkBERT-et, azt egyelőre nem tudni.

(Kép: Pixabay/squarefrog)


Rendkívül furcsa anyagi forma létezését bizonyították
Rendkívül furcsa anyagi forma létezését bizonyították
Először sikerült kvantumörvényeket generálni szuperszilárd anyagban.
Az Alpokban kirándult, 280 millió éves elveszett világot fedezett fel
Az Alpokban kirándult, 280 millió éves elveszett világot fedezett fel
Olyan ősi ez az ökoszisztéma, hogy még a dinoszauruszok előtti időből származik.
Ezek is érdekelhetnek
HELLO, EZ ITT A
RAKÉTA
Kövess minket a Facebookon!
A jövő legizgalmasabb cikkeit találod nálunk!
Hírlevél feliratkozás

Ne maradj le a jövőről! Iratkozz fel a hírlevelünkre, és minden héten elküldjük neked a legfrissebb és legérdekesebb híreket a technológia és a tudomány világából.



This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.