Jelen pillanatban a mesterséges intelligencia alkalmazása általában nem lokálisan, az adott eszközön történik, mivel ezen eszközöknek (például egy okostelefonnak) korlátozott az akkumulátor kapacitása és a feldolgozási teljesítménye is. Ehelyett a mostani széles körben elterjedt megoldás az, hogy az információkat az interneten keresztül egy másik számítógépre küldik, ahol az adatokat elemzik, esetleg a számítás megtörténik, majd ezt ismét visszaküldik a szóban forgó eszközre – ez tehát az a felhős megoldás, ahogy általában működik a felhasználók számára elérhető mesterséges intelligencia. Egy új megoldás azonban épp ezen változtatna – számol be a Nature folyóiratban publikált eredményekről az Independent.
A kísérleti rendszernek köszönhetően akár elképesztően komplex mesterséges intelligencia is működhet közvetlenül a chipről, így a fentebb vázolt felhős megoldásra nem lenne szükség. Ez azt jelenti, hogy idővel nagyon fejlett mesterséges intelligenciákat lehetne beültetni közvetlenül a felhasználói eszközökbe – például az okostelefonokba –, amelyeken az MI bármikor és bárhol képes lenne bonyolult feladatok végrehajtására. Másképp fogalmazva: a technológia lehetővé teszi a különféle mesterséges intelligencia-feladatok széles skálájának a gyorsabb és hatékonyabb elvégzését, mint valaha. Jelen trend ugyanis az, hogy az MI sokoldalúságát feláldozzák a hatékonyság oltárán, vagyis a chipek vagy kevesebb energiát fogyasztanak, vagy több feladatot végeznek, de a kettő egyszerre nem megy. Az új rendszer viszont éppen ezt a problémát orvosolja.
A technológia kulcsa az úgynevezett „rezisztív véletlen hozzáférésű memória” (resistive random-access memory/RRAM), ami lehetővé teszi, hogy a számításokat közvetlenül a memóriában végezzék el, ahelyett tehát, hogy más számítógépre küldenék át a feldolgozási idő felgyorsítása céljából. Mint a tanulmányban írják, az RRAM rendszer a compute-in-memory (CIM) eljáráson alapszik, és a technológia ígérete az, hogy magukat az MI-modelleket tárolja a „nem felejtő” RRAM-eszközökben. Mivel pedig MI számításai közvetlenül az RRAM-on belül futnak, így kiküszöbölhető a rendkívül energiaigényes adatmozgás az egymástól elkülönült számítógép és a memória között (ami tehát a fentebb tárgyalt felhő alapú megoldás válasza volt a problémára eddig). A rendszer az új NeuRRAM-on alapul, amely egy teljes körű optimizáció (a dizájntól kezdve az algoritmusokon át egészen az áramkörök, sőt az eszközök architektúrájáig) eredménye.
A NeuRRAM tehát egy RRAM-alapú CIM chip, amely egyszerre biztosít sokoldalúságot a CIM magok újrakonfigurálásában a különböző MI-modellarchitektúrákhoz, valamint kétszer jobb energiahatékonyságot, mint amit a korábbi csúcstechnológiás RRAM-CIM chipek esetén mértek. A NeuRRAM például 99 százalékos pontosságot mutatott a kézzel írt számjegyek elemzésekor, és 84,7 százalékot a Google beszédfelismerési feladatánál. A kutatók viszont remélik, hogy mielőtt kereskedelmi forgalomba kerül, a NeuRRAM még ennél is hatékonyabb lehet.
(A cikkhez használt kép illusztráció, forrása: Pixabay/ColiN00B)