Nagyjából háromhavonta megduplázódik a mesterséges intelligencia számítási sebessége - állítják a Stanfordi Egyetem kutatói a 2019 évi MI-index éves jelentés alapján.
Moore törvénye kimondja, hogy a processzorok sebessége 18 hónap és két év közötti időszakok elteltével megduplázódik, ami azt jelenti, hogy az alkalmazásfejlesztők alkalmazásaik teljesítményének megduplázódására számíthatnak ezen időszak elteltével, ugyanazon hardverköltségek mellett.
A Stanford-jelentés a McKinsey & Company-val, a Google-el, a PwC-vel, az OpenAI-vel, a Genpactal és az AI21Labs-szal közösen készült, és megállapította, hogy az MI számítási képességei gyorsabban fejlődnek, mint a hagyományos processzorok hasonló jellemzői.
"2012 előtt a MI eredményei szorosan követték Moore törvényét, a számítási kapacitás kétévente megduplázódott. 2012 után a kapacitás 3,4 havonta duplázódott meg” - írta a jelentés.
A tanulmány az az ImageNet kép azonosító program fejlődésének nyomon követésével vizsgálta, hogy az MI algoritmusok miként javultak az idő múlásával. Mivel a kép-osztályozási módszerek nagyrészt felügyelt gépi tanulási technikákon alapulnak, a jelentés szerzői megvizsgálták, hogy mennyi ideig tart a MI-modell betanítása és megnézték a kapcsolódó költségeket is. Azok elmondásuk szerint a MI-fejlesztési infrastruktúra érettségét is jelzik, tükrözve a szoftver- és hardverfejlesztésben elért eredményeket.
A kutatások azt mutatták, hogy 18 hónap alatt, a felügyelt képfelismerés felhőinfrastruktúra hálózaton való betanításához szükséges idő, a 2017 októberi három óráról 2019 júliusára kb. 88 másodpercre esett vissza. A jelentés megjegyezte, hogy az ImageNet magánhálózati felhőinfrastruktúrán történő képzési idejére vonatkozó adatok összhangban voltak a nyilvános felhőinfrastruktúrán történő MI képzési idők változásával.
A jelentés szerzői a ResNet képosztályozási modellt használták annak megbecsülésére, hogy az algoritmusok számára mennyi ideig tart a magas pontosság elérése. 2017 októberében, 13 napos képzési időre volt szükség ahhoz, hogy 93 százalékos pontosság fölé kerüljenek, a MI-alapú képosztályozás 13 napos betanítása erre a pontosságra pedig körülbelül 2323 dollárba (~700 ezer forint) került.
A Stanford DAWNBench-en elérhető legfrissebb referenciaérték ahhoz, hogy a képosztályozás pontossága valamivel meghaladja a 93 százalékos pontosságot, 2018 szeptemberére már csak valamivel több, mint 12 dollárba (3617 forint) került.
A jelentés azt is feltárta, hogy a számítógépes képfelismerés miként fejlődött, olyan innovatív algoritmusokat vizsgálva, amelyek kitolják az automatikus tevékenység-felismerés határait, és amelyek az ActivityNet Challenge segítségével felismerik az emberi akciókat és tevékenységeket a videókban.
Ennél a tesztnél az egyik feladat az úgynevezett Temporal Activity Localization (kb. folyamatos cselekvés lokalizáció), ami hosszú videó szekvenciákat használ, amelyek egynél több tevékenységet ábrázolnak, és az algoritmust felkérik egy adott tevékenység megtalálására ezek között. Ma az algoritmusok valós időben pontosan felismerik az összetett emberi tevékenységek százait, ám a jelentés megállapítása szerint itt még sok munkára van szükség.
„Négy éve folyamatosan megrendezzük az International Activity Recognition Challenge-et (ActivityNet) és a tapasztalatok alapján úgy érezzük, hogy további kutatásokra van szükség olyan módszerek kidolgozására, amelyek megbízhatóan megkülönböztethetik az egyes tevékenységeket, amelyek finom mozdulatokkal és-vagy finom mintákkal járnak a mozgásjelzőkben, tárgyak esetében és az ember-tárgy kölcsönhatásokban”- írta a jelentésben Bernard Ghanem, az Abdullah King Tudományos és Technológiai Egyetem villamosmérnöki docense.
„A jövőre nézve azt gondoljuk, hogy az algoritmusok következő generációja olyan lehet, amely anélkül képes hangsúlyozni a tanulást, hogy túl nagy mennyiségű, manuálisan kezelt adatra lenne szükség. Ebben a forgatókönyvben a referenciaértékek és a versenyek továbbra is sarokkövet jelentenek majd, az öntanulás területén elért haladás nyomon követése szempontjából.”
(Forrás: Computerweekly Képek: Unsplash)