Az autonóm mobilitás – azaz az emberi felügyelet nélkül megvalósuló közúti közlekedés – ígérete az évtized jelenkor egyik legizgalmasabb technológiai kihívása. Az önmagukat vezető, környezetüket folyamatosan érzékelő és értelmező intelligens járművek elterjedése elsősorban nem arról szól, hogy az emberek mentesülnek a hosszú, unalmas utak végigvezetése alól Ennél jóval fontosabb, hogy a közlekedésbiztonság soha nem látott szintre léphet, ha minden jármű pillanatnyi kihagyás nélkül, állandóan figyel, sőt: kommunikál is más járművekkel és a forgalomtechnikai eszközökkel.
A témával foglalkozó szervezetek minden eddiginél szorosabb együttműködésekkel igyekeznek, adatcserékkel igyekeznek felgyorsítani a kutatás és fejlesztés folyamatát. A Toyota Motor Corporation most újabb, különösen értékes információkat tett elérhetővé a szakemberek és a széles nyilvánosság számára.
A gyártók régóta szemléltetik állóképekkel azt a mesterséges valóságot, amellyel a robotautókat vezérlő szoftver szenzorai adatai alapján felépítve lemodellezi a környezetét. Az önjáró gépkocsik mesterséges agyának tulajdonképpen elég az akadályokat és a lehetséges útvonalakat észlelnie: ezeket különálló blokkokként azonosítja, így téve lehetővé a biztonságos manőverezést. A legtöbb környezeti objektum azonosítása nem okoz gondot: egy emberalak, egy gépkocsi vagy egy jelzőtábla kontúrjai kellően jellegzetesek ahhoz, hogy ne kelljen azokat hosszasan elemeznie a szoftvernek.
Egészen más azonban a helyzet az olyan, nehezen általánosítható jelenségekkel, mint az út menti növényzet, az útlezárás vagy építkezés. A szélfútta lombozat folyton változó körvonalai, az út szélén felhalmozott törmelék amorf kupaca komoly kihívást jelenthetnek az autonóm vezérlő technológiák számára. A mindenkori konkrét egyezések helyett szabályszerűségeket, valószínűségeket kell felismerniük a gépeknek. Ilyenkor jóval nagyobb adatmennyiségre van szükség a hatékony tanuláshoz: a járműveknek meg kell tanulniuk összefűzni és folytonos egységként értelmezni az adott területről készült felvételek sorozatát. Ez azonban csak az érem egyik oldala. Ahhoz ugyanis, hogy a kutatók megérthessék és támogathassák a tanulási folyamatot, ugyanazt kell látniuk, amit az autó is lát.
Épp ezért úttörő jelentőségű az a nyersanyag, amelyet a Toyota biztonsági kutatóközpontja (Toyota Collaborative Safety Research Center, CSRC) a Massachusetts Institute for Technology (MIT) két tudományos kutatási részlegével együttesen hozott létre és tett ingyenesen elérhetővé kutatók és érdeklődők számára. Az egyik adathalmaz egy 167 másodperces videó, amelyet városi utcákon rögzítettek a jármű kamerái. Eennek 5000 képkockáját egyenként, pixelenként színezték be a kutatók, lehetővé téve, hogy az autonóm vezérlő szoftver megértse az összefüggéseket.
Ennél is izgalmasabb az a 67 darab, egyenként tíz másodperces filmszegmens (összesen 20 ezer 100 képkocka), amelyet nem a kutatók, hanem egy fejlett számítógépes program jelölt meg képpontról képpontra. A folyamatot egyelőre félig tudták automatizálni, ám ez is fontos állomás a végső cél: a teljesen automatizált, gyors, pontos és elemzés felé vezető úton.
A DriveSeg névre keresztelt folyamat hosszú távon lehetővé teszi annak vizsgálatát, hogy egyrészt lehetséges-e, másrészt célravezető-e nagy mennyiségű, valós forgalmi környezetben rögzített képanyag részletes címkézése. Ennek eldöntésében és a további vizsgálatokban az egész autonóm mobilitási kutatóközösség támogatására számít a Toyota és az MIT.