A Facebook anyavállalata, a Meta, két éve mutatta be a Ray-Bannel közös, fotót és videót készítő szemüvegét, amit akkor még Ray-Ban Stories-nak hívtak. A kütyü nem volt túl sikeres, ám, amint arról október elején beszámoltunk, a második generációban sok korábbi problémát orvosoltak a Meta és az EssilorLuxottica szakemberei. A Ray-Ban Meta szebben szól, miközben kevésbé hallható a körülöttünk állók számára; a kamera immár tizenkét megapixeles, és 1080p-ben rögzít akár egy perc videót, illetve streamelni is tud; hangparancsokkal tudunk képeket továbbítani; sőt, még a felvételt jelző LED is fényesebben világít, mielőtt valaki véletlenül a szemüvegünk előtt vallana be egy bűncselekményt a tudta nélkül. Ráadásul a termék az Egyesült Államokban változatlanul 299 dollárba kerül, ami kevesebb mint kétszer annyi, mint egy teljesen átlagos Ray-Ban Wayfarer. Az első tesztek után a szaksajtó is értékelte az erőfeszítéseket, akadt újságíró, aki szerint ez az év leghasznosabb kütyüje, és még azt is mérlegelte, hogy ez legyen az állandóan viselt szemüvege.
Pedig a beépített mesterséges intelligencia eddig csak ígéret volt.
Mostantól azonban a vállalkozó kedvűek már kipróbálhatják a Ray-Ban Meta digitális asszisztensét - számolt be a The Verge. És ugyan forgathatnánk a szemeinket, hogy minek még egy felület, ahol egy MI-robottal érintkezünk, a Mark Zuckerberg vezérigazgató és Andrew "Boz" Bosworth által megosztott videók kifejezetten izgalmas és életképes felhasználási területeket vetítenek előre. A legföldhözragadtabb képessége a multimodális, azaz a szavainkra és a látottakra egyszerre támaszkodó rendszernek, hogy elmondja, hogy mit látunk - a példákban felismer egy egzotikus gyümölcsöt, de egy fából készült, villanykörtékkel díszített Kalifornia-térképet is. Az már eggyel bonyolultabb, de szintén életszerű feladat, hogy Zuckerbergnek segít nadrágot választani egy ingéhez. Hogy hányan kérik majd meg, a Meta vezetőihez hasonlóan, a rendszert, hogy írjon viccesnek szánt képaláírást a fotóikhoz, az már egy másik kérdés.
A bejegyzés megtekintése az Instagramon
Arra még 2024-ig várni kell, hogy bárki használhassa a szemüvegbe épített MI-t, az azonban már ennyi alapján is látszik, hogy a multimodalitás nem csak a Google Geminije esetében lesz fontos hívószó, ahogyan az is, hogy a mesterséges intelligencia egyre kényelmesebben, praktikusabban lesz elérhető a mindennapjainkban, nem csak a mobilunk vagy a számítógépünk képernyőjén keresztül.
(Borítókép: Meta)