Az eddigi legígéretesebb okosszemüveg már nadrágot is tud választani az ingünkhöz

2023 / 12 / 16 / Pőcze Balázs
Az eddigi legígéretesebb okosszemüveg már nadrágot is tud választani az ingünkhöz
Októberben jelent meg a Meta és a Ray-Ban közös okosszemüvegének a második generációja, és máris megérkezett rá egy fontos frissítés: mesterséges intelligencia-alapú asszisztens került a kütyübe. Ezzel az eddigi legígéretesebb ilyen termék még egy fokkal vonzóbb lett.

A Facebook anyavállalata, a Meta, két éve mutatta be a Ray-Bannel közös, fotót és videót készítő szemüvegét, amit akkor még Ray-Ban Stories-nak hívtak. A kütyü nem volt túl sikeres, ám, amint arról október elején beszámoltunk, a második generációban sok korábbi problémát orvosoltak a Meta és az EssilorLuxottica szakemberei. A Ray-Ban Meta szebben szól, miközben kevésbé hallható a körülöttünk állók számára; a kamera immár tizenkét megapixeles, és 1080p-ben rögzít akár egy perc videót, illetve streamelni is tud; hangparancsokkal tudunk képeket továbbítani; sőt, még a felvételt jelző LED is fényesebben világít, mielőtt valaki véletlenül a szemüvegünk előtt vallana be egy bűncselekményt a tudta nélkül. Ráadásul a termék az Egyesült Államokban változatlanul 299 dollárba kerül, ami kevesebb mint kétszer annyi, mint egy teljesen átlagos Ray-Ban Wayfarer. Az első tesztek után a szaksajtó is értékelte az erőfeszítéseket, akadt újságíró, aki szerint ez az év leghasznosabb kütyüje, és még azt is mérlegelte, hogy ez legyen az állandóan viselt szemüvege.

Pedig a beépített mesterséges intelligencia eddig csak ígéret volt.

Mostantól azonban a vállalkozó kedvűek már kipróbálhatják a Ray-Ban Meta digitális asszisztensét - számolt be a The Verge. És ugyan forgathatnánk a szemeinket, hogy minek még egy felület, ahol egy MI-robottal érintkezünk, a Mark Zuckerberg vezérigazgató és Andrew "Boz" Bosworth által megosztott videók kifejezetten izgalmas és életképes felhasználási területeket vetítenek előre. A legföldhözragadtabb képessége a multimodális, azaz a szavainkra és a látottakra egyszerre támaszkodó rendszernek, hogy elmondja, hogy mit látunk - a példákban felismer egy egzotikus gyümölcsöt, de egy fából készült, villanykörtékkel díszített Kalifornia-térképet is. Az már eggyel bonyolultabb, de szintén életszerű feladat, hogy Zuckerbergnek segít nadrágot választani egy ingéhez. Hogy hányan kérik majd meg, a Meta vezetőihez hasonlóan, a rendszert, hogy írjon viccesnek szánt képaláírást a fotóikhoz, az már egy másik kérdés.

 

A bejegyzés megtekintése az Instagramon

 

Mark Zuckerberg (@zuck) által megosztott bejegyzés

Arra még 2024-ig várni kell, hogy bárki használhassa a szemüvegbe épített MI-t, az azonban már ennyi alapján is látszik, hogy a multimodalitás nem csak a Google Geminije esetében lesz fontos hívószó, ahogyan az is, hogy a mesterséges intelligencia egyre kényelmesebben, praktikusabban lesz elérhető a mindennapjainkban, nem csak a mobilunk vagy a számítógépünk képernyőjén keresztül.

(Borítókép: Meta)


Meztelen képeket generáltak az osztálytársaikról, próbára bocsátották és képzésekre kötelezték a tizenöt fiatalt
Meztelen képeket generáltak az osztálytársaikról, próbára bocsátották és képzésekre kötelezték a tizenöt fiatalt
A tizenhárom és tizenöt év közti spanyol fiatalok mesterséges intelligenciával készítettek montázsokat.
Megfejtették a világ legősibb számítógépének, az antiküthérai szerkezet titkát
Megfejtették a világ legősibb számítógépének, az antiküthérai szerkezet titkát
A 21. század egyik legérzékenyebb tudományos eszközével kifejlesztett technikák, amelyek a téridő hullámzásait elemzik, új megvilágításba helyezték a legrégebbi ismert analóg számítógép működését.
Ezek is érdekelhetnek
HELLO, EZ ITT A
RAKÉTA
Kövess minket a Facebookon!
A jövő legizgalmasabb cikkeit találod nálunk!
Hírlevél feliratkozás

Ne maradj le a jövőről! Iratkozz fel a hírlevelünkre, és minden héten elküldjük neked a legfrissebb és legérdekesebb híreket a technológia és a tudomány világából.



This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.