A Gizmodón olvasható cikk szerint a londoni Kings College kutatói nyolc mesterséges intelligencia-alapú rendszert vizsgáltak meg. Nem pontosan azokat, amelyeket a most utcán lévő modellek használnak, mert ezekről a gyártók nem adnak ki információkat, hanem azokat, amelyekre a jelenleg használatban lévő szoftverek épülhetnek. A közleményükben nem térnek ki arra, hogy a számítógépek mennyivel megbízhatóbbak, mint a hús-vér emberek a gyalogosok felismerésében, de nem is ez a céljuk:
arra voltak kíváncsiak, hogy a mesterséges intelligenciáktól elvárt igazságosság érvényesül-e ebben az esetben. Arra jutottak, hogy nem.
Nyolcezer fényképet teszteltek, ezekről kellett megmondania a szoftvereknek, hogy érzékelnek-e azokon emberi alakot. A rendszerek húsz százalékkal rosszabbul teljesítettek, amikor gyerekeket kellett volna felismerniük, és hét és fél százalékkal rosszabbul, amikor színes bőrű embereket. Dr Jie Zhang kutató kiemelte: "Az igazságtalan MI-rendszerek hatása jól dokumentált, a toborzó szoftverek a férfi jelentkezőket részesítik előnyben, az arcfelismerő rendszerek kevésbé pontosak a fekete nők, mint a fehér férfiak esetében, ám az önvezető autóknál ez közvetlen veszélyt eredményez. A kisebbségek tagjai korábban fontos szolgáltatásoktól eshettek el, most baleset érheti őket". A kutató azt szorgalmazza, hogy a kormányok és a gyártók közösen dolgozzák ki a rendszerek objektív mérhetőségének kereteit. A Google-höz tartozó, önvezető rendszereket fejlesztő Waymo képviselői ugyanakkor aláhúzták: az autóik nem csak kamerákkal, hanem lézerekkel és radarral is figyelik a gyalogosokat, amit a kutatás nem vett figyelembe.
A tanulmány azért is különösen aktuális, mert nemrég ítélet született az első, önvezető autó által okozott halálos balesettel kapcsolatban, miközben San Franciscóban már korlátozások nélkül működhetnek robottaxik. Néhány nap után az egyik ilyen jármű karambolozott egy tűzoltóautóval, aminek hatására a cég flottájának a méretét a felére csökkentette a hatóság.
(Borítókép: Allen J. Schaben / Los Angeles Times via Getty Images)