Amint arról a Rakétán korábban beszámoltunk, az Apple sokak szerint feladta a magánszféra védelmét a pedofília elleni küzdelem jegyében. A három új megoldásuk közül a legnagyobb vihart a NeuralHash nevű rendszer kavarta. Ez egy olyan mesterséges intelligencia, amely nem az Apple tárhely-szerverein, hanem közvetlenül a telefonunkon ellenőrzi a fényképeket, ismert, gyermekbántalmazást ábrázoló tartalmak után kutatva - egyelőre csak az USÁ-ban.
Ehhez az Apple megkap egy adatbázist a gyermekvédelmi szervektől, amely tartalmazza az ismert pornográf fájlok egyedi azonosítóit, úgynevezett ujjlenyomatait. Ezeket titkosítják, majd letöltik az iPhone-okra, iPadekre, Mac-ekre. Ott aztán minden egyes felhasználói fotó, amelyet a tulajdonos feltöltene az iCloud tárhelyére, kap egy tanúsítványt, ami rögzíti, hogy ismert jogsértő tartalom szerepel-e rajta. A rendszer értesíti az Apple-t, ha valakinél egy meghatározott mennyiségnél több aggasztó tartalmat talál, ezután a cégnél az egyes eseteket megvizsgálva döntenek arról, hogy kapcsolatba lépjenek-e a hatóságokkal. A NeuralHash mellett az iMessage-et úgy fejlesztik tovább, hogy a gyerekekhez érkező, vagy a gyerekek által küldött üzenetekben lévő meztelen fotókról akár a szülőknek is küldhető riasztás; illetve a jogsértő tartalmakra való Siri-keresések után is figyelmeztetésekkel fog találkozni a felhasználó.
Az Apple most egy, a weboldalára feltöltött pdf-ben igyekszik védeni az álláspontját. Az iMessage-üzenetek átvizsgálásával kapcsolatban leszögezik, hogy csak családi fiókoknál lehet bekapcsolni a szűrőt; szülői riasztások csak tizenhárom évnél fiatalabb felhasználóknál kérhetők, és a kiskorú először figyelmeztetést kap, hogy ne nézze meg az adott tartalmat, mielőtt az iPhone-ja árulkodna a szüleinek. Az Apple munkatársai az üzeneteket nem látják, így nem is értesíthetik a hatóságokat.
A gyermekbántalmazást, -pornográfiát tartalmazó, iCloudba feltöltött képek kapcsán tisztázzák, amit sokan félreértettek:
nem az illegális képeket magukat, csak azoknak a digitális ujjlenyomatait töltik le a készülékekre.
Azt állítják, hogy ez a megoldás, vagyis a készüléken zajló vizsgálat, jobban tiszteli a felhasználók magánszféráját, mintha minden, a szervereiken tárolt képet átnéznének. Az azonosítókat, ujjlenyomatokat gyermekvédelmi szervezetektől kapják, és mivel minden felhasználó ugyanazokat az ujjlenyomatokat kapja, így a célzott támadások is kizártak az Apple szerint. Ezzel azt is elkerülik, hogy más országok kormányai mondjuk ellenzéki vagy rendszerkritikus fotók után kutassanak az iPhone-okon. Kérdés, hogy ezt hogyan tudják kivitelezni, ha például Kínában a VPN-appokat vagy a tajvani zászló emojiját is el kellett távolítaniuk a rendszereikből. Elképzelhetőnek tűnik, hogy a rizikósabb területeken egyszerűen nem vezetik be a NeuralHash-t.
"Nincsenek könnyű válaszok. Egyszerre feszít, hogy mindenki számára elérhető legyen a titkosítás biztosította magánszféra, és az, hogy a modern kommunikációs eszközök mekkora kárt okoztak. Oké, ha árnyalt véleménye van valakinek a kérdésről."
Ezt Alex Stamos biztonságtechnikai szakértő írta a Twitteren. Stamos korábban a Facebooknál töltött be a területen vezető szerepet, most egyetemi kutatóként dolgozik, de tavaly ő segített például a Zoom nevű videókonferencia-szolgáltatásnak rendbe tenni a titkosítással kapcsolatos problémáit. Ha ő nem látja, hogy mi a kiút egy ilyen helyzetből, akkor valószínűleg lassan fog csak csitulni az Apple új megoldásai körüli vita.
(Fotó: Unsplash/Onur_Binary)