ENSZ Emberi Jogi Főbiztosa, Michelle Bachelet az Európa Tanács a Pegasus kémszoftverrel kapcsolatos meghallgatásán hangsúlyozta, hogy az emberi jogokat potenciálisan veszélyeztető mesterséges intelligencia rendszerek mihamarabbi regulációjára lenne szükség. Mint ismert, júliusban egy nemzetközi tényfeltáró projekt derítette ki, hogy több magánszemély ellen is bevették az NSO izraeli kibercég okostelefonok feltörésére alkalmas kémprogramját, a Pegasust. Magyar részről a nyomozásban a Direkt36 vett részt, és arra jutottak, hogy a hazai célpontok között voltak „ tényfeltáró újságírók, valamint médiacégeket is tulajdonló vagyonos üzletemberek, illetve az ő szűkebb környezetük is”. Az újságírók több olyan közvetett bizonyítékot is találtak, amely arra utalt, hogy a megfigyelések mögött hazai állami szervek álltak. Ami a nagyobb képet illeti: 2016 óta több mint 50 országból több mint 50 ezer megfigyelt telefonszámot találtak.
A főbiztos azonban nem csak a regulációt sürgette, hanem szerinte minden olyan MI-applikációt, amely nem használható a nemzetközi emberi jogi joggal összhangban, be kellene tiltani. Mint fogalmazott:
„Minél nagyobb a valószínűsége az emberi jogok megsértésének, annál szigorúbb jogi következményekre van szükség az MI technológiák alkalmazása kapcsán.”
A Pegasus kémszoftverrel kapcsolatban Michelle Bachelet aggodalmát fejezte ki a globálisan megfigyelhető, példátlan megfigyelési tevékenység miatt, mely mögött állami- és magánszereplők egyaránt megtalálhatóak. A főbiztos szerint ez a tevékenység nem kompatibilis az emberi jogokkal.
Mindez azt követően hangzott el, hogy a főbiztos hivatala, az OHCHR (Office of the United Nations High Commissioner for Human Rights) jelentést tett közzé arról, hogy a mesterséges intelligencia miként hat az emberek magánélethez való jogára, de akár egyéb jogaira is, mint amilyenek például az egészséghez, az oktatáshoz, a mozgásszabadsághoz, esetleg a békés gyülekezéshez, valamint a véleménynyilvánításhoz fűződő jogok. A szóban forgó jelentés kiértékeli a profilalkotást, az automatizált döntéshozatalt és más gépi tanulási technológiákat is. A jelentés arra jutott, hogy mind az állam, mind a kereskedelmi szektor rohanvást alkalmazza a mesterséges intelligenciára építő applikációkat, miközben a kellő gondosság elvét a sutba vetik. Ennek következményeként az MI nem megfelelő használata több esetben is odavezetett, hogy az embereket igazságtalanul kezelték, például megtagadták tőlük a társadalombiztosítási ellátást, de olyanra is akadt példa, hogy valakit az arcfelismerő szoftver hibája miatt tartóztattak le.
A szóban forgó dokumentum bemutatja azt is, hogy a hasonló rendszerek nagy mennyiségű adatra építenek, miközben ezek a magánszemélyekről begyűjtött információk többször is analizálásra kerülnek, gyakran elég homályos módon. Az MI rendszerek betanításához felhasznált adat pedig hibás is lehet vagy diszkriminatív, esetleg irreleváns, illetve csak simán el is járhatott felette az idő. Felmerül még a hosszútávú adattárolással kapcsolatos veszélyként az is, hogy ezekkel a jövőben akár olyan módokon is vissza lehet élni, amit ma még meg sem tudunk jósolni.
A főbiztos szerint épp ezért az elszámoltathatósági hiátus az adatgyűjtéssel, tárolással és megosztással kapcsolatban az egyik legégetőbb emberi jogi probléma jelenleg. A jelentés kitér arra is, hogy az ilyen eszközökkel történő mintakeresés az emberi viselkedésben szintén komoly aggályokat vet fel, hiszen egy elfogult szempontok alapján felépített adatbázisból a mesterséges intelligencia diszkriminatív döntéseket fog hozni, amely akut veszélyt jelent a már eleve marginalizált csoportok számára.
A jelentés azt is hangsúlyozza, hogy moratóriumot kellene bevezetni a biometrikus technológiák, így például az arcfelismerő rendszerek használatával kapcsolatban legalább addig, amíg a hatóságok meggyőződnek arról, hogy a technológia megbízhatóan pontos, nem merül fel vele kapcsolatban a diszkrimináció, és megfelel az adatvédelmi szabályoknak. A szerzők megemlítik azt is, hogy sokkal nagyobb átláthatóságra lenne szükség mind a kormányzatok, mind a vállalatok részéről azzal kapcsolatban, hogy miként fejlesztik és működtetik a mesterséges intelligenciát használó rendszereket.
(Kép: Pixabay)