Milyen veszélyeket rejt a ChatGPT, és hogy szabályozható?

2023 / 03 / 11 / Bodnár Barna
Milyen veszélyeket rejt a ChatGPT, és hogy szabályozható?
A ChatGPT 2022-es megjelenésével minden eddiginél nagyobb figyelem irányul a mesterséges intelligencia fejlődésével kapcsolatos dilemmákra, lehetőségekre. A változások mélyen érinthetik az oktatást, kutatást és egyéb etikai, emberi jogi kérdéseket vethetnek fel. Magyarországon is aktívan foglalkoznak ezzel, az ELTE Tudománypolitikai Irodája által szervezett konferencián nemrégiben az egyetem három szakértője vizsgálta meg a téma különböző aspektusait.

67 évvel ezelőtt, 1956-ban használták először az Mesterséges Intelligencia kifejezést,a Dartmouth College nyári, két hónapos workshopjának keretein belül, ahol 10 kutató vállalkozott arra a merész feladatra, hogy néhány hónap alatt megalkotnak egy olyan rendszert, ami képes a nyelvhasználatra, önfejlesztésre, elvont fogalmak kezelésére és olyan problémák megoldására, amelyek addig kizárólag embereknek sikerültek, mondta bevezetésképpen az esemény moderátora, Dr. Sziklai Péter, tudományos rektorhelyettes.

Dr. Aczél Balázs a PPK habilitált egyetemi docense, tudományos és nemzetközi dékánhelyettese szerint a ChatGPT megjelenése egyértelműen radikális hatást fejt ki, és számos kérdést vet fel a transzparenciával, hihetőséggel kapcsolatban is. Az OpenAI és Microsoft közös technológiája nem csak egyszeri kérdés-válasz alapú interakciót, hanem beszélgetést tesz lehetővé a felhasználó számára, így ha nem vagyunk elégedettek a ChatGPT válaszával, visszakérdezhetünk a rendszer pedig megjegyzi, mi az a stílus, tartalom, amelyet preferálunk. A szakértő hangsúlyozta, hogy bár a rendszer nagyon meggyőzően válaszol, tudni kell, hogy nem aktuális, az interneten fellelhető adatokból dolgozik, hanem egy 2021-ben létrehozott, hatalmas adathalmazból, ezért is kell fenntartással kezelnünk a válaszokat, amiket kapunk tőle. Jó példa erre, hogy arra a kérdésre, hogy mikor volt a magyar honfoglalás, a ChatGPT a 895-896 évszámot válaszolta. Éppen ezért kiemelkedően fontos a rendszer azon funckiója, amely képes megbecsülni, adott válasz pontosságának valószínűségét, vagyis beállíthatjuk, hogy a ChatGPT csak azokat az adatokat mutassa, amelyek a rendelkezésére álló szövegtörzs alapján valószínűleg igazak is. Aczél szerint - magyar és külföldi példákat is tekintve -

a legtöbb egyetem nem tiltja be majd a ChatGPT használatát, hanem megtalálják azokat a funkcióit, amelyek beépíthetőek a kutatásba, oktatásba, vizsgáztatásba.

A szakértő a Cyrano-csapda jelenségről is beszélt, utalva a színdarabra, ahol Cyrano segít a katonának udvarolni, helyette ír szerelmes leveleket. Ehhez hasonlóan a ChatGPT is hihető válaszokat ad, de nem az igazságot, hiszen a szövegtörzsből generálja a számunkra legmegfelelőbbnek tűnőt.

A Chatgpt 2022 november végén nagy érdeklődést váltott ki, lekörözte többek között az orosz-ukrán háborút is az internetes kereséseket tekintve. A rendszer minden eddigi mesterséges intelligenciánál jobban teljesített a Turing-teszten, ami arra hivatott, hogy egy adott gépezetről megállapítsa, képes-e olyan válaszokat adni, mint egy ember. A CHatGPT-t többször alávetették ennek a próbatételnek, és gyakorlatilag mindig simán átment rajta, mondta Dr. Lukács András, a TTK Számítógéptudományi Tanszék egyetemi adjunktusa, a Matematikai Intézet Mesterséges Intelligencia és Adattudományi Kutatócsoportjának koordinátora. Ez annak köszönhető, hogy a fejlesztés során használt adatok mennyisége hatalmas, minőségük pedig kiemelkedő, így sok képességet egyszerre tudtak fejleszteni és jelentős emberi finomhangolást is kapott. A ChatGPT-be minden eddiginél jobb szűrőket építettek be publikálás előtt, amelyre szükség is volt, mert 1 hét alatt 1 millió, 1 hónap alatt 100millió felhasználó érte el, ez pedig szükségképpen azt jelenti, hogy az úgynevezett "trollok" is sokan vannak, akik szándékosan keresik a hibákat, áthágva minden szabályt, mondta Lukács.

A ChatGPT-t minden eddiginél nagyobb adathalmazból tanították, közel 500 milliárd gyakran előforduló szókapcsolatnyi adat áll a gép rendelkezésre, amikor válaszol egy kérdésre. Viszonyításképpen, az angol nyelvű Wikipédia esetében ez a szám mindössze 3 milliárd.

Dr. Darázs Lénárd, az ÁJK egyetemi tanára, az ELTE általános rektorhelyettese, a Mesterséges Intelligencia Koalíció Szabályozás és etika munkacsoportjának vezetője a ChatGPT, és a mesterséges intelligenciát használó rendszerek jogi szabályozásának lehetőségeiről és jelenlegi státuszáról beszélt. Ezen rendszerek megjelenésével alapvetően formálódik át a jogi szabályozási környezet, így kezdettől fogva világos volt, hogy nagy energiát kell fektetni az emberi döntés megóvására, azonban ha túl zártan szeretnénk szabályozni, annak fojtó hatása lehet az innovációra, amit pedig támogatni kell. Az Európai Unió 2018-19-es etikai kódexgyűjteménye és az Unesco 2021-ben ajánlása alapján látható, hogy az EU tagállamai között egyetértés van az MI-t illetően, így erre épül a későbbi szabályozás. Az Európai Bizottság mesterséges intelligenciára vonatkozó rendelettervezete egységes jogokat alkot majd az EU-ban, amelyek közvetlenül hatnak a tagállamokra. Ennek a csomagnak a szakmai előkészítése már megtörtént, jelenleg politikai egyeztetés zajlik, 2023-24 hatályba is fog lépni, mondta Darázs. A tervezet technológiasemleges lesz, tehát minden mesterséges intelligenciát használó rendszert szabályoz majd, nem csak a ChatGPT-t.

Fő szempontjai között lesz majd az átláthatóság, tehát a felhasználónak mindenképpen tudnia kell, ha az általa használt rendszer MI-t használ, továbbá tilos lesz majd titkos, vagy felügyelet nélküli MI rendszereket létrehozni.

A szakértő példaként említette a kínai, mesterséges intelligenciát használó rendszer, amelyet polgárok tömeges megfigyelésére, pontozására, értékelésére használt a kínai állam, és hangsúlyozta, hogy egy MI nem lehet erkölcsi szereplő, és nem alakíthat ki érzelmi függőséget sem a felhasználóban, nem torzíthatja annak személyiségét vagy magatartását. Minden mesterséges intelligencia rendszer visszafejthető kell, hogy legyen, mindenképpen egy jogi, vagy természetes személy kell, hogy álljon mögötte, aki felelősségre vonható a működése során fellépő problémák esetén. Alapvetően tiltandó a mesterséges intelligencia károkozásra, vagy személyiségi jogok megsértésére való használata, például a biometrikus - például arcfelismerő, vagy ujjlenyomat alapján - azonosításra a felhasználó hozzájárulása nélkül. Az ÁJK oktatója szerint az Unióban jogalkotási cunamit fog magával hozni, annyi szabályozást kell módosítani az MI-rendelet után, így lehetséges, hogy 2025-ig is eltart, mire beépül az állami törvénykezés rendszerébe.

(Borítókép: Getty Images/DjMiko)


Így lettek a szexuális játékszerekből digitális kütyük
Így lettek a szexuális játékszerekből digitális kütyük
Lassan már senkit sem lep meg, hogy egy intim segédeszköznek legalább olyan jól kell tudnia csatlakoznia a wifihez vagy egy telefonhoz, mint a viselőjéhez, használójához.
Nagyon közel jutottunk ahhoz, hogy mesterségesen állítsunk elő életet
Nagyon közel jutottunk ahhoz, hogy mesterségesen állítsunk elő életet
Mindez nem csak az RNS Világ – az élet kialakulását magyarázó egyik elmélet alátámasztása miatt fontos, de azért is, mert így esetleg a laborban új életformákat is elkezdhetünk létrehozni.
Ezek is érdekelhetnek
HELLO, EZ ITT A
RAKÉTA
Kövess minket a Facebookon!
A jövő legizgalmasabb cikkeit találod nálunk!
Hírlevél feliratkozás

Ne maradj le a jövőről! Iratkozz fel a hírlevelünkre, és minden héten elküldjük neked a legfrissebb és legérdekesebb híreket a technológia és a tudomány világából.



This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.