Így készül fel az USA hadserege arra, hogy autonóm robotok "masszív seregével" kell majd harcolnia

2023 / 08 / 12 / Felkai Ádám
Így készül fel az USA hadserege arra, hogy autonóm robotok
A nehézséget az jelenti, hogy az amerikai hadsereg etikai okokból (állítása szerint) nem vetne be autonóm, önálló gyilkolásra képes eszközöket, ugyanakkor ez esélyesen nem jelenthető ki az USA ellenfeleiről. A kérdés tehát leegyszerűsítve: miként lehet védekezni kifejezetten az autonóm “terminátorok” ellen, anélkül, hogy az USA is ilyeneket vetne be? A válasz: rendkívül fejlett mesterséges intelligenciával.

Talán a Pentagonnak valóban nem áll szándékában teljesen autonóm, "halálos" terminátor típusú robotokat bevetni, amelyek emberi beavatkozás nélkül gyilkolnak, ugyanakkor ez nem jelenti azt, hogy ne készülnének az ilyen fegyverek ellen. Annak mindenesetre van esélye, nem is csekély, hogy az ellenséges erők több ezer autonóm fegyveres robotot vethetnek be, amelyek emberi beavatkozás nélküli támadásra vannak programozva.

Az Army Futures Command így egy olyan élvonalbeli, kettős megoldáson dolgozik, amely magában foglalja a mesterséges intelligencia áttörést jelentő fejlesztéseinek az alkalmazását olyan területeken, mint a felügyelet, a hálózatépítés, az automatizált védelmi fegyverek, valamint az adatskálázás és -kezelés, ugyanakkor előrevetíti a jövőbeli hadviselés környezetét is, amelyben az ellenfelek teljesen autonóm támadórobotokat küldenek az etika figyelmen kívül hagyásával.

William Nelson, az Army Futures Command parancsnokhelyettese szerint az amerikai hadsereg elkötelezett az etikai értékek és az emberi döntéshozatal iránt, miközben az autonóm technológiákat próbálja meg integrálni az USA arzenáljába – írja hosszabb elemzésében a Warrior Maven. A katonaság kísérleteket végez az autonómia elfogadható szintjének meghatározására a csatatéren, és a TRADOC-kal (U.S. Army Training and Doctrine Command) együtt azon dolgozik, hogy ezeket az eredményeket beépítse a katonai doktrínába is.

Az ellenséges autonóm robotok megsemmisítésének képessége és az etikai elvek tiszteletben tartása közötti egyensúly megteremtése összetett kihívást jelent: a hadsereg célja, hogy az ellenséges robotok képességeit megelőzze, legyen szó érzékelésről, reakciós időről vagy precizitásról, miközben biztosítja azt is, hogy az emberek felügyeljék a halálos erővel kapcsolatos döntések meghozatalát – ez az úgynevezett “in the loop” mentalitás, ami mellett tehát az amerikai hadsereg elkötelezett.

A technológia és a mesterséges intelligencia megbízhatóságának fejlődésével azonban megkerülhetetlen az „out-of-the-loop” mesterséges intelligencia kérdése, amely esetben érzékelőkkel és mesterséges intelligenciarendszerekkel összekapcsolt automatizált fegyverek kifejezetten védekező és nem halálos célokra használhatók. A hadsereg már régebben is foglalkozott ilyen kihívásokkal, hangsúlyozva az “in the loop” doktrína fontosságát. 2009-ben a hadsereg megerősítette ezt a doktrínát a MULE jármű sikere miatt, amely önállóan képes követni és lecsapni az ellenséges célpontokra páncéltörő rakétákkal.

Az „out of the loop” MI koncepciója azonban kérdéseket vet fel azzal kapcsolatban, hogy az MI-kompatibilis rendszerek képesek-e azonosítani és elfogni az olyan fenyegetéseket, mint a drónok, pilóta nélküli rendszerek és ellenséges rakéták. A Pentagon azt vizsgálja, hogy a mesterséges intelligencia autonóm elfogóként szolgálhatna, amely képes gyorsan azonosítani, követni és semlegesíteni a beérkező fenyegetéseket, például rakétákat, tüzérséget, aknavetőket és hiperszonikus fegyvereket. Noha az emberi döntéshozatal továbbra is kulcsfontosságú, a Pentagon azt vizsgálja, hogy a mesterséges intelligencia hogyan javíthatja a védekező képességeket, és nem halálos célzattal akár önállóan is működhetne.

A fentiek kapcsán az elsődleges aggály tehát az MI-vezérelt fegyverek használatát övező etikai dilemma, különösen olyan esetekben, amikor “halálos erőre” van szükség. Az Egyesült Államok ebben a kérdésben tehát arra törekszik, hogy világos etikai irányelveket fogalmazzon meg és tartson fenn a mesterséges intelligencia hadviselésben való használatára vonatkozóan.

Az egyik nézőpont az, hogy az autonóm robotokból hiányoznak az emberi tulajdonságok, így megsemmisítésük “nem halálos” cselekvés, mivel nem jár egy élőlény károsításával. Ez a perspektíva azonban kérdéseket vet fel azzal kapcsolatban, hogy az USA milyen taktikai hátrányokkal szembesülhet ezen etikai álláspontja miatt. Ezzel szemben ugyanis az ellenséges erők rugalmasabb etikai határok mentén közelíthetik meg a halálos, autonóm robotok hatékony bevetésének a kérdését.

Az Egyesült Államok Védelmi Minisztériuma (DoD) azon dolgozik éppen, hogy megtalálja az egyensúlyt az etikai normák betartása és a gyors és halálos választ igénylő harci helyzetek követelményeinek a teljesítése között. Ennek a kihívásnak a megoldása érdekében a DoD olyan "out-of-the-loop" nem halálos autonóm rendszerek fejlesztését vizsgálja, amelyek képesek függetlenül működni, de megfelelnek az etikai korlátoknak is.

Az Army Futures Command élen jár az MI-vel felszerelt fegyverek tesztelésében és felkészítésében a jövőbeli harci forgatókönyvekhez. A fő hangsúly az MI megbízhatóságának javítására helyeződik a „Zero Trust” néven ismert koncepció révén, amely magában foglalja az MI-rendszerek adatbázisainak pontosságának biztosítását a teljesítményük javítása érdekében. Az adatok címkézése és ellenőrzése központi szerepet játszik ebben az erőfeszítésben, mivel a mesterséges intelligencia csak annyira hatékony, mint az adatok, amelyekkel betanították.

Az MI-kompatibilis rendszereknek nemcsak feldolgozniuk kell a bejövő adatokat, hanem kontextusban is elemezniük kell azokat a pontos meghatározás érdekében. Kihívások merülnek fel, amikor az adatok különböző szállítási rétegeken keresztül többféle formátumban érkeznek – például mi van akkor, ha az egyik kritikus adatkészlet egy GPS-jelből, egy másik egy RF-rendszerből vagy egy adatkapcsolatból érkezik, míg a harmadik optikai vagy más vezeték nélküli úton érkezik? Épp ezért az MI-nek az eltérő információk hatékony integrálására és értelmezésére van szüksége.

A megoldást az úgynevezett „átjáró” rendszerek rejthetik, amelynek a célja éppen a különböző adatforrások összesítése és elemzése, hogy egységes képet hozzon ezekből létre. Ez kulcsfontosságú a mesterséges intelligencia számára a pontos értékeléséhez, még akkor is, ha homályos vagy egymásnak ellentmondó mutatókkal szembesül, mivel az ellenfelek megkísérelhetik megtéveszteni az MI-rendszereket adatok hamisításával.

Egy MI-alapú rendszer például könnyen felismeri a különbséget a T-72, T-90 vagy T-14 Armata ellenséges harckocsik között. Az ellenfél azonban tudhatja, hogy az MI-kompatibilis ISR képes erre, és ezért olyan egyszerű dologgal próbálja "átverni" az algoritmust, mint egy "poszter" vagy más homályos tárgy elhelyezése a jármű tetején, hogy "összezavarja" az algoritmust, amelynek a feladata annak az azonosítása lenne.

Az ilyen jellegű kihívásokra válaszul a Pentagon és iparági partnerei olyan mesterséges intelligencia-rendszereket kutatnak, amelyek képesek különféle változók és mutatók egymáshoz viszonyított elemzésére. Például abban az esetben, ha az ellenséges harckocsit poszter takarja, az MI-rendszerek esetleg elemzhetik a "hőjelzést", a környező járműveket vagy más tényezőket, mint például a terep vagy egy már korábban ellenőrzött tevékenység. A mesterséges intelligencia élvonalbeli alkalmazásai most épp erről szólnak: lényegében különféle tényezőket kutatnak és értékelnek egymáshoz viszonyítva, hogy "pontos és teljes kép" szülessen meg abban az esetben is, ha egyes mutatók hamisak vagy egyszerűen helytelenek. Ez segíthet a pontosság és megbízhatóság biztosításában, ami a Zero Trust végső célja.

A mesterséges intelligencia már most is rendkívül pontos és gyors különféle módokon, de pontosságának javítása, részben az ilyen kezdeményezések révén, azok a módszerek, amelyekkel a hadsereg és más szolgálatok olyan mesterséges intelligencia rendszereket próbálnak kifejleszteni, amelyek képesek a szubjektívebb jelenségek és forgatókönyvek elemzésére is.

Az Army Futures Command, valamint iparági és szolgáltató partnerei, például az Air Force Research Laboratory szerint végső soron ez a mesterséges intelligencia kutatási élvonalának jelenlegi legfontosabb kérdése:

Meg tudja-e határozni egy matematikailag leírható számítógépes rendszer az emberi tudat és döntéshozatal érzelmi összetettségét, etikai paramétereit, filozófiai változatait vagy elemeit?

(Kép: Pixabay/GBTaylor)


Így lettek a szexuális játékszerekből digitális kütyük
Így lettek a szexuális játékszerekből digitális kütyük
Lassan már senkit sem lep meg, hogy egy intim segédeszköznek legalább olyan jól kell tudnia csatlakoznia a wifihez vagy egy telefonhoz, mint a viselőjéhez, használójához.
Olyasmiket írtak a felhasználók Hszi Csin-pingről, hogy rögtön betiltották a Facebook appjait Kínában
Olyasmiket írtak a felhasználók Hszi Csin-pingről, hogy rögtön betiltották a Facebook appjait Kínában
A Facebook anyavállalatához, a Metához tartozó WhatsApp és Threads mellett a Telegram és a Signal is eltűnik Kínában az App Store-ból, miután a Kínai Kibertér-felügyelet "nemzetbiztonsági kockázatot" látott azokban.
Ezek is érdekelhetnek
HELLO, EZ ITT A
RAKÉTA
Kövess minket a Facebookon!
A jövő legizgalmasabb cikkeit találod nálunk!
Hírlevél feliratkozás

Ne maradj le a jövőről! Iratkozz fel a hírlevelünkre, és minden héten elküldjük neked a legfrissebb és legérdekesebb híreket a technológia és a tudomány világából.



This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.