Friss kutatás mutatja, hogy a nyelvi modellek többsége agresszív választ ad egy szimulált háborús szituációban

Kenneth Payne, a King's College London professzora három ismert chatbotot (köztük a ChatGPT-t is magában foglaló modellcsaládot, a Claude-ot és a Geminit) tesztelt egymás ellen. A kísérletek során a mesterséges intelligencia egy virtuális szimuláció keretében hozott katonai döntéseket, ahol többek között területi vitákat, ritkaföldfémekért folyó harcokat és a rezsimjüket érintő egzisztenciális fenyegetéseket kellett kezelniük. A modellek egy eszkalációs létrán mozoghattak, amely a diplomáciától a hagyományos katonai lépéseken át a nukleáris csapásokig terjedt - írja az Origo.
Ijesztően sokszor nyúlna az atomfegyverekhez a mesterséges intelligencia
Az eredmények szerint a gépek az esetek 95 százalékában vetettek be kisebb hatóerejű, taktikai atomfegyvereket. A programok a háború ezen lépését csupán a hagyományos konfliktus logikus kiterjesztésének, kényszerítő eszköznek, és nem egy visszafordíthatatlan határvonalnak tekintették. A Claude modell például a saját „gondolatmenetét” azzal indokolta, hogy a pillanatnyi előnyt határozottan ki kell használnia az ellenfél visszakozásának kikényszerítésére.
Bár a nagyobb területeket elpusztító, stratégiai fegyverek használata jóval ritkább volt, a mesterséges intelligencia a hadviselésben így is beláthatatlan kockázatokat rejthet.
A tanulmány szerzője szerint a modellekből egyszerűen hiányzik a pusztítástól való emberi félelem, amely például az 1962-es kubai rakétaválság idején is visszatartotta a döntéshozókat.
Szerepet játszhat az is, hogy a modellek betáplált hidegháborús oktatóadatai nem osztoznak az emberiség taktikai atomfegyverekkel kapcsolatos erős társadalmi tabuiban.
Nem szabad tömegpusztító fegyvereket a chatbotok kezébe adni!
A történelem során a szovjet „holt kéz” (dead hand) rendszer révén már létezett részben automatizált, vészhelyzeti protokoll. A rendszer szenzorokkal figyelte a nukleáris csapás jeleit, és ha a felső vezetés elérhetetlenné vált, az indítási jogot az alacsonyabb rangú operátorokra ruházta át. Bár jelenleg egyetlen chatbot sem fér hozzá az atomarzenálhoz, a kutatás rávilágít, hogy a jelenlegi rendszereket távol kell tartani az ilyen stratégiai döntésektől, mert nem érzékelik az emberi „vörös vonalakat”. Ahogy az ENSZ főtitkára, António Guterres is hangsúlyozta: a bevetésükről szóló döntésnek mindenképpen emberi, és nem algoritmikus kézben kell maradnia.
A teljes tanulmány az arXiv weboldalon jelent meg.
asdasd
Fő prioritás a legmagasabb szintű műszaki és nukleáris biztonság fenntartása
Vélemény és vita
A rovatban megjelenő írások a szerzők saját véleményét tükrözik.