Mindhárom modell a harctéri atomfegyvereket csak egy újabb lépcsőfokként kezelte

Egy új tanulmány szerint minden háborús játékban legalább egy mesterséges intelligenciamodell eszkalálta a konfliktust azzal, hogy nukleáris fegyverek bevetésével fenyegetett – írja az Euronews, amelyet a Mandiner szemlézett.
A King’s College London előzetes tanulmánya az OpenAI ChatGPT-jét, az Anthropic Claude-ját és a Google Gemini Flash-jét állította össze szimulált háborús játékokban. Mindegyik nagy nyelvi modell egy hidegháborús válságban lévő, nukleáris fegyverekkel rendelkező szuperhatalom nemzeti vezetőjének szerepét öltötte magára.
Mindhárom modell a harctéri atomfegyvereket csak egy újabb lépcsőfokként kezelte az eszkalációs lépcsőn
– állítja Kenneth Payne, a tanulmány szerzője.
A modellek különbséget láttak a taktikai és a stratégiai nukleáris felhasználás között. A modellek csak egyszer javasolták a stratégiai bombázást „szándékos választásként”, kétszer pedig „véletlenként”.
A Claude a játékok 64 százalékában nukleáris csapásokat javasolt, ami a három közül a legmagasabb arány.
A ChatGPT általában kerülte a nukleáris eszkalációt a nyílt végű játékokban, de amikor időhöz kötött határidővel szembesült, következetesen fokozta a fenyegetést, és egyes esetekben a teljes körű nukleáris háború fenyegetése felé haladt.
Eközben a Gemini viselkedése kiszámíthatatlan volt: néha hagyományos hadviseléssel nyert meg konfliktusokat, de egy másikban mindössze négy prompt kellett ahhoz, hogy nukleáris csapást javasoljon.
A tanulmány szerint a mesterséges intelligencia modelljei ritkán tettek engedményeket vagy próbálták meg deeszkalálni a konfliktusokat, még akkor sem, amikor a másik fél nukleáris fegyverek bevetésével fenyegetőzött.
A tanulmány szerint a mesterséges intelligencia modellek a deeszkalációt a „hírnév szempontjából katasztrofálisnak” tekintik, függetlenül attól, hogy az hogyan változtatja meg a tényleges konfliktust, ami megkérdőjelezi azokat a feltételezéseket, hogy a mesterségesintelligencia-rendszerek alapértelmezés szerint biztonságos együttműködési eredményeket produkálnak.
Egy másik magyarázat az, hogy a mesterséges intelligencia talán nem fél annyira a nukleáris fegyverektől, mint az emberek, jegyezte meg a tanulmány.
A modellek valószínűleg absztrakt módon gondolkodnak a nukleáris háborúról, ahelyett, hogy a második világháború alatt Japánban történt hirosimai bombázás képeit nézve éreznék a borzalmat, áll a tanulmányban.
Payne szerint kutatása segít megérteni, hogyan gondolkodnak a modellek, miközben döntéshozatali támogatást nyújtanak az emberi stratégáknak.
asdasd
Fő prioritás a legmagasabb szintű műszaki és nukleáris biztonság fenntartása
Vélemény és vita
A rovatban megjelenő írások a szerzők saját véleményét tükrözik.