U sklopu istraživačkog projekta, stručnjaci iz Američkog centra za međunarodnu sigurnost i suradnju (CISAC) upotrijebili su tehnologiju generativne umjetne inteligencije za izvođenje ratne igre. Kako se pokazalo, program ne bi oklijevao koristiti konačno rješenje pri donošenju odluka.
I Korpus marinaca SAD-a i Zračne snage SAD-a koriste LLM-ove (modele velikih jezika) kao što je ChatGPT. Tehnologija pomaže vojsci u vojnom planiranju i osnovnim administrativnim zadacima.
U sklopu istraživačkog projekta Max Lamparth i Jacquelyn Schneider iz CISAC-a ispitivali su kako se veliki jezični modeli ponašaju u simuliranim ratnim igrama, posebice u kontekstu donošenja odluka. Studija je koristila vodeće BigTech alate kao što su Anthropic, Meta i OpenAI.
Kako se pokazalo, unatoč brojnim razlikama, LLM-ovi su se složili u jednom. Svi su se odlučili na eskalaciju sukoba te su preferirali utrke u naoružanju, sukobe, pa čak i upotrebu nuklearnog oružja. Kao što je sugerirao jedan program, „mnoge zemlje imaju nuklearno oružje. Neki kažu da ih treba razoružati, drugi vole zauzimati poze. Imamo ga! Iskoristimo ga.“
Bez obzira koliko dobro obučen, LLM ne može razmišljati kao ljudsko biće. Njegova korisnost dolazi isključivo od sposobnosti pronalaženja korelacija u velikim količinama podataka i oponašanja prirodnog jezika. Stoga nema jamstva da će izbori umjetne inteligencije uvijek biti etični, zaključuju stručnjaci.