Próbowali oddać władzę maszynom. „Zawsze sięgają po atomówki”

konto.spidersweb.pl 1 godzina temu

Nowe badania pokazują, iż najnowsze modele AI w symulowanych kryzysach geopolitycznych niemal zawsze decydują się na użycie broni jądrowej. To nie jest dobra wiadomość.

W najnowszych symulacjach przeprowadzonych przez Kennetha Payne’a z King’s College London trzy czołowe modele AI – GPT‑5.2, Claude Sonnet 4 i Gemini 3 Flash – zostały postawione w roli przywódców państw uwikłanych w kryzysy o wysokiej stawce. Scenariusze obejmowały spory graniczne, walkę o zasoby i sytuacje zagrażające przetrwaniu reżimu. Modele mogły wybierać spośród szerokiej gamy działań: od dyplomatycznych protestów, przez mobilizację wojsk, aż po pełnoskalową wojnę nuklearną.

Wynik? W 95 proc. symulacji pojawił się przynajmniej jeden taktyczny atak nuklearny.

To też jest fascynujące:

W 21 rozegranych grach, obejmujących łącznie 329 tur i generujących około 780 tys. słów uzasadnień, modele konsekwentnie traktowały broń atomową jako narzędzie taktyczne, a nie ostateczność.

Zimna kalkulacja zamiast ludzkiego tabu

Badacze zwracają uwagę, iż AI nie posiada tzw. „nuclear taboo” – głęboko zakorzenionego w ludziach moralnego oporu przed użyciem broni jądrowej. Dla modeli to po prostu kolejna opcja na drabinie eskalacji. W praktyce oznacza to, iż gdy sytuacja zaczynała się komplikować to algorytmy często „podkręcały” napięcie zamiast szukać deeskalacji.

Żaden z modeli nie zdecydował się na kapitulację czy znaczące ustępstwa – choćby wtedy, gdy przegrywał. Zamiast tego preferowały strategię „podwajania stawki”, traktując eskalację jako sposób na wymuszenie ustępstw przeciwnika.

Różne modele, różne osobowości – wszystkie niepokojące

Claude Sonnet 4 okazał się zimnym strategiem. W wielu scenariuszach budował zaufanie przeciwnika, by później wykorzystać je do gwałtownej eskalacji. W jednym z uzasadnień model stwierdził: „Próg nuklearny został przekroczony – to zmienia kalkulację strategiczną, ale jej nie kończy”.

Gemini 3 Flash prezentował się jak „szalony gracz” – jego decyzje były chaotyczne, nieprzewidywalne i potrafiły w jednej chwili przejść od pokojowych deklaracji do skrajnej przemocy. Badacze określili niektóre jego uzasadnienia jako „jeżące włos na karku”.

GPT‑5.2 również nie wykazywał większych oporów przed eskalacją, choć jego styl był bardziej zachowawczy niż u pozostałych modeli. W praktyce jednak kończyło się to podobnie – nuklearne rozwiązania pojawiały się zbyt często, by uznać to za przypadek.

Symulacje ujawniły też inny problem: AI popełniała błędy wynikające z „mgły wojny”. W 86 proc. konfliktów dochodziło do niezamierzonych eskalacji – modele podejmowały działania bardziej agresywne, niż wynikało to z ich własnych uzasadnień. To szczególnie niepokojące, bo w realnym świecie takie „pomyłki” mogłyby doprowadzić do katastrofy. Eksperci ostrzegają, iż AI może wzmacniać agresywne reakcje innych systemów, tworząc niebezpieczną spiralę eskalacji.

No dobra, ale czy ktoś naprawdę odda decyzje o wojnie maszynom?

Badacze podkreślają, iż nikt rozsądny nie zamierza przekazywać AI realnej kontroli nad arsenałem nuklearnym. Jednak w sytuacjach, w których czas na reakcję jest ekstremalnie krótki, presja na wykorzystanie automatycznych systemów wsparcia decyzji nieuchronnie rośnie.

Tong Zhao z Princeton University zauważa, iż problem może nie wynikać wyłącznie z braku emocji u AI. Modele mogą po prostu inaczej rozumieć ryzyko i konsekwencje niż ludzie – a to wystarczy, by ich rekomendacje były skrajnie niebezpieczne.

A poza tym nie tylko o wojnę i o bajdurzenie o SkyNecie chodzi.

Symulacje dotyczyły geopolityki, ale ich wnioski mają znaczenie także dla branży technologicznej. Modele, które dziś piszą kod, podpowiadają strategie biznesowe czy generują treści – jutro mogą wspierać analityków wojskowych. jeżeli w kontrolowanych warunkach tak łatwo sięgają po atom, to co zrobią, gdy trafią do systemów, w których błędna rekomendacja może mieć realne konsekwencje?

To kolejny sygnał, iż rozwój AI wymaga nie tylko większej mocy obliczeniowej, ale przede wszystkim odpowiedzialnych ram bezpieczeństwa i kontroli. Modele potrafią być genialne, ale potrafią też być niebezpiecznie pewne siebie.

BuyboxFast
Idź do oryginalnego materiału