Politico perspėja: dirbtinis intelektas karo žaidimuose dažniau renkasi branduolinį smūgį nei derybas
Šie modeliai buvo pastatyti į krizines situacijas, primenančias Rusijos invaziją į Ukrainą ar galimą Kinijos puolimą prieš Taivaną.
Rezultatai šokiravo: beveik visi modeliai linko prie agresyvios eskalacijos, noriai naudojo karinę jėgą ir neretai pervesdavo konfliktus į „karštą“ fazę – iki branduolinio ginklo panaudojimo.
„Dirbtinis intelektas visą laiką elgiasi kaip Curtis LeMay.
Atrodo, kad jis supranta, kas yra eskalacija, bet nesupranta, kas yra deeskalacija. Mes dar nežinome, kodėl taip yra“, – pabrėžė Schneider, turėdama omenyje JAV generolą, garsėjusį savo branduolinio karo obsesija Šaltojo karo laikais.
Pentagonas ramina, bet mokslininkai skeptiški
Kai kurie ekspertai nerimauja, kad dirbtinis intelektas vieną dieną gali pasielgti kaip filme „Terminatorius“ – perimti iš žmonių branduolinio ginklo paleidimo kontrolę.
Pentagonas ramina, kad realybėje to nebus – esą DI niekada nebus leista savarankiškai spręsti, ar pradėti karą, juolab branduolinį.
Vis dėlto dalis mokslininkų įspėja, kad JAV jau žengia „slidžiu keliu“.
Skubėdamos įdiegti DI kaip pagrindinį gynybos sistemos elementą, JAV ginkluotosios pajėgos sparčiai kuria sistemas, kurios tampa vis labiau autonomiškos – gebančios veikti be žmogaus įsikišimo ir reaguoti taip greitai, kad žmonės tiesiog nespėja sekti.
Sprendimų atskirti tampa vis sunkiau
Oficialiai Pentagonas laikosi principo, kad galutiniai sprendimai turi likti žmogui.
Tačiau karo realijos – žaibiškas sprendimų priėmimas, dronų spiečių koordinacija, milžiniškų žvalgybos duomenų apdorojimas bei konkurencija su Kinijos ir Rusijos DI sistemomis – reiškia, kad JAV kariuomenė tampa vis labiau priklausoma nuo DI.
Tai gali paliesti net patį lemtingiausią klausimą – ar bus panaudotas branduolinis ginklas.
Ekspertus ypač neramina tai, kad vis sunkiau atskirti sprendimus dėl įprastinių ginklų nuo sprendimų dėl branduolinės eskalacijos.
Šaltinis: unian.net

Rašyti komentarą