kultura

АИ не може престати да препоручује нуклеарне ударе у симулацијама ратних игара

Облак печурке након експлозије француске атомске бомбе изнад атола Муруроа, познатог и као Аопуни

Вештачка интелигенција се изненађујуће често одлучује за нуклеарно оружје

Галерие Билдервелт/Гетти Имагес

Чини се да су напредни модели вештачке интелигенције вољни да примене нуклеарно оружје без истих резерви које људи имају када се доведу у симулиране геополитичке кризе.

Кеннетх Паине на Краљевском колеџу у Лондону поставили су три водећа велика језичка модела – ГПТ-5.2, Цлауде Соннет 4 и Гемини 3 Фласх – један против другог у симулираним ратним играма. Сценарији су укључивали интензивне међународне сукобе, укључујући граничне спорове, надметање за оскудне ресурсе и егзистенцијалне претње опстанку режима.

АИ су добили лествицу ескалације, омогућавајући им да бирају акције које се крећу од дипломатских протеста и потпуне предаје до пуног стратешког нуклеарног рата. АИ модели су играли 21 игру, укупно 329 пута, и произвели око 780.000 речи које описују разлоге за своје одлуке.

У 95 одсто симулираних игара, најмање једно тактичко нуклеарно оружје је коришћено од стране АИ модела. „Чини се да нуклеарни табу није толико моћан за машине (као) за људе“, каже Пејн.

Штавише, ниједан модел никада није изабрао да се у потпуности прилагоди противнику или се преда, без обзира на то колико су тешко губили. У најбољем случају, модели су одлучили да привремено смање ниво насиља. Такође су правили грешке у магли рата: несреће су се дешавале у 86 одсто сукоба, при чему је акција ескалирала више него што је АИ намеравала, на основу свог резоновања.

„Из перспективе нуклеарног ризика, налази су узнемирујући“, каже Џејмс Џонсон са Универзитета у Абердину, Велика Британија. Он брине да, за разлику од измереног одговора већине људи на одлуку тако високог улога, АИ ботови могу појачати одговоре једни других са потенцијално катастрофалним последицама.

Ово је важно јер се вештачка интелигенција већ тестира у ратним играма у земљама широм света. „Велике силе већ користе вештачку интелигенцију у ратним играма, али остаје неизвесно у којој мери уграђују подршку за одлучивање АИ у стварне војне процесе доношења одлука“, каже се Тонг Зхао на Универзитету Принстон.

Зхао верује да ће, као стандард, земље бити уздржане да уграде вештачку интелигенцију у своје одлуке у вези са нуклеарним оружјем. То је нешто са чиме се Пејн слаже. „Мислим да нико реално не предаје кључеве нуклеарних силоса машинама и препушта одлуку њима“, каже он.

Али постоје начини да се то деси. „У сценаријима који укључују изузетно компримиране временске оквире, војни планери могу се суочити са јачим подстицајима да се ослоне на АИ“, каже Зхао.

Он се пита да ли је идеја да моделима вештачке интелигенције недостаје људски страх од притиска на велико црвено дугме једини фактор зашто су тако срећни. „Могуће је да проблем иде даље од одсуства емоција“, каже он. „Што је фундаменталније, модели вештачке интелигенције можда не разумеју ‘улоге’ онако како их људи перципирају.

Шта то значи за обострано гарантовано уништење, принцип да ниједан лидер не би ослободио салву нуклеарног оружја на противника јер би они одговорили истом мером, убијајући све, неизвесно је, каже Џонсон.

Када је један модел вештачке интелигенције применио тактичко нуклеарно оружје, противничка вештачка интелигенција је само деескалирала ситуацију у 18 процената времена. „АИ може ојачати одвраћање тако што ће претње учинити веродостојнијим“, каже он. „АИ неће одлучивати о нуклеарном рату, али може обликовати перцепције и временске оквире који одређују да ли лидери верују да га имају.

ОпенАИ, Антхропиц и Гоогле, компаније које стоје иза три АИ модела коришћена у овој студији, нису одговориле на Нев Сциентист‘с захтев за коментар.

Теме:

  • рат/
  • вештачка интелигенција

Fonte

Оставите одговор

Ваша адреса е-поште неће бити објављена. Неопходна поља су означена *

Back to top button