
Антропикова вишенедељна битка са Министарством одбране одвијала се због објава на друштвеним мрежама, опомињућих изјава за јавност и директних цитата неименованих званичника Пентагона медијима. Али будућност стартупа АИ вредног 380 милијарди долара своди се на само три речи: „свака законита употреба“. Нови термини које имају ОпенАИ и кАИ наводно већ договорено, дало би америчкој војсци царте бланцх да користи услуге за масовно надгледање и смртоносно аутономно оружје, АИ која има пуну моћ да прати и убија мете без људи укључених у процес доношења одлука.
Преговори су постали ружни, са техничким директором Пентагона Емилом Мајклом, бившим извршним директором компаније за превоз путника Убер, што је довело до владиних претњи да ће Антропик означити као „ризик у ланцу снабдевања“, према двојици људи упознатих са преговорима. Ова класификација је обично резервисана за претње националној безбедности, укључујући злонамерни страни утицај или сајбер рат. Извршни директор Антхропиц Дарио Амодеи ће наводно састали се са секретаром Петеом Хегсетом у уторак у Пентагону, а неименовани званичник одбране описао је то као „састанак за срање или нестанак“.
Пентагон представља ову претњу америчкој компанији је без преседана. Али Пентагон јавно издавање ове претње је још бизарније.
Из безбедносних разлога, Пентагон не објављује јавно које су компаније на овим листама, а да не говоримо о јавној претњи тим компанијама ако се њихови ставови не слажу. У ствари, рекао је Џефри Герц, виши сарадник Центра за нову америчку безбедност (ЦНАС). Тхе Верге то према важећим савезним прописима Пентагон је могао да класификује антропо као ризик, а да уопште не обавести јавност или наведе зашто. „То је додатни корак покушаја да их се посебно означи као ризик за националну безбедност и спречи друге компаније да послују са Антхропиц-ом, што је изнад и даље.“
Сукоб је због Антхропиц-ове примене своје „политике прихватљиве употребе“
Ако би класификација постала званична, то би окончало Антхропиц-ов уговор од 200 милиона долара са Пентагоном, али би то имало разорнији ефекат таласања на укупни резултат Антропика. Главни одбрамбени извођачи и технолошке компаније, као што су АВС, Палантир и Андурил, користе Антхропиц’с Цлауде у свом раду за Пентагон, због чињенице да је то био први АИ модел који је одобрен да користи поверљиве информације. Отвореније речено: ако је Антхропиц означен као „ризик у ланцу снабдевања“, свака компанија која тренутно ради са војском или се икада нада да ће добити војни уговор морала би да одустане од Антхропиц-ових система вештачке интелигенције, за које се сматра да су неки од најбољих у индустрији. (Вече пре Амодејевог заказаног састанка са Хегсетом, Пентагон је то потврдио била је потписала уговор о употреби Грокаконтроверзни АИ модел који је направио кАИ Елона Маска, у поверљивим системима. Пентагон није имао хитан одговор након захтева за коментар.)
Ово би се могло применити у веома уском смислу – или у изузетно широком смислу. „Сумњам да би логичније објашњење била ужа дефиниција, да се Антропик не може користити као део посебне изјаве о раду за Пентагон“, рекао је Герц. „Али на основу неких извештаја и напора да ово изгледа као казнени потез против Антропика, вреди размислити о оба ова сценарија.“
Иако су Пентагон и њихови медијски савезници кренули у кампању да се Антропик означи као „буђење“, они тек треба да изнесу било какве стварне оптужбе о безбедносним слабостима или потенцијалу за шпијунажу. Уместо тога, сукоб је због Антхропиц-ове примене своје „политике прихватљиве употребе“, према људима који су упознати са интерним дискусијама.
Извор упознат са ситуацијом, који је затражио анонимност због осетљиве природе преговора, рекао је Тхе Верге да је Антхропиц био врло јасан влади у вези са својим црвеним линијама и да постоје две уске ствари на које компанија неће пристати: аутономне кинетичке операције и масовни надзор у земљи. Ово последње, рекао је извор, је због чињенице да „закони нису достигли оно што вештачка интелигенција може да уради“ и да може да наруши америчке грађанске слободе. За прво – смртоносно аутономно оружје – извор је рекао да технологија „још не постоји за потпуно аутономно оружје без људи у кругу“.
Хамза Цхаудхри, руководилац АИ и националне безбедности у Институту за будућност живота, нестраначкој истраживачкој групи фокусираној на управљање вештачком интелигенцијом, приметио је да Антхропицове црвене линије већ одражавају тренутне владине директиве које нису укинуте.
„Директива Министарства одбране 3000.09 захтева да сви аутономни системи наоружања буду дизајнирани тако да команданти и оператери буду у могућности да ‘извршавају одговарајуће нивое људског расуђивања о употреби силе’, а Политичка декларација о војној употреби вештачке интелигенције коју је објавила влада САД и коју је подржало 50 држава потврђује овај принцип“, рекао је он. Тхе Верге преко текста. „И Директива Министарства одбране 5240.01, ојачана одредбама НДАА за фискалну 2017. годину и Путем имплементације одговорне вештачке интелигенције из Трампове ере, забрањује обавештајним компонентама да прикупљају информације о лицима из САД осим под одређеним правним овлашћењима као што су ФИСА или Наслов 50.
„Политика прихватљиве употребе компаније Антхропиц одражава ове исте линије, и док се Пентагон формално не одрекне, разјасни или ажурира ове политичке позиције, велико је питање да ли компанија може бити приморана да напусти политику на коју се сама влада у принципу обавезала.
У име Пентагона преговара Мајкл, Трампов именовани и подсекретар одбране за истраживање и инжењеринг, позиција која се често описује као главни технолошки официр Пентагона. Тхе [first source] описао Мајкла, који је изградио агресивну репутацију као Убер-ов главни пословни директор и једном хвалио да је спровео опозиционо истраживање о новинаримакао „тврд преговарач“. (Мајкл је избачен из Убера 2017, након што је одбор директора компаније спровео истраживање културе компаније сексуалног узнемиравања које су изазвали он и неколико руководилаца који су посетили јужнокорејски ескорт бар.)
„Ово је заиста питање принципа за Емила“, рекла је друга особа упозната са тим, рекавши да је Мајкл незадовољан што приватна компанија покушава да обузда владину употребу њихове технологије. Нејасно је да ли су Бела кућа или Дејвид Сакс, ризични капиталиста и моћни АИ и крипто цар, унапред одобрили Мајклову тврдоглаву тактику.
Тренутно је Антхропицова „политика прихватљивог коришћења“ уклопљена у уговор од 200 милиона долара који је потписао са Министарством одбране прошлог јула. У свом саопштењу, компанија је пет пута поменула „одговорну вештачку интелигенцију“. „У срцу овог рада лежи наше уверење да најмоћније технологије носе највећу одговорност“, написали су они, наводећи да је у контексту владе, „где одлуке утичу на милионе, а улози не могу бити већи“, одговорност била „од суштинског значаја“ да се осигура да „развој вештачке интелигенције јача демократске вредности на глобалном нивоу одржавањем технолошког вођства за заштиту од ауторитарних злоупотреба“.
„Одређивање би захтевало од сваког одбрамбеног извођача који тражи владин посао да потврди да је уклонио сву антропску технологију из својих система“
Али у јануару, Хегсет је објавио меморандум најављујући да ће одељење постати „борбена снага ‘прва вештачка интелигенција’ у свим компонентама” и да би језик „било које законите употребе” требало да буде укључен у сваки уговор о набавци услуга вештачке интелигенције у року од 180 дана, укључујући постојеће смернице.
У Хегсетховом меморандуму, он је више пута истакао да ће одељење дати предност брзини по сваку цену, написавши да земља мора „елиминисати оне који блокирају дељење података… [and] приступити компромисима са ризиком, ‘акцијама’ и другим субјективним питањима као да смо у рату.“ Он је такође рекао да када је у питању развој и експериментисање агената вештачке интелигенције, одељење ће их интегрисати „од планирања кампање до убијања ланчане егзекуције“, као и да ће „интел претворити у оружје за неколико сати“.
Хегсет је у више наврата давао предност брзини над безбедношћу и потенцијалним грешкама: „Морамо прихватити да су ризици недовољног кретања већи од ризика несавршеног поравнања.“ Удвостручио је касније у меморандуму, написавши да ће „одговорна вештачка интелигенција“ доживети велике промене у одељењу, како на бојном пољу тако иу војним редовима. „Различитост, једнакост, инклузија и друштвена идеологија немају места у ДоВ“, написао је он, додајући да одељење „такође мора да користи моделе без ограничења политике коришћења која могу ограничити законите војне примене“. Слично Трамповој против „буђене вештачке интелигенције“ извршни налогХегсет је најавио да ће мерила за објективност модела бити нови примарни критеријум набавке за услуге вештачке интелигенције.
ОпенАИ, кАИ и Гоогле су одмах поново преговарали о сопственим уговорима од 200 милиона долара са Пентагоном како би се ускладили са Хегсетовим меморандумом. Али ниједан од модела тих компанија не поседује безбедносну класификацију на нивоу утицаја 6, што значи да ЦхатГПТ, Грок и Гемини не могу одмах да замене Клода ако се Антропик нађе на црној листи – рањивост једног добављача која би се оборила на Пентагон.
„Клод је једини гранични модел вештачке интелигенције који ради на потпуно класификованим мрежама Пентагона, распоређен преко Палантир-ове АИ платформе и Амазоновог Топ Сецрет Цлоуд-а, што значи да се налази у центру радних токова којима већина других модела још не може да приступи“, приметио је Чаудхри. „Одређивање би захтевало од сваког одбрамбеног извођача који тражи владин посао да потврди да је уклонио сву антропску технологију из својих система.
Ово је дало утицај Антропици у сукобима са Пентагоном, који су постали интензивнији након што је компанија наводно сазнала да његови модели су коришћени при хватању венецуеланског председника Николаса Мадуракршећи њихов тренутни споразум.
Антропик технички не може да покуша да координише или удружи са другим лабораторијама вештачке интелигенције којима се нуде нови услови, чак ни под условом да би били отворени да се сложе, јер би то било против федералних правила набавки. Али пошто се борба одвија у очима јавности, технички радници, запослени у вештачкој интелигенцији и други који тренутно или раније раде у технолошкој индустрији изразили су фрустрацију што се друге компаније не боре за исте услове као Антхропиц. Чинило се да су други мислили да ће бити само питање времена када ће Антропик попустити.
„Било би то стварно добро време за [other labs] да будете као: ‘Чекај, шта радиш са нашом технологијом?’“ рекао је Вилијам Фицџералд, бивши запослени у Гуглу који сада води фирму за заступање под називом Тхе Воркер Агенци. „Ови људи из АИ лабораторија имају толико моћи. Они су мањи тимови, и још увек некако обликују ко ће бити… Мислим да могу да оправдају своје процене без војног рада. Постоје и други начини на које можете да водите посао без убијања људи у вашем пословном моделу.”


