kultura

Зашто бисмо требали ограничити аутономију оружја са АИ-ом

У центру је приказан аутономни систем наоружања. 'СКИСХАРК' је видљив на крилу. Две особе се могу видети лево од екрана. Два екрана се могу видети десно од екрана.

СкиСхарк, аутономни дрон направљен у Уједињеном Краљевству, изложен је на Међународној изложби опреме за одбрану и безбедност у Лондону.Заслуге: Јохн Кеебле/Гетти Имагес

Оружје које може аутоматски идентификовати и нападати мете користи се више од 80 година. Рани пример је Марк 24 Фидо, америчко противподморничко торпедо опремљено микрофонима за постизање циљева, које је први пут распоређено против немачких подморница 1943. године.

Такви аутономни системи ‘првог таласа’ су дизајнирани да се користе у уско дефинисаним сценаријима и програмирани да делују као одговор на сигнале као што су радиофреквентне емисије специфичних циљева. У протеклих десет година дошло је до развоја напреднијих система који могу да користе вештачку интелигенцију за навигацију, идентификацију и уништавање циљева уз мало или без људске интервенције. Ово је довело до растућих позива група за људска права да се забране или регулишу технологије.

Нехал Бута, професор међународног права на Универзитету у Единбургу, Велика Британија, истражује законитост и етичност аутономног оружја више од једне деценије. Он је био међу ауторима извештаја о одговорном коришћењу вештачке интелигенције који је прошлог месеца Савету безбедности Уједињених нација представио холандски премијер Дик Шуф.

Бута каже да аутономно оружје, посебно оно које има АИ, изазива вишеструке етичке и правне проблеме, укључујући утврђивање одговорности за системске кварове и потенцијално подстицање наметљивог прикупљања цивилних података. Он каже да још има времена да се међународна заједница договори о принципима и прописима за ограничавање ризика и упозорава да би могла да дође до трке у наоружању ако то не успе.

Који правни оквири и принципи се тренутно примењују на аутономне системе наоружања?

Не постоји посебан правни оквир који се примењује на коришћење аутономије или вештачке интелигенције у овим системима. Према међународном хуманитарном праву, заснованом на Хашким конвенцијама и Женевским конвенцијама, које заједно утврђују међународно право о рату и ратним злочинима, оружје мора бити у стању да се користи на начин који може разликовати цивилне и војне циљеве. Напади не смеју да доведу до несразмерне штете за цивиле, а борци морају да предузму мере предострожности како би потврдили да имају праву мету и смањили ризик од повреде цивила. Ови међународни закони важе за сво оружје, укључујући употребу напредних аутономних система, као што су дронови које је Украјина поставила у јуну, а који су користили машинско учење за одабир, идентификацију и напад на циљеве дубоко у Русији на основу унапред програмираних упутстава.

Глава и рамена човека који стоји испред прозора, носи јакну, кравату и наочаре, гледа напред. Кроз прозор се виде дрвеће и зграде.

Професор Нехал Бута каже да је важно да се међународна заједница договори о смерницама у вези са употребом аутономног оружја.Кредит: Правни факултет у Единбургу

Који су ризици повезани са аутономним оружјем?

Недовољна пажња у њиховом развоју и примени могла би да угрози поштовање принципа разликовања и пропорционалности. Да ли би систем могао да генерише превише лажних позитивних резултата када идентификује мете? Да ли би аутономно оружје могло израчунати да је велики број смртних случајева цивила прихватљива цена када се гађа осумњичени непријатељски војник? Још увек не знамо јер је то незрела технологија, али то су огромни ризици. Такође постоји опасност да ако систем не успе да прецизно обради долазне податке у окружењу које се брзо мења, може да гађа погрешне снаге или цивиле.

Да би ови системи били ефикасни, морате да прикупите масу података, укључујући биометријске информације, гласовне позиве, е-пошту и детаље физичких кретања. То је забрињавајуће ако се ово уради без сагласности оних који су укључени. Што више желите да урадите, потребно вам је више података. Ово ствара подстицај за наметљивије прикупљање података.

Ко је правно и етички одговоран када аутономно оружје убија?

Мислим да је вероватно да ће неке суверене државе у будућности користити оружје које је способно да доноси одлуке о убијању. Питање је да ли земље желе да регулишу такве системе. Ефикасни правни оквири захтевају начине приписивања одговорности за кршења. Са сложеним аутономним системима оружја може постати тешко идентификовати особе одговорне за неуспехе и кршења.

Оператери будућих система можда неће бити адекватно обучени када да игноришу препоруке система. Они такође могу развити пристрасност аутоматизације, што их чини неспремним да доводе у питање технолошки напредну машину. Систем би могао бити систематски пристрасан у погледу начина на који стиче мете – у том случају би одговорност лежала негде између програмера и војних званичника који одобравају његову употребу.

Постоји ризик да одговорност постане толико дифузна да је тешко идентификовати појединце или групе агената одговорних за кршења и пропусте. Ово је уобичајен проблем са сложеним савременим технологијама, а мислим да је одговор у усвајању регулаторних оквира за развој и употребу аутономних система наоружања.

Шта кажете онима који позивају на забрану аутономног наоружања?

Related Articles

Оставите одговор

Ваша адреса е-поште неће бити објављена. Неопходна поља су означена *

Back to top button