Novac

АИ агенти постају све бољи. Њихова безбедносна обавештења нису

Агенти вештачке интелигенције сигурно имају тренутак. Између недавне виралности од ОпенЦлав, Молтбоок и ОпенАИ планира да преузме његове агентске карактеристике на следећи ниво, то може бити само година агента.

Зашто? Па, они могу да планирају, написати кодпретражујете веб и извршавати задатке у више корака са мало или без надзора. Неки чак обећавају да ће управљати вашим радом. Други координирају са алаткама и системима на вашој радној површини.

Жалба је очигледна. Ови системи не реагују само. Они акт — за вас и у ваше име. Али када истраживачи иза Индекс МИТ АИ агената каталогизирали 67 распоређених агентских система, нашли су нешто узнемирујуће.

Програмери су жељни да опишу шта њихови агенти могу учинити. Они су далеко мање вољни да опишу да ли су ови агенти безбедно.

„Водећи АИ програмери и стартупи све више примењују агентске АИ системе који могу да планирају и извршавају сложене задатке уз ограничено људско учешће“, писали су истраживачи у раду. „Међутим, тренутно не постоји структурирани оквир за документовање… безбедносних карактеристика агентских система.“

Тај јаз се јасно види у бројкама: око 70% индексираних агената обезбеђује документацију, а скоро половина објављује код. Али само око 19% открива формалну безбедносну политику, а мање од 10% извештава о спољним безбедносним евалуацијама.

Истраживање наглашава да, иако програмери брзо проглашавају могућности и практичну примену агентских система, они такође брзо пружају ограничене информације у вези са безбедношћу и ризиком. Резултат је једнострана врста транспарентности.

Шта се рачуна као АИ агент

Истраживачи су намерно размишљали о томе шта је направило рез, а не квалификује се сваки цхатбот. Да би био укључен, систем је морао да функционише са недовољно дефинисаним циљевима и да тежи циљевима током времена. Такође је морала да предузме радње које утичу на окружење са ограниченим људским посредовањем. То су системи који сами одлучују о међукорацима. Они могу да разбију широку инструкцију на подзадатке, користе алате, планирају, довршавају и понављају.

АИ Атлас

Та аутономија је оно што их чини моћним. То је такође оно што подиже улог.

Када модел једноставно генерише текст, његови неуспеси су обично садржани у том једном излазу. Када агент вештачке интелигенције може да приступи датотекама, шаље е-пошту, купује или мења документе, грешке и злоупотребе могу да буду штетне и да се шире кроз кораке. Ипак, истраживачи су открили да већина програмера не наводи јавно како тестирају те сценарије.

Способност је јавна, заштитне ограде нису

Најупечатљивији образац у студија није скривено дубоко у табели — понавља се у целом раду.

Програмерима је пријатно да деле демонстрације, мерила и употребљивост ових агената вештачке интелигенције, али су далеко мање доследни у дељењу безбедносних процена, интерних процедура тестирања или ревизија ризика трећих страна.

Та неравнотежа је важнија како агенти прелазе са прототипова на дигиталне актере интегрисане у стварне токове посла. Многи од индексираних система раде у доменима попут софтверског инжењеринга и коришћења рачунара – окружења која често укључују осетљиве податке и смислену контролу.

Индекс МИТ АИ Агент Индек не тврди да је агентска АИ у потпуности небезбедна, али показује да како се аутономија повећава, структурисана транспарентност о безбедности не иде у корак.

Технологија се убрзава. Заштитне ограде, барем јавно, остају теже уочљиве.

извор линк

Оставите одговор

Ваша адреса е-поште неће бити објављена. Неопходна поља су означена *

Back to top button