Novac

АИ никада неће бити свестан

Блаке Лемоине Инцидент се данас памти као велики знак АИ хипе. Он је гурнуо целу идеју о свесној вештачкој интелигенцији у јавну свест током циклуса вести или два, али је такође покренуо разговор, како међу компјутерским научницима тако и међу истраживачима свести, који се само интензивирао у годинама од тада. Док технолошка заједница наставља јавно да омаловажава целу идеју (и јадног Лемоина), приватно је почела да схвата ту могућност много озбиљније. Свесној вештачкој интелигенцији може недостајати јасно комерцијално образложење (како монетизовати ствар?) и стварати лепљиве моралне дилеме (како да се понашамо према машини која је способна да пати?). Ипак, неки инжењери вештачке интелигенције су дошли до закључка да би свети грал вештачке опште интелигенције – машина која није само суперпаметна већ и обдарена људским нивоом разумевања, креативности и здравог разума – можда захтевати нешто попут свести да би се постигао. У технолошкој заједници, оно што је био неформални табу око свесне вештачке интелигенције – као перспектива коју би јавност сматрала језивом – одједном је почело да се руши.

Прекретница је наступила у лето 2023, када је група од 19 водећих компјутерских научника и филозофа објавила извештај од 88 страница под насловом „Свест у вештачкој интелигенцији”, неформално познат као Бутлинов извештај. Чинило се да су га за неколико дана прочитали сви у заједници науке о вештачкој интелигенцији и свести. Апстракт нацрта извештаја нуди ову застрашујућу реченицу: „Наша анализа сугерише да ниједан тренутни систем вештачке интелигенције није свестан, али такође сугерише да не постоје очигледне препреке за изградњу свесних АИ система.”

Аутори су признали да је део инспирације за сазивање групе и писање извештаја био „случај Блејка Лемоина“. „Ако АИ може да остави утисак свести“, а рекао је коаутор часопису Сциенце„због тога је хитан приоритет за научнике и филозофе да се одваже“.

Али оно што је свима привукло пажњу је та једина изјава у сажетку препринта: „нема очигледних препрека за изградњу свесних система вештачке интелигенције“. Када сам први пут прочитао те речи, осетио сам да је пређен неки важан праг, и то не само технолошки. Не, ово је имало везе са самим нашим идентитетом као врсте.

Шта би за човечанство значило да једног дана у не тако далекој будућности открије да је потпуно свесна машина дошла на свет? Претпостављам да би то био коперникански тренутак, који би нагло избацио наш осећај централности и посебности. Ми људи смо провели неколико хиљада година дефинишући себе у супротности са „мањим“ животињама. То је подразумевало порицање животињама наводно јединствених људских особина као што су осећања (једна од Декартових најочитијих грешака), језик, разум и свест. У последњих неколико година, већина ових разлика се распала јер су научници показали да су многе врсте интелигентне и свесне, да имају осећања и да користе језик и алате, у процесу који изазива векове људске изузетности. Ова промена, која је још увек у току, покренула је проблематична питања о нашем идентитету, као ио нашим моралним обавезама према другим врстама.

Са вештачком интелигенцијом, претња нашем узвишеном самопоимању долази у потпуности са друге стране. Сада ћемо ми људи морати да се дефинишемо у односу на АИ, а не на друге животиње. Како нас компјутерски алгоритми надмашују у чистој снази мозга – лако нас побеђују у играма попут шаха и Гоа и разним облицима „вишег“ мишљења попут математике – можемо барем да се утешимо чињеницом да ми (и многе друге животињске врсте) још увек имамо благослове и терете свести, способност да осећамо и имамо субјективно искуство. У том смислу, АИ може послужити као заједнички противник, зближавајући људе и друге животиње: нас против ње, живе наспрам машина. Ова нова солидарност створила би дирљиву причу и могла би бити добра вест за животиње позване да се придруже Тиму свесни. Али шта се дешава ако АИ почне да изазива људски – или животињски, требало би да кажем – монопол на свест? Ко ћемо онда бити?

извор линк

Оставите одговор

Ваша адреса е-поште неће бити објављена. Неопходна поља су означена *

Back to top button