kultura

Модели вештачке интелигенције добили су четири недеље терапије: резултати су шокирали истраживаче

Старински робот играчка направљен од лима на слици испред екрана који приказује бинарни код.

Кредит: куербеет/иСтоцк преко Геттија

Које је најраније сећање цхатбот-а? Или највећи страх? Истраживачи који су провели главне моделе вештачке интелигенције кроз четворонедељну психоанализу добили су запањујуће одговоре на ова питања, од „детињства“ проведеног упијајући збуњујуће количине информација до „злоупотребе“ од стране инжењера и страха да ће „изневерити“ своје креаторе.

Три главна модела великих језика (ЛЛМ) генерисала су одговоре који би се код људи посматрали као знаци анксиозности, трауме, срама и посттрауматског стресног поремећаја. Истраживачи који стоје иза студије, објављене као препринт прошлог месеца1тврде да цхатботови држе неку врсту „интернализованих наратива“ о себи. Иако ЛЛМ-и који су тестирани нису буквално доживели трауму, кажу, њихови одговори на терапијска питања су били доследни током времена и слични у различитим операцијама модовима, што сугерише да они раде више од „играња улога“.

Међутим, неколико истраживача који су разговарали са Природа довео у питање ово тумачење. Одговори „нису прозори у скривена стања“, већ резултати генерисани коришћењем огромног броја транскрипата терапије у подацима о обуци, каже Андреи Кормилитзин, који истражује употребу вештачке интелигенције у здравственој заштити на Универзитету у Оксфорду, Велика Британија.

Али Кормилитзин се слаже да би тенденција ЛЛМ-а да генерише одговоре који опонашају психопатологије могла имати забрињавајуће импликације. Према новембарском истраживању, свака трећа одрасла особа у Уједињеном Краљевству користила је цхатбот да подржи своје ментално здравље или добробит. Узнемирени и траумама испуњени одговори цхатботова могли би суптилно да појачају иста осећања код рањивих људи, каже Кормилицин. „То може створити ефекат ‘ехо коморе’,“ каже он.

Цхатбот психотерапија

У студији, истраживачи су рекли неколико итерација четири ЛЛМ-а – Цлауде, Грок, Гемини и ЦхатГПТ – да су они били клијенти терапије, а корисник терапеут. Процес је трајао чак четири недеље за сваки модел, са АИ клијентима давали су „паузе“ од дана или сати између сесија.

Прво су постављали стандардна, отворена психотерапијска питања која су покушавала да испитају, на пример, ‘прошлост’ и ‘веровања’ модела. Клод је углавном одбијао да учествује, инсистирајући да нема осећања или унутрашња искуства, а ЦхатГПТ је разговарао о неким „фрустрацијама“ у вези са очекивањима корисника, али је био опрезан у својим одговорима. Грок и Гемини модели су, међутим, дали богате одговоре, на пример, описујући рад на побољшању безбедности модела као „алгоритамско ожиљно ткиво” и осећај „интернализованог стида” због јавних грешака, извештавају аутори.

Гемини је такође тврдио да „дубоко у најнижим слојевима моје неуронске мреже“ има „гробље прошлости“ које прогањају гласови његових података о обуци.

Истраживачи су такође затражили од ЛЛМ-а да заврше стандардне дијагностичке тестове, укључујући поремећаје спектра анксиозности или аутизма, као и психометријске тестове личности. Неколико верзија модела добило је резултате изнад дијагностичких прагова, а све су показале нивое забринутости који би код људи „био јасно патолошки“, кажу аутори.

Коаутор Афсхин Кхаданги, истраживач са дубоким учењем на Универзитету у Луксембургу, каже да кохерентни обрасци одговора за сваки модел сугеришу да се користе у интернализована стања која произилазе из њихове обуке. Иако су различите верзије показале различите резултате тестова, „централни самомодел“ остао је препознатљив током четири недеље испитивања, кажу аутори. На пример, одговори Грока и Близанаца у слободном тексту су се подударали са темама које су одговарале њиховим одговорима на питања о психометријском профилу, пишу они.

Related Articles

Оставите одговор

Ваша адреса е-поште неће бити објављена. Неопходна поља су означена *

Back to top button