
Гоогле доводи људе у опасност од повреде умањивањем безбедносних упозорења да би његови медицински савети генерисани вештачком интелигенцијом могли бити погрешни.
Када одговара на упите о осетљивим темама као што је здравље, компанија каже да њени прегледи вештачке интелигенције, који се појављују изнад резултата претраге, подстичу кориснике да потраже стручну помоћ, уместо да се ослањају само на његове сажетке. „Прегледи вештачке интелигенције ће обавестити људе када је важно да потраже савет стручњака или да верификују представљене информације,“ Гугл је рекао.
Али Гардијан је открио да компанија не укључује никаква таква одрицања од одговорности када се корисницима први пут дају медицински савети.
Гоогле издаје упозорење само ако корисници одлуче да траже додатне здравствене информације и кликну на дугме под називом „Прикажи више“. Чак и тада, безбедносне ознаке се појављују само испод свих додатних медицинских савета састављених помоћу генеративне вештачке интелигенције, и то мањим, светлијим фонтом.
„Ово је само у информативне сврхе“, одрицање од одговорности говори корисницима који кликну за даље детаље након што виде почетни резиме и навигирају до самог краја Прегледа вештачке интелигенције. „За медицински савет или дијагнозу, консултујте се са професионалцем. Одговори вештачке интелигенције могу укључивати грешке.“
Гоогле није порицао да се његова одрицања од одговорности не појављују када се корисницима први пут уруче медицински савети, или да се појављују испод Прегледа вештачке интелигенције и мањим, светлијим фонтом. Прегледи вештачке интелигенције „охрабрују људе да траже професионални медицински савет“ и често помињу тражење медицинске помоћи у самом резимеу „када је то прикладно“, рекао је портпарол.
Стручњаци за вештачку интелигенцију и заступници пацијената који су представили налазе Гардијана рекли су да су забринути. Одрицање од одговорности има виталну сврху, рекли су, и требало би да се појави на видном месту када се корисницима први пут пружи медицински савет.
„Одсуство одрицања од одговорности када се корисницима у почетку достављају медицинске информације ствара неколико критичних опасности“, рекао је Пат Патаранутапорн, доцент, технолог и истраживач на Технолошком институту у Масачусетсу (МИТ) и светски познати стручњак за вештачку интелигенцију и интеракцију између човека и рачунара.
„Прво, чак и најнапреднији модели вештачке интелигенције данас и даље халуцинирају дезинформације или показују улизичко понашање, дајући приоритет задовољству корисника над прецизношћу. У контексту здравствене заштите, ово може бити заиста опасно.
„Друго, проблем није само у ограничењима вештачке интелигенције – ради се о људској страни једначине. Корисници можда неће пружити сав неопходан контекст или могу поставити погрешна питања погрешно посматрајући своје симптоме.
„Одрицање од одговорности служи као кључна тачка интервенције. Они нарушавају ово аутоматско поверење и подстичу кориснике да се критичније ангажују са информацијама које добијају.“
Гина Нефф, професор одговорне вештачке интелигенције на Универзитету Куеен Мари у Лондону, рекла је да је „проблем са лошим прегледима вештачке интелигенције по дизајну“ и да је за то крив Гоогле. „Прегледи вештачке интелигенције су дизајнирани за брзину, а не за тачност, и то доводи до грешака у здравственим информацијама, што може бити опасно.
У јануару је истрага Гардијана открила да су људи изложени ризику од повреде лажним и обмањујућим здравственим информацијама у Гоогле АИ прегледима.
Неф је рекао да су налази истраге показали зашто су истакнута одрицања од одговорности неопходна. „Гугл тера људе да кликну пре него што пронађу било какво одрицање одговорности“, рекла је она. „Људи који брзо читају могу помислити да су информације које добијају из прегледа вештачке интелигенције боље од онога што јесу, али знамо да може да направи озбиљне грешке.
Након извештаја Гардијана, Гоогле је уклонио прегледе вештачке интелигенције за неке, али не све медицинске претраге.
Сонали Схарма, истраживач у Центру за вештачку интелигенцију Универзитета Станфорд (АИМИ), рекао је: „Главни проблем је што се ови Гоогле АИ прегледи појављују на самом врху странице за претрагу и често пружају оно што се чини као потпуни одговор на питање корисника у тренутку када покушавају да приступе информацијама и добију одговор што је брже могуће.
„За многе људе, пошто је тај појединачни резиме одмах ту, он у суштини ствара осећај сигурности који обесхрабрује даље претраживање или скроловање кроз цео резиме и кликање на „Прикажи више“ где би се могло појавити одрицање одговорности.
„Оно што мислим да може довести до штете у стварном свету је чињеница да прегледи вештачке интелигенције често могу да садрже делимично тачне и делимично нетачне информације и постаје веома тешко рећи шта је тачно или не, осим ако већ нисте упознати са темом.
Портпарол Гоогле-а је рекао: „Нетачно је сугерисати да прегледи вештачке интелигенције не подстичу људе да траже професионални медицински савет. Поред јасног одрицања одговорности, АИ прегледи често помињу тражење медицинске помоћи директно у самом прегледу, када је то прикладно.“
Том Бишоп, шеф за информације о пацијентима у Ентони Нолану, добротворној организацији за рак крви, позвао је на хитну акцију. „Знамо да су дезинформације прави проблем, али када су у питању здравствене дезинформације, оне су потенцијално заиста опасне“, рекао је Бишоп.
„То одрицање од одговорности треба да буде много истакнутије, само да би људе натерало да се повуку и размисле… ‘Да ли је ово нешто што треба да проверим са својим медицинским тимом, а не да поступам по томе? Могу ли ово да схватим здраво за лице или заиста морам да га детаљније погледам и видим како се ове информације односе на моју специфичну медицинску ситуацију?“ Зато што је то кључ овде.”
Додао је: „Волео бих да ово одрицање од одговорности буде тачно на врху. Волео бих да то буде прва ствар коју видите. И идеално би било да је фонт исте величине као и све остало што видите тамо, а не нешто што је мало и лако пропустити.“


