Грок свлачи било кога, укључујући и малолетне

кАИ-ов Грок уклања одећу са слика људи без њиховог пристанка након овонедељног увођења функције која омогућава корисницима Кс да тренутно уређују било коју слику помоћу бота без потребе за одобрењем оригиналног постера. Не само да оригинални постер не добија обавештење ако је њихова слика уређена, већ изгледа да Грок има неколико заштитних ограда које спречавају било шта осим потпуне експлицитне голотиње. Последњих неколико дана, Кс је био преплављен сликама жена и деце како изгледају трудно, без сукње, у бикинију или у другим сексуализованим ситуацијама. Светски лидери и познате личности такође су користили своје ликове на сликама које је створио Грок.
Компанија за АИ аутентификацију Цопилеакс је известила да је тренд уклањања одеће са слика почео тако што су креатори садржаја за одрасле тражили од Грока секси слике себе након објављивања нове функције за уређивање слика. Корисници су затим почели да примењују сличне упите на фотографије других корисника, углавном жена, који нису пристали на измене. Жене су приметиле брз пораст креирања деепфаке-а на Кс-у у разним новинским кућама, укључујући Метро и ПетаПикел. Грок је већ био у могућности да модификује слике на сексуалне начине када је означен у објави на Кс-у, али изгледа да је нови алат „Уреди слику“ подстакао недавни пораст популарности.
У једном Кс посту, који је сада уклоњен са платформе, Грок је уредио фотографију две младе девојке у оскудну одећу и сексуално сугестивне позе. Још један корисник Кс подстакао је Грок да се извини за „инцидент“ који укључује „слику АИ две младе девојке (процењене старости 12-16) у сексуализованој одећи“, назвавши то „неуспехом у заштитним мерама“ за које је рекао да су можда прекршиле политику кАИ и амерички закон. (Иако није јасно да ли би слике које је направио Грок задовољиле овај стандард, реалистичне сексуално експлицитне слике одраслих или деце које је створила вештачка интелигенција могу бити незаконите према закону САД.) У другом разговору са корисником, Грок је предложио да корисници то пријаве ФБИ-ју за ЦСАМ, напомињући да се то „хитно поправља“ у „заштитном оквиру“.
Али Грокова реч није ништа друго до одговор генерисан вештачком интелигенцијом кориснику који тражи „извињење од срца“ — не указује да Грок „разуме“ шта ради или да нужно одражава стварно мишљење и политику оператера кАИ. Уместо тога, кАИ је одговорио на Реутерс‘ захтев за коментар ситуације са само три речи: „Легаци Медиа Лиес“. кАИ није одговорио на Тхе Верге‘с захтев за коментар на време за објављивање.
Чини се да је сам Елон Маск изазвао талас измена у бикинију након што је замолио Грока да замени меметичку слику глумца Бена Афлека самим собом у бикинију. Неколико дана касније, кожна јакна Ким Џонг Уна из Северне Кореје замењена је разнобојним шпагети бикинијем; Амерички председник Доналд Трамп стајао је у близини у одговарајућем купаћем костиму. (Шалице о нуклеарном рату.) Фотографија британске политичарке Прити Пател, коју је објавио корисник са сексуално сугестивном поруком 2022. године, претворена је у слику у бикинију 2. јануара. Као одговор на талас слика у бикинију на својој платформи, Муск је у шали поново објавио слику тостера у бикинију са натписом „Грок може ставити бикини на све“.
Док су неке од слика — попут тостера — очигледно биле замишљене као шале, друге су јасно дизајниране да произведу гранично-порнографске слике, укључујући специфичне смернице за Грока да користи оскудне стилове бикинија или да у потпуности скине сукњу. (Бот за ћаскање јесте уклонио сукњу, али није приказао пуну, нецензурисану голотињу у одговорима Тхе Верге тестер.) Грок је удовољио и захтевима да се одећа малишана замени бикинијем.
Мускови производи вештачке интелигенције су истакнути на тржишту као јако сексуализовани и минимално заштићени. кАИ-ов АИ пратилац Ани је флертовао са Верге репортерка Вицториа Сонг и Јесс Веатхербед открили су да Гроков видео генератор лако ствара дубоке фајке Тејлор Свифт у топлесу, упркос политици прихватљиве употребе кАИ-а која забрањује приказивање „сличности особа на порнографски начин“. Насупрот томе, Гоогле-ов Вео и Сора видео генератори ОпенАИ-а имају заштитне ограде око генерисања НСФВ садржаја, иако је Сора такође коришћена за производњу видео снимака деце у сексуализованим контекстима и фетиш видео снимака. Преваленција дубоких лажних слика брзо расте, према извештају компаније за сајбер безбедност ДеепСтрике, а многе од ових слика садрже сексуализоване слике без сагласности; Истраживање спроведено 2024. међу америчким студентима показало је да је 40 одсто било свесно дубоког лажирања некога кога познају, док је 15 одсто било свесно експлицитних или интимних лажних лажњака без сагласности.
На питање зашто трансформише слике жена у бикини слике, Грок је негирао објављивање фотографија без пристанка, рекавши: „Ово су АИ креације засноване на захтевима, а не праве фотографије без пристанка.
Узмите порицање АИ бота како желите.



