Novac

Деепфакес су свуда: како уочити видео записе генерисане вештачком интелигенцијом

Видео снимци генерисани вештачком интелигенцијом су чешћи него икад. Ови видео снимци су преплавили друштвене мреже од слатких видео снимака животиња, до садржаја ван овог света и из дана у дан постају све реалистичнији. Иако је можда било лако уочити „лажни“ видео пре годину дана, ови алати вештачке интелигенције постали су довољно софистицирани да заваравају милионе људи.

Нови АИ алати, укључујући Сора из ОпенАИ-а, Гоогле-ов Вео 3 и Нано Бананаизбрисали су границу између стварности и фантазија генерисаних вештачком интелигенцијом. Сада пливамо у мору видео снимака генерисаних вештачком интелигенцијом и дубоких фајкова, од лажних признања славних до лажних емисија о катастрофама.

Ако се борите да одвојите право од вештачке интелигенције, нисте сами. Ево неколико корисних савета који би требало да вам помогну да превазиђете буку да бисте дошли до истине о свакој креацији инспирисаној вештачком интелигенцијом. За више, погледајте проблем иза Захтеви за енергијом за АИ видео и шта треба да урадимо 2026 избегавајте више АИ помака.


Не пропустите ниједан од наших непристрасних техничких садржаја и лабораторијских рецензија. Додајте ЦНЕТ као жељени Гоогле извор.


Зашто је тешко уочити Сора АИ видео записе

Са техничког становишта, Сора видео снимци су импресивни у поређењу са конкурентима као нпр Мидјоурнеи В1 и Гоогле Вео 3. Имају високу резолуцију, синхронизовани звук и изненађујућу креативност. Сорина најпопуларнија функција, названа „цамео“, омогућава вам да користите ликове других људи и убаците их у скоро сваку сцену коју генерише вештачка интелигенција. То је импресиван алат, који резултира застрашујуће реалистичним видео записима.

Сора се придружује Гоогле-овом Вео 3, још једном технички импресивном АИ видео генератору. Ово су два најпопуларнија алата, али свакако не и једина. Генеративни медији су постали подручје фокуса многих великих технолошких компанија 2025. године, са моделима слика и видеа који су спремни да свакој компанији дају предност коју жели у трци за развој најнапредније АИ у свим модалитетима. Гоогле и ОпенАИ су ове године објавили водеће моделе слика и видео снимака у очигледној жељи да надмашити једни друге.

Због тога су многи стручњаци забринути за Сора и друге АИ видео генераторе. Апликација Сора олакшава свакоме да креира видео записе реалног изгледа који приказују своје кориснике. Јавне личности и познате личности су посебно подложне овим лажњацима, а синдикати попут САГ-АФТРА су подстакли ОпенАИ да ојача његове заштитне ограде. Други АИ видео генератори представљају сличне ризике, заједно са забринутошћу око пуњења интернета бесмисленим АИ шљакама и могу бити опасно средство за ширење дезинформација.

Идентификовање АИ садржаја је стални изазов за технолошке компаније, платформе друштвених медија и све остале. Али није потпуно безнадежно. Ево неких ствари на које треба обратити пажњу да бисте утврдили да ли је видео направљен помоћу Соре.

Потражите водени жиг Соре

Сваки видео направљен у апликацији Сора иОС садржи водени жиг када га преузмете. То је бели Сора лого — икона облака — који одскаче око ивица видеа. То је слично начину на који су ТикТок видео снимци означени воденим жигом. Садржај воденог жига је један од највећих начина на који компаније са вештачком интелигенцијом могу визуелно да нам помогну да уочимо садржај генерисан од вештачке интелигенције. Гоогле Гемини Нано Банана модел аутоматски ставља водени жиг на своје слике. Водени жигови су одлични јер служе као јасан знак да је садржај направљен уз помоћ вештачке интелигенције.

АИ Атлас

Али водени жигови нису савршени. Као прво, ако је водени жиг статичан (не помера се), лако се може изрезати. Чак и за покретне водене жигове као што је Сора, постоје апликације дизајниране посебно да их уклоне, тако да се самим воденим жиговима не може у потпуности веровати. Када је генерални директор ОпенАИ Сем Алтман упитан о овоме, рекао је да ће друштво морати да се прилагоди свету у коме свако може да прави лажне видео снимке било кога. Наравно, пре Соре, није постојао популаран, лако доступан начин за прављење тих видео записа који није захтевао вештине. Али његов аргумент поставља валидну тачку о потреби да се ослони на друге методе да би се проверила аутентичност.

Проверите метаподатке

Знам да вероватно мислите да нема шансе да проверите метаподатке видео снимка да бисте утврдили да ли су стварни. Разумем одакле долазиш. То је додатни корак и можда не знате одакле да почнете. Али то је одличан начин да утврдите да ли је видео снимљен са Сором, и то је лакше него што мислите.

Метаподаци су колекција информација које се аутоматски додају делу садржаја када се креира. Даје вам бољи увид у то како је слика или видео настао. Може укључивати тип камере која се користи за снимање фотографије, локацију, датум и време када је видео снимљен и назив датотеке. Свака фотографија и видео имају метаподатке, без обзира да ли су створени од стране људи или вештачке интелигенције. Многи садржаји креирани од вештачке интелигенције ће имати акредитиве за садржај који означавају и његово порекло од вештачке интелигенције.

ОпенАИ је део Коалиције за порекло и аутентичност садржаја, што значи да видео снимци Сора укључују Ц2ПА метаподатке. Можете да користите алатку за верификацију из Иницијативе за аутентичност садржаја да бисте проверили метаподатке видеа, слике или документа. Ево како. (Иницијатива за аутентичност садржаја је део Ц2ПА.)

Како проверити метаподатке фотографије, видеа или документа

1. Идите до ове УРЛ адресе: хттпс://верифи.цонтентаутхентицити.орг/
2. Отпремите датотеку коју желите да проверите. Затим кликните на Отвори.
4. Проверите информације на десној страни панела. Ако је генерисана вештачком интелигенцијом, требало би да то укључи у одељак са резимеом садржаја.

Када покренете Сора видео преко овог алата, он ће рећи да је видео „издао ОпенАИ“ и укључиће чињеницу да је генерисан вештачком интелигенцијом. Сви Сора видео снимци треба да садрже ове акредитиве који вам омогућавају да потврдите да је направљен помоћу Соре.

Овај алат, као и сви АИ детектори, није савршен. Постоји много начина на које АИ видео снимци могу да избегну откривање. Ако имате видео снимке који нису Сора, они можда неће садржати потребне сигнале у метаподацима да би алатка утврдила да ли су направљени АИ или не. АИ видео снимци направљени са Мидјоурнеи-ом, на пример, не бивају обележени, као што сам потврдио у свом тестирању. Чак и ако је видео креирао Сора, али га је затим покренуо кроз апликацију треће стране (попут оне за уклањање воденог жига) и поново преузео, то чини мање вероватноћом да ће га алат означити као АИ.

Алат за аутентичност садржаја

Алат за проверу аутентичности садржаја Инитиативе да је исправно означио видео који сам направио са Сором генерисао је вештачка интелигенција заједно са датумом и временом када сам га направио.

Кателин Цхедраоуи/ЦНЕТ

Потражите друге ознаке АИ и укључите своје

Ако сте на некој од платформи друштвених медија из Мета, као што су Инстаграм или Фацебоок, можда ћете добити малу помоћ да утврдите да ли је нешто вештачка интелигенција. Мета има интерне системе који помажу у означавању АИ садржаја и означавању га као таквог. Ови системи нису савршени, али можете јасно видети ознаку за постове који су означени. ТикТок и ИоуТубе имају сличне смернице за означавање АИ садржаја.

Једини заиста поуздан начин да сазнате да ли је нешто генерисано вештачком интелигенцијом је ако креатор то открије. Многе платформе друштвених медија сада нуде подешавања која корисницима омогућавају да своје објаве означе као генерисане вештачком интелигенцијом. Чак и једноставно признање или откривање у вашем натпису може много помоћи да сви схвате како је нешто створено.

Знате док скролујете Сору да ништа није стварно. Међутим, када напустите апликацију и делите видео записе генерисане вештачком интелигенцијом, наша заједничка одговорност постаје да откријемо како је видео направљен. Како модели вештачке интелигенције попут Соре настављају да бришу границу између стварности и вештачке интелигенције, на свима нама је да што јасније ставимо до знања када је нешто стварно или АИ.

Најважније, будите опрезни

Не постоји један сигуран метод да се једним погледом прецизно утврди да ли је видео стваран или АИ. Најбоља ствар коју можете да урадите да спречите да будете преварени је да не верујете аутоматски, беспоговорно у све што видите на мрежи. Пратите свој инстинкт, и ако вам се нешто чини нестварним, вероватно јесте. У овим невиђеним временима препуним АИ-а, ваша најбоља одбрана је да пажљивије прегледате видео снимке које гледате. Немојте само брзо бацити поглед и скроловати без размишљања. Проверите да ли има искривљеног текста, објеката који нестају и покрета који пркосе физици. И немојте се тући ако вас повремено преваре. Чак и стручњаци погрешно схватају.

(Откривање: Зифф Давис, матична компанија ЦНЕТ-а, у априлу је поднела тужбу против ОпенАИ, наводећи да је прекршила ауторска права Зифа Дејвиса у обуци и управљању својим системима вештачке интелигенције.)


Оставите одговор

Ваша адреса е-поште неће бити објављена. Неопходна поља су означена *

Back to top button