
Када је Кс-ов инжењерски тим објавио код који покреће алгоритам платформе „за вас“ прошлог месеца, Елон Муск је рекао да је овај потез победа за транспарентност. „Знамо да је алгоритам глуп и треба му велика побољшања, али барем можете видети да се боримо да га побољшамо у реалном времену и са транспарентношћу“, Муск написао. „Ниједна друга компанија друштвених медија то не ради.“
Иако је тачно да је Кс једина велика друштвена мрежа која је елементе свог алгоритма препорука учинила отвореним кодом, истраживачи кажу да оно што је компанија објавила не нуди ону врсту транспарентности која би заправо била корисна за свакога ко покушава да разуме како Кс функционише 2026.
Код, слично као и ранија верзија објављена 2023. године, је „редигована“ верзија Кс-овог алгоритма, према Џону Тикстуну, доценту рачунарских наука на Универзитету Корнел. „Оно што ме мучи у вези са овим издањима је то што вам дају претварање да су транспарентни за објављивање кода и осећај да би неко могао да користи ово издање за неку врсту ревизије или надзора“, рекао је Тхицкстун за Енгадгет. „А чињеница је да то уопште није могуће.
Предвидљиво, чим је код објављен, корисници на Кс-у су почели да објављују дугачке теме о томе шта то значи за креаторе који се надају да ће повећати своју видљивост на платформи. на пример, један пост који је прегледан више од 350.000 пута, саветује кориснике да ће Кс „наградити људе који разговарају“ и „подићи вибрације Кс-а“. То тврди још један пост са више од 20.000 прегледа постављање видеа је одговор. Други пост каже да корисници треба да се држе своје „нише“ јер „промена тема штети вашем досегу“. Али Тхицкстун је упозорио да се не чита превише о наводним стратегијама за ширење вируса. „Они никако не могу да извуку те закључке из онога што је објављено“, каже он.
Иако постоје неки мали детаљи који бацају светло на то како Кс препоручује постове — на пример, филтрира садржај који је стар више од једног дана — Тхицкстун каже да велики део тога „не може да се уради“ за креаторе садржаја.
Структурно, једна од највећих разлика између тренутног алгоритма и верзије објављене 2023. је та што се нови систем ослања на модел великог језика сличан Гроку за рангирање постова. „У претходној верзији ово је било тешко кодирано: узимали сте колико пута је нешто лајковано, колико пута је нешто подељено, колико пута је нешто одговорено… и онда на основу тога израчунате резултат, а затим рангирате објаву на основу резултата“, објашњава Руђеро Лазарони, пХД истраживач на Универзитету у Грацу. „Сада се резултат не изводи на основу стварног броја лајкова и дељења, већ на основу тога колико је вероватно да Грок мисли да бисте волели и делили објаву.“
То такође чини алгоритам још непрозирнијим него што је био раније, каже Тхицкстун. „Толико више одлука… се дешава унутар неуронских мрежа црне кутије да се они обучавају на својим подацима“, каже он. „Све више и више моћи доношења одлука ових алгоритама се помера не само ван погледа јавности, већ заправо изван погледа или разумевања чак и интерних инжењера који раде на овим системима, јер се они пребацују у ове неуронске мреже.
Издање има још мање детаља о неким аспектима алгоритма који су објављени 2023. године. У то време, компанија је укључила информације о томе како је пондерисала различите интеракције да би одредила које објаве треба да буду боље рангиране. На пример, одговор је вредео 27 ретвитова, а одговор који је генерисао одговор од оригиналног аутора вредео је 75 ретвитова. Али Кс је сада редиговао информације о томе како мери ове факторе, рекавши да су ове информације искључене „из безбедносних разлога“.
Код такође не укључује никакве информације о подацима на којима је алгоритам обучен, што би могло помоћи истраживачима и другима да га разумеју или спроведу ревизије. „Једна од ствари које бих заиста желео да видим је, који су подаци о обуци које користе за овај модел“, каже Мохсен Фороугхифар, доцент за пословне технологије на Универзитету Царнегие Меллон. „ако су подаци који се користе за обуку овог модела инхерентно пристрасни, онда би модел могао заправо и даље бити пристрасан, без обзира на то које ствари разматрате у оквиру модела.“
Могућност спровођења истраживања о алгоритму препоруке Кс била би изузетно драгоцена, каже Лаззарони, који ради на финансира ЕУ пројекат који истражује алтернативне алгоритме препорука за платформе друштвених медија. Велики део Лаззаронијевог рада укључује симулацију платформи друштвених медија у стварном свету ради тестирања различитих приступа. Али он каже да код који је објавио Кс нема довољно информација да би стварно репродуковао свој алгоритам препоруке.
„Имамо код за покретање алгоритма, али немамо модел који вам је потребан да покренете алгоритам“, каже он.
Ако би истраживачи били у могућности да проуче Кс алгоритам, то би могло дати увиде који би могли утицати на више од платформи друштвених медија. Многа од истих питања и забринутости које су покренуте о томе како се алгоритми друштвених медија понашају вероватно ће се поново појавити у контексту АИ цхат робота.“Многи од ових изазова које видимо на платформама друштвених медија и препорукама [systems] појављују се на веома сличан начин и са овим генеративним системима,“ рекао је Тхицкстун. „Тако да можете на неки начин екстраполирати врсте изазова које смо видели на платформама друштвених медија на врсту изазова које ћемо видети у интеракцији са ГенАИ платформама.“
Лаззарони, који проводи много времена симулирајући нека од најтоксичнијих понашања на друштвеним медијима, још је грубљи. „Компаније са вештачком интелигенцијом, да би максимизирале профит, оптимизују велике језичке моделе за ангажовање корисника, а не за говорење истине или бригу о менталном здрављу корисника. И ово је потпуно исти проблем: остварују већи профит, али корисници добијају лошије друштво, или из тога добијају лошије ментално здравље.


