

ОпенСцхолар је ЛЛМ који врши прегледе научне литературе користећи базу података од 45 милиона чланака отвореног приступа.Кредит: дпа преко Алами
Истраживачи су објавили рецепт за модел вештачке интелигенције који прегледа научну литературу боље него што су то неки велики модели великих језика (ЛЛМ) у стању да то умеју, и наводи цитате тачним онолико често колико то раде стручњаци за људе.
ОпенСцхолар — који комбинује језички модел са базом података од 45 милиона чланака отвореног приступа — повезује информације које извори директно назад са литературом, како би спречио систем да измишља или „халуцинира“ цитате.
Већ постоји неколико комерцијалних алата за преглед литературе заснованих на вештачкој интелигенцији који користе сличне технике, али неколико њих је објављено као отворени код, каже Акари Асаи, истраживач вештачке интелигенције на Универзитету Царнегие Меллон у Питсбургу, Пенсилванија, и коаутор рада, објављеног у Природа 4. фебруара1. Бити отворени код значи да истраживачи не могу само бесплатно испробати ОпенСцхолар у онлајн демонстрацијаали и да га примене на сопственој машини и користе метод у раду да унапреде вештине прегледа литературе било ког ЛЛМ-а, каже Асаи.
За 14 месеци откако је ОпенСцхолар први пут објављен у арКсив репозиторијуму2компаније са вештачком интелигенцијом као што је ОпенАИ користиле су сличне методе да прикаче алате за ‘дубоко истраживање’ на своје комерцијалне ЛЛМ, што је у великој мери побољшало њихову тачност. Али као мали и ефикасан систем, покретање ОпенСцхолар-а кошта само делић цене коришћења ОпенАИ ГПТ-5 са дубоким истраживањем, каже коаутор Ханане Хаџиширзи, компјутерски научник са Универзитета Вашингтон у Сијетлу. Природа подцаст.
Међутим, аутори признају да ОпенСцхолар има ограничења. На пример, не преузима увек најрепрезентативније или најрелевантније радове за упит и ограничен је обимом своје базе података.
Али ако истраживачи могу да приступе алату бесплатно, „то може постати једна од најпопуларнијих апликација за научна претраживања“, каже Мусхтак Билал, истраживач у Силви, фирми са седиштем у Копенхагену која има сопствени алат за преглед литературе заснован на вештачкој интелигенцији.
Надмашују људе?
ЛЛМ могу течно писати, али се често боре са цитатима. То је зато што уче тако што изграђују везе између речи у својим подацима о обуци, који укључују изворе ван науке, а затим генеришу текст на основу вероватних асоцијација које нису увек тачне или ажурне. Ово је карактеристика ЛЛМ-а, а не грешка, и показало се да је проблем када људи користе ЛЛМ у истраживању. На пример, најмање 51 рад прихваћен на високопрофилној конференцији НеурИПС о машинском учењу у децембру 2025. садржао је непостојеће или нетачне цитате, према анализу помоћу ГПТЗеро алата.

Могу ли истраживачи да спрече АИ да измишља цитате?


