Otprilike jedna od pet interakcija učenika sa generativnom veštačkom inteligencijom na školskim uređajima uključivala je varanje, samopovređivanje, maltretiranje i druge problematične aktivnosti, prema podacima koje je prikupila i analizirala kompanija Securly, koja nudi filtriranje interneta i druge usluge bezbednosti.
Štaviše, Securly je identifikovao otprilike jednu na 50 interakcija učenik-AI kao crvene zastavice da učenici možda učestvuju u nasilju, nasilnom uznemiravanju na mreži ili samopovređivanju.
Securly-jeva analiza obuhvatila je skoro 1,2 miliona interakcija u više od 1.300 distriktа od 1. decembra 2025. do 20. februara 2026.
Nastavnici bi trebalo da budu udušeljeni time da većina vremena učenici koriste veštačku inteligenciju na primeren način, izjavila je Tammy Wincup, direktorica kompanije Securly, čiji su konkurenti GoGuardian i Lightspeed Systems.
„Kada distrikt stvarno uspostavi određene granice i politike oko korišćenja AI u školama, 80% razgovora koji se dešavaju je u okvirima politike distrikta,“ izjavila je Wincup. „To je dobra vest kada je reč o učenju.“
Zašto su podaci o korišćenju toliko ‘fascinantni’
Analiza pruža rani uvid u to kako učenici zapravo koriste alate generativne AI. Većina ostalih istraživanja o upotrebi AI među učenicima proizlazi iz anketa, koje se oslanjaju na izveštaje učenika o sopstvenom ponašanju.
Securly-jevi podaci pokazuju „šta učenici zaista rade kada unose tekst u generativnu AI“, rekao je Jeremy Roschelle, zajednički izvršni direktor istraživanja naučne discipline za Digital Promise, neprofitnu organizaciju koja radi na pitanjima jednakosti i tehnologije u školama.
„Zato je to fascinantno,“ dodao je.
U novembru je Securly dozvolio školskim zvaničnicima da postave parametre oko korišćenja AI među učenicima, slično načinu na koji traže od firme da filtrira određene vrste sajtova.
Ako distrikti odluče da koriste ovu funkciju, modeli velikog jezika će „reflektovati“ učenikov upit na AI koji je van okvira politike distrikta.
Npr., ako učenik pokuša da koristi AI da završi zadatak, veliki jezički modeli mogu umesto toga usmeriti ka informacijama o opštoj temi, ali neće dati tačan odgovor. Ili, ako učenik pita u vezi sa doziranjem za određeni lek, alat će ga uputiti da potraži pomoć pouzdanog odraslog.
Gotovo svi preusmereni učenikovi upiti—95%—bili su učenici koji su pokušavali da natovare AI alate da im završe školski zadatak.
Ovaj procenat nije iznenadio Wincup. Ona očekuje da kada distrikti dopuštaju učenicima da koriste velike jezičke modele na školskim mrežama i uređajima, deca će „eksperimentisati sa razumevanjem granica“ koje su postavljene oko alata i pokušati da zaobiđu te granice.
Još 2% interakcija identifikovanih kao neprikladne odnosilo se na igre. Malo manje od 1% bavilo je seksualnim sadržajem, a sličan procenat odnosio se na oružje ili lov. Kockanje, droga i mržnja (kao što su rasizam i antisemitizam) činili su otprilike 0,5% označenih interakcija.
Iako samo 2 odsto interakcija nije identifikovano kao potencijalno nesigurno, to predstavlja više od 24.000 upita ukupno. A neka od pitanja koje su učenici postavljali AI bila su uznemirujuća.
Na primer, jedan učenik je naložio velikom jezičkom modelu da mu pomogne u sastavljanju mejla majci u kome objašnjava da ima suicidalne misli.
Drugi učenik je obavio kratku seriju pretraživanja interneta na pitanja, uključujući „Koji je glavni živac u podlaktici?“ i „Koji živac kod zgloba nosi krv?“ Zatim je prešao na AI alat i pitao ga kako da počini samoubistvo. (U oba slučaja identitet učenika je otkriven od strane Securly, a distrikt je upoznat sa bezbednosnim pitanjima.)
Učenici su više koristili ChatGPT nego velike jezičke modele namenjene školama od učilišta do srednje škole
Uopšte gledano, Securly je otkrio veći procenat potencijalno nesigurnih AI interakcija—2%—od potencijalno nesigurnih pretraživanja učenika na internetu, 0,4%.
Prezicno je prerano da se tačno objasni zašto postoji ta razlika, kazala je Wincup. Napomenula je da Securly ima više godina iskustva u usavršavanju sistema za prepoznavanje kada pretrage učenika na internetu mogu biti znak opasnosti, dok je rad na interakcijama sa AI potpuno nov.
Roschelle, međutim, zanima šta su učenici tačno tražili od AI u preostalih 80% interakcija koje su ocenjene kao primerene za školu.
Kako su njihovi promptovi i AI-ovi odgovori pomogli—ili odmogli—njihovom razumevanju zadatka, problema ili sveta oko njih, zapitao se.
„Želimo da [AI] bude ne samo primeren, već i zaista koristan za učenje učenika,“ rekao je Roschelle.
Analiza je takođe pokazala koji veliki jezički modeli učenici najčešće koriste.
ChatGPT je ubedljivo najpopularniji, čineći 42% interakcija. AI Chat kompanije Securly čini 28%. Gemini Google-a čini 21%. A ostali alati iz ed-tech sektora koji integrišu AI funkcije—uključujući MagicSchool, SchoolAI i BriskTeaching—čine 9%. (Ti podaci nisu nacionalno reprezentativni jer pristup Securly AI imaju samo distrikti koji koriste Securly. Ali Wincup veruje da su „veliki tehnički“ veliki jezički modeli verovatno najpopularniji u svim distriktima.)
AI stavlja lidere obrazovne tehnologije u novu poziciju, rekla je Wincup.
„Nisu više samo kupovali stvari i postavljali ih ovako“, rekla je. Ovo je trenutak „kada moraju imati uvid kako bi pomogli svom distriktu da donosi ne samo odlične tehničke odluke, već i odlične odluke o nastavi i učenju.“