Faks Profesori s FER-a napisali vodič o umjetnoj inteligenciji: U jednom slučaju odgovarate za propust kolega

Profesori s FER-a napisali vodič o umjetnoj inteligenciji: U jednom slučaju odgovarate za propust kolega

Bruno De Zan
Bruno De Zan

22. veljača 2026.

Profesori s FER-a Nikolina Frid i Mario Brčić napravili su za vodič za studente u kojem objašnjavaju kad smiju koristiti umjetnu inteligenciju, a kad ne. Naime studenti AI smiju koristiti i na testovima ako im profesori to izričito dopuste, a može im pomoći i za znanstveni rad, ali tad moraju sačuvati sve poruke koje su razmijenili s alatom. Autori vodiča misle da bi se studenti zapravo morali dobro upoznati s umjetnom inteligencijom, jer u suprotnom neće biti spremni za tržište.

Nikolina Frid i Mario Brčić

Nikolina Frid i Mario Brčić | Foto: FER, Cetković, LinkedIn, Srednja.hr

Zagrebački Fakultet elektrotehnike i računarstva nedavno je objavio vodič za studente o korištenju umjetne inteligencije. Vodič su sastavili profesori Mario Brčić i Nikolina Frid, a njegov cilj je studentima pojasniti kako smiju koristiti AI u akademskom radu.

Autori vodiča sad nam otkrivaju zašto su ga tako strukturirali i kako vide budućnost umjetne inteligencije na FER-u. Kažu nam da će program na fakultetu morati ići u korak s napretkom tehnologije, a osim pokretanja novih kolegija, očekuju i moderniziranje onih postojećih.

– Kao tehnološki osviještena zajednica, primjećujemo da studenti koriste umjetnu inteligenciju kao pomoć pri pisanju i strukturiranju tekstova, za učenje u ulozi ‘mentora’ ili sugovornika, pri izradi i analizi računalnog koda, pomoć u pretrazi izvora s weba te pri razradi i strukturiranju složenijih zadataka poput seminara ili projekata te za niz drugih praktičnih primjena vezanih uz studij i projekte, pričaju nam autori vodiča.

Izdvojeni članak
Domagoj Matijević

Profesor upozorava na budućnost perspektivnog zanimanja: ‘U velikoj mjeri će preuzeti AI’

Vodič studenti objašnjava kako da ‘ne upadnu u probleme’

Vodič ne određuje stegovne mjere, već su one definirane isključivo Pravilnikom o stegovnoj odgovornosti studenata. Međutim vodič je tu da studenti znaju kako da ne ‘upadnu u probleme’. Studenti prema vodiču ne smiju predstavljati rad koji su generirali AI-jem kao vlastiti. Ako koriste AI u radu moraju ga navesti u dokumentaciji. Ako koriste AI za parafraziranje, i dalje moraju navesti originalnog autora, a i ako im je AI puno pomogao u pisanju rada nikad ga ne navode kao autora ili suautora.

Ako učenici koriste AI pri izradi akademskom rada, moraju sačuvati i moći predočiti na zahtjev nastavnika, čitavu komunikaciju s alatom koji su koristili. U vodiču nije navedeno koliko dugo studenti moraju čuvati zapise o komunikaciji, a autori nam pojašnjavaju da to još ni nije formalno definirano.

– Razumno bi bilo da student zapise čuva barem tijekom razdoblja u kojem je moguće osporavanje rada, primjerice do završetka semestra ili u kraćem roku od oko 30 dana nakon predaje. U današnje vrijeme sve je ubrzano i ne vidimo da bi pomoglo neko znatno dulje razdoblje. U pripremi su dodatna pojašnjenja kroz pravilnike koji će preciznije urediti takva pitanja. Vodič zasad daje smjer i vodilje studentima, ali ne iznosi pravne granice ‘odvjetnički precizno’ jer tada ne bi ispunjavao svoju primarnu, edukativnu svrhu, odgovorili su nam autori.

Izdvojeni članak
osoba sjedi pred ekranom i koristi chatgpt

Učenici nam otkrili kako njihovi nastavnici koriste ChatGPT: ‘Profesorici se nije dalo slagati ispit’

Profesori sami biraju kad će studentima dopustiti AI alate

Studenti mogu koristiti AI u zadacima ili provjerama znanja, ali samo onda kad im profesor do izričito dopusti. Profesori će individualno odlučivati o tome kad će učenicima dopustiti da koriste ove alate, a autori vodiča navode da će to obično biti slučaj kad fokus nije na samom programiranju, već na rješavanju složenijih problema. AI tad studentima može omogućiti da se fokusiraju na složenije probleme.

– Profesori pritom imaju autonomiju procijeniti u kojoj fazi i u kojoj mjeri uporaba AI-ja pridonosi obrazovnim ciljevima kolegija. Primjerice, AI se može koristiti kao podrška onda kada fokus kolegija nije na samim vještinama programiranja, nego na drugim domenama, a programiranje služi samo kao alat za implementaciju. To uključuje izradu modela strojnog učenja (gdje je fokus na prilagodbi modela, optimizaciji i objašnjavanju rezultata) ili izradu kompletnih sustava (poput web, mobilnih ili IoT rješenja), gdje je naglasak na integraciji, kompatibilnosti tehnologija, skalabilnosti i sigurnosti. U tim slučajevima AI omogućuje studentima da se fokusiraju na bitne inženjerske probleme umjesto na rutinsko pisanje koda, pojašnjavaju nam autori.

Izdvojeni članak
vodič za odgovorno korištenje umjetne inteligencije

FER objavio vodič za odgovorno korištenje umjetne inteligencije u studiranju

Svi članovi tima snose odgovornost

U timskim zadacima studenti moraju pripaziti da i njihovi kolege etično koriste dostupne alate, jer je odgovornost za rad na svim njegovim autorima. Student koji koristi AI o tome moraju obavijestiti ostale članove svog tima, a na njima je da ga upozore ako uoče da se primjena ne poklapa s onime što je dopušteno vodičem.

– Potpis na radu znači preuzimanje odgovornosti za njegov cjelokupan sadržaj. Ako se tim zajednički potpisuje, tada svi članovi stoje iza navoda, metoda i načina izrade rada. Time se potvrđuje kolektivna odgovornost za eventualne propuste ili nepravilnosti, istaknuli su autori.

U AI alate ne smijete upisivati povjerljive podatke

Studenti također u AI alate ne smiju unositi osobne, akademske niti istraživačke podatke ako alat nema odgovarajuće mehanizme zaštite podataka. Naime takvim se postupkom mogu prekršiti propisi iz domene zaštite osobnih podataka, osobito u slučaju zdravstvenih, identifikacijskih ili istraživačkih informacija. Ovo nije važno samo za studente FER-a, već i za sve korisnike AI-ja koji olako dijele svoje ili tuđe informacije.

– Ključno je pročitati i razumjeti uvjete korištenja pojedinog pružatelja usluge. Besplatne usluge, a kod nekih i one koje su odnedavno podržane oglasima, u pravilu ne nude razinu privatnosti usporedivu s poslovnim ili posebno ugovorenim rješenjima. Podaci se mogu koristiti za unaprjeđenje sustava ili druge svrhe definirane uvjetima korištenja. Primjerice, ako korisnik unese broj kreditne kartice ili druge osjetljive podatke, ne postoji potpuna kontrola nad time kako će se ti podaci dalje obrađivati i pohranjivati. U nepovoljnim okolnostima takve informacije mogu postati dostupne trećim stranama ili biti zloupotrijebljene, upozoravaju autori.

Izdvojeni članak
zlatko stapić FOI

Veliki faks najavio novi uvjet za upis nekih kolegija: ‘Neke aktivnosti zahtijevat će znanje o tome’

‘Smatramo da će biti potrebne uvesti nove kolegije’

Iz svega ovog proizlazi da studenti trebaju biti oprezni i razboriti pri korištenju AI-ja. Međutim autori vodiča svakako očekuju da će studenti koristiti nove alate, štoviše u vodiču navode da će studenti koji izbjegavaju upoznati se s AI-jem biti nespremni za uvjete suvremenog tržišta rada. Smatraju da će stoga i FER morati evoluirati tako da studente više usmjerava modernim tehnologijama.

– Smatramo da će biti potrebno uvesti određene nove kolegije na FER-u, osobito one koji obrađuju društvene, etičke i regulatorne aspekte umjetne inteligencije, s obzirom na sve snažniji utjecaj tehnologije na društvo. Studenti moraju razumjeti taj kontekst kako bi tehnologiju koristili odgovorno i u javnom interesu, poručuju autori vodiča.

Naglašavaju da cilj tih novih kolegija neće biti studente naučiti kako koristiti AI, jer to nije na razini sveučilišnog kolegija, baš kao što ih ne moraju poučavati korištenju Worda ili Excela. Kolegiji iz područja AI-ja na FER-u bave se problematikom izgradnje modela, evaluacije i objašnjavanja rezultata, a ne samim korištenjem gotovih rješenja.

– Velik dio postojećih kolegija treba kontinuirano prilagođavati i nadograđivati kako bi ostali relevantni u uvjetima ubrzanog tehnološkog razvoja. Transformacija sadržaja često je jednako važna kao i uvođenje novih kolegija, zaključuju profesor Brčić i profesorica Frid.

Loader Loading...
EAD Logo Taking too long?

Reload Reload document
| Open Open in new tab