Obrisan vam je komentar ili objava na društvenoj mreži? Evo zašto se to događa
Na Facebooku i Instagramu ukinut će se radna mjesta za fact-checkere u SAD-u i zamijenit će ih umjetna inteligencija. U svijetu gdje se dezinformacije brzo šire mrežama, tehnologija već igra ključnu ulogu u borbi protiv lažnih vijesti. No, i umjetna inteligencija ima svoje izazove kada je u pitanju provjeravanja točnosti sadržaja na društvenim mrežama. O tome se raspravljalo u više istraživačkih radova koji upozoravaju na određene opasnosti prepuštanja fact-checkinga isključivo umjetnoj inteligenciji.

Foto: Unsplash
Ako vam je Facebook, Instagram ili TikTok ikada uklonio komentar ili neki sadržaj koji ste objavili na tim društvenim mrežama, iako niste ništa problematično napisali, vrlo je vjerojatno da vam je sadržaj uklonila umjetna inteligencija. Naime, društvene mreže oslanjaju se na AI sustave za prepoznavanje problematičnog sadržaja, dezinformacija i lažnih vijesti na svojim platformama. Svaka društvena mreža ima svoj AI sustav i oni se razlikuju, ali u suštini funkcioniraju tako da prepoznaju ključne riječi i uklanjaju sadržaj koji ih spominje.
Oni koji smatraju da im je sadržaj uklonjen bez razloga, prijavljuju grešku platformi i traže da se njihov sadržaj ponovno pregleda i vrati. Te dodatne provjere također mogu raditi sustavi umjetne inteligencije, ali to rade i ljudi, odnosno fact-checkeri. Takve ljudske timove za fact-checkere ima i Meta koja posjeduje Facebook i Instagram. No, Mark Zuckerberg je nedavno najavio da će se, za sada samo u SAD-u, ti timovi ugasiti i da će se skoro u potpunosti osloniti na AI fact-checkerski sustav.
Iako je Zuckerberg prozvao fact-checkere, tvrdeći da su svojim radom ‘smanjili slobodu govora’ na njegovim platformama, mnogi stručnjaci smatraju kako ni potpuno oslanjanje na umjetnu inteligenciju nije idealno rješenje. U više radova navode se mane koje AI ima kada fact-checka sadržaj, a najveći izazov predstavlja to što umjetna inteligencija ne shvaća ‘kontekst’ i da je za to ipak potreban ljudski faktor. Na temelju tih radova izdvojili smo šest izazova kada je u pitanju fact-checking i AI.
#1 AI ima problema s jezicima koji nisu engleski
U radu Generative Large Language Models in Automated Fact-Checking: A Survey, koji analizira dosadašnje radove na temu fact-checkinga i AI-a, autori ističu kako je jedan od ključnih izazova u upotrebi AI-a za fact-checking ovisnost modela o jeziku . Iako LLM-ovi (Large Language Model – vrsta umjetne inteligencije koja se koristi za razumijevanje i generiranje ljudskog jezika, op. a.) mogu pružiti korisne rezultate, njihova učinkovitost u provjeri činjenica značajno ovisi o jeziku na kojem je upit postavljen. U mnogim slučajevima, prevođenje upita može poboljšati rezultate, ali to nije uvijek dovoljno, osobito kad se bavimo tvrdnjama koje se odnose na specifične zemlje ili regije. Na primjer, prevedeni sadržaj na engleski jezik često daje bolji rezultat nego kada se provjerava točnost informacija sadržaja na drugim jezicima.
#2 Sustavi ne znaju za provjeru točnosti koristiti relevantne izvore informacija
U istom radu kao važan izazov smatra se i provjera zaključaka na temelju kojih su LLM modeli donijeli odluku je li neka informacija točna ili nije. Modeli moraju biti sposobni objasniti svoj postupak donošenja odluka i pružiti relevantne izvore na temelju kojih su došli do svojih zaključaka. Bez ove transparentnosti teško je procijeniti ispravnost njihovih odluka, što može dovesti do netočnih ili neprovjerenih informacija koje se šire. Stoga je ključno ugraditi sustave koji omogućuju provjeru točnosti iz relevantnih izvora.
#3 Umjetna inteligencija treba kontekst
Društvene mreže često sadrže tvrdnje koje su formulirane na način koji ih umjetnoj inteligenciji čini teško provjerljivima. Takve tvrdnje mogu biti dvosmislene ili obmanjujuće, a AI modeli teško mogu prepoznati suptilne nijanse koje čine tvrdnju obmanjujućom. Čak i kada tvrdnja naizgled izgleda točno, njen pravi kontekst ili namjera mogu biti obmanjujući, što predstavlja izazov za točnu provjeru. Ovaj izazov pokazuje da generativni modeli nisu uvijek u stanju ispravno interpretirati tvrdnje koje koriste emocionalne ili manipulativne tehnike. Zato se smatra da potpuno oslanjanje na umjetnu inteligenciju nije dobro, već da u nekoj mjeri mora postojati i ljudski fact-checker.
#4 Količina dezinformacija raste brže nego umjetna inteligencija to stigne obraditi
Iako LLM-ovi mogu obraditi velike količine podataka, pravi izazov je kako omogućiti njihovu primjenu u stvarnom vremenu. Dezinformacije se šire brže nego što AI to može obraditi, osobito na društvenim mrežama, što stvara potrebu za sustavima koji mogu automatski provjeravati informacije odmah nakon što se pojave. Ovo je posebno važno u kontekstu viralnih tvrdnji koje mogu imati ozbiljne posljedice ako se ne provjere pravovremeno.
#5 Ne koriste sve društvene mreže iste metode AI fact-checking sustava
Kao što smo već spomenuli, metode provjere činjenica na razlikuju se na skoro svim društvenim mrežama. Na primjer, sadržaj koji se masovno širi na Facebooku, neće se jednakom brzinom proširiti na TikToku jer koriste različite sustave. Uz to, neke platforme se fokusiraju na lokalne teme, dok druge istražuju globalne tvrdnje koje postanu viralne na društvenim mrežama. Različiti pristupi mogu otežati standardizaciju fact-checking zadataka i utjecati na učinkovitost AI modela jer neće svi modeli imati iste uvjete za provjeru tvrdnji, ovisno o specifičnostima platforme.
#6 AI sustavi provjeravaju napisane dezinformacije, ali ne detektiraju one u obliku fotografija i videa
Trenutni LLM modeli najbolje detektiraju dezinformacije u obliku riječi. No, dezinformacije se mogu širiti i u obliku fotografija i videa. To predstavlja veliki problem jer je pitanje kakve sustave umjetne inteligencije koriste društvene mreže za prepoznavanje takvih oblika dezinformacija. Na primjer, na fotografiji niže vidimo francuskog nogometaša Kyliana Mbappéa koji drži ribu, pretpostavili biste da se on u slobodno vrijeme bavi pecanjem. Fotografija je AI generirana, ali to nigdje nije jasno naznačeno. Iz objave je jasno da je fotografiju objavila osoba kao šalu, a to mogu shvatiti ljudi koji razumiju kontekst objave, no to baš i ne može umjetna inteligencija. Hoće li takve stvari u budućnosti AI sustavi moći prepoznati, to preostaje za vidjeti.

Foto: Screenshot Facebook


Izneseni stavovi i mišljenja samo su autorova i ne odražavaju nužno službena stajališta Europske unije ili Europske komisije, kao ni stajališta Agencije za elektroničke medije. Europska unija i Europska komisija ni Agencija za elektroničke medije ne mogu se smatrati odgovornima za njih.