Sami možete uočiti deepfake fotografije i videe: Nekoliko je trikova, a postoje i alati koji pomažu u tome
Tekstualne dezinformacije i pisane lažne vijesti nisu jedina prevara na koju nasjedaju korisnici društvenih mreža. Većina u prvi plan na naslovnicu ‘gura’ fotografije i videe, međutim, među njima se nerijetko nalaze i one koje je generirala ili doradila umjetna inteligencija. Postoji nekoliko koraka za provjeru autentičnosti fotografija ili videa, odnosno detekciju deepfakea.

Ilustracija: Unsplash
Sve šira uporaba umjetne inteligencije (UI) dovela je i do njene zlouporabe, što stvara poseban izazov factchekerima. Koliko ste samo puta na društvenim mrežama naišli na fotku koja je kod vas izazvala snažnu emociju – ljutnju, tugu ili vas je nasmijala do suza? Prije nego podijelite takvu fotografiju, bilo bi dobro provjeriti je li ona generirana ili dorađena pomoću alata umjetne inteligencije. Drugim riječima je li riječ o deepfake fotografiji ili deepfake videu koji ne prikazuje stvarnu situaciju.
Dobro pregledajte fotografiju ili video, deepfake može imati niz propusta
To je važno, jer primjerice, deepfake videi mogu prikazati osobe kako govore ili rade stvari koje nikada nisu učinili, u njima je možebitno došlo do krađe identiteta, a možete njihovim širenjem izazvati nepotrebnu paniku. Nekoliko je koraka koje možete napraviti kako biste se uvjerili da fotografija ili video nisu autentični:
- Pregledajte ima li neprirodnih detalja – ako su na fotografijama ljudi, pogledajte detalje poput prstiju, ušiju ili zubiju i njihova položaja. UI često griješi pa, primjerice, prikaže veći broj prstiju ili osoba nema uho.
- Sjene i odrazi se nalaze tamo gdje ne bi trebali biti – ako osobe stoje pored površine koja se zrcali, a odraza nema ili je on neprirodan, to isto može biti znak fotografije koju je generirala UI.
- Tekstovi na slikama su čudni – ako fotografija sadrži tekst i on vam nema smisla, moguće je da je riječ o fotografiji koju je generirala UI.
- Bizarna pozadina – dobro promotrite objekte koji nisu u prvom planu. Ako oni izgledaju ‘odrezano’, lebde ili su na nelogičnoj poziciji, i to može biti jedan od znakova deepfakea.
- Neuobičajena mimika osobe u videu – ako osoba u videu ne trepće ili trepne previše puta u sekundni, to može biti naznaka deepfakea. Promotrite i pokrete usana, na videima koje je generirala UI često se pokreti usana ne poklapaju s izgovorenim riječima.
- Pikselizacija videa tijekom pokreta – u ovako izrađenim videima često se pikselizira slika kada osoba napravi pokret, npr. rukom. I na usnama kod govora može biti vidljiva pikselizacija.
- Nedostatak emocija u glasu – ton govora osobe u deepfake videima često je previše jednoličan, iako glas može biti vrlo sličan pravom glasu osobe koju oponaša.
U nastavku možete pogledati deepfake video glumca Toma Cruisea na kojem svira i pjeva. Uočit ćete neke od prethodno navedenih znakova, primjerice, pikselizaciju kod naglih pokreta glavom, kao i pokrete usta koji su povremeno neusklađeni s izgovorenim riječima.
Koji alati vam mogu biti dodatna pomoć u detekciji deepfakea?
Kada ste obavili sve ove korake, možete iskoristiti i neke alate koji su razvijeni baš u ove svrhe i koji vam mogu pomoći u detekciji fotografija koje je generirala UI.
Za početak, pomoći će vam Google Reverse Image Search pomoću kojeg možete provjeriti je li fotografija već korištena i u kojem kontekstu. Još jedan pretraživač koji može pronaći ranije verzije fotografije je TinEye, a korisni vam mogu biti i PimEyes te Yandex.
Profesionalni factchekeri koriste i FotoForensics, alat koji analizira metapodatke slike i otkriva moguće manipulacije kroz analizu piksela, a slične podatke o slikama otkrivaju i Metadata2go te Forensically.
Kada je riječ o videima, ovakvih je besplatnih alata nešto manje, ali može vam pomoći InVID koji omogućuje pretragu sličnih videozapisa i provjeru izvora.
Izneseni stavovi i mišljenja samo su autorova i ne odražavaju nužno službena stajališta Europske unije ili Europske komisije, kao ni stajališta Agencije za elektroničke medije. Europska unija i Europska komisija ni Agencija za elektroničke medije ne mogu se smatrati odgovornima za njih.