ISTINA POD OPSADOM
Opasna iluzija rata: Fotografije Hamneija pod ruševinama zapalile mreže - Rat na Bliskom istoku prati talas manipulacija, ovo je istina (FOTO)
Sve češće se koriste snimci generisani veštačkom inteligencijom, koji izgledaju uverljivo i brzo se šire. Popularne stranice i algoritmi društvenih mreža doprinose ogromnoj vidljivosti lažnih snimaka, što dodatno pojačava konfuziju javnosti.
Vazdušni napad SAD i Izraela na Iran, započet 28. februara, od samog početka prati otežan pristup informacijama. Bela kuća objavljuje samo delimične podatke, isto kao i Izrael.
Kako objašnjava Marek Matušjak, stručnjak iz Centra za istočne studije, u Izraelu je od momenta napada na Iran na snazi takozvana vojna cenzura, koja znatno otežava dobijanje informacija o, na primer, obimu odgovora Irana ili efikasnosti izraelske protivvazdušne i protivraketne odbrane.
Drugim rečima - potpuna slika situacije i dalje ne postoji.
U takvom informacijskom vakuumu veoma lako se šire dezinformacije na društvenim mrežama, a snimci i fotografije koji poslednjih dana kruže internetom mogu se podeliti u dve glavne kategorije.
Stari snimci predstavljeni kao aktuelni događaji
Prvu grupu čine stari snimci i fotografije iz ranijih sukoba na Bliskom istoku. Na njima se, na primer, vide zapaljene zgrade ili eksplozije, ali se sada objavljuju kao navodni dokazi iranskog odgovora na napade Izraela i SAD.
U ovu kategoriju spadaju i fotografije velikih masa ljudi koje su predstavljene kao pogreb vrhovnog iranskog vođe. Problem je u tome što se zapravo radi o snimcima sahrane lidera Hezbolaha u Libanu početkom 2025. godine.
Jedan takav video je 1. marta 2026. godine objavljen kao snimak sahrane vrhovnog vođe Irana, iako potiče sa događaja iz Libana. Tek nekoliko dana kasnije označen je kao sadržaj koji dovodi javnost u zabludu.
AI generisani snimci - još opasniji talas dezinformacija
Druga i znatno opasnija kategorija su snimci i fotografije generisani pomoću veštačke inteligencije.
Jedna od najdeljenijih fotografija krajem februara i početkom marta 2026. bila je navodna slika tela vrhovnog iranskog vođe Alija Hamneija, koje se navodno nalazi pod ruševinama njegove rezidencije bombardovane 28. februara.
Fotografija je brzo identifikovana kao lažna, ali je uprkos tome korišćena u mnogim objavama na Fejsbuku i Iksu.
Savremeni modeli generativne veštačke inteligencije, poput alata Nano Banana, mogu da proizvedu dovoljno uverljive slike da korisnici, dok brzo pregledaju sadržaj na društvenim mrežama, ne primete da je reč o falsifikatu.
Lažni snimci sa milionima pregleda
Jedan od najneobičnijih primera je video-snimak na kojem roj pčela napada američki nosač aviona.
Ovaj snimak objavljen je na veoma popularnoj Facebook stranici The Military Power Hub, koju prati više od 5 miliona korisnika.
Stranica se predstavlja kao agregator autentičnih snimaka iz vojnih operacija širom sveta, ali je u stvarnosti većina objavljenih video-materijala lažna.
Uprkos tome, snimak napada pčela prikupio je:
- više od 28.000 reakcija
- oko 700 komentara
- čak 7,2 miliona pregleda samo na toj stranici.
Isti profil objavio je i video u kojem navodno američki bombarder B-2 Spirit uništava čitav grad samo udarnim talasom preleta. I taj snimak je generisan pomoću veštačke inteligencije, ali je napravljen tako da izgleda kao da ga je slučajni prolaznik snimio mobilnim telefonom.
Autori takvih objava često ne tvrde direktno da su snimci povezani sa napadom na Iran. Međutim, algoritmi društvenih mreža lako ih mogu preporučiti korisnicima koji često čitaju o sukobima na Bliskom istoku.
A kada korisnici počnu da komentarišu ili dele takav sadržaj - njegov domet automatski raste, čak i ako komentari ukazuju da je reč o lažnoj informaciji.
"AI slop" dodatno pojačava problem
Problem dodatno komplikuje fenomen poznat kao "AI slop" - ogromna količina automatski generisanog sadržaja koji preplavljuje internet.
Modeli za generisanje slika i video-snimaka svakog meseca postaju sve napredniji, pa je sve teže razlikovati autentičan materijal od falsifikata.
Zbog nedostatka jasnih regulativa i široke dostupnosti ovih alata, u kriznim situacijama - kao što su ratovi, prirodne katastrofe ili velike nesreće - lažni sadržaji brzo popunjavaju informacijski prostor.
Dezinformacije su postojale i pre razvoja veštačke inteligencije, ali su sa njenom pojavom postale mnogo lakše za proizvodnju i širenje.
Kako prepoznati lažne snimke
Stručnjaci navode nekoliko znakova koji mogu pomoći u prepoznavanju AI sadržaja:
- AI video-snimci su često previše dobro osvetljeni i nemaju efekat podrhtavanja kamere
- ako fotografija izgleda previše spektakularno da bi bila stvarna, verovatno je lažna
- na lažnim snimcima pozadina je često loše obrađena, pa se upravo tamo pojavljuju anomalije.
Korisnicima se preporučuje i korišćenje alata Google Lens, koji može pomoći da se proveri gde se neka fotografija ranije pojavila na internetu.
Međutim, stručnjaci upozoravaju da nije dobra ideja proveravati autentičnost slika uz pomoć AI četbotova, poput asistenta Grok na mreži Iks. Model koji je razvio Ilon Mask više puta je optuživan da je sam širio netačne informacije.
Sve o ratu na Bliskom istoku pratite UŽIVO na našem portalu.