ИСТИНА ПОД ОПСАДОМ
Опасна илузија рата: Фотографије Хамнеија под рушевинама запалиле мреже - Рат на Блиском истоку прати талас манипулација, ово је истина (ФОТО)
Све чешће се користе снимци генерисани вештачком интелигенцијом, који изгледају уверљиво и брзо се шире. Популарне странице и алгоритми друштвених мрежа доприносе огромној видљивости лажних снимака, што додатно појачава конфузију јавности.
Ваздушни напад САД и Израела на Иран, започет 28. фебруара, од самог почетка прати отежан приступ информацијама. Бела кућа објављује само делимичне податке, исто као и Израел.
Како објашњава Марек Матушјак, стручњак из Центра за источне студије, у Израелу је од момента напада на Иран на снази такозвана војна цензура, која знатно отежава добијање информација о, на пример, обиму одговора Ирана или ефикасности израелске противваздушне и противракетне одбране.
Другим речима - потпуна слика ситуације и даље не постоји.
У таквом информацијском вакууму веома лако се шире дезинформације на друштвеним мрежама, а снимци и фотографије који последњих дана круже интернетом могу се поделити у две главне категорије.
Стари снимци представљени као актуелни догађаји
Прву групу чине стари снимци и фотографије из ранијих сукоба на Блиском истоку. На њима се, на пример, виде запаљене зграде или експлозије, али се сада објављују као наводни докази иранског одговора на нападе Израела и САД.
У ову категорију спадају и фотографије великих маса људи које су представљене као погреб врховног иранског вође. Проблем је у томе што се заправо ради о снимцима сахране лидера Хезболаха у Либану почетком 2025. године.
Један такав видео је 1. марта 2026. године објављен као снимак сахране врховног вође Ирана, иако потиче са догађаја из Либана. Тек неколико дана касније означен је као садржај који доводи јавност у заблуду.
АИ генерисани снимци - још опаснији талас дезинформација
Друга и знатно опаснија категорија су снимци и фотографије генерисани помоћу вештачке интелигенције.
Једна од најдељенијих фотографија крајем фебруара и почетком марта 2026. била је наводна слика тела врховног иранског вође Алија Хамнеија, које се наводно налази под рушевинама његове резиденције бомбардоване 28. фебруара.
Фотографија је брзо идентификована као лажна, али је упркос томе коришћена у многим објавама на Фејсбуку и Иксу.
Савремени модели генеративне вештачке интелигенције, попут алата Нано Банана, могу да произведу довољно уверљиве слике да корисници, док брзо прегледају садржај на друштвеним мрежама, не примете да је реч о фалсификату.
Лажни снимци са милионима прегледа
Један од најнеобичнијих примера је видео-снимак на којем рој пчела напада амерички носач авиона.
Овај снимак објављен је на веома популарној Facebook страници The Military Power Хуб, коју прати више од 5 милиона корисника.
Страница се представља као агрегатор аутентичних снимака из војних операција широм света, али је у стварности већина објављених видео-материјала лажна.
Упркос томе, снимак напада пчела прикупио је:
- више од 28.000 реакција
- око 700 коментара
- чак 7,2 милиона прегледа само на тој страници.
Исти профил објавио је и видео у којем наводно амерички бомбардер Б-2 Спирит уништава читав град само ударним таласом прелета. И тај снимак је генерисан помоћу вештачке интелигенције, али је направљен тако да изгледа као да га је случајни пролазник снимио мобилним телефоном.
Аутори таквих објава често не тврде директно да су снимци повезани са нападом на Иран. Међутим, алгоритми друштвених мрежа лако их могу препоручити корисницима који често читају о сукобима на Блиском истоку.
А када корисници почну да коментаришу или деле такав садржај - његов домет аутоматски расте, чак и ако коментари указују да је реч о лажној информацији.
"АИ слоп" додатно појачава проблем
Проблем додатно компликује феномен познат као "АИ слоп" - огромна количина аутоматски генерисаног садржаја који преплављује интернет.
Модели за генерисање слика и видео-снимака сваког месеца постају све напреднији, па је све теже разликовати аутентичан материјал од фалсификата.
Због недостатка јасних регулатива и широке доступности ових алата, у кризним ситуацијама - као што су ратови, природне катастрофе или велике несреће - лажни садржаји брзо попуњавају информацијски простор.
Дезинформације су постојале и пре развоја вештачке интелигенције, али су са њеном појавом постале много лакше за производњу и ширење.
Како препознати лажне снимке
Стручњаци наводе неколико знакова који могу помоћи у препознавању АИ садржаја:
- АИ видео-снимци су често превише добро осветљени и немају ефекат подрхтавања камере
- ако фотографија изгледа превише спектакуларно да би била стварна, вероватно је лажна
- на лажним снимцима позадина је често лоше обрађена, па се управо тамо појављују аномалије.
Корисницима се препоручује и коришћење алата Google Ленс, који може помоћи да се провери где се нека фотографија раније појавила на интернету.
Међутим, стручњаци упозоравају да није добра идеја проверавати аутентичност слика уз помоћ АИ четботова, попут асистента Грок на мрежи Икс. Модел који је развио Илон Маск више пута је оптуживан да је сам ширио нетачне информације.
Све о рату на Блиском истоку пратите УЖИВО на нашем порталу.