Zahav.СалатZahav.ru

Понедельник
Тель-Авив
+15+10
Иерусалим
+11+7

Салат

А
А

Правда ли, что фото сожженного израильского ребенка было создано на основе снимка собаки?

Авторы многих русскоязычных публикаций назвали историю с разоблачением предполагаемой подделки "провалом пропаганды Израиля".

Александр Титов
14.10.2023
Источник:Проверено
Фото: соцсети / @stellarman22

13 октября 2023 года в соцсетях появились заявления, будто бы фотография погибшего от рук боевиков ХАМАС ребенка, показанная премьером Израиля, - это фейк. Сообщается, что пользователи Сети якобы нашли оригинал, на котором запечатлен живой щенок, а не обугленное тело. Мы проверили достоверность этих сообщений.

12 октября 2023 года в официальном англоязычном аккаунте премьер-министра Израиля в соцсети X (бывший Twitter) опубликовали три снимка со следующей подписью: "Вот некоторые фотографии, которые премьер-министр Биньямин Нетаниягу показал госсекретарю США Энтони Блинкену. Предупреждение: это ужасающие фотографии младенцев, убитых и сожженных монстрами ХАМАС".

На следующий день в интернете распространились публикации, в которых утверждается, будто бы как минимум один из этих снимков - подделка.

Например, в Telegram-канале ведущего "Первого канала" Руслана Осташко (115 000 просмотров на момент написания этого разбора) заявили: "Но есть нюанс. На оригинальном фото, которое нашли на площадке Reddit, изображена собака. А в псевдодоказательство ее переделал искусственный интеллект". Канал Colonelcassad (217 000 просмотров) также прокомментировал якобы сфабрикованное фото: "Такое количество фейков от израильских властей и израильских СМИ говорит о серьезном недостатке оригинальных материалов, раз приходится заниматься подобными фабрикациями". Телеканал "Царьград" дополнил: "Как известно, первой жертвой войны всегда становится правда". Авторы многих русскоязычных публикаций назвали историю с разоблачением предполагаемой подделки "провалом пропаганды Израиля" - подобные посты появились в Telegram-каналах "КБ +18" (225 000 просмотров), Voblya 18+ (168 000), "Белорусский силовик" (136 000), "Олег Царев" (66 000), "Сплетница" (42 000), "Рамзай" (37 000), "Топор | Политика" (31 000), "ДНР Info" (27 000) и "Терапия" (26 000), а также во "ВКонтакте".

От редакции: мы вынуждены предупредить читателей, что в этом материале демонстрируется фото, опубликованное израильскими властями. Это действительно страшное изображение. Если вы не хотите его видеть, пожалуйста, не читайте разбор.

Фото: скриншот поста из сервиса TGStat

Радикальное исламистское движение ХАМАС (в Израиле, США, ЕС, Японии и ряде других стран оно признано террористической организацией) утром 7 октября 2023 года нанесло массированные ракетные удары по Израилю из сектора Газа. В то же время боевики проникли в близлежащие израильские населенные пункты, где атаковали мирных жителей, и на военные объекты. Вскоре появились сообщения, что среди погибших есть женщины, старики и несовершеннолетние - в частности, представитель Армии обороны Израиля Джонатан Конрикус со ссылкой на данные судмедэксперта заявил, что в кибуце Беэри были найдены тела обезглавленных младенцев. При этом ХАМАС ранее отрицал, что во время атаки боевики убивали детей. По данным на 13 октября, в результате нападения погибли более 1300 израильтян, а ответных действий Израиля - более 1500 палестинцев.

12 октября, вскоре после появления публикации в аккаунте израильского премьер-министра, одну из фотографий перепостил в соцсети X (бывший Twitter) американский консервативный политический комментатор Бен Шапиро. "Вам были нужны наглядные доказательства наличия мертвых еврейских младенцев? Вот оно, жалкие ненавистники евреев. Израиль минимизирует потери среди мирного населения. Но Израиль не позволит жить тем кускам человеческого дерьма, которые это сделали. Каждая унция крови, пролитой в Газе, на счету ХАМАС", - написал он. Запись набрала более 14 млн просмотров. При этом некоторые пользователи в реплаях усомнились в подлинности фотографии из-за странно выглядящей кисти человека, демонстрирующего тело ребенка. Все дело в резиновой перчатке, которая была не до конца натянута на правую руку, из-за чего пальцы запечатленного человека кажутся деформированными. Но часть комментаторов решили, что снимок был создан нейросетью, поскольку странно выглядящие конечности - один из главных визуальных индикаторов ИИ-артов.

Фото: скриншоты твитов

На следующий день Джексон Хинкль (американский политический блогер, придерживающийся пророссийской позиции) также обвинил Шапиро в публикации якобы фальшивой фотографии. "Изображение, которое Бен Шапиро пытался выдать за сгоревший труп ребенка, было фейковой картинкой, созданной ИИ!" - написал он в соцсети X, где пост набрал почти 8 млн просмотров. Свою позицию Хинкль подкрепил скриншотом с результатами анализа фото в сервисе AI or Not, который, по заверениям создателей, с высокой точностью определяет, было изображение создано ИИ или человеком. "Проверено" также загрузило снимок в AI or Not, и, согласно анализу, фото мертвого ребенка якобы было сгенерировано нейросетью. Под твитом Шапиро даже появились Community Notes ("Заметки сообщества" - примечание о контексте, которое, по мнению одних читателей, будет полезно другим) с уточнением, что фото сфабриковано. Однако позднее эту плашку удалили.

Дело в том, что в действительности работа сервиса AI or Not далека от совершенной и вряд ли его можно назвать высокоточным. В реплаях к твитам Шапиро и Хинкля многие пользователи поделились своими скриншотами с результатами анализа иных собственных фото: в каких-то случаях сервис установил, что настоящие работы нейросетей были созданы человеком, а в других - что реальные снимки созданы при помощи ИИ. Причем некоторые пользователи при анализе того же фото сожженного младенца получили от AI or Not другой результат: снимок не создан ИИ. Эти находки на момент написания разбора отражены в обновленных Community Notes к твиту Хинкля. Еще летом 2023 года в статье The New York Times сравнивали работу нескольких сервисов по определению ИИ-изображений и выяснили, что некоторые детекторы (в том числе использованный Хинклем и другими блогерами) не всегда дают верные результаты. Представители AI or Not тогда не ответили на просьбу журналистов о комментарии.

Фото: скриншот твита

Что касается фотографии с собакой, то она завирусилась после того, как многие пользователи стали присылать ее в комментарии к твитам Хинкля и Шапиро, называя оригиналом именно снимок с животным. Как и в большинстве упомянутых в начале разбора публикациях, фото с щенком представляет собой не самостоятельное изображение, а скриншот поста на некоем сайте. Несмотря на многочисленные утверждения о том, что предполагаемый оригинал обнаружили пользователи Reddit, на самом скриншоте показан анонимный веб-форум 4chan. Это понятно не только по дизайну и интерфейсу - если загуглить фразу из поста, то в выдаче Google будет именно 4chan, где фото с животным разместили в треде под названием "Бен Шапиро использует сгенерированное искусственным интеллектом изображение для дискредитации ГОМОС" (возможно, в оригинале непереводимая игра слов: HAMAS - ХАМАС и Homos - "гомосексуалы"). Анонимный пользователь написал: "Вот оригинальная фотография, они использовали фото спасения щенка в качестве основы, а ИИ сделал остальное. Источник: папа работает в Центкоме (Центральное командование Вооруженных сил США. - Прим. ред.)".

Twitter-аккаунт Arlington Post провел анализ уровня ошибок (ELA, популярный метод оценки подлинности изображений) на снимке с собакой и на фото тела, опубликованном премьером Израиля. Онлайн-издание заключило, что фотография с погибшим ребенком не подвергалась изменениям, о чем свидетельствуют устойчивые и равномерные артефакты сжатия, резкость краев, паттерны шума и уровень яркости. А вот снимок с собакой имеет явные признаки цифровой обработки, особенно в подозрительных областях по контуру собаки: края выглядят более резкими и яркими, что указывает на вероятные манипуляции.

Фото: скриншот твита

"Проверено" выяснило, что первоисточником был не пост на 4chan, а сопровождаемый фотографией и опубликованный уже после записи Нетаниягу твит пользователя под ником Stellar Man, который написал (сообщение уже удалено, но осталась копия, сохраненная в кэше Google): "У меня ушло пять секунд, чтобы сделать это. Создать убедительную фейковую фотографию уже несложно. Видео подделать сложнее, но они никогда не покажут видео с доказательством". Когда снимок с собакой завирусился, Stellar Man заметил: "Что я наделал, lmao (laughing my ass off, "смеюсь до упаду". - Прим. ред.)". Как установило "Проверено", на 4chan картинку разместили примерно через 45 минут после твита.

Фото: коллаж "Проверено" / соцсети

Таким образом, фото с погибшим ребенком, которое выдают за работу нейросети, на самом деле подлинное, а снимок с собакой, названный измененным оригиналом, был создан с помощью искусственного интеллекта.

Читайте также

Фото: скриншот твита
Комментарии, содержащие оскорбления и человеконенавистнические высказывания, будут удаляться.

Пожалуйста, обсуждайте статьи, а не их авторов.

Статьи можно также обсудить в Фейсбуке