Котики, милые дети и военные: как российская пропаганда расставляет дезинформационные ловушки с помощью ИИ
Реальности больше нет? Этот вопрос приобрел особую актуальность в то время, когда искусственный интеллект (ИИ) стал новым инструментом информационной войны. Наивно верить, что основная угроза ИИ — это автоматизация работы или потеря приватности. Сегодня он активно используется для манипуляции общественным мнением, и активнее всего этот инструмент освоили российские пропагандисты, передает редакция сайта 056.
Искусственный интеллект не просто помогает решать сложные технические задачи, например оптимизация производственных процессов или автоматизация онлайн-сервисов. В руках пропагандистов он становится мощным инструментом для манипуляции массами, создания фейковых новостей и даже нарушения суверенитета стран. Одним из главных инструментов этой борьбы является так называемая "мягкая сила", когда с помощью эмоционально заряженного контента создается представление о не существующей реальности.
Трогательные фото молящихся перед боем военных, дети, которые, складывая руки, благословляют защитников, а также собаки и кошки, якобы молитвенно помогающие Украине. Такие сообщения в соцсетях собирают тысячи репостов. Однако их реальность – иллюзия. Большинство этих изображений созданы нейросетями, а их распространением занимаются русские ботофермы.
В этой статье мы рассмотрим, как работает этот механизм, почему ИИ стал идеальным инструментом пропаганды и защититься от таких манипуляций.
Эмоциональные ловушки: как работает российская дезинформация
Цель российских пропагандистов – захватить внимание максимально широкой аудитории, а для этого они используют базовые человеческие эмоции. Страх, сострадание, гордость – все это эмоциональные триггеры, заставляющие пользователей взаимодействовать с контентом, даже не проверяя его достоверность.
Эмоциональная манипуляция является важной составляющей современных информационных кампаний, особенно в контексте войны. Например, на первый взгляд невинное фото ребенка, держащего табличку «Возвращайся живым, тату», может стать мощным инструментом для эмоционального воздействия на аудиторию. Прибавляя к этому контекст политической нестабильности и войны, такая картинка приобретает еще больший вес, заставляя людей реагировать без лишних вопросов.
Но что мы знаем о такой картинке? Действительно ли существовал этот ребенок? Большинство таких фото – это созданные искусственным интеллектом образы, под видом которых скрываются идеологические нарративы. Такие сообщения сначала используются для создания видимости «патриотического контента». Впоследствии их администраторы начинают распространять более опасные нарративы: от «украинцы проигрывают войну» до «западных партнеров покидают Киев».
Эволюция ботоферм: от фейковых аккаунтов до ШИ
Ботофермы как инструмент русской пропаганды есть давно. Однако с развитием технологий они вышли на новый уровень.
Современные боты уже не просто генерируют комментарии по шаблону. Они могут имитировать человеческое поведение, вести осмысленные диалоги, выражать эмоции, выражать эмпатию. Используя алгоритмы ИИ, они изучают поведение реальных пользователей и активно используют актуальные темы для привлечения внимания. Программы анализируют популярные посты и создают контент, похожий на те материалы, которые лучше всего реагируют на эмоциональное воздействие.
Неудивительно, что нейросети, такие как ChatGPT-4, Grok и Google Gemini, активно используются для распространения пропагандистских нарративов. Они генерируют фейковые новости, быстро распространяемые через соцсети, а также ссылаются на ненадежные или пророссийские источники, которые выглядят как авторитетные.
Глобальный вызов: способны ли корпорации противодействовать?
Технологии, позволяющие создавать глубоко убедительный фейковый контент, уже являются реальностью. Однако способны ли крупные корпорации и интернет-платформы противодействовать такому явлению?
В 2024 году ведущие корпорации, такие как Google, Meta, Microsoft и OpenAI, объявили о намерениях маркировать сгенерированный ИИ контент. Однако эффективность этих мер пока вызывает сомнения. К примеру, Meta прекратила сотрудничество с фактчекерами, оставив проверку информации на ответственность самих пользователей. Вместо этого компания предлагает использовать «примечания сообщества», подобные механизмам, работающим в сети X. Это может быть недостаточно эффективно, поскольку с помощью ИИ можно создавать тысячи копий одного фейка, и обнаружить его вручную становится очень сложно.
И пока технологии, помогающие выявлять манипуляции, развиваются, россия усовершенствует свои стратегии дезинформации, снижая затраты на ботофермы и в частности на создание фейковых новостей, подаваемых как «правда».
Как распознать фейки: советы от Беаты Куркуль
Литовская художница Беаты Куркуль, получившая известность благодаря своим рисункам украинских военнослужащих, рассказали как распознать фейки. Иногда она также использует генеративную нейросеть Midjourney для создания изображений на основе текстовых описаний. Вот ее советы, как отличить сгенерированные нейросетью изображения от реальных:
- Анатомия людей. Больше всего искусственный интеллект нарушает пропорции тела. Например, лица смотрятся красиво, но достаточно однообразно, а тела имеют дефекты, такие как отсутствие пальцев, дополнительные конечности или неправильно изображенные кости. Один из заметных признаков – чрезмерно гладкие и ухоженные волосы, как на картинке из «Авдеевки», где девушка выглядит как только вышедшая из салона красоты.
- Шевроны и патчи. ИИ может создавать неточные версии украинских гербов или флагов. Иногда такие элементы выглядят искаженными или несовершенными.
- Камуфляж. Пока нейросети, как Midjourney, не способны точно воспроизвести украинский пиксельный камуфляж. Иногда созданные изображения показывают неточные паттерны или совсем другие варианты.
- Элементы экипировки. Детали, как бронежилеты, итоги или рации, часто выглядят слишком упрощенными или их слишком много для одного военного. Кроме того, они часто генерируются с ошибками.
- Оружие. И хотя изображение оружия может походить на реальное, часто его расположение выглядит странно, как на изображении, где оружие «смотрит» в живот военной.
- Артефакты. Нередко на картинках появляются странные детали, не имеющие смысла, например, на изображении Христа, где фигура больше напоминает балерину.
Как распознать фейковые изображения в Интернете?
Беата также отмечает, что стоит обращать внимание на публикующих фото. Если это аккаунты с сомнительными названиями типа «Молимся», или явно фейковые аккаунты, типа «Злого Бандеры», вероятно, это очередной вброс.
Кроме того, важно развивать способность критически оценивать информацию: рассматривайте изображение тщательно и подписывайтесь на официальные аккаунты, такие как Генштаб, Минобороны или АрмияInform, где публикуются реальные фотографии украинских военных.
Искусственный интеллект – это мощный инструмент, который может быть использован как во благо, так и для манипуляций, как это делает россия, создавая фейковые изображения для ИПСО. Нейросети очень быстро развиваются, и качество созданных изображений постоянно улучшается. Поэтому важно развивать аналитическое мышление, чтобы уметь отличать подлинное от фейкового.
Как не попасть в ловушку ИИ?
Защититься от дезинформационных ловушек можно, если соблюдать несколько важных правил:
- Проверяйте источники информации. Если фото вызывает сильные эмоции, это уже повод усомниться.
- Анализируйте активность страницы. Сообщество, созданное в феврале-апреле 2022 года, может являться частью ботофермы. Важно обращать внимание на время появления аккаунтов, их активность и типы контента, которые они распространяют.
- Используйте обратный поиск. Сервисы, такие как Google Images или TinEye, помогут проверить подлинность изображения, сравнивая его с другими источниками.
- Обратите внимание на комментарии. Слишком грамматически правильные или однотипные ответы могут быть сгенерированы алгоритмом.
- Подозрительный контент – это повод проверить другие источники. Если подобная новость не появилась в надежных медиа, возможно, она фейковая. Наличие фейковых аккаунтов или источников может являться основным маркером дезинформации.
Дезинформация, сгенерированная искусственным интеллектом, является новым вызовом для современного общества. Она показывает, как манипуляция информацией может стать частью глобальной политической стратегии. В условиях, когда борьба за правду становится все более сложной, важно понимать, как работают современные технологии и применять критическое мышление к тому контенту, который мы потребляем.
Реальность больше не очевидна, однако это не означает, что мы должны потерять к ней доступ. Знание о том, как работает пропаганда и критическое мышление — лучшие инструменты в борьбе за правду.