Котики, милі діти і військові: як російська пропаганда розставляє дезінформаційні пастки за допомогою ШІ
Реальності більше немає? Це питання набуло особливої актуальності в час, коли штучний інтелект (ШІ) став новим інструментом інформаційної війни. Наївно вірити, що основна загроза від ШІ — це автоматизація роботи чи втрата приватності. Сьогодні він активно використовується для маніпуляції громадською думкою, і найактивніше цей інструмент освоїли російські пропагандисти, передає редакція сайту 056.
Штучний інтелект не просто допомагає вирішувати складні технічні задачі, як-от оптимізація виробничих процесів чи автоматизація онлайн-сервісів. У руках пропагандистів він стає потужним інструментом для маніпуляції масами, створення фейкових новин і навіть порушення суверенітету країн. Одним з головних інструментів цієї боротьби є так звана "м’яка сила", коли з допомогою емоційно зарядженого контенту створюється уявлення про реальність, що не існує.
Зворушливі фото військових, що моляться перед боєм, діти, які, складаючи руки, благословляють захисників, і навіть собаки та коти, що нібито молитовно допомагають Україні. Такі дописи у соцмережах збирають тисячі репостів. Проте їхня реальність — ілюзія. Більшість цих зображень створено нейромережами, а їх поширенням займаються російські ботоферми.
У цій статті ми розглянемо, як працює цей механізм, чому ШІ став ідеальним інструментом пропаганди та як захиститися від таких маніпуляцій.
Емоційні пастки: як працює російська дезінформація
Мета російських пропагандистів — захопити увагу максимально широкої аудиторії, а для цього вони використовують базові людські емоції. Страх, співчуття, гордість — все це емоційні тригери, які змушують користувачів взаємодіяти з контентом, навіть не перевіряючи його достовірність.
Емоційна маніпуляція є важливою складовою сучасних інформаційних кампаній, особливо у контексті війни. Наприклад, на перший погляд невинне фото дитини, яка тримає табличку «Повертайся живим, тату», може стати потужним інструментом для емоційного впливу на аудиторію. Додаючи до цього контекст політичної нестабільності та війни, така картинка набуває ще більшої ваги, змушуючи людей реагувати без зайвих запитань.
Але що ми знаємо про таку картинку? Чи дійсно існувала ця дитина? Більшість таких фото — це створені штучним інтелектом образи, під виглядом яких приховуються ідеологічні наративи. Такі дописи спочатку використовуються для створення видимості «патріотичного контенту». Згодом їхні адміністратори починають поширювати небезпечніші наративи: від «українці програють війну» до «західні партнери покидають Київ».
Еволюція ботоферм: від фейкових акаунтів до ШІ
Ботоферми як інструмент російської пропаганди існують давно. Однак із розвитком технологій вони вийшли на новий рівень.
Сучасні боти вже не просто генерують коментарі за шаблоном. Вони можуть імітувати людську поведінку, вести осмислені діалоги, висловлювати емоції, виявляти емпатію. Застосовуючи алгоритми ШІ, вони вивчають поведінку реальних користувачів та активно використовують актуальні теми для залучення уваги. Програми аналізують популярні пости та створюють контент, який схожий на ті матеріали, що найкраще реагують на емоційний вплив.
Не дивно, що нейромережі, як-от ChatGPT-4, Grok та Google Gemini, активно використовуються для поширення пропагандистських наративів. Вони генерують фейкові новини, котрі швидко розповсюджуються через соцмережі, а також посилаються на ненадійні або проросійські джерела, що виглядають як авторитетні.
Глобальний виклик: чи здатні корпорації протидіяти?
Технології, які дають можливість створювати глибоко переконливий фейковий контент, уже є реальністю. Проте чи здатні великі корпорації та інтернет-платформи протидіяти такому явищу?
У 2024 році провідні корпорації, як-от Google, Meta, Microsoft і OpenAI, оголосили про наміри маркувати згенерований ШІ контент. Однак ефективність цих заходів поки що викликає сумніви. Наприклад, Meta припинила співпрацю з фактчекерами, залишивши перевірку інформації на відповідальність самих користувачів. Замість цього компанія пропонує використовувати «примітки спільноти», подібні до механізмів, які працюють у мережі X. Це може бути недостатньо ефективно, оскільки за допомогою ШІ можна створювати тисячі копій одного фейку, і виявити його вручну стає надзвичайно складно.
І поки технології, що допомагають виявляти маніпуляції, розвиваються, росія вдосконалює свої стратегії дезінформації, знижуючи витрати на ботоферми та зокрема на створення фейкових новин, що подаються як «правда».
Як розпізнати фейки: поради від Беати Куркуль
Литовська художниця Беати Куркуль, яка здобула популярність завдяки своїм малюнкам українських військовослужбовців розказали як розпізнати фейки. Деколи вона також використовує генеративну нейромережу Midjourney для створення зображень на основі текстових описів. Ось її поради, як відрізнити згенеровані нейромережею зображення від реальних:
- Анатомія людей. Найбільше за все штучний інтелект порушує пропорції тіла. Наприклад, обличчя виглядають гарно, але досить одноманітно, а тіла мають дефекти, такі як відсутність пальців, додаткові кінцівки або неправильно зображені кістки. Одна з помітних ознак — надмірно гладке і доглянуте волосся, як на картинці з «Авдіївки», де дівчина виглядає ніби щойно вийшла з салону краси.
- Шеврони та патчі. ШІ може створювати неточні версії українських гербів чи прапорів. Іноді такі елементи виглядають спотвореними або недовершеними.
- Камуфляж. Наразі нейромережі, як Midjourney, не здатні точно відтворити український піксельний камуфляж. Іноді створені зображення показують неточні патерни або зовсім інші варіанти.
- Елементи екіпірування. Деталі, як бронежилети, підсумки або рації, часто виглядають занадто спрощеними або їх забагато для одного військового. Крім того, вони часто генеруються з помилками.
- Зброя. І хоча зображення зброї може бути схожим на реальне, часто її розташування виглядає дивно, як на зображенні, де зброя «дивиться» в живіт військової.
- Артефакти. Нерідко на картинках з'являються дивні деталі, які не мають сенсу, як-от на зображенні Христа, де фігура більше нагадує балерину.
Як розпізнати фейкові зображення в Інтернеті?
Беата також зазначає, що варто звертати увагу на те, хто публікує фото. Якщо це акаунти з сумнівними назвами на кшталт «Молимося», або явно фейкові акаунти, типу «Злого Бандери», ймовірно, це черговий вкид.
Крім того, важливо розвивати здатність критично оцінювати інформацію: розглядайте зображення ретельно і підписуйтеся на офіційні акаунти, такі як Генштаб, Міноборони або АрміяInform, де публікуються реальні фотографії українських військових.
Штучний інтелект — це потужний інструмент, який може бути використаний як на благо, так і для маніпуляцій, як це робить росія, створюючи фейкові зображення для ІПСО. Нейромережі дуже швидко розвиваються, і якість створених зображень постійно покращується. Тому важливо розвивати аналітичне мислення, щоб вміти відрізняти справжнє від фейкового.
Як не потрапити в пастку ШІ?
Захиститися від дезінформаційних пасток можливо, якщо дотримуватися кількох важливих правил:
- Перевіряйте джерела інформації. Якщо фото викликає сильні емоції, це вже привід засумніватися.
- Аналізуйте активність сторінки. Спільнота, створена у лютому-квітні 2022 року, може бути частиною ботоферми. Важливо звертати увагу на час появи акаунтів, їх активність і типи контенту, які вони поширюють.
- Використовуйте зворотний пошук зображень. Сервіси, як-от Google Images або TinEye, допоможуть перевірити автентичність зображення, порівнюючи його з іншими джерелами.
- Звертайте увагу на коментарі. Надто граматично правильні чи однотипні відповіді можуть бути згенеровані алгоритмом.
- Підозрілий контент — це привід перевірити інші джерела. Якщо подібна новина не з’явилася в надійних медіа, можливо, вона фейкова. Наявність фейкових акаунтів або джерел може бути основним маркером дезінформації.
Дезінформація, згенерована штучним інтелектом, є новим викликом для сучасного суспільства. Вона демонструє, як маніпуляція інформацією може ставати частиною глобальної політичної стратегії. В умовах, коли боротьба за правду стає дедалі більш складною, важливо розуміти, як працюють сучасні технології, і застосовувати критичне мислення до того контенту, який ми споживаємо.
Реальність більше не є очевидною, однак це не означає, що ми маємо втратити до неї доступ. Знання про те, як працює пропаганда, та критичне мислення — найкращі інструменти у боротьбі за правду.