ИИнструмент уничтожения. Как нейросети меняют фронт информационной войны

ИИнструмент уничтожения. Как нейросети меняют фронт информационной войны

В начале ноября этого года губернатор Белгородской области Вячеслав Гладков установил необычный рекорд среди российских политиков… По количеству дипфейков и другого контента с ним, сгенерированного с помощью нейросетей. По разным оценкам, только за 2025 год с участием Гладкова было сфабриковано до 46 уникальных видеороликов.

При этом по данным АНО "Диалог Регионы" только с января по сентябрь этого года с участием российских политиков, бизнесменов и чиновников было создано 342 дипфейка — почти в четыре раза больше, чем за весь 2024 год. Качество такого контента поражает: министр иностранных дел России Сергей Лавров, комментируя очередной нейро-ролик со своим участием, даже усомнился: "Вроде как и я".

Нейроконтент уже давно стал частью информационной войны: почти 90% создаваемых ИИ фейков направлены именно на подрыв государственной безопасности. Но видеоролики — лишь одно из направлений этой информационной кампании, которая на самом деле уже ведётся. И осмелимся заметить, что это направление даже не самое опасное и не самое массовое по уровню воздействия на человеческие умы.

А ещё удивительнее, что сегодня, в 2025 году, героем и участником этой войны может стать каждый из нас.

Но обо всём по порядку. Ещё с десяток лет назад, с засильем поисковых систем, специалисты выявили пугающий тренд: на первые три строки поисковой выдачи приходится 75% всего поискового трафика! Лишь каждый десятый доходит до десятой строчки выдачи, а на следующую страницу переходили считаные единицы.

Уже тогда появились подозрения на грани конспирологии, что крупнейшие западные системы, такие как Google или Bing, манипулируют общественным сознанием, предлагая в ответ на поисковые запросы по актуальным, политическим или злободневным темам "правильные" ссылки и материалы. Так, например, Министерство юстиции США уже выиграло судебный процесс против Google, связанный с монополизацией рынка поиска информации и манипуляциями результатами поиска.

Не отстают и европейские власти. В ноябре этого года Еврокомиссия инициировала разбирательство в отношении всё той же Google — уже на протяжении нескольких лет корпорация в поисковых системах и собственном новостном агрегаторе планомерно пессимизировала сайты с определённым, чаще всего, консервативным содержанием, чтобы продвинуть наверх выдачи "правильные" порталы с леволиберальной повесткой. По оценкам некоторых экспертов, если вина Alphabet, материнской компании Google, будет доказана, это может стоить ей более чем 10% от её общего годового оборота — более 30 миллиардов долларов.

Сначала Google навязала человечеству определённую культуру потребления контента, а после начала продвигать через неё выгодные себе нарративы, даже если это может пойти вразрез с политическими силами отдельных государств. Исход этого противостояния пока неизвестен, но общий тренд, когда огромная корпорация создаёт для рядовых пользователей информационный пузырь с "правильными" ценностями, не может не пугать.

Весь этот контекст нужен для того, чтобы мы понимали, насколько проблема контроля над информационным пространством назрела и насколько событие, произошедшее полтора года назад, изменило расклад сил в глобальной информационной войне.

В 2024 году после презентации с огромной помпой Google начала "раскатывать" на весь мир функцию AI Overview. Теперь даже не нужно заходить на сайт: умные нейросети за вас просканировали весь интернет, нашли только то, что нужно лично вам и подходит вашему запросу, и упаковали всё в три "непредвзятых" абзаца со ссылками на источники для пущей убедительности.

Правила игры и потребления информации снова изменились. Уже к июню 2025 года 50% всех поисковых запросов сопровождаются AI Overview, лишь 1 из 6 пользователей на поисках с обзором от ИИ переходит по ссылкам из поисковой выдачи. И лишь 1 из 100 — проверяет ссылки, которые AI Overview приводит в своём отчёте.

Сначала ведущие пропагандистские СМИ всего мира возопили в ужасе: драгоценный трафик уплывает из рук, возможность влиять на умы тает на глазах, бездушная машина и её бездушный, хирургически точный анализ отделит суждения от фактов и освободит мир от фейков и манипуляций! Так ведь?..

Конечно, нет. Очень скоро всеобщая паника западных медийщиков сменилась осторожным интересом: а как можно новый инструмент подчинить своим целям, как сохранить бесконечный цикл манипуляций сознанием нетронутым — и даже сделать его ещё чудовищнее. Ответ оказался проще простого.

Вскоре аналитики определили топ-3 самых часто цитируемых в AI Overview источника информации: ими оказались Wikipedia, Reddit и YouTube. Нетрудно догадаться, что объединяет эти три ресурса — все они заполняются обычными пользователями, не профессиональными журналистами и редакциями. При этом эти сайты в глазах поисковых систем обладают огромным "весом" — на них ссылаются чаще других, а значит, по непробиваемой логике робота, контент этих сайтов совершенно точно самый достоверный.

Пользовательский контент выдвинулся на первое место, но это оказалось без преувеличения Ящиком Пандоры.

Ведь там, где есть пользовательский контент, есть модерация. Где есть модерация, там сохраняется риск цензуры. Где есть цензура, там искажаются факты. И эти факты под соусом "непредвзятого ИИ-анализа" потом попадают в выдачу ничего не подозревающих обывателей.

Всю чудовищность, бездушность и беспредельную опасность ИИ-поиска подчеркнул случай от политики далёкий, но хорошо иллюстрирующий уязвимость этой системы. Основатель онлайн-школы программирования Formation в США стал модератором одного из форумов на Reddit, посвящённых как раз онлайн-образованию. Злоумышленник знал: содержание Reddit используется для обучения нейросетей, а данные из обсуждений активно индексируются и попадают в AI Overview. И вот на протяжении полутора лет он планомерно "завышал" публикации, посвященные своему бизнесу, а всё, что связано с прямым конкурентом — такой же онлайн-школой Codesmith — беспощадно модерировал, цензурировал, банил пользователей и блокировал "неугодный" контент.

Соответственно, изменился и контент, выходящий в AI Overview на запросы, связанные с Codesmith: теперь система маркировала эту онлайн-школу как потенциально мошенническую, продвигала недостоверные сведения о ней и стала невольным инструментом "чёрного пиара". Результат — всего за год доход Codesmith упал на 80%, компания встала на грань банкротства…

И это — всего лишь пример двух конкурирующих онлайн-школ. А если масштабировать случай Formation и Codesmith? Что если на место двух компаний встанут враждующие страны, а вместо программирования в ИИ-выдаче будут обсуждаться вопросы войны, экономики, социальной политики и демографии? Каждый автор и модератор на Wikipedia и Reddit, каждый блогер на YouTube, каждый автор поста в Telegram, попавшего в индексацию — все они стали полноценными агентами влияния. В руки спецслужб и специалистов по оптимизации контента попало абсолютное оружие, силу которого невозможно переоценить.

И главное — рецепт уничтожения любого врага оказался пугающе прост: найди индексируемый ресурс, повышай его "вес" стандартными инструментами SEO, продвигай угодную информацию, модерируй неугодную. Больше не нужно быть профессиональным журналистом или разведчиком, больше не нужно даже быть выдающимся оратором или мастером слова — нужно просто убедить робота в своей правоте. А всё остальное он сделает за тебя.

Читайте также: Холодная война за искусственный интеллект и асимметричный ответ России

Источник: Украина.ру

Топ

Лента новостей