
Вы действительно спорите с человеком или с ботом, говорящим по-литовски? По подсчётам экспертов, каждый пятый постинг осуществляет бот
Страсти, кипящие в публичном пространстве, всё чаще возникают не из-за различий во мнениях людей, а вследствие вмешательства ботов. Эксперт по праву ИИ компании Telia, член правления Ассоциации ИИ, профессор Паулюс Пакутинскас предупреждает: технологии ботов дешевеют, а их цели изменились. Подсчитано, что до каждого пятого сообщения в социальных сетях может быть сгенерировано ботом.
Новейшие данные исследования журнала Nature за 2025 г. показывают, что до 20 % участников обсуждений важнейших мировых событий в социальных сетях — не люди, а боты. Более того, по оценкам, до 75 % всего интернет-контента уже может быть сгенерировано искусственным интеллектом (ИИ).
Эксперты предупреждают, что в Литве эта дешевеющая технология ботов используется не только для рекламы, но и для сложных психологических операций, цель которых — создать искажённую реальность и подорвать доверие общества к государству.
По словам эксперта по праву ИИ компании Telia, профессора П. Пакутинскаса, хотя Литва и не является крупным государством, она представляет интерес для враждебных сил: выделяются значительные ресурсы на адаптацию ботов к литовскому языку и актуальным для Литвы нарративам, а методы их работы становятся всё труднее распознаваемыми.
Эффект искусственной толпы
Одной из самых больших угроз гражданскому обществу, по словам эксперта, являются не отдельные злобные комментарии, а так называемый эффект искусственной толпы. Тысячи лайков и поддерживающих комментариев могут создать ложное впечатление, что радикальная точка зрения отражает мнение большинства.
Для дестабилизации общества не так важно, в какую именно радикальную сторону происходит смещение — важно, чтобы это вызывало напряжение, страх, недоверие и другие негативные эмоции. Нередко используются даже жизненные ситуации, отдельные преступления или несчастные случаи, чтобы показать, будто нынешняя власть ненадёжна и ни на что не способна, тем самым достигается эффект разжигания розни.
«Боты создают иллюзию того, что определённая маргинальная идея является нормой. Рациональные граждане часто вытесняются из публичного пространства, потому что человеку требуется время, чтобы вникнуть в тему и написать комментарий, тогда как армия ботов реагирует мгновенно, заполняя информационное поле и формируя нарративы, не всегда соответствующие интересам общества. Так создаётся обманчивая социальная реальность, в которой радикализм выглядит доминирующей нормой, а рациональный голос тонет в шуме», — говорит П.Пакутинскас.
Спящие агенты в нейтральных группах
Одной из самых опасных тенденций, на которую указывает профессор П.Пакутинскас, являются так называемые спящие агенты. Это боты, которые долгое время ведут себя в социальных сетях как ответственные граждане, стремясь завоевать доверие сообщества и как бы «накапливают карму» (англ. karma farming), чтобы позже звучать более убедительно. Такие профили труднее распознать, поскольку у них появляется больше атрибутов, характерных для обычных аккаунтов (друзья, активность и т. п.).
«Современные боты месяцами могут существовать в совершенно нейтральных пространствах — в группах садоводов, родителей или автолюбителей. Они публикуют нейтральный контент, фотографии цветов, обсуждают бытовые темы и таким образом завоёвывают доверие сообщества. Однако, когда наступает “час X”, резонансное событие или кризис, тысячи таких профилей внезапно активизируются.
Они могут скоординированно сеять тревогу, утверждая, что полиция не работает, институты коррумпированы, а государство разваливается. Это не прямолинейная атака, а использование против людей доверия, которое они долго выстраивали», — объясняет эксперт.
Согласно научному исследованию, опубликованному в 2025 году издательством Springer, современные боты уже не примитивны — их поведение всё сложнее отличить от поведения реальных людей. Боты сознательно имитируют человеческие несовершенства: делают паузы, меняют мнения, допускают орфографические ошибки, реагируют эмоционально и даже адаптируются к нормам конкретных сообществ.
Дополнительную угрозу создаёт то, что деятельность ботов всё чаще перемещается в полузакрытые пространства — закрытые группы, мессенджеры и даже на уровень администраторов сообществ.
Здесь манипуляцию труднее заметить, поскольку доверие уже сформировано, а информация распространяется как надёжный совет. В таких средах боты не только распространяют ложный контент, но и формируют эмоциональный фон — чувство усталости, цинизма и беспомощности.
Исследование также показывает, что даже самые продвинутые алгоритмические детекторы часто не способны точно распознать ботов. Они обучаются на моделях поведения прошлого, тогда как стратегии ботов меняются быстрее, чем обновляются инструменты распознавания. В результате всё чаще остаются незамеченными даже скоординированные группы ботов, особенно если они долго действуют в нейтральных или закрытых сообществах социальных сетей.
Цель — поощрять безразличие общества
Даже в периоды отсутствия выборов активность ботов не прекращается. Эксперты подчёркивают, что долгосрочным последствием таких операций является не резкая радикализация общества, а медленное ослабление гражданского иммунитета, когда люди перестают доверять не только институтам, но и друг другу. Цель ботов не обязательно заключается в агитации «за» или «против», а зачастую – в проведении постоянной психологической операции, направленной на демотивацию.
«Главная цель ботов — создать раскол, посеять безразличие и разочарование в своей стране. Когда люди постоянно видят искусственно созданный негативный фон, возникает естественный вопрос: зачем стараться, если всё равно всё плохо. Боты часто разжигают конфликт по обе стороны, поляризуя общество, потому что именно конфликт создаёт наибольшую вовлечённость. Так разрушается единство и снижается желание граждан участвовать в жизни государства», — говорит П.Пакутинскас.
Хотя платформы социальных сетей часто извлекают прибыль из повышенной вовлечённости пользователей, которую подпитывают конфликты в комментариях, эксперт подчёркивает, что ситуация меняется — меры регулирования Евросоюза вынуждают платформы брать на себя ответственность. Тем не менее, пока технологии продолжают развиваться, лучшим инструментом общества для противодействия остаётся критическое мышление — понимание того, что тысячная толпа в интернете может быть всего лишь иллюзией, сгенерированной дешёвым алгоритмом.