Доцент Андрей Чвалюк, специально для нашей Ассоциации провел анализ и подчеркнул, что в оккупированном Крыму технологии искусственного интеллекта (ИИ) и дополненной реальности используются не как «инструменты цифрового развития», а как орудие «управленческой легитимации» и пропаганды.
На материале состряпанных агрессором «публичных дискуссий», подконтрольных оккупантам «медиа» и кейса «туристической кампании» показано, как риторика «нейтральной цифровой трансформации» сочетается с «нормализацией» алгоритмического контроля, геймифицированным вовлечением аудитории и закреплением «политически выгодных версий» событий.
Отдельно анализируются риски непрозрачного сбора данных, эффекты «символической интеграции» оккупированных территорий и коллизии, связанные с генерацией контента в стиле «классиков литературы».
27 мая прошлого года подконтрольная оккупантам «общественная палата республики» в Симферополе стала прикрытием «круглого стола» «Цифровая трансформация и информационная открытость».
Название звучит максимально нейтрально, но сам контекст мероприятия от нейтрального далек, поскольку речь идёт о структуре, встроенной в вертикаль российских оккупационных структур Крыма.
Формально «палата» числится «институтом гражданского общества». На деле она создана спецслужбами агрессора в среде, где политическая конкуренция и независимые общественные механизмы отсутствует, а медиаполе «централизовано» и зачищено от альтернативных позиций.
В таких условиях «общественная дискуссия» становится не площадкой для спора позиций, а способом подтвердить уже выбранный агрессором «управленческий курс». Это было заметно по повестке регулярных обсуждений – члены «палаты» не раз преступно призывали к изменению границ Украины и оправдывали вооруженную агрессию рф.
При этом «палата» транслировала риторику «неизбежности», изображая политический вопрос как «технический». Ключевой нарратив на «круглом столе» транслировался довольно ожидаемо: ИИ уже стал «частью нашей реальности».
С виду это просто констатация факта. Но по сути это риторический ход с тремя последствиями: подать ИИ как «исторически неизбежную технологию»; увести разговор о границах и условиях внедрения ИИ на второй план; а также подменить вопросы прав человека на приватность, доступ к информации, возможность оспорить решение, разговором о том, как сделать ИИ «удобным», а подотчетность «властей» – техническими деталями.
Иными словами, вместо вопроса «допустимо ли расширение алгоритмического управления в несвободной среде?» предлагается вопрос «как сделать это аккуратно?». Это удобная для оккупантов рамка, которая «снижает конфликтность» и одновременно выводит за скобки тему ответственности «власти».
«Крокодиловы слезы» участников «круглого стола» о том, как «использовать нейросети без ущерба для персональных данных» были очевидным фейком. В системе, где независимый контроль, судебные гарантии и публичная экспертиза отсутствуют, такие заявления становятся просто набором деклараций.
Когда структуры, расширяющие цифровые инструменты контроля, сами называют себя «гарантами цифровой безопасности», возникает явный конфликт ролей. В итоге разговор о правах смещается к более «прагматичному вопросу» – как «эффективнее администрировать» персональные данные в интересах агрессора.
Обсуждалась тема «миллионов ботов, пишущих комментарии». Но без анализа их происхождения, целей и координации, включая возможное использование их властями государства-агрессора и их прокси, это не помогает решить проблему.
Получается удобная для оккупационных «властей» схема – о ботах говорят как о проблеме «вообще», но без указания, кто именно их запускает и координирует. Угроза заявляется, а её источник намеренно размывается. Для описанных «говорящих голов» это был явно «безопасный формат», поэтому подконтрольные оккупантам «общественные структуры» и не развивают проблему, чтобы ненароком не выйти на своих нанимателей.
Организаторы «стола» подчеркивали участие в нем «представителей власти», а также «профильных экспертов, журналистов и общественников». При этом в данном мероприятии, очевидно, не участвовали независимые исследователи, правозащитные структуры и другие участники, способные озвучить системную критику политического применения ИИ.
Это позволяет рассматривать формат не как «открытую дискуссию», а как институционально и искусственно организованную «публичность», когда заранее очерченный круг участников обсуждает заранее утвержденный перечень тем. Такая модель прогнозируемо произвела не конкуренцию аргументов, а озвучивание согласованного нарратива.
В этом контексте формат «публичных дискуссий» агрессора по ИИ «закрывает» две практические задачи. Первая это институциональная легитимация, с декларацией того, что «гражданское общество» в оккупированном Крыму якобы «работает» и задействовано в «решении актуальных политико-управленческих и информационных проблем» ИИ.
А вторая это подготовка агрессора к цифровому администрированию, чтобы закрепить как «норму» практики тотального контроля: мониторинг общественных настроений, автоматизированную модерацию и риск-аналитику.
Развитие такой «официальной риторики» в подконтрольном оккупантам крымском медиапространстве проявилось в практике «говорящего ИИ». Показателен сентябрьский материал подконтрольной агрессору «Крымской правды» под заголовком: «Искусственный интеллект, расскажи, как для Крыма прошёл летний курортный сезон 2025 года».
Сам формат подачи «от имени ИИ» скорее всего должен был, по задумке кураторов выпуска вышеуказанной статьи, создавать эффект «машинной объективности».
Но по содержанию получился обычный «позитивный» нарратив: акцент на «переломном моменте», «новой главе», «желаемом курорте» и «рекордных показателях», без сопоставления с альтернативными источниками информации, инфраструктурными ограничениями и нагрузкой на экологию – прежде всего дефицитом воды, перегрузкой систем утилизации отходов и нагрузкой на прибрежные экосистемы в «пик сезона».
Здесь якобы использованный ИИ сыграл роль не аналитика, а технологического лейбла доверия. Формула «так сказал ИИ» выполняет ту же функцию, что раньше выполняла у оккупантов формула «так считают эксперты» – только с «более сильным» эффектом «нейтральности».
Механика задуманного пропагандистами агрессора влияния достаточно прозрачна: ссылка на ИИ повышает доверие к сообщению; оценка подаётся как будто нейтральная и «алгоритмическая»; модель ИИ остается «за кадром»: «медиа» оккупантов не объясняет, какая именно нейросеть и в каком режиме использовалась, поэтому данные трудно проверить.
Публикацию быстро подхватывают подконтрольные рф агрегаторы и «соцсети», и так запускается контур «самоподтверждения».
Разобранный кейс важен не как единичная «редакционная особенность», а как показательный элемент более широкой системы. Когда фейковые «общественные институты» на публичных площадках якобы «нормализуют» ИИ как «неизбежный» и «полезный» инструмент, а «медиа» параллельно подают политически окрашенные интерпретации как «мнение умной машины», возникает связанная модель «производства доверия» агрессором.
По сути это уже целая коммуникационная инфраструктура: ИИ-контент, бот-сети, автоматизированные комментарии, вторичные цитаты в «дружественных медиа» и их дальнейшее тиражирование в агрегаторах. Такой контур удешевляет массовое продвижение нужных стране-агрессору интерпретаций, ускоряет их попадание в повестку и все сильнее размывает границы между «анализом» и пропагандой.
Поэтому в реалиях оккупированного Крыма ИИ выступает не «героем модернизации» и не нейтральным посредником, а инструментом выстроенного влияния агрессора. И чем чаще оккупанты подают технологию как «объективного арбитра», тем важнее проверять конкретные вещи: кто собирает и отбирает исходные данные, кто задает критерии оценки и интерпретации, кто управляет платформами распространения, и у кого есть право исправлять ошибки или оспаривать выводы системы.
Также в прошлом году оккупационная «администрация» рф продвигала «туристическую кампанию» «Расцветай в Крыму!». В ней якобы использовались генеративный ИИ, как «тексты и видео» и дополненная реальность (AR) в мобильном приложении «Оживи!». Это включало сканирование QR-кодов, анимации, квесты и «приветствия» от исторических персонажей.
На первый взгляд это выглядит как обычный цифровой маркетинг. Но в совокупности эти решения работают не на «туристическое продвижение», а на символическую «нормализацию» оккупации.
В материалах кампании использовались «приглашения» в Крым от имени известных писателей и поэтов – как смесь реальных цитат и сгенерированных фрагментов «в похожем стиле».
Это, по нашему мнению, создаёт сразу несколько эффектов:
– территория под оккупацией символически получает «одобрение» фигур культурного канона;
– у аудитории стирается граница между подлинным текстом и сгенерированной подделкой;
– имя автора начинает работать как политический ресурс в контексте, в котором сам автор не мог участвовать.
То есть ИИ применяется не для удобства, а для перенастройки культурной памяти под текущую повестку.
Когда синтетический контент не маркируется, у пользователя формируется ложное чувство «исторической достоверности». Для Крыма это особенно чувствительно: спор идёт не только о территории, но и об интерпретации истории.
AR-механики создают эмоционально приятный и вовлекающий цифровой слой, который отодвигает на задний план политико-правовой контекст: оккупацию, милитаризацию и нарушения прав человека. Геймификация (квесты, бонусы, повторяющиеся действия) закрепляет регулярное поведение и формирует привычку к потреблению «нужного» нарратива.
Также следует напомнить, что AR-приложения в большинстве своём собирают технические и поведенческие данные: доступ к камере, идентификаторы устройства, статистику действий, иногда геоданные.
При подключении облачных сервисов распознавания растут риски профилирования аудитории, сегментации пользователей по регионам и анализа перемещений по конкретным локациям.
Для оккупированной территории это не абстрактный риск, а потенциальный элемент более широкой системы контроля – тем более при низкой публичной прозрачности о том, какие данные реально собираются, где хранятся и кому передаются.
Отдельно важен таргетинг на жителей оккупированных частей Донецкой, Луганской, Запорожской и Херсонской областей, которые страна-агрессор обозначает как «новые регионы».
В таком случае запущенная оккупантами «туристическая кампания» решает не «экономическую задачу», но и формирует фейковый образ «единого пространства» – «общей мобильности», «общей символической территории» и «обычности» «нового статуса» оккупированных земель.
Кампания «Расцветай в Крыму!» носит ярко выраженный PR-характер, при этом организаторы не раскрывают, какие именно ИИ-модели использовались для генерации контента. Такая непрозрачность напрямую подводит и к правовому вопросу о границах допустимого использования культурного наследия.
Согласно существующим во многих странах принципах гражданского законодательства и нормам международного права, имущественные права на произведения действуют в течение жизни автора несколько десятилетий после его смерти.
Тексты многих «классиков», упоминаемых в кампании (Гоголь, Чехов, Есенин, Маяковский, Волошин, Бунин), заявлены ее промоутерами как «общественное достояние», что «позволяет цитировать их произведения без согласия наследников».
Однако личные неимущественные права охраняются в любой правовой системе бессрочно: право авторства, право на имя и право на неприкосновенность произведения. Кроме того, нормы о защите нематериальных благ допускают защиту чести, репутации и изображения даже после смерти лица.
В данном кейсе нарушение общепринятых норм состоит именно не в самом цитировании, а в генерации новых фраз «в стиле автора», которые могут восприниматься как позиция реального исторического лица, чьё имя и образ используются в пропагандистской кампании агрессора.
А потому сгенерированные «в стиле автора» фразы, поданные как его «возможная позиция», прямо противоречат принципу неприкосновенности произведения, праву автора на имя и запрету приписывать автору взгляды, которых он не выражал.
Суммарный анализ «официальной» риторики, «медийных практик» и кампаний с ИИ и AR в оккупированном Крыму показывает наличие устойчивой модели информационно-управленческого влияния агрессора.
Внедрение ИИ в ней подается населению как «нейтральная технологическая модернизация», а алгоритмические инструменты управления «расписываются» как «допустимая норма».
Одновременно риторика про «баланс и человечность» нивелирует вопросы соблюдения прав человека, подотчетности и ответственности «властей». Сам формат «ИИ рассказал» в «медиа» усиливает и закрепляет «нужную» оккупантам и «идеологически правильную» трактовку событий, а «туристические кампании» с ИИ используются как инструмент «интеграции» и «нормализации» оккупационного порядка.
Таким образом ИИ и AR выступают в оккупированном Крыму не как нейтральные инструменты цифрового развития, а как связанная инфраструктура «легитимации», пропагандистского влияния и «мягкой интеграции» оккупационного режима.
«Официальная» риторика, «медийные» форматы и цифровые «механики вовлечения» от оккупантов совместно снижают критичность восприятия у населения, закрепляют «политически выгодную» трактовку событий и расширяют практики сбора и анализа данных агрессором при отсутствии прозрачности таких процедур.
Поэтому в центре внимания должны быть не абстрактные споры о «дружбе» или «соперничестве» оккупантов с цифровой технологией, а конкретные вызовы использования ИИ агрессором: отсутствие независимого надзора, манипулятивное использование синтетического контента и стирание границы между цитированием и недобросовестной стилизацией «под автора».
Однако в текущих условиях оккупации правовые механизмы защиты, а также реальная возможность общественного и судебного контроля для жителей Крыма в данной сфере полностью отсутствуют. Наша Ассоциация продолжит изобличение манипуляций агрессора с ИИ на оккупированных территориях Украины на соответствующих компетентных глобальных и европейских площадках.

Похожие записи