Если ранее нейросетевые изображения и видео воспринимались как безобидный цифровой инструмент, то сегодня они рассматриваются как фактор информационных рисков.
Государства переходят от точечных предупреждений к выстраиванию четких правил создания и распространения такого контента.
Различные страны демонстрируют фактическую нетерпимость к немаркированному или вводящему в заблуждение ИИ-контенту:
Индия: арест за создание дипфейка с Премьер-министром Моди.
США: штраф $5,000 рекламному агентству за использование «синтетического человека» без маркировки.
Турция: штраф в 5% от годового оборота порталу за ИИ-видео с фальшивым заявлением министра.
Южная Корея: штраф 30 млн вон ($22,000) медиа-компании за немаркированное ИИ-интервью.
Китай: арест блогера за ИИ-фото «обвала дороги», вызвавшие панику у водителей.
Германия: решение суда – сатира не освобождает от обязанности маркировать ИИ-подделки.
ОАЭ: задержания за ИИ-видео, направленных на введение общественности в заблуждение и подрыв национальной безопасности.
Великобритания: первые иски по новому закону о запрете создания дипфейков без согласия (февраль 2026).
Пакистан: дело о кибертерроризме за ИИ-аудио «критики правительства» военными.
Канада: штраф за ИИ-рендер «обрушения здания», спровоцировавший митинги.
Франция: блокировка ресурса за генерацию ИИ-фото «беспорядков в Версале».
Италия: иск к турагентству за ИИ-фото «несуществующих памятников».
Япония: судебное разбирательство за использование ИИ-копии умершего актера без согласия всех наследников.
Сингапур: предписание по линии законодательства о противодействии фейкам за ИИ-фото «загрязнения залива».
Австралия: штраф онлайн-курсам за использование ИИ-клона профессора без его ведома.
Аргентина: задержание за дипфейк с призывами к насилию против полиции.
Эстония: предупреждение владельцу бота, имитировавшего стиль ответов государственных органов.
В Казахстан ИИ также больше не является «зоной вне регулирования». Напротив, его использование рассматривается через призму последствий – прежде всего, риска введения аудитории в заблуждение.
17 марта 2026 года житель Семея привлечен к ответственности за распространение фотографии, созданной нейросетью. Сгенерированный снимок был подан как реальное сообщение о чрезвычайном происшествии и вызвал панику в социальных сетях. Итог – протокол по статье 456-2 КоАП РК (распространение ложной информации).
‼️ Центр по борьбе с дезинформацией обращает внимание представителей медиа и создателей цифрового контента на необходимость соблюдения требований законодательства, включая маркировку ИИ-контента и недопущение распространения ложной информации.
Гражданам рекомендуется критически относиться к распространяемым материалам, проверять источники и воздерживаться от их дальнейшего распространения без уверенности в достоверности.
Источник : https://www.gov.kz/memleket/entities/zhambyl-moyynkum/press/news/details/1184517?lang=kk

Добавить комментарий Отменить ответ