Заместителю Премьер-Министра – Министру искусственного интеллекта и цифрового развития Республики Казахстан Мадиеву Ж.Х., Министру внутренних дел Республики Казахстан Саденову Е.С.
Цифровизация и технологический прогресс сегодня не просто направление, а новая национальная идея Казахстана.
Однако у прогресса есть и обратная сторона. Технологии, которые могут использоваться не во благо, а во вред. Одна из них — технология дипфейков, то есть создание при помощи искусственного интеллекта поддельных изображений, аудио-
и видеоматериалов с участием реальных людей.
По данным Всемирного экономического форума, уже второй год подряд дезинформация и распространение ложных сведений называются среди главных краткосрочных рисков для мировой стабильности.
Я лично стал жертвой такой технологии, моё изображение
и голос были полностью подделаны, использованы в ролике,
где от моего имени просили деньги. Смонтировано настолько искусно, что даже близкие не сразу поняли подделку.
Уверен, с подобным сталкивались и многие присутствующие здесь.
Мы уже видели дипфейки с участием зарубежных политиков и даже с использованием образа Президента нашей страны.
Качество подделок растёт и с ним растут риски манипуляции общественным мнением, дискредитации государственных органов и дестабилизации общественно-политической ситуации.
Если будет создан и распространён дипфейк с участием руководителя государства или публичного лица, с ложными призывами или фальшивыми заявлениями, последствия могут быть катастрофическими. Это уже угроза национальной безопасности.
Мировая практика подтверждает серьёзность проблемы.
Так, США ещё в 2020 году включили положения о дипфейках
в Закон об оборонном бюджете, определив их как фактор информационной безопасности.
Республика Корея перед парламентскими выборами 2024 года ввела запрет на использование дипфейков в агитации за 90 дней до голосования, нарушение которого влечёт штраф или лишение свободы.
В ряде стран внедряются технологии автоматического выявления подделок, а также механизмы цифровой маркировки оригинального контента.
Дипфейки всё чаще используются в финансовом мошенничестве.
Когда человек слышит голос близкого или видит его видео
с просьбой о помощи, на эту удочку попадаются даже высокообразованные граждане.
По данным отчёта компании Feedzai за 2025 год, более 50% случаев онлайн-мошенничества совершается с использованием искусственного интеллекта.
В ответ банки и платёжные системы уже переходят
к использованию ИИ-решений для защиты клиентов.
Главная проблема — ущерб репутации. Даже если позднее размещается опровержение, вред уже нанесён, а восстановить доверие практически невозможно.
С учётом стремительного роста социальной инженерии
и распространения технологий искусственного интеллекта, требую от Министерства искусственного интеллекта и Министерства внутренних дел действовать на опережение и принять комплекс мер, а именно:
- Вменить в обязанности центра мониторинга и экспертизы цифрового контента – обеспечение и оперативное выявление дипфейков и их блокировку.
- Разработать систему подтверждения подлинности цифровых изображений и видеоматериалов, особенно
в государственных информационных системах и официальных медиа. Этот инструмент должен быть доступен не только судам,
но и каждому гражданину, который захочет проверить изображение на подлинность. - Провести широкую информационную кампанию
по обучению граждан методам распознавания дипфейков и защите от цифрового мошенничества.
Со своей стороны, наша фракция уже сегодня работает
над внесением дополнительных норм в действующие законы
в части ужесточения наказания за неправомерное использование дипфейков и ограничения сфер применения синтетических продуктов ИИ.
С уважением, член фракции партии АМАNАТ

