В Госдуме готовят комплексный пакет документов с предложениями по внесению изменений в закон «Об информации», узнали «Известия». Власти планируют ввести меры по выявлению и блокировке в интернете мошеннических материалов, созданных с использованием искусственного интеллекта. Эту инициативу зампред комитета ГД по информационной политике, информационным технологиям и связи Андрей Свинцов обсуждает с Советом блогеров наряду с предложением блокировать деструктивный контент до суда.
— Разрабатывается комплекс законопроектов, который будет регулировать весь спектр вопросов, связанных с искусственным интеллектом. На встрече рабочей группы обсуждался отдельно вопрос, связанный с маркировкой и возможной блокировкой контента деструктивного, который был сгенерирован ИИ, — сказал Андрей Свинцов.
По его словам, важно как можно скорее внедрить ограничительные меры, чтобы предотвратить использование сгенерированного контента для вымогательства, клеветы и других противоправных действий. Ранее депутат заявлял, что поправки следует подготовить и внести на рассмотрение Госдумы в этом году.
Основатель Совета блогеров Валерия Рытвина сообщила, что для выявления мошеннических ИИ-материалов, в частности дипфейк-видео, планируется привлекать компании, которые специализируются на разработке систем защиты от киберугроз и хакерских атак.
— В нашей стране работают одни из лучших IT-специалистов, и для эффективной борьбы с мошенничеством необходимо объединить усилия государства, экспертного сообщества и общественных инициатив, — сказала она «Известиям».
Распространение поддельной информации, созданной с помощью технологий ИИ, действительно становится серьезной угрозой — это подрывает доверие, вводит людей в заблуждение и может нести реальные риски, отметила основательница коммуникационного агентства Breaking Trends, секретарь Союза журналистов России Юлия Загитова.
— Мы в целом поддерживаем инициативу, направленную на борьбу с фейковым и мошенническим контентом, особенно в условиях стремительного развития генеративного ИИ, — сказала она «Известиям».
По ее словам, важно, чтобы регулирование не ограничивалось запретами, а включало понятные механизмы: четкие юридические определения, прозрачные процедуры блокировки и возможность оспорить решение. Без этого есть риск произвольного применения закона и ограничения добросовестных авторов, журналистов или экспертов.
Также необходима системная просветительская работа, чтобы пользователи умели отличать фейки, знали, как работают современные технологии и куда можно обратиться при столкновении с дезинформацией.
— Если инициатива будет реализована грамотно — с опорой на экспертизу и с уважением к правам пользователей, — это может стать важным шагом к более безопасной и ответственной цифровой среде, — подчеркнула Юлия Загитова.
Пока трудно оценить инициативу по существу, поскольку многое будет зависеть от того, как именно определят понятие «деструктивный контент». Кроме того, остается непонятным, как планируется осуществлять мониторинг, отметил руководитель направления «Разрешение It&|р споров» юридической фирмы «Рустам Курмаев и партнеры» Ярослав Шицле.
Важно определить критерии «мошеннического ИИ-контента» и закрепить экспертизу за прозрачным и компетентным органом, иначе есть риск, что под удар попадет добросовестный или даже сатирический контент, считает управляющий партнер агентства цифровых коммуникаций Heads'made Ярослава Мешалкина.
— Борьба с фейками требует не только блокировок, но и системной цифровой гигиены: просвещения пользователей, маркировки ИИ-контента и развития проверенных каналов информации, — сказал эксперт.
По его словам, инициатива — шаг в верном направлении, но важно сохранять баланс.
Елизавета Крылова