Шаг в верном направлении, но не панацея: защитит ли пользователей от дипфейков маркировка ИИ-контента

Депутат Горелкин: Нужно развивать инструменты проверки контента на ИИ-генерацию
Крупнейшие соцсети Китая начали маркировать весь сгенерированный нейросетями контент в соответствии с новым законом. Теперь фотографии, видео и тексты сопровождаются цифровыми водяными знаками. Эксперты указывают, что такие решения могут повысить доверие пользователей к материалам в интернете.

С 1 сентября в популярных китайских соцсетях вводится маркировка всего контента, сгенерированного нейросетями, согласно вступившему в силу закону. По новым требованиям ресурсы обязаны помечать контент как "созданный искусственным интеллектом" для борьбы с дипфейками.

Александр Безносиков, директор центра агентных систем Института Искусственного интеллекта МФТИ, указывает, что маркировка ИИ-контента в Китае выглядит вполне закономерно. Люди вошли в эпоху, когда нейросети генерируют тексты и изображения в промышленных масштабах, и обществу становится важно отличать работу человека от результата алгоритма, а такая прозрачность снижает вероятность манипуляций, появления фейков и подмены авторства, и по сути, это новая система доверия в цифровой среде, добавляет эксперт.

"Для авторов вводится новая дисциплина: если ты не отметил генерацию, рискуешь быть заблокированным или потерять доверие аудитории. Пользователи же получают не просто ярлык, а инструмент контроля. Они могут сами решать, стоит ли доверять материалу, и сигнализировать о нарушениях. Это уже не только государственный надзор, а распределенная модерация, в которую вовлекается все сообщество", - объясняет Безносиков.

В России научной разработкой по созданию отраслевого стандарта по распознаванию ИИ-контента занимается ИСП РАН. В пресс-службе "Яндекса" рассказали, что компания поддерживает проект, а подобные универсальные технологии отрасль сможет самостоятельно использовать в интересах пользователей.

"Маркировка ИИ-контента, без сомнения, полезна. Пользователь имеет право знать, где настоящее изображение или видео, а где генерация. Но очевидно, что дипфейки, созданные для обмана людей, никто маркировать не будет и наверняка позаботится о том, чтобы очистить файл от метаданных. Поэтому делать маркировку предметом законодательного давления считаю не совсем правильным - вместо этого нужно развивать и повсеместно внедрять инструменты, которые помогут гражданам быстро и безошибочно проверить контент на ИИ-происхождение", - отмечает замглавы комитета Госдумы по информационной политике, информационным технологиям и связи Антон Горелкин.

Нейросети генерируют тексты и изображения в больших масштабах, и обществу важно отличать работу человека от работы алгоритма

Также маркировка ИИ-контента может стать вспомогательным инструментом для борьбы с дипфейками. Владимир Арлазаров, генеральный директор Smart Engines, указывает, что сегодня существует множество открытых ИИ-моделей, которые можно запускать локально и обходить централизованные правила. Поэтому маркировка - это шаг в верном направлении, но отнюдь не универсальное решение проблемы, говорит эксперт.

"Наиболее разумным подходом было бы делать маркировку сразу на нескольких уровнях. Первый уровень - "человекочитаемый", когда пользователь явно видит пометку или предупреждение о контенте, созданном с помощью нейросетей. На втором уровне маркировка может быть вшита прямо в сгенерированное изображение с помощью алгоритмов стеганографии. Это позволило бы существенно повысить надежность идентификации подобного контента", - заключает Арлазаров.