С 1 сентября в популярных китайских соцсетях вводится маркировка всего контента, сгенерированного нейросетями, согласно вступившему в силу закону. По новым требованиям ресурсы обязаны помечать контент как "созданный искусственным интеллектом" для борьбы с дипфейками.
Александр Безносиков, директор центра агентных систем Института Искусственного интеллекта МФТИ, указывает, что маркировка ИИ-контента в Китае выглядит вполне закономерно. Люди вошли в эпоху, когда нейросети генерируют тексты и изображения в промышленных масштабах, и обществу становится важно отличать работу человека от результата алгоритма, а такая прозрачность снижает вероятность манипуляций, появления фейков и подмены авторства, и по сути, это новая система доверия в цифровой среде, добавляет эксперт.
"Для авторов вводится новая дисциплина: если ты не отметил генерацию, рискуешь быть заблокированным или потерять доверие аудитории. Пользователи же получают не просто ярлык, а инструмент контроля. Они могут сами решать, стоит ли доверять материалу, и сигнализировать о нарушениях. Это уже не только государственный надзор, а распределенная модерация, в которую вовлекается все сообщество", - объясняет Безносиков.
В России научной разработкой по созданию отраслевого стандарта по распознаванию ИИ-контента занимается ИСП РАН. В пресс-службе "Яндекса" рассказали, что компания поддерживает проект, а подобные универсальные технологии отрасль сможет самостоятельно использовать в интересах пользователей.
"Маркировка ИИ-контента, без сомнения, полезна. Пользователь имеет право знать, где настоящее изображение или видео, а где генерация. Но очевидно, что дипфейки, созданные для обмана людей, никто маркировать не будет и наверняка позаботится о том, чтобы очистить файл от метаданных. Поэтому делать маркировку предметом законодательного давления считаю не совсем правильным - вместо этого нужно развивать и повсеместно внедрять инструменты, которые помогут гражданам быстро и безошибочно проверить контент на ИИ-происхождение", - отмечает замглавы комитета Госдумы по информационной политике, информационным технологиям и связи Антон Горелкин.
Также маркировка ИИ-контента может стать вспомогательным инструментом для борьбы с дипфейками. Владимир Арлазаров, генеральный директор Smart Engines, указывает, что сегодня существует множество открытых ИИ-моделей, которые можно запускать локально и обходить централизованные правила. Поэтому маркировка - это шаг в верном направлении, но отнюдь не универсальное решение проблемы, говорит эксперт.
"Наиболее разумным подходом было бы делать маркировку сразу на нескольких уровнях. Первый уровень - "человекочитаемый", когда пользователь явно видит пометку или предупреждение о контенте, созданном с помощью нейросетей. На втором уровне маркировка может быть вшита прямо в сгенерированное изображение с помощью алгоритмов стеганографии. Это позволило бы существенно повысить надежность идентификации подобного контента", - заключает Арлазаров.