Внедрение систем искусственного интеллекта повышает риск утечки данных: Как защититься

Согласно исследованию МТС Web Services, 59% компаний считают угрозу утечки персональных данных наиболее критичной. На втором месте - риск утечки данных коммерческой тайны, который отметили 56% компаний. При масштабировании ИИ-решений IT-отделы ставят выше вопросы безопасности, чем прогнозируемые выгоды в части оптимизации рутинных задач и повышения эффективности бизнес-процессов из-за ИИ.
При этом, по данным компании McKinsey, уровень внедрения ИИ-систем в мире составляет 88%. Генеративные нейросети активно используются в сфере маркетинга, а также в разработке IT-решений.
Сергей Юдин, руководитель отдела технологий Content AI, рассказал, что высокий риск утечки данных при использовании нейросетей обусловлен самой природой этой технологии. Если классический софт только обрабатывает данные без их сохранения или анализа за пределами конкретной задачи, то ИИ-системы, построенные на больших языковых моделях, буквально "поглощают" информацию и используют ее для внутреннего понимания контекста. А в случае публичных сервисов - для дообучения.
"Проблема в том, что, попав в открытую ИИ-систему, информация практически не подлежит удалению. Она может быть сохранена в логах, использована в обучающих выборках или случайно раскрыта третьим лицам. В результате утечка становится необратимой", - поясняет Юдин.
В этом случае ключевой шаг для защиты данных - формирование внутренней политики использования ИИ. Сотрудников нужно обучать, какие данные допустимо передавать в нейросеть, а какие категорически запрещено.
Например, публичные ИИ-сервисы часто не скрывают, что сохраняют историю диалогов и используют ее для улучшения моделей. Даже если данные агрегируются анонимно, остается риск их реконструкции или несанкционированного доступа. Поэтому компании при внедрении ИИ-систем в операционные процессы создают целостную стратегию безопасного взаимодействия с технологией.
"Один из рекомендуемых приемов для защиты данных - использование "плейсхолдеров", когда вместо настоящих имен, сумм, банковских реквизитов или названий компаний применяются вымышленные. Это позволяет сохранить логику и структуру задачи и получить релевантный ответ от ИИ без риска разглашения конфиденциальной информации", - рассказал Юдин.
Также к обязательным мерам безопасности относится настройка приватности в используемых сервисах: отключение опции, разрешающей использовать диалоги для обучения моделей, регулярное удаление истории переписок и разделение аккаунтов для личных и рабочих задач.
В пресс-службе ГК "Солар" рассказали, что в нейросети загружается большой объем данных с корпоративных систем государственных и коммерческих организаций. Это могут быть файлы, содержащие как общеизвестную информацию о компании, так и чувствительные данные: например, чертежи оборудования с подробными расчетами или закрытые финансовые показатели. Чтобы безопасно внедрять ИИ в свою операционную деятельность, компании могут использовать различные комплексы решений.
"В будущем можем увидеть, что ИИ-технологии будут использоваться в продуктах по информационной безопасности для автоматизации процессов и отражения кибератак. Это связано с тем, что злоумышленники уже используют различные ИИ-инструменты для вторжения в инфраструктуру. Получается, ИИ будет работать против самого себя", - заключают в компании.

