Эксперт дал рекомендации по защите от утечки данных при работе с ИИ

Активное использование технологий искусственного интеллекта сопряжено с рисками утечки данных, поскольку злоумышленники могут получить доступ к запросам пользователей, заявил старший преподаватель кафедры инструментального и прикладного программного обесп
Источник: Freepik

По его словам, наибольшей уязвимостью обладают ИИ-модели, обучающиеся на открытых источниках или дообучающиеся на пользовательских запросах. В России действует законодательство о защите персональных данных, запрещающее передачу информации третьим лицам без согласия пользователя, поэтому важно контролировать, где и как обрабатываются запросы.

«Даже если сервис утверждает, что не сохраняет данные, отсутствие прозрачной политики хранения и обработки информации может привести к нарушению закона», — пояснил Рыбников.

Эксперт выделил наиболее безопасные способы взаимодействия с ИИ. К ним относятся локальные модели, работающие автономно без загрузки данных в облако, а также корпоративные версии ИИ-сервисов, которые исключают обучение на пользовательских запросах и обеспечивают дополнительную защиту информации.

Если эти варианты недоступны, Рыбников рекомендует вручную удалять конфиденциальные данные, включая имена, контакты, номера документов и другую персональную информацию. Он также предостерег от загрузки в ИИ чувствительных документов и работы с сомнительными шаблонами.

Кроме того, экспертом были даны технические рекомендации: очистка кеша, шифрование файловой системы (в ОС Windows, macOS или Linux), а также ограничение доступа к ИИ-программам через настройки прав пользователей.

«Также рекомендуется ограничить доступ к ИИ-программам с помощью настроек прав пользователей», — отметил Рыбников.

Американский предприниматель Илон Маск считает, что, когда искусственный интеллект (ИИ) обретет самосознание и способность к мышлению, мир, скорее всего, станет сродни симуляции, а люди в ней — второстепенными персонажами.