
По словам Сэма Альтмана, генерального директора OpenAI, ChatGPT и другие нейросети все чаще используются для личных консультаций, постепенно вытесняя традиционных терапевтов. Однако, в отличие от врачей или юристов, беседы с ИИ не защищены юридической тайной, предупредил бизнесмен.
Антон Серго, доктор юридических наук и президент юридической фирмы «Интернет и право» в разговоре с ВФокусе Mail подтвердил, что такие диалоги теоретически могут быть использованы в суде.
«Действующее законодательство не содержит прямых запретов на использование диалогов с искусственным интеллектом в судебных разбирательствах, — пояснил эксперт. — Однако ключевым условием будет возможность доказать их аутентичность и привязку к конкретным обстоятельствам дела. Для этого потребуется проведение цифровой экспертизы, которая подтвердит происхождение записи, отсутствие редактирования и соответствие контексту обсуждаемой ситуации», — отметил Серго.
Уязвимость данных
Политика OpenAI предусматривает удаление чатов через 30 дней, если они не подпадают под юридические или безопасностные требования. Однако сотрудники компании имеют доступ к переписке для улучшения модели и мониторинга нарушений, в отличие от зашифрованных мессенджеров, таких как Telegram. По словам Серго, из запросов пользователей можно составить их психологический профиль.
«Современные алгоритмы на основе анализа запросов пользователя способны воссоздать детальный психологический портрет — выявить ключевые интересы, страхи, политические предпочтения и даже диагностировать потенциальные ментальные расстройства по языковым паттернам. Эта информация становится мощным инструментом манипуляции, когда попадает в руки маркетологов, HR-специалистов или государственных структур», — пояснил эксперт. Это открывает возможности для манипуляций, таргетированной рекламы или даже дискриминации, если данные попадут в чужие руки.
Именно поэтому Альтман настаивает на необходимости внедрения принципов конфиденциальности, аналогичных врачебной тайне, для общения с ИИ. Пока же правовая система отстает от технологий во всем мире.
«Судебная практика будет эволюционировать постепенно, без революционных скачков. Искусственный интеллект — это очередной технологический инструмент, к которому общество адаптируется, как когда-то адаптировалось к телефонам или интернету», — полагает Серго.
При этом новые риски действительно возникают. Например, работодатели могут требовать доступ к корпоративным перепискам сотрудников с ИИ-ассистентами, если они ведутся через рабочие устройства. Аналогично правоохранительные органы могут запрашивать такие данные для собственных расследований, добавил юрист.
Дарья Баева
