Эксперт: для ИИ в роли психолога нужно правовое регулирование

Инструменты психологической поддержки в виде чат-ботов, проще говоря, ИИ в роли психолога, должны контролироваться надзорными органами, считает доцент кафедры научных основ экстремальной психологии МГППУ Дмитрий Деулин. Эксперт указал, что сейчас непонятно, кто несет ответственность за «врачебную ошибку» нейросети.

Анастасия Якушина
Автор ВФокусе Mail
Источник: Recraft

Дмитрий Деулин подчеркнул: правовой мониторинг необходим, потому что из-за ошибки может ухудшиться состояние человека, просившего совета у нейросети.

«Сегодня многие платформы внедряют чат-ботов, позиционируя их как инструмент психологической поддержки. Некоторые из них даже публикуют предупреждения о том, что не оказывают кризисной, экстренной помощи или медицинских услуг, ограничивая круг запросов пользователей. Однако из-за анонимности, отсутствия прозрачности и сложности контроля взаимодействия возникают серьезные правовые и этические вопросы. В частности, остается неясным, кто будет нести ответственность, если чат-бот совершит так называемую врачебную ошибку, в результате которой ухудшится психическое состояние клиента или даже наступит трагический исход», — озадачился Деулин.

Психолог также отметил, что особо опасные случаи возникают, когда за советом к ИИ обращаются люди с тяжелыми психическими расстройствами. По его словам, лечение, назначенное чат-ботом, может привести к «реальному вреду здоровью и даже угрожать жизни».

«…В таких случаях необходима своевременная правовая регламентация и контроль со стороны надзорных органов», — считает эксперт.

В разговоре с АГН «Москва» Деулин отметил: минус современных систем ИИ заключается в том, что они основаны на шаблонных алгоритмах и клише, и это ограничивает их способность реагировать индивидуально на случаи. К тому же, по его словам, данные исследований об эффективности психологических чат-ботов остаются противоречивыми.

«Пользователь при общении с таким “психологом” часто испытывает чувство отчужденности, ощущает имитацию эмпатии, сталкивается с шаблонностью ответов. В некоторых случаях система многократно повторяет одни и те же фразы, демонстрируя технологическую ригидность. Зарубежные мета-анализы показывают неоднозначные результаты. С одной стороны, статистически значимого влияния на субъективное психологическое благополучие не выявлено. С другой — в ряде исследований отмечается отсутствие вреда, что говорит о базовой безопасности нейросетей. Отдельные работы подтверждают эффективность чат-ботов при работе с депрессией, хроническим стрессом и акрофобией. Однако это не отменяет необходимости строгого регулирования и четких границ применения таких технологий», — добавил эксперт.

Ранее опрос выяснил, что 22% россиян используют ИИ в качестве психолога и просят помочь разобраться в эмоциях.