Сотрудники Института программного обеспечения Китайской академии наук выяснили, что на ИИ могут повлиять простые манипуляции. Результаты исследования были опубликованы на сервере препринтов arXiv.
Ученые получили более точные и качественные ответы от искусственного интеллекта с помощью похвалы и шантажа. Отмечается, что подобный результат был получен в 11 разных чат-ботах — от ChatGPT до Llama.
Во всех случаях они реагировали на эмоциональные сигналы со стороны человека. Теперь ученые предполагают, что эмоциональный интеллект можно использовать и при общении с чат-ботами и улучшения качества результатов запросов.
Недавно американские психологи обнаружили сходство между обычными голубями и моделями искусственного интеллекта. Оказалось, что и птицы, и нейросети полагаются на схожие принципы для решения проблем.
Олеся Маевская