![](https://resizer.mail.ru/p/1da76750-226e-5cea-8089-4543ab803802/AQAGPYA6oJtNmu3m3QEqX6u_oReVonRYiQ9AzXzJuRnwuNBgNguaPwtpPgSb55ayjxdccNrh_m4BKr0WXAIRA1n6UWQ.jpg)
Сотрудники Института программного обеспечения Китайской академии наук выяснили, что на ИИ могут повлиять простые манипуляции. Результаты исследования были опубликованы на сервере препринтов arXiv.
Ученые получили более точные и качественные ответы от искусственного интеллекта с помощью похвалы и шантажа. Отмечается, что подобный результат был получен в 11 разных чат-ботах — от ChatGPT до Llama.
Во всех случаях они реагировали на эмоциональные сигналы со стороны человека. Теперь ученые предполагают, что эмоциональный интеллект можно использовать и при общении с чат-ботами и улучшения качества результатов запросов.
Недавно американские психологи обнаружили сходство между обычными голубями и моделями искусственного интеллекта. Оказалось, что и птицы, и нейросети полагаются на схожие принципы для решения проблем.
Олеся Маевская