Растущая популярность генеративного искусственного интеллекта осложняет работу исследователей, использующих онлайн-опросы для научных работ. Статью на эту тему опубликовала международная команда ученых на сайте SocArXiv.
Для проведения крупных онлайн-опросов ученые нередко прибегают к специальным платформам, на которых участники за определенное вознаграждение предоставляют информацию о себе и заполняют анкеты. Однако с появлением ChatGPT и прочих подобных сервисов исследователи стали замечать, что некоторые развернутые комментарии в таких опросах выглядят как «нечеловеческие». К примеру, кажутся слишком подробными или утрированно корректными.
Ученые организовали онлайн-опрос, в котором приняли участие 800 пользователей. Респонденты отвечали, использовали ли они хоть раз ИИ при участии в интернет-исследованиях. Оказалось, что 10% респондентов часто это делают, а две трети добровольцев заявили, что никогда не применяют подобные технологии для генерации ответов. Они объяснили это моральными соображениями и опасениями повлиять на достоверность научных работ.
Социологи также выявили различия в ответах ИИ и человеческих. Так, люди, как правило, использовали конкретные и эмоционально окрашенные выражения, порой с уничижительным оттенком. Формулировки нейросетей выглядели нейтрально и абстрактно, а когда дело касалось деликатных тем — более сглажено и корректно.
Несмотря на то, что в настоящее время ИИ в опросах применяется не так часто, ученые выразили свою обеспокоенность. Если люди станут полностью подменять ответы сгенерированными, а не просто пользоваться подобными инструментами для того, чтобы лучше сформулировать мысль, то реальная реальная картинка исказится и станет более однородной.
Авторы новой статьи отметили, что в будущих исследованиях с применением онлайн-тестирования можно просить пользователей не пользоваться ИИ для ответов на вопросы или блокировать в формах вставку текста.
Ранее люди спутали стихотворения ИИ со стихами классиков.