В своем новом исследовании, опубликованном в журнале Nature, сотрудники Оксфордского института утверждают, что ученым следует воздерживаться от использования любых инструментов больших языковых моделей (к примеру, чат-ботов), поскольку склонность ИИ к сбоям и фабрикации фактов в сочетании с желанием людей очеловечить машины могут привести к масштабным информационным сбоям. Это впоследствии может навредить науке и всему человечеству.
Аргументы ученых основаны на том факте, что большие языковые модели (large language model или LLM) изначально не были предназначены для выдачи достоверных фактов. Достоверность, как пишут сами авторы, — это всего лишь «один из элементов, по которому измеряется полезность этих систем». Также имеют значение такие характеристики, как «полезность, безвредность, техническая эффективность, прибыльность и принятие потребителями».
Проще говоря, главная задача LLM — дать убедительный и относительно безвредный ответ. Но, как утверждают оксфордские исследователи, это только половина проблемы. «Эффект Элизы» (склонность человека слишком глубоко вникать в результаты, звучащие по-человечески) уже сейчас заставляет пользователей верить в любые ответы нейросети гораздо сильнее, чем любым другим источникам.
«Действительно ли мы хотим сократить возможности для писательства, критического мышления, создания новых идей и гипотез, борьбы с тонкостями теории и объединения знаний», — философски спрашивают ученые. В конце концов, наука — занятие для пытких умов. По мнению оксфордцев, передача слишком большой части рабочего процесса автоматизированному труду ИИ может подорвать эту глубоко укоренившуюся человечность в научной сфере.
Ранее ИИ впервые предсказал погоду точнее метеорологов. Но разработка требует дальнейшего совершенствования.
Олеся Маевская