ИИ может стать причиной глобальной эпидемии или пандемии через 20 лет

Ученые призвали регулировать достижения ИИ в области биологии и медицины.

Источник: Freepik

Искусственный интеллект (ИИ) может стать причиной новых эпидемий или даже пандемий в будущем, заявили исследователи из Университета Джона Хопкинса, Стэнфордского университета и Фордемского университета. Они отметили, что современные модели ИИ обладают возможностью работать с большими объемами биологических данных, что может как ускорить разработку лекарств, так и привести к созданию опасных патогенов, сообщает Fox News.

Несмотря на полезные возможности ИИ, существует и обратная сторона медали. Универсальность технологий может обернуться угрозой, когда биологическая модель, которая создает доброкачественный вирус для генной терапии, может быть использована для разработки патогенов, способных преодолевать иммунитет, вызванный вакцинацией, говорится в научной статье, опубликованной в журнале Science. Ученые призывают правительства стран, включая США, ввести строгие правила, чтобы не допустить создания и распространения таких опасных биологических агентов.

Исследователи также выразили уверенность, что добровольных мер со стороны разработчиков ИИ недостаточно. Они призвали создать специальный «набор тестов», который должны будут пройти все биологические модели ИИ. Это поможет определить уровень доступа к таким моделям и позволит ограничить их использование в случае потенциальной опасности. Заместитель директора Центра безопасности здравоохранения Джона Хопкинса Анита Сисеро (Anita Cicero) заявила, что уже сейчас необходимо начинать разработку государственного надзора, чтобы снизить риски.

По словам экспертов, без надлежащего контроля биологические риски, связанные с ИИ, могут стать реальностью в ближайшие 20 лет, а возможно, и раньше. Эксперт по ИИ Пол Пауэрс отметил, что развитие искусственного интеллекта происходит быстрее, чем ожидалось. Он подчеркнул, что регуляторы не успевают за развитием искусственного интеллекта, и предложил начать с контроля за доступом к основным компонентам, необходимым для создания потенциально опасных патогенов.

Тему биологической угрозы со стороны ИИ уже затрагивало издание Bloomberg. В начале августа 2024 года оно заявило, что чат-боты с искусственным интеллектом могут помочь пользователям создать биологическое оружие. До этого стало известно, что крупные компании в области ИИ, в том числе OpenAI, Anthropic и Microsoft, обязались оценивать «наиболее значимые риски» в сфере биобезопасности.