За последние несколько лет искусственный интеллект развивался поразительными темпами. Некоторые ученые сейчас рассматривают возможность создания искусственного сверхинтеллекта, который не только превзойдет человеческий разум, но и не будет ограничен скоростью обучения людей.
Идея, что искусственный интеллект может стать великим фильтром Вселенной в связи с разработкой сверхинтеллекта, становится все более популярна. Эта концепция может объяснить, почему программа поиска внеземного разума (SETI) до сих пор не обнаружила признаков существования высокоразвитых технических цивилизаций в других частях галактики.
Гипотеза великого фильтра, в конечном счете, является предлагаемым решением парадокса Ферми. Возникает вопрос, почему во Вселенной, достаточно обширной и древней, чтобы вмещать миллиарды потенциально обитаемых планет, человечество не обнаружило никаких признаков инопланетных цивилизаций. Гипотеза предполагает, что на эволюционной шкале цивилизаций существуют непреодолимые препятствия, которые мешают им развиться в космические образования.
Быстрое развитие ИИ может совпасть с критической фазой в развитии цивилизации: переходом от однопланетного вида к многопланетному. Именно на этом этапе многие цивилизации могут потерпеть крах. ИИ может добиться гораздо более быстрого прогресса, чем человеческая способность контролировать его или устойчиво исследовать и заселять солнечную систему.
Сложность ИИ заключается в его автономной, саморазвивающейся и улучшающейся природе.
В этом сценарии, по оценкам ученых, типичная продолжительность жизни технологической цивилизации может составлять менее ста лет. Это приблизительный промежуток времени между появлением возможности принимать и передавать сигналы между звездами (1960 год) и предполагаемым появлением искусственного сверхинтеллекта (2040 год) на Земле. Это пугающе мало по сравнению с космическими временными рамками в миллиарды лет.
Результаты нового исследования служат тревожным сигналом для человечества о необходимости создания надежной нормативно-правовой базы для управления разработкой ИИ, включая военные системы.
Речь идет не только о предотвращении злонамеренного использования ИИ на Земле. Речь также идет о том, чтобы эволюция ИИ соответствовала долгосрочному выживанию нашего вида. Это говорит о том, что нам нужно как можно скорее направить больше ресурсов на создание многопланетного общества.
Как отметил историк Юваль Ной Харари, никакие события в ходе человеческой цивилизации не подготовило людей к последствиям появления на планете несознательных, сверхразумных существ.