Рост ИИ может объяснить, почему поиск внеземного разума (SETI) пока не обнаружил признаки развитых технических цивилизаций в других уголках галактики. Эта статья была изначально опубликована в The Conversation. Публикация предоставила статью для рубрики Expert Voices на сайте Space.com.
Майкл Гарретт, профессор астрофизики и директор Центра астрофизики Джодрелл-Банк в Университете Манчестера, размышляет о влиянии ИИ на поиск внеземного разума.
"Искусственный интеллект (ИИ) достиг поразительных успехов за последние несколько лет. Некоторые ученые теперь рассматривают возможность создания искусственного суперинтеллекта (ASI) - формы ИИ, которая превзойдет человеческий интеллект и не будет ограничена скоростью обучения человека.
Но что если это достижение не только знаменует собой важный этап развития? Что если оно также представляет собой серьезное препятствие для развития всех цивилизаций, настолько сложное, что ставит под угрозу их долгосрочное выживание?
Подписывайтесь на наш телеграм-канал: zahav.ru - события в Израиле и мире
Эта идея лежит в основе моей недавней исследовательской работы, опубликованной в Acta Astronautica. Может ли ИИ быть "великим фильтром" Вселенной - порогом, который настолько трудно преодолеть, что это препятствует развитию большинства форм жизни до уровня космических цивилизаций?
Эта концепция может объяснить, почему поиск внеземного разума (SETI) пока не обнаружил признаки развитых технических цивилизаций в других уголках галактики. Гипотеза великого фильтра является предложенным решением парадокса Ферми. Этот парадокс задается вопросом, почему в такой огромной и древней Вселенной, способной поддерживать миллиарды потенциально обитаемых планет, мы не обнаружили никаких признаков инопланетных цивилизаций.
Читайте также
Гипотеза предполагает, что существуют непреодолимые препятствия в эволюционном развитии цивилизаций, которые мешают им становиться космическими. Я полагаю, что появление ASI может быть таким фильтром. Быстрое развитие ИИ, потенциально приводящее к ASI, может пересекаться с критическим этапом в развитии цивилизации - переходом от однопланетного вида к многопланетному. Именно на этом этапе многие цивилизации могут потерпеть неудачу, так как ИИ может развиваться быстрее, чем наши способности контролировать его или устойчиво исследовать и заселять нашу Солнечную систему.
Проблема ИИ, и особенно ASI, заключается в его автономной, самоускоряющейся и самосовершенствующейся природе. Он обладает потенциалом улучшать свои возможности с такой скоростью, которая превосходит наши собственные эволюционные временные рамки без ИИ. Вероятность того, что что-то пойдет не так, огромна, что может привести к краху как биологических, так и ИИ-цивилизаций, прежде чем они получат шанс стать многопланетными. Например, если государства все больше полагаются на автономные системы ИИ, которые конкурируют друг с другом, военные возможности могут быть использованы для убийства и разрушения в беспрецедентных масштабах.
Это может привести к уничтожению нашей цивилизации, включая сами ИИ-системы. В этом сценарии я оцениваю среднюю продолжительность жизни технологической цивилизации менее чем в 100 лет. Это примерно время между началом возможности принимать и передавать сигналы между звездами (1960) и предполагаемым появлением ASI (2040) на Земле. Это крайне мало по сравнению с космическим временным масштабом в миллиарды лет.
Эта оценка, примененная к оптимистичным версиям уравнения Дрейка, которое пытается оценить количество активных, коммуникативных внеземных цивилизаций в Млечном Пути, предполагает, что в любой момент времени существует всего несколько разумных цивилизаций. Более того, их относительно скромные технологические активности могут сделать их трудными для обнаружения".