Zahav.СалатZahav.ru

Воскресенье
Тель-Авив
+20+11
Иерусалим
+21+8

Салат

А
А

Искусственный интеллект может привести к вымиранию человечества

Один из "отцов-основателей" искусственного интеллекта считает, что в течение 10 лет он может привести к нашему вымиранию.

01.01.2025
Источник:Новая Наука
Джеффри Хинтон. Фото: Reuters

Джеффри Хинтон, известный исследователь, считающийся одним из "отцов-основателей" искусственного интеллекта, наряду с Янном Ле Куном и Йошуа Бенгио, недавно выступил с новыми предупреждениями о рисках, связанных с искусственным интеллектом. В своем предыдущем заявлении он оценил вероятность того, что ИИ приведет к вымиранию человечества в течение 30 лет, в 10-20 %. Это предсказание, хотя и спекулятивное, уже иллюстрировало степень его обеспокоенности быстрым развитием этой технологии, пояснил он в недавнем интервью, в котором он скорректировал эту оценку до 10-20 лет.

Хинтон уже много лет отмечает, что прогресс в области ИИ опережает первоначальные прогнозы и неожиданно приближает появление общего искусственного интеллекта (ОИИ). Этот тип ИИ, способный со временем превзойти человеческие когнитивные способности практически во всех областях, может, по его мнению, сделать машины неуправляемыми. Однако следует подчеркнуть, что эта гипотеза представляется не более чем алармистским пересказом мнений, хотя и основанных на его весьма глубоком понимании систем ИИ.

Недавно, отвечая на вопрос ведущего программы Today на радиостанции BBC Radio 4, изменилось ли что-нибудь по сравнению с его оценкой 2023 года (риск вымирания человечества из-за ИИ), он ответил: "Не совсем. Я думаю, что это произойдет через 10-20 лет, возможно. Нам никогда не приходилось иметь дело с существами, которые были бы умнее нас".

Затем он сравнил эту ситуацию с промышленной революцией, отметив, что на этот раз последствия могут быть гораздо более глубокими и потенциально опасными для человечества: "Эти вещи (ИИ) умнее нас. Во время промышленной революции не было риска, что машины вытеснят людей, потому что они были "просто" сильнее. Мы сохраняли контроль, потому что у нас был интеллект. Сегодня существует угроза того, что они могут захватить власть, так что все совсем по-другому".

Переломный момент в карьере Хинтона

В мае 2023 года Хинтон покинул свой пост в Google, чтобы иметь возможность свободно говорить об опасностях ИИ, не рискуя скомпрометировать своего бывшего работодателя, рассказал он BBC в 2023 году. В своем публичном заявлении он сказал, что отчасти сожалеет о своем участии в разработке ИИ: "Часть меня сожалеет о работе всей моей жизни".

Перед лицом этих угроз Хинтон призывает к ужесточению государственного регулирования и усилению контроля за разработками в сфере ИИ. По его мнению, экономических мотивов крупных компаний недостаточно, чтобы гарантировать безопасное использование этих технологий. Он утверждает, что только жесткое политическое вмешательство может заставить игроков в этой сфере инвестировать в исследования безопасности ИИ. "Единственное, что может заставить эти крупные компании проводить больше исследований в области безопасности, - это государственное регулирование", - говорит он в интервью Radio 4, - "поэтому я твердо убежден, что правительства должны заставить крупные компании проводить глубокие исследования в области безопасности".

Конечно, не все эксперты в области искусственного интеллекта разделяют пессимизм Хинтона. Янн Ле Кун, еще одна ведущая фигура в этой области (который, как и он, получил премию Тьюринга в 2018 году за работу над глубоким обучением), отстаивает идею о том, что ИИ, напротив, может сыграть ключевую роль в решении основных проблем, стоящих перед человечеством. По его мнению, акцент следует делать на освоении ИИ, а не на беспокойстве о его будущих применениях.

Между надеждой и страхом: расколотая дискуссия

Другие эксперты призывают к балансу опасений. Они считают, что существующие опасности, такие как дезинформация, системные предубеждения или злонамеренное использование ИИ, должны оставаться на переднем крае дискуссии. Тем не менее в декларации, подписанной в мае 2023 года сотнями специалистов, говорится, что "снижение риска вымирания, связанного с ИИ, должно стать глобальным приоритетом наравне с пандемиями или ядерной войной".

Предостережения Хинтона заставляют задуматься на нескольких уровнях. Это не просто гипотетический страх перед будущим, а указание на вполне реальные дилеммы, стоящие перед человечеством в плане технологического контроля и этики. Вопрос не только в том, превзойдут ли машины человека, но и в том, как наше общество сможет предугадать их влияние на социальные, экономические и экологические структуры. "Я боюсь, что даже если это приведет к значительному росту производительности труда, что должно быть полезно для общества, в конечном итоге это окажется очень вредным для общества, если все выгоды достанутся богатым, а многие люди потеряют работу и станут беднее", - добавил он.

По мнению других экспертов, вместо того чтобы поддаваться увлечению антиутопическими сценариями или погружаться в наивный оптимизм, лучше поощрять открытый диалог. ИИ, хотя и является инструментом, созданным людьми, может навсегда изменить природу человеческого принятия решений, творчества и даже ответственности.

Однако в этот период стремительных перемен предостережения Хинтона служат напоминанием о том, что технология не стоит на месте: ее направление и цели зависят от ценностей, которые мы выбираем для себя. ИИ можно рассматривать не как непреодолимое препятствие, а как "высшую проверку" нашей способности действовать коллективно во имя устойчивого будущего. Читайте все последние новости искусственного интеллекта

Читайте также

Фото: ShutterStock
Комментарии, содержащие оскорбления и человеконенавистнические высказывания, будут удаляться.

Пожалуйста, обсуждайте статьи, а не их авторов.

Статьи можно также обсудить в Фейсбуке