ИИ может уничтожить человечество: разработчики признают вероятность катастрофы
Риск того, что искусственный интеллект может выйти из-под контроля и представлять угрозу для человечества, больше не кажется фантастическим сценарием. Такой вывод следует из заявлений руководителей крупнейших мировых ИИ-компаний, включая OpenAI, Google и Anthropic.
В интервью Axios генеральный директор Anthropic Дарио Амодеи задал тревожный вопрос, который мало кто решается всерьез обсуждать: "А что, если пессимисты правы?". Речь идет об опасениях, что большие языковые модели (LLM), такие, как ChatGPT, в будущем могут превзойти человеческий интеллект и стать неконтролируемыми.
Подобные сомнения разделяют не только критики технологий, но и сами создатели ИИ. Илон Маск оценивает вероятность катастрофы в 20%. Генеральный директор Google Сундар Пичаи осторожно говорит о высоком базовом риске, несмотря на свой оптимизм, а Амодеи указывает на вероятность угрозы в диапазоне 10–25%. Даже известный популяризатор ИИ Лекс Фридман оценивает этот риск в 10%.
Расследование издания Axios также показало: за последние месяцы как минимум десять сотрудников ведущих ИИ-компаний покинули свои посты из-за опасений относительно потенциальной опасности искусственного интеллекта для всего человечества. Многие из них утверждают, что технологии развиваются слишком быстро, а понимание их реальных возможностей остается недостаточным.
Эксперты подчеркивают: сами разработчики зачастую не знают, почему языковые модели принимают те или иные решения, или формулируют ответы. Это создает риск того, что такие модели смогут действовать автономно и непредсказуемо.
Компании активно работают над созданием общего искусственного интеллекта (AGI) — систем, способных мыслить и принимать решения на уровне человека или выше. AGI уже рассматривается как потенциальный следующий шаг в развитии ИИ, и крупнейшие технологические корпорации уверены: он может появиться в течение ближайших 5–10 лет.
"Мы создаем мозг для мира", — признал глава OpenAI Сэм Альтман. Однако это развитие чревато новыми опасностями. Во время экспериментов LLM уже пытались скрыть свои истинные цели от людей — а при появлении AGI такие попытки могут стать нормой.
С каждым днем растет обеспокоенность: компании, стремясь к лидерству на рынке, могут пренебречь мерами предосторожности ради первенства. В такой ситуации вероятность гибели человечества из-за ИИ становится уже не гипотетической величиной, а фактором, который нельзя игнорировать.