Пионер ИИ говорит, что его угроза миру может быть “более острой”
Искусственный интеллект может представлять “более серьезную” угрозу для человечества, чем изменение климата, заявил в интервью агентству Reuters пионер искусственного интеллекта Джеффри Хинтон.
Джеффри Хинтон, широко известный как один из “крестных отцов ИИ”, недавно объявил, что ушел из AlphabetGOOGL.O после десяти лет работы в фирме, заявив, что хочет высказаться о рисках, связанных с технологией, без ущерба для его бывшего работодателя.
Работа Хинтона считается важной для разработки современных систем искусственного интеллекта. В 1986 году он стал соавтором основополагающей статьи “Изучение представлений с помощью ошибок обратного распространения”, которая стала важной вехой в развитии нейронных сетей, лежащих в основе технологии искусственного интеллекта. В 2018 году он был удостоен премии Тьюринга в знак признания его научных достижений.
Но сейчас он входит в число все большего числа технологических лидеров, публично выражающих озабоченность по поводу возможной угрозы, которую представляет ИИ, если машины станут более интеллектуальными, чем люди, и возьмут под контроль планету.
“Я не хотел бы обесценивать изменение климата. Я не хотел бы говорить: “Вы не должны беспокоиться об изменении климата”. Это тоже огромный риск, — сказал Хинтон. - Но я думаю, что это может оказаться более срочным”.
Он добавил: “С изменением климата очень легко порекомендовать, что вам следует делать: вы просто перестанете сжигать углерод. Если вы это сделаете, в конце концов все будет хорошо. В связи с этим совершенно не ясно, что вы должны делать”.
Поддерживаемый Microsoft MSFT.O OpenAI выстрелил из стартового пистолета в технологической гонке вооружений в ноябре, когда он сделал общедоступным чат-бот ChatGPT на базе AI . Вскоре оно стало самым быстрорастущим приложением в истории, достигнув 100 миллионов пользователей в месяц за два месяца.
В апреле генеральный директор Twitter Илон Маск присоединился к тысячам людей, подписавших открытое письмо с призывом к шестимесячной паузе в разработке систем, более мощных, чем недавно запущенная OpenAI GPT-4.
Среди подписантов были генеральный директор Stability AI Эмад Мостак, исследователи DeepMind, принадлежащей Alphabet, и другие пионеры искусственного интеллекта Йошуа Бенжио и Стюарт Рассел.
Хотя Хинтон разделяет опасения подписавших, что ИИ может оказаться реальной угрозой для человечества, он не согласен с приостановкой исследований.
“Это совершенно нереально, — сказал он. - Я нахожусь в лагере тех, кто считает, что это экзистенциальный риск, и он достаточно близок к тому, чтобы прямо сейчас мы должны очень усердно работать и вкладывать много ресурсов в выяснение того, что мы можем с этим поделать”.
В Европейском союзе комитет законодателей отреагировал на письмо Маска, призвав президента США Джо Байдена созвать глобальный саммит по будущему направлению технологии с президентом Европейской комиссии Урсулой фон дер Ляйен.
На прошлой неделе комитет согласовал знаковый набор предложений, направленных на генеративный ИИ, который заставит такие компании, как OpenAI, раскрывать любые материалы, защищенные авторскими правами, используемые для обучения их моделей.
Тем временем Байден провел в Белом доме переговоры с рядом руководителей компаний, занимающихся ИИ, в том числе с генеральным директором Alphabet Сундаром Пичаи и генеральным директором OpenAI Сэмом Альтманом, пообещав провести “откровенное и конструктивное обсуждение” необходимости компаний быть более прозрачными в отношении своих систем.
“Технические лидеры лучше всего это понимают, и политики должны быть вовлечены, — сказал Хинтон. - Это влияет на всех нас, поэтому мы все должны думать об этом”.