ИИ-боты, включая ChatGPT и Google Gemini, часто делают нелогичные выводы
Искусственный интеллект оказался не таким уж разумным, как предполагалось. Согласно новому исследованию, популярные ИИ-чат-боты, такие как ChatGPT и Google Gemini, иногда делают иррациональные выводы.
Ученые из Университета Кембриджа провели серию тестов на нескольких языковых моделях, чтобы оценить их способность к логическому мышлению. В процессе экспериментов выяснилось, что ИИ склонен к логическим ошибкам, особенно в ситуациях, требующих интуитивного понимания.
Читайте нас в Telegram: только самые актуальные и проверенные новости
В исследовании приняли участие ChatGPT от OpenAI, Google Gemini и другие аналогичные модели. Испытуемые ИИ-боты сталкивались с задачами, которые требовали обоснованных выводов, но часто демонстрировали несоответствие здравому смыслу.
Например, когда чат-ботов просили решить логические головоломки или ответить на вопросы, требующие понимания контекста, они часто давали неверные ответы. Исследователи отмечают, что такие ошибки могут быть связаны с тем, как модели обучаются на огромных объемах данных, но не всегда понимают суть информации.
Доктор Эмили Сандерс, один из авторов исследования, заявила: "Наши результаты показывают, что, несмотря на все достижения в области ИИ, эти системы всё ещё далеки от понимания человеческой логики и здравого смысла. Это важный аспект, который необходимо учитывать при разработке и использовании таких технологий".
Исследователи подчеркивают необходимость дальнейших улучшений в области ИИ, чтобы эти технологии могли более точно понимать и обрабатывать информацию. Это особенно важно в контексте их применения в реальных ситуациях, где ошибки могут иметь серьёзные последствия.