ИИ-боты, включая ChatGPT и Google Gemini, часто делают нелогичные выводы

ИИ-боты, включая ChatGPT и Google Gemini, часто делают нелогичные выводы

Искусственный интеллект оказался не таким уж разумным, как предполагалось. Согласно новому исследованию, популярные ИИ-чат-боты, такие как ChatGPT и Google Gemini, иногда делают иррациональные выводы.

Ученые из Университета Кембриджа провели серию тестов на нескольких языковых моделях, чтобы оценить их способность к логическому мышлению. В процессе экспериментов выяснилось, что ИИ склонен к логическим ошибкам, особенно в ситуациях, требующих интуитивного понимания.

Читайте нас в Telegram: только самые актуальные и проверенные новости

В исследовании приняли участие ChatGPT от OpenAI, Google Gemini и другие аналогичные модели. Испытуемые ИИ-боты сталкивались с задачами, которые требовали обоснованных выводов, но часто демонстрировали несоответствие здравому смыслу.

Например, когда чат-ботов просили решить логические головоломки или ответить на вопросы, требующие понимания контекста, они часто давали неверные ответы. Исследователи отмечают, что такие ошибки могут быть связаны с тем, как модели обучаются на огромных объемах данных, но не всегда понимают суть информации.

Доктор Эмили Сандерс, один из авторов исследования, заявила: "Наши результаты показывают, что, несмотря на все достижения в области ИИ, эти системы всё ещё далеки от понимания человеческой логики и здравого смысла. Это важный аспект, который необходимо учитывать при разработке и использовании таких технологий".

Исследователи подчеркивают необходимость дальнейших улучшений в области ИИ, чтобы эти технологии могли более точно понимать и обрабатывать информацию. Это особенно важно в контексте их применения в реальных ситуациях, где ошибки могут иметь серьёзные последствия.

ПОДЕЛИТЬСЯ
ВСЕ ПО ТЕМЕ
КОММЕНТАРИИ
НОВОСТИ ПАРТНЕРОВ
ЗНАКОМСТВА
МЫ НА FACEBOOK