Искусственный интеллект оказался не таким уж разумным, как предполагалось. Согласно новому исследованию, популярные ИИ-чат-боты, такие как ChatGPT и Google Gemini, иногда делают иррациональные выводы.
Ученые из Университета Кембриджа провели серию тестов на нескольких языковых моделях, чтобы оценить их способность к логическому мышлению.
В процессе экспериментов выяснилось, что ИИ склонен к логическим ошибкам, особенно в ситуациях, требующих интуитивного понимания.
Читайте нас в Telegram: только самые актуальные и проверенные новости
В исследовании приняли участие ChatGPT от OpenAI, Google Gemini и другие аналогичные модели. Испытуемые ИИ-боты сталкивались с задачами, которые требовали обоснованных выводов, но часто демонстрировали несоответствие здравому смыслу.
Например, когда чат-ботов просили решить логические головоломки или ответить на вопросы, требующие понимания контекста, они часто давали неверные ответы.