Искусственный интеллект не такой уж искусственный

Исследование показывает, что ИИ так же самоуверен и предвзят, как и люди

Хотя люди и системы искусственного интеллекта (ИИ) «думают» совершенно по-разному , новые исследования показали, что ИИ иногда принимает решения столь же нерационально, как и мы. Почти в половине сценариев, рассмотренных в новом исследовании, ChatGPT демонстрировал многие из наиболее распространенных человеческих предубеждений в принятии решений. Опубликованные 8 апреля в журнале Manufacturing & Service Operations Management , результаты являются первыми, оценивающими поведение ChatGPT в 18 известных когнитивных предубеждениях, обнаруженных в психологии человека.
Авторы статьи из пяти академических институтов Канады и Австралии протестировали GPT-3.5 и GPT-4 от OpenAI — две большие языковые модели (LLM), лежащие в основе ChatGPT, — и обнаружили, что, несмотря на «впечатляющую последовательность» в своих рассуждениях, они далеко не застрахованы от человеческих недостатков.
Источник: LIVESCIENCE

Оставьте комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Прокрутить вверх