Сегодня 14 октября 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Исследование Apple показало, что ИИ-модели не думают, а лишь имитируют мышление

Исследователи Apple обнаружили, что большие языковые модели, такие как ChatGPT, не способны к логическому мышлению и их легко сбить с толку, если добавить несущественные детали к поставленной задаче, сообщает издание TechCrunch.

 Источник изображения: D koi/Unsplash

Источник изображения: D koi/Unsplash

Опубликованная статья «Понимание ограничений математического мышления в больших языковых моделях» поднимает вопрос о способности искусственного интеллекта к логическому мышлению. Исследование показало, что большие языковые модели (LLM) могут решать простые математические задачи, но добавление малозначимой информации приводит к ошибкам.

Например, модель вполне может решить такую задачу: «Оливер собрал 44 киви в пятницу. Затем он собрал 58 киви в субботу. В воскресенье он собрал вдвое больше киви, чем в пятницу. Сколько киви у Оливера?». Однако, если при этом в условие задачи добавить фразу «в воскресенье 5 из этих киви были немного меньше среднего размера», модель скорее всего вычтет эти 5 киви из общего числа, несмотря на то, что размер киви не влияет на их количество.

 Источник изображения: Copilot

Источник изображения: Copilot

Мехрдад Фараджтабар (Mehrdad Farajtabar), один из соавторов исследования, объясняет, что такие ошибки указывают на то, что LLM не понимают сути задачи, а просто воспроизводят шаблоны из обучающих данных. «Мы предполагаем, что это снижение [эффективности] связано с тем фактом, что современные LLM не способны к подлинному логическому рассуждению; вместо этого они пытаются воспроизвести шаги рассуждения, наблюдаемые в их обучающих данных», — говорится в статье.

Другой специалист из OpenAI возразил, что правильные результаты можно получить с помощью техники формулировки запросов (prompt engineering). Однако Фараджтабар отметил, что для сложных задач может потребоваться экспоненциально больше контекстных данных, чтобы нейтрализовать отвлекающие факторы, которые, например, ребёнок легко бы проигнорировал.

Означает ли это, что LLM не могут рассуждать? Возможно. Никто пока не даёт точного ответа, так как нет чёткого понимания происходящего. Возможно, LLM «рассуждают», но способом, который мы пока не распознаём или не можем контролировать. В любом случае эта тема открывает захватывающие перспективы для дальнейших исследований.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Вечерний 3DNews
Каждый будний вечер мы рассылаем сводку новостей без белиберды и рекламы. Две минуты на чтение — и вы в курсе главных событий.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Internet Archive всё ещё не работает после взлома — на восстановление уйдёт ещё несколько дней 5 ч.
Медицинские советы ИИ-бота Microsoft Copilot могут привести к смерти, по крайней мере в 22 % случаев 6 ч.
Новая статья: Witchfire — дикая охота… играть снова и снова. Предварительный обзор 24 ч.
Новая статья: Gamesblender № 695: слухи о продаже Ubisoft, Red Dead Redemption на ПК, новый «Мор» и будущее Halo 12-10 23:30
Xbox Cloud Gaming позволит запускать в облаке игры из библиотек пользователей уже в ноябре 12-10 19:49
Брокеры данных собирают огромные объёмы информации о каждом человеке, но иногда можно попросить её удалить 12-10 16:43
В России появилась Ассоциация игровой индустрии — разработчики видеоигр будут сообща решать задачи регулирования 12-10 16:37
Роскомнадзор намерен получить право блокировать ресурсы без решения суда 12-10 01:07
Новая статья: Iron Meat — наконец-то новая Contra! Рецензия 12-10 00:03
«Беззаботный взгляд на мир ведьмаков»: CD Projekt Red анонсировала сборник комиксов The Little Witcher про приключения маленькой Цири в Каэр Морхене 11-10 23:31