Оригинал материала: https://3dnews.ru./1109278

OpenAI забеспокоилась об отношениях людей с ChatGPT в новом голосовом режиме

Общение с ИИ-чат-ботом ChatGPT в новом голосовом режиме, когда его голос ничем не отличается от человеческого, может привести к появлению у пользователя зависимости от взаимодействия с ИИ, пишет ресурс CNN со ссылкой на отчёт OpenAI.

 Источник изображения: Andrew Neel/unsplash.com

Источник изображения: Andrew Neel/unsplash.com

Как сообщает OpenAI, опубликовавшая в четверг отчёт по поводу безопасности использования расширенного голосового режима (Advanced Voice Mode, AVM) для сервиса ChatGPT, ставшего доступным для небольшого количества подписчиков ChatGPT Plus, голос чат-бота ChatGPT в режиме AVM звучит очень реалистично. Чат-бот реагирует в реальном времени, может подстраиваться под прерывание, воспроизводит звуки, которые люди издают во время разговора, например, посмеивается или хмыкает. Он также может судить об эмоциональном состоянии собеседника по тону его голоса.

После того, как OpenAI анонсировала эту функцию у мультимодальной модели генеративного ИИ GPT-4o, её начали сравнивать с цифровым помощником ИИ из вышедшего в 2013 году фильма «Она», в которого влюбляется главный герой.

Видимо у OpenAI вызывает опасения то, что вымышленная история оказалась близкой к реальности, после наблюдения за пользователями, которые разговаривают с ChatGPT в голосовом режиме на языке, «выражающем общие связи» с инструментом общения.

В итоге «пользователи могут формировать социальные отношения с ИИ, снижая свою потребность в человеческом взаимодействии — потенциально принося пользу одиноким людям, но, возможно, влияя на здоровые отношения», отметила OpenAI. В отчёте также указано, что получение информации от бота в голосовом режиме, звучащем как голос человека, может вызвать у пользователя больше доверия, чем следовало бы, учитывая склонность ИИ ошибаться.

OpenAI заявила, что взаимодействие пользователей с ChatGPT в голосовом режиме также может со временем отразиться на том, что считается нормой в социальных взаимодействиях. «Наши модели являются почтительными, позволяя пользователям прерывать и “брать микрофон” в любой момент, что, хотя и ожидаемо для ИИ, не является нормой в человеческих взаимодействиях», — сообщается в отчёте компании.

Вместе с тем OpenAI подчеркнула, что стремится создавать ИИ «безопасно» и планирует продолжить изучение потенциала «эмоциональной зависимости» пользователей от предлагаемых ИИ-решений.



Оригинал материала: https://3dnews.ru./1109278