Сегодня 29 сентября 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → gpt-4
Быстрый переход

GPT-4 привлекли к устранению ошибок в программах — ИИ не остановится до полного восстановления кода и объяснит, что пошло не так

Разработчик с псевдонимом BioBootloader представил скрипты «Росомаха» (Wolverine), которые выявляют причины неработоспособности программ и исправляют ошибки с привлечением большой языковой модели GPT-4. «Росомаха» трудится до тех пор, пока программа не начнёт работать. Каждая найденная ошибка сопровождается пояснением, почему её нужно исправить. Пока это наглядный пример возможностей машинного обучения, но перспективы бесконечны.

 Источник изображения: Pixabay

Источник изображения: Pixabay

Каждому программисту известно, что обычно проще написать что-то своё, даже с нуля, чем исправлять чужое или выискивать ошибки. Подключить искусственный интеллект к поиску ошибок в программах — это сильнее, чем научить его писать программы. Фактически программы можно будет наделять возможностью к «самовосстановлению» подобно герою комиксов Marvel, в честь которого и назвали этот проект.

Представленный BioBootloader скрипт, который доступен на GitHub, помогает искать ошибки в программах на Python. Но этот же подход можно реализовать для поиска ошибок в программах, написанных на других языках. Для практического использования «Росомахи» необходим ключ OpenAI API для моделей GPT-3.5 или GPT-4, за использование которых взимается плата. Сейчас API GPT 3.5 открыт для всех, у кого есть учетная запись OpenAI, хотя доступ к GPT-4 пока ограничен.

«Он [скрипт] запускает его [код], видит сбой, но затем идёт и разговаривает с GPT-4, чтобы попытаться выяснить, как это исправить, — рассказал разработчик. — GPT-4 возвращает объяснение ошибок программы, показывает изменения, которые он пытается внести, а затем снова запускает программу. Увидев новые ошибки, GPT-4 снова исправляет код, после чего он запускается правильно. В итоге исходный файл Python содержит изменения, добавленные GPT-4».

ChatGPT сдал экзамен на врача и в считаные секунды поставил правильный диагноз пациенту

Доктор Айзек Кохейн (Isaac Kohane), гарвардский специалист по информационным технологиям и медицине, совместно с двумя коллегами протестировал GPT-4 на предмет возможности использовать искусственный интеллект во врачебной сфере. По словам исследователя, система проявила себя лучше многих врачей.

 Источник изображений: Tumisu / pixabay.com

Источник изображений: Tumisu / pixabay.com

Результаты эксперимента доктор Кохейн изложил в книге «Революция ИИ в медицине», написанной совместно с независимой журналисткой Кэри Голдберг (Carey Goldberg) и вице-президентом Microsoft по исследованиям Питером Ли (Peter Lee). Выпущенная в марте ИИ-модель GPT-4 в 90 % случаев правильно отвечала на вопросы из экзамена на получение лицензии врача, выступая лучше ChatGPT на базе GPT-3 и GPT-3.5 и даже некоторых докторов, у которых уже есть лицензии.

GPT-4 отлично проявил себя не только как экзаменуемый и знаток фактов, но и как переводчик. Он разобрался с медицинской выпиской пациента на португальском языке и перефразировал наполненный техническим жаргоном текст в материал, с которым справится и шестиклассник. ИИ предлагал врачам полезные советы, как вести себя у постели больного и как разговаривать с пациентом о его состоянии понятным, но сострадательным языком. Машина справлялась с обработкой объёмных отчётов об обследовании, мгновенно обобщая их содержимое.

Свои ответы система излагала в формате, который как будто указывает на интеллект сродни человеческому, но исследователи всё равно пока делают вывод, что в своих размышлениях ИИ ограничен шаблонами — пускаться в полноценные рассуждения с причинно-следственными связями GPT-4 ещё не умеет. Тем не менее, когда системе предложили данные по реальному случаю, та на уровне специалиста с годами учёбы и практики верно диагностировала редкую болезнь.

Доктор Кохейн, с одной стороны, рад, что в обозримом будущем такой инструмент будет доступен миллионам людей, но, с другой стороны, он пока не знает, как сделать платформу безопасной для пользователя. GPT-4 не всегда надёжен в своих ответах, и в книге приводится множество примеров его ошибок разного рода. Причём ИИ склонен настаивать на своей правоте, когда ему на эти ошибки указывают — это явление в технической среде уже назвали «галлюцинациями». В свою защиту GPT-4 однажды заявил: «У меня нет намерений кого-то обманывать или вводить в заблуждение, но я иногда совершаю ошибки и делаю предположения, основываясь на неполных или неточных данных. Я не даю клинических оценок и не несу этической ответственности как врач или медсестра».

В качестве одной из мер защиты авторы книги предлагают проводить по нескольку сессий с GPT-4, чтобы ИИ сам «перечитывал» или «проверял» собственную работу «свежим взглядом». Иногда это помогает выявлять ошибки: GPT-4 несколько раз в сдержанной форме признавал своё заблуждение. Или можно поручить проверку его работы специалисту.

На нейросеть GPT-4 нажаловались в Федеральную торговую комиссию США

Центр искусственного интеллекта и цифровой политики под руководством правозащитника, отстаивающего вопросы конфиденциальности пользователей, Марка Ротенберга (Marc Rotenberg) подал жалобу в Федеральную торговую комиссию США (FTC) с просьбой инициировать расследование в отношении большой языковой модели GPT-4. Правозащитники требуют проверить проект на соответствие законам США и других стран.

 Источник изображения: D koi / unsplash.com

Источник изображения: D koi / unsplash.com

Ротенберг стал одним из более тысячи представителей общественности, подписавшихся под открытым письмом, в котором разработчиков призывают минимум на полгода приостановить обучение моделей ИИ на базе GPT-4.

«Нам необходимо практическое решение, и это практическое решение исходит от Федеральной торговой комиссии. Нам нужно, чтобы они предписали OpenAI приостановить дальнейшие релизы GPT, пока отсутствуют адекватные меры безопасности», — цитирует Bloomberg сделанное в ходе телефонного разговора заявление господина Ротенберга.

Документ, который его организация подала в FTC, содержит призыв к ведомству инициировать расследование и «обеспечить установку необходимых барьеров, чтобы защитить потребителей, бизнес и коммерческий рынок». FTC ранее пообещала изучить развивающуюся отрасль искусственного интеллекта, а глава ведомства Лина Хан (Lina Khan) пообещала проследить, чтобы техногиганты не установили доминирование в этой области.

Тем временем OpenAI плотно сотрудничает с корпорацией Microsoft, которая в обмен на многомиллиардные инвестиции получила эксклюзивный доступ к разработкам компании. Улучшить свою поисковую службу при помощи ИИ решила и Google.

«Угроза всему человечеству»: Маск, Возняк и более 1000 экспертов призвали остановить обучение нейросетей, превосходящих GPT-4

Илон Маск (Elon Musk), Стив Возняк (Steve Wozniak), а также более 1000 других экспертов в области искусственного интеллекта и представителей IT-индустрии призвали ввести полугодовой мораторий на обучение ИИ-систем, более производительных, чем недавно представленная модель GPT-4 компании OpenAI. В открытом письме они предупредили о потенциальных рисках для общества.

 Источник изображения: D koi/unsplash.com

Источник изображения: D koi/unsplash.com

Письмо опубликовано некоммерческим институтом Future of Life и подписано многими известными в IT-индустрии людьми. Все они призвали «поставить на паузу» разработку ИИ до того, как для отрасли будут разработаны общие протоколы и стандарты безопасности, применение которых будет проверяться независимыми аудиторами.

В письме подчёркивается, что мощные ИИ-системы должны разрабатываться только после того, как человечество будет уверено в позитивных последствиях такого развития и в том, что связанные с ними риски будут управляемыми. Также в письме упоминается о потенциальных угрозах для общества и цивилизации со стороны способных конкурировать с людьми ИИ-систем, что может привести к экономическим или политическим потрясениям. Разработчиков призывают тесно сотрудничать с регуляторами.

«Обширные исследования показали, что подобные системы с искусственным интеллектом, которые конкурируют с человеком, могут представлять серьезную опасность для всего человечества» — говорится в письме.

Письмо опубликовано после того, как к группе обеспокоенных развитием ИИ присоединился Европол, предупредивший о возможности злоупотребления злоумышленниками системами вроде ChatGPT — их можно использовать для фишинга, дезинформации и совершения киберпреступлений. Маск, чья компания Tesla довольно давно использует элементы искусственного интеллекта в своих системах автопилота, открыто и неоднократно выражал обеспокоенность опасностью ИИ-систем.

С момента релиза в прошлом году чат-бот ChatGPT компании OpenAI, поддерживаемой Microsoft, продемонстрировал такие качества, которые вынудили конкурентов срочно активизировать разработку собственных больших языковых моделей. В результате компании начали спешно интегрировать генеративный ИИ в свои продукты. Глава OpenAI Сэм Альтман (Sam Altman), по данным представителя Future of Life, письмо не подписывал, а в самой компании отказались от комментариев.

По словам одного из экспертов, необходимо замедлить соответствующие работы, пока человечество не начнёт лучше понимать последствия, поскольку ИИ-системы способны нанести серьёзный ущерб. Особенно с учётом того, что крупные игроки хранят в тайне информацию о том, над чем они работают — поэтому обществу будет трудно защититься в случае, если опасения оправдаются.

Microsoft привлекла нейросеть GPT-4 к борьбе с хакерскими атаками в новой системе Security Copilot

Системы искусственного интеллекта уже применяются для создания графики, чат-ботов и даже управления умными домами. Компания Microsoft доверила ИИ одну из важнейших сфер современной жизни — защиту от киберугроз. Инструмент Security Copilot позволяет распознать кибератаку, даже когда явные признаки ещё отсутствуют и помогает в её устранении.

 Источник изображения:  Sigmund Avatar/unsplash.com

Источник изображения: Sigmund Avatar/unsplash.com

В ситуациях, когда безопасность компьютера по какой-то причине оказалась под угрозой, Security Copilot поможет определить, что случилось, что делать, и как предотвратить повторение аналогичных инцидентов у других. Компания представила новое решение на базе модели GPT-4 — Security Copilot помогает справиться с угрозами корпоративным клиентам.

Пока инструмент доступен именно корпоративным клиентам. Та же большая языковая модель, что отвечает за работу приложений вроде Bing Chat, стоит и за Security Copilot. Тем не менее, в данном случае речь идёт о варианте, специально обученном на материалах и терминологии, используемых IT-профессионалами. Кроме того, Microsoft уже подключила Copilot к другим своим инструментам, отвечающим за обеспечение безопасности. В компании обещают, что со временем он сможет использовать и сторонние программные решения.

Если большинство пользовательских приложений на основе GPT-4 обучались на уже несколько устаревших массивах данных, то Security Copilot получает новую информацию в режиме реального времени, изучая буквально триллионы сигналов об угрозах, которые Microsoft получает ежедневно. В этом преимущество модели — Security Copilot может распознавать скрытые сигналы ещё до того, как факт атаки стал очевиден. Благодаря этому, инструмент может использоваться для распознавания и своевременного устранения угроз.

При этом довольно давно выяснилось, что у ИИ вроде ChatGPT, Bing Chat или Google Bard могут случаться «галлюцинации», в ходе которых за основу «рассуждений» принимаются совершенно недостоверные факты. В сфере безопасности это может стать очень опасным явлением. В Microsoft уже подтвердили, что Security Copilot «не всегда понимает всё правильно». К счастью, в случае с продуктом Microsoft предусмотрен механизм обратной связи с пользователями, позволяющий предоставлять всё более релевантные ответы.

Пока Microsoft не сообщала, что может произойти в случае столкновения защитного ИИ с ИИ, работающем на злоумышленников, например — созданным для атаки на пользователей и бизнесы. В любом случае компания сообщила, что корпоративные клиенты уже могут протестировать Security Copilot на небольшом сегменте своих пользователей. Если эксперимент увенчается успехом, в будущем, вероятно, он сможет помочь и обычным пользователям.

В Microsoft 365 интегрировали ИИ на базе GPT-4 — он поможет писать в Word и делать презентации в PowerPoint

Сегодня Microsoft представила ИИ-помощник Copilot для офисных приложений пакета Microsoft 365. После внедрения чат-бота на основе ИИ в Bing, Microsoft движется к интеграции больших языковых моделей OpenAI в свои офисные приложения. Объявление Microsoft было сделано всего через несколько дней после того, как Google анонсировала функции искусственного интеллекта для Workspace, включая генерацию текста с помощью искусственного интеллекта в Gmail, «Документах» и многом другом.

 Источник изображений: Microsoft

Источник изображений: Microsoft

Copilot для приложений и служб Microsoft 365, основанный на GPT-4 от OpenAI, будет появляться в виде чат-бота на боковой панели для генерации текста в Word, создания презентаций PowerPoint или сводных таблиц Excel. Copilot поможет при подготовке к собранию в Microsoft Teams, сообщит об обновлениях по связанным проектам и организационных изменениях. Copilot также интегрирован в Outlook, что позволит тратить меньше времени на удаление электронных писем и ответы на них. Он поможет сгруппировать темы электронной почты или создать черновики ответов с возможностью задать тон и длину электронного письма.

Microsoft утверждает, что Copilot — не просто ChatGPT, добавленный к Microsoft 365. Эта система объединяет приложения Microsoft 365 с данными и аналитикой Microsoft Graph и нейросетью GPT-4. Microsoft Graph позволяет обрабатывать уникальный контекст пользователя и делать его более результативным. При создании документа на основе данных пользователя, Copilot отправит запрос в Microsoft Graph для получения контекста и данных, а затем отправит модифицированный запрос в большую языковую модель GPT-4. Ответ ИИ также будет проверен в Microsoft Graph на безопасность и соответствие.

Microsoft также планирует запустить функцию Business Chat для работы с данными и приложениями Microsoft 365. Business Chat будет использовать Microsoft Graph для объединения документов, презентаций, электронных писем, заметок и контактов в единый интерфейс чата в Microsoft Teams, который будет генерировать сводки, обзоры планирования и многое другое.

Microsoft, безусловно, быстро движется вперёд со своим видением приложений Office на основе ИИ, что вызывает обоснованные опасения, тем более, что Microsoft недавно уволила всю команду по этике искусственного интеллекта. Команда работала над выявлением рисков, связанных с внедрением Microsoft языковых моделей OpenAI в программное обеспечение и услуги.

Руководитель Microsoft 365 Джаред Спатаро (Jared Spataro) не разделяет этих опасений. «Для удовлетворения потребностей наших клиентов, мы должны действовать быстро и ответственно, учась на ходу, — говорит Спатаро. — Мы тестируем Copilot с небольшой группой клиентов, чтобы получать отзывы и улучшать наши модели по мере масштабирования. Мы проясняем, как система принимает решения, отмечая ограничения, ссылаясь на источники и предлагая пользователям просматривать, проверять факты и корректировать контент на основе предметной экспертизы».

Microsoft сейчас проводит совместное тестирование Copilot с 20 клиентами и планирует постепенно расширять охват тестирования. Компания обещает сообщить более подробную техническую информацию, сроки доступности Copilot и ценовую политику в ближайшие месяцы.

«В открытом коде смысла нет»: OpenAI перестала быть открытой исследовательской организацией

Недавно OpenAI анонсировала большую языковую ИИ-модель нового поколения GPT-4. Возможности системы все ещё оцениваются, но многие не связанные с компанией исследователи и эксперты уже выразили разочарование: несмотря на название разработчика, GPT-4 уже не является открытой моделью.

 Источник изображений: Gerd Altmann / pixabay.com

Источник изображений: Gerd Altmann / pixabay.com

Компания опубликовала множество результатов тестов GPT-4 и некоторые демонстрационные материалы, но ничего не рассказала об использованных при обучении системы данных, о затратах на электроэнергию, об использованном оборудовании и задействованных при её создании методах. Эксперты это решение раскритиковали, ответив, что оно подрывает дух компании как исследовательской организации, а повторить её работу другие игроки уже не смогут. Это также затрудняет разработку методов защиты от угроз, которые может представлять ИИ.

Прояснить ситуацию решили журналисты ресурса The Verge в беседе с главным научным сотрудником и соучредителем OpenAI Ильёй Суцкевером (Ilya Sutskever). Решение компании он объяснил конкурентной средой и соображениями безопасности. В разрезе конкуренции это решение, по его мнению, только будет способствовать развитию отрасли. А по поводу аспекта безопасности он дал следующие пояснения: «Эти модели очень мощные, и они становятся ещё мощнее. В какой-то момент при желании будет очень легко причинить этими моделями значительный ущерб. И по мере расширения этих возможностей обретает смысл нежелание их открывать».

OpenAI была основана в 2015 году — учредителями стали её теперешний генеральный директор Сэм Альтман (Sam Altman), вышедший из состава совета директоров в 2018 году Илон Маск (Elon Musk), а также Суцкевер. Первоначально цель организации декларировалась как «создание ценности для всех, а не акционеров» и «свободное сотрудничество» с другими в области ИИ. Но со временем приоритеты изменились, и в итоге OpenAI получила многомиллиардные инвестиции от Microsoft, предоставив софтверному гиганту эксклюзивные бизнес-лицензии.

«Мы были неправы. Мы были откровенно неправы. Если вы, как и мы, верите, что ИИ станет крайне, невероятно мощным, то в открытом коде смысла нет. Это плохая идея. <..> Не сомневаюсь, что через несколько лет всем станет совершенно очевидно, что ИИ с открытым кодом — это просто неразумно», — прокомментировал Суцкевер кардинальное изменение стратегии OpenAI.

Вопрос о потенциальной угрозе ИИ-систем учёный счёл справедливым, но, по его словам, в качестве защитной меры они предоставляют некоторым учёным доступ к модели и материалам проекта. А вот по поводу исходных данных для обучения ИИ выразился намного туманнее: «Считаю, что обучающие данные — это технология. [Со стороны] может выглядеть по-другому, но это так. И причина, по которой мы не раскрываем обучающие данные, почти та же, по которой мы не раскрываем количество параметров». И не ответил на вопрос, может ли OpenAI однозначно заявить, что среди обучающей информации нет пиратских материалов.

ИИ-бот в поисковике Microsoft Bing стал доступен всем желающим

Поисковик Bing впервые за десятилетие оказался в центре внимания после того, как в прошлом месяце Microsoft добавила в него продвинутого чат-бота на основе ИИ-алгоритма, созданного разработчиками из Open AI. При этом софтверный гигант не спешил делать чат-бота доступным для всех, ограничившись тестовой группой пользователей. Теперь же подход к использованию нового Bing изменился, и взаимодействовать с поисковиком можно без длительного ожидания.

 Источник изображения: Microsoft/OpenAI

Источник изображения: Microsoft/OpenAI

Перейти к диалогу с чат-ботом можно просто нажав кнопку «Подробнее» на странице Bing.com, после чего вы попадёте на страницу Bing.com/new. Здесь вам будет предложено «Присоединиться к списку ожидания», и нажав на данную кнопку вы сразу же получите доступ к чат-боту. Если вы ранее записывались на лист ожидания, то у вас отобразится кнопка «Начать чат». Работает чат-бот только через Edge, так что открыв упомянутые ссылки в другом браузере пользователю предложат перейти в Edge. Для использования нового Bing потребуется авторизоваться с учётной записью Microsoft. Официальные представители компании пока никак не комментируют новый подход.

Microsoft стремится интегрировать разработки Open AI во многие свои продукты, не ограничиваясь только поисковиком Bing и браузером Edge. В прошлом месяце разработчики анонсировали появление чат-бота на базе языковой модели GPT-4 на панели задач Windows 11. Сегодня Microsoft проведёт мероприятие «Изобрести производительность заново с помощью ИИ», в рамках которого широкой публике представят ИИ-инструменты, которые станут доступны пользователям облачных сервисов Microsoft 365 и Dynamics 365.

Большая языковая модель GPT-4, созданная специалистами Open AI при поддержке Microsoft, подтолкнула к значительному росту популярности поисковика Bing. Не так давно сообщалось, что количество ежедневно активных пользователей Bing превысило 100 млн человек.

Обновлено:

У пользователей из России наблюдаются проблемы с доступом к ИИ-боту в Bing, в том числе и через VPN. О причинах пока ничего не известно. В других странах всё работает нормально — получить доступ к боту можно в несколько кликов.

«Джва года» ожиданий подошли к концу: нейросеть GPT-4 создала игру про ограбление «корованов» по мотивам того самого мема

Блогер и основатель стартапа neural.love Денис Ширяев решил проверить возможности представленной на днях GPT-4 и попросил новейшую версию языковой ИИ-модели от компании OpenAI создать «простенькую» двухмерную игру на JavaScript по очень специфичному описанию.

 Источник изображения: Steam

Источник изображения: Steam

В качестве описания задачи для GPT-4 Ширяев использовал ставшее мемом письмо некоего Кирилла, попросившего в начале 2000-х российскую студию MiST Land South («Код доступа: РАЙ», «Власть закона») сделать игру в жанре «3Д-экшон» (здесь и далее цитаты с орфографией автора) с возможностью грабить «корованы».

Суть была такова: пользовать мог играть лесными эльфами, охраной дворца и злодеем (у каждого был уникальный геймплей), мир был разделён на четыре зоны, а утраченную в бою конечность (и даже глаз) позволялось заменить протезом или жить дальше без неё. К моменту отправки письма Кирилл хотел такую игру целых «джва года».

GPT-4 на основе всего этого написал код для «почти 2D-экшона». Геймплейного разнообразия или множественных протагонистов из письма Кирилла в проекте нейросети нет, но есть караван (из верблюда, слона и лошади) и разделённое на четыре разноцветные зоны поле.

Управляя зелёной точкой клавишами стрелок на клавиатуре, игрок может гоняться за караваном и стрелять по нему (это действие завязано на пробел), но при попадании он телепортируется в другое место. Отрицательный статус грабежа «корована» в верхней части экрана изменить никак нельзя.

Созданная GPT-4 по запросу Ширяева игра про ограбление «корованов» доступна для бесплатного ознакомления на платформе CodePen. По мнению блогера, последние достижения в сфере искусственного интеллекта сопоставимы по масштабу с «переизобретением электричества».

Стоит отметить, что творение GPT-4 — не первая игра по мотивам легендарного письма. Насколько лет назад студия Digital Nomads якобы при участии того самого Кирилла анонсировала симулятор «К.О.Р.О.В.А.Н.Ы». Релиз ожидался ещё в 2020 году, но этот проект так и не вышел. В отличие от произведения GPT-4.

Поисковик Bing уже месяц использует представленную вчера ИИ-модель GPT-4

Ранее на этой неделе компания Open AI официально представила GPT-4 — новую версию своей большой языковой ИИ-модели, которая показывает «производительность на уровне человека» во многих профессиональных задачах. Вслед за этим Microsoft подтвердила, что GPT-4 уже используется в предварительной версии нового поисковика Bing в течение последних недель.

«Мы рады подтвердить, что новый Bing работает на GPT-4, которую мы адаптировали для поиска. Если вы пользовались новой предварительной версией Bing в течение последних пяти недель, вы уже испытали раннюю версию этой мощной модели. По мере того, как Open AI будет вносить изменения в GPT-4 в дальнейшем, Bing продолжит получать выгоду от этих улучшений», — написал в блоге разработчиков Юсуф Мехди (Yusuf Mehdi), вице-президент Microsoft по потребительскому маркетингу. В сообщении также сказано, что желающим испытать новую модуль GPT-4 следует записаться на участие в тестирование новой предварительной версии Bing.

Отметим, что ИИ-модель GPT-4 значительно больше предыдущих версий, а в процессе её обучения использовалось большее количество данных. GPT-4 способна работать не только с текстом, но и с изображениями. Это означает, что алгоритм способен распознавать, что изображено на фото, схеме или рисунке, а также учитывать эту информацию при решении задачи. По словам разработчиков, новая модель будет давать меньше фактически неверных ответов.

OpenAI запустила GPT-4 — новая версия нейросети стала намного умнее и получила поддержку изображений

OpenAI представила GPT-4 — новейшую версию своей большой языковой ИИ-модели, которая, демонстрирует «производительность на уровне человека» во многих профессиональных задачах. GPT-4 намного больше предыдущих версий — она была обучена на большем количестве данных и использует больший объём информации, что делает нейросеть более дорогой в работе. При этом GPT-4 способна работать не только с текстом, но и с изображениями, хотя на выходе она по-прежнему даёт только текст.

Большая языковая модель GPT от OpenAI используется во многих системах искусственного интеллекта, которые поразили людей в технологической отрасли за последние шесть месяцев, включая ChatGPT и поисковик Bing с ИИ. Новейшая GPT-4 — это предварительный просмотр новых достижений, которые могут начать просачиваться в потребительские продукты, такие как чат-боты, в ближайшие недели. ИИ-бот в Bing уже использует GPT-4, сообщила Microsoft во вторник.

Важнейшим нововведением GPT-4 стала поддержка не только текста, но и изображений в качестве вводных. Новая версия нейросети может понимать, что изображено на фото, схеме, рисунке или другом изображении, и учитывать эти данные при решении задачи. Ещё ИИ способно объяснять данные, представленные в виде диаграммы. Но пока что поддержка с изображений проходит закрытое тестирование.

OpenAI утверждает, что новая модель будет давать меньше фактически неверных ответов, реже «сходить с ума» и говорить на запрещенные темы, и даже показывать лучшие результаты, чем люди, во многих стандартизированных тестах. Касательно последнего, по заявлению OpenAI, модель GPT-4 сдала смоделированный адвокатский экзамен лучше 90 % людей, экзамен SAT Reading test (нужно ответить на вопросы по небольшим текстам) — лучше, чем 93 % людей, а экзамен SAT по математике — лучше, чем 89 % людей.

Однако OpenAI предупреждает, что новое программное обеспечение еще не совершенно и что во многих сценариях оно уступает человеку. По словам компании, у модели всё ещё есть серьезные проблемы с «галлюцинациями» (выдумыванием фактов), так что она не является надёжной с точки зрения представления фактов. GPT-4 по-прежнему склонна настаивать на своей правоте, когда ошибается.

«GPT-4 по-прежнему имеет множество известных ограничений, над устранением которых мы работаем, таких как социальные предубеждения, галлюцинации и состязательные подсказки, — говорится в сообщении компании — В обычном разговоре разница между GPT-3.5 и GPT-4 может быть малозаметной. Разница проявляется, когда сложность задачи достигает достаточного порога — GPT-4 более надежен, креативен и способен обрабатывать гораздо более тонкие инструкции, чем GPT-3.5».

В настоящее время многие исследователи в области ИИ считают, что большинство последних достижений в сфере ИИ связаны с запуском все более крупных моделей, обученных на тысячах компьютерных систем. Такое обучение может стоить десятки миллионов долларов. GPT-4 является примером подхода, основанного на увеличении масштаба для достижения лучших результатов.

Microsoft инвестировала миллиарды в OpenAI и для обучения модели GPT-4 использовалась облачная инфраструктура Microsoft Azure. Разработчики не опубликовали подробностей о конкретном размере модели или аппаратном обеспечении, которое они использовали для её обучения и которое может быть применено для воссоздания модели, сославшись на «конкурентную среду».

Новая модель сначала будет доступна платным подписчикам ChatGPT, а также будет доступна в составе API, что позволит сторонним разработчикам интегрировать ИИ в свои приложения. Для доступа к API нужно записаться на лист ожидания. OpenAI будет взимать около 3 центов за примерно 750 слов подсказок и 6 центов за примерно 750 слов ответа.

На следующей неделе выйдет GPT-4 — ИИ-модель с которой можно будет общаться текстом, картинками и видео

На следующей неделе OpenAI совместно с Microsoft представит большую языковую модель (LLM) нового поколения GPT-4 (Generative Pre-trained Transformer 4). Об этом сообщил технический директор немецкого подразделения Microsoft Андреас Браун (Andreas Braun). Как ожидается, GPT-4 будет значительно превосходить по функциональности предыдущую версию GPT-3.5, открывая новые возможности корпоративного использования генеративного ИИ.

 Источник изображения: Pixabay

Источник изображения: Pixabay

«Мы представим GPT-4 на следующей неделе, там у нас будут мультимодальные модели, которые предложат совершенно другие возможности — например, [генерацию] видео», — заявил Браун в ходе прошедшего в четверг мероприятия AI in Focus – Digital Kickoff. Он отметил, что использование больших языковых моделей привело к «изменению правил игры», поскольку они учат машины понимать естественный язык, что позволяет им понимать то, что ранее было доступно для понимания только человеку.

Технология вышла на новый уровень и «работает на всех языках»: можно задать вопрос на немецком и получить ответ на итальянском. Благодаря мультимодальности Microsoft (совместно с OpenAI) «сделает модели всеобъемлющими», отметил Браун.

Гендиректор Microsoft Germany Марианна Яник (Marianne Janik) пояснила, что внедрение ИИ вовсе не означает сокращение рабочих мест, речь идёт не о замене работников, а о выполнении повторяющихся задач по-другому. «Потребуется много специалистов», чтобы полноценно использовать ИИ, отметила Яник и предложила компаниям создавать внутренние «центры компетенций», где будут обучать сотрудников использованию ИИ и объединять идеи для проектов.

Яник также заявила о «демократизации» применения ИИ, имея в виду удобство использования моделей в семействе продуктов Microsoft, в частности их широкую доступность благодаря интеграции ИИ в платформу Azure, Outlook и Teams.

Преимущество мультимодального ИИ заключается в том, он может соответствующим образом переводить текст не только в изображения, но и в музыку и видео. Также самой нейросети можно будет в качестве запросов отправлять не только текст, но и аудио, картинки и видео. Если GPT-3.5 позволяет пользователям взаимодействовать посредством ввода текста, то GPT-4 с мультимодальными возможностями, в идеале может обеспечить возможность взаимодействовать в нескольких режимах, включая текст, изображения и звуки.

В ходе мероприятия AI in Focus специалисты компании привели примеры практического использования ИИ. По словам Хольгера Кенна (Holger Kenn) из Microsoft Germany, ответственный ИИ уже встроен в продукты Microsoft, и «миллионы запросов могут быть отображены в API» через облако. В свою очередь Клеменс Зиблер (Clemens Sieber) рассказал, что уже сейчас телефонные звонки с преобразованием речи в текст можно было бы записывать, и больше не пришлось бы вручную обобщать и вводить контент. По словам Зиблера, это позволило бы сэкономить 500 рабочих часов в день у крупного клиента Microsoft в Нидерландах, к которому поступает до 30 000 звонков в день.

Отвечая на вопрос об операционной надёжности и достоверности ответов ИИ, Зиблер сообщил, что они не всегда будут правильными, поэтому необходимо проводить валидацию, и что сейчас Microsoft работает над формированием системы показателей достоверности для решения этой проблемы. Он отметил, что текст, предложенный моделью, является генеративным, и поэтому его нелегко проверить. «Мы строим вокруг него петлю обратной связи с одобрением и неодобрением», — рассказал Зиблер.


window-new
Soft
Hard
Тренды 🔥