Сегодня 29 сентября 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → gpt-4
Быстрый переход

Новая ИИ-модель Claude 3 компании Anthropic превзошла аналоги Google и OpenAI

Компания Anthropic, основанная бывшими сотрудниками OpenAI, объявила о запуске нового поколения моделей искусственного интеллекта (ИИ) — Claude 3. Эти модели являются результатом кропотливой работы в области машинного обучения и представляют собой значительный прогресс по сравнению с их предшественниками и текущими аналогами от других разработчиков, включая OpenAI и Google.

 Источник изображений: Anthropic

Источник изображений: Anthropic

Claude 3 отличается мультимодальностью — способностью понимать и обрабатывать как текстовые, так и визуальные данные. Подобное расширение функциональности ИИ-модели делает её не только более гибкой в применении, но и открывает новые горизонты для её использования в различных сферах, от образования до медицины.

В семейство Claude 3 входят три модели: Haiku, Sonnet и Opus. Последняя является самой развитой моделью, которую компания описывает как самую интеллектуальную. В настоящее время модели Opus и Sonnet доступны пользователям через официальный сайт claude.ai и программный интерфейс (API). Модель Haiku, характеризующаяся высокой скоростью обработки данных при минимальных затратах, будет представлена публике в ближайшем будущем.

 Некорректные отказы в ответах у Claude 3 по сравнению с Claude 2.1.

Некорректные отказы в ответах у Claude 3 по сравнению с Claude 2.1.

Отметим, что из-за недостаточного контекстуального понимания предыдущие версии Claude иногда отказывались отвечать на некоторые запросы пользователей, даже если они были безвредными. Новые модели Claude 3 обладают улучшенной способностью к пониманию контекста и меньше склонны к отказам в ответах, что делает их более адаптивными и гибкими в работе.

Claude 3 демонстрирует выдающуюся способность менее чем за 3 секунды обрабатывать и анализировать сложные материалы, такие как научные статьи, включая тексты с диаграммами и графиками. Это ставит её в ряд самых быстрых и экономичных моделей на рынке.

 Модели Claude 3 в сравнении с GPT-4, GPT-3.5 и Gemini 1.0 Ultra / Pro

Модели Claude 3 в сравнении с GPT-4, GPT-3.5 и Gemini 1.0 Ultra / Pro

В ряде бенчмарков модель Opus показала лучшие результаты, чем аналоги компании OpenAI, особенно в задачах, требующих рассуждений уровня магистратуры, где она опередила GPT-4, показав результат 50,4 % против 35,7 % у GPT-4. Это подтверждает её высокие аналитические способности и глубину понимания материала.

Компания Anthropic провела обучение моделей Claude 3, используя смешанный набор данных, включая не только публично доступные источники, но и внутренние данные, что позволило добиться высокого качества обработки информации. Обучение моделей производилось на мощностях облачных сервисов Amazon AWS и Google Cloud, что подчёркивает масштаб и значимость проекта. Обе компании, Amazon и Google, инвестировали значительные средства в развитие Anthropic, что говорит о высокой оценке потенциала её новых ИИ-моделей.

OpenAI сделала нейросети GPT-4 Turbo прививку от лени

Компания OpenAI обновила большую языковую модель GPT-4 Turbo для более тщательного выполнения таких задач, как генерация программного кода, а также «уменьшения случаев "лени", когда модель отказывается выполнять задачу». Что именно было обновлено, разработчики не уточнили.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Не так давно часть пользователей ChatGPT обратила внимание на то, что чат-бот зачастую попросту отказывается выполнять поставленную задачу, что, вероятно, было связано с длительным отсутствием обновлений языковой модели. Нынешнее обновление распространяется только на самую мощную нейросеть компании GPT-4 Turbo, которая была обучена на данных до апреля 2023 года и в настоящее время доступна только в предварительной версии. Пользователи более широко распространённой модели GPT-4, которая обучена на данных до сентября 2021 года, всё ещё могут сталкиваться с проблемами, когда алгоритм отказывается выполнять задачу.

В сообщении OpenAI сказано, что более 70 % пользователей GPT-4, которые используют для взаимодействия с моделью API компании, перешли на GPT-4 Turbo из-за того, что алгоритм обучался на более свежих данных. Компания также планирует в ближайшие месяцы продолжить выпуск обновлений для GPT-4 Turbo, что позволит использовать больше мультимодальных подсказок при взаимодействии с алгоритмом. В дополнение к этому разработчики запустили две меньшие ИИ-модели, которые в компании называют моделями «вложения». Речь идёт о моделях text-embedding-3-small и text-embedding-3-large, которые уже доступны пользователям.

Microsoft открыла бесплатный доступ к мощнейшей нейросети GPT-4 Turbo через Bing Chat, но только избранным

Нейросеть GPT-4 Turbo доступна на платной основе по подписке ChatGPT Plus. Однако компания Microsoft предоставила возможность попробовать её функции совершенно бесплатно. Правда, для этого необходимо случайным образом оказаться в числе отобранных тестировщиков. В настоящий момент Microsoft тестирует интеграцию ChatGPT-4 Turbo, а также поддержку плагинов в своём собственном чат-боте Bing Chat (Microsoft Copilot).

 Источник изображений: Windows Latest

Источник изображений: Windows Latest

Microsoft также планирует обновить функцию Code Interpreter, чтобы привести её в соответствие с возможностями платформы OpenAI. Это означает, что Code Interpreter в Microsoft Copilot вскоре сможет отвечать на более сложные вопросы, связанные с программированием или обработкой данных.

GPT-4 Turbo — это новая модель ChatGPT от OpenAI, основанная на существующей модели GPT-4. Языковая модель обучена на общедоступной информации до апреля 2023 года, поэтому может более точно отвечать на вопросы пользователя о недавних событиях. GPT-4 доступен только для подписчиков тарифа Plus и не является бесплатным.

Со ссылкой на источники в Microsoft портал Windows Latest сообщает, что компания внедряет новейшую модель ChatGPT в свой Bing Chat. Правда, GPT-4 Turbo в этом случае используется не постоянно, а в зависимости от того или иного запроса, а также настроек плагинов. При использовании стандартных настроек Bing Chat может переключаться между своей актуальной ИИ-моделью и GPT-4 Turbo. Возможность протестировать GPT-4 Turbo в составе Bing Chat пока полностью зависит от удачи, поскольку функция доступна только тем, кто был отобран для её тестирования. Однако в Microsoft подтвердили, что планируют расширить развертывание в ближайшие недели.

Также стоит отметить, что при отборе тестировщиков Microsoft не отдает предпочтение конкретным учетным записям или регионам. Отбор происходит полностью случайным образом и работает по принципу A/B-тестирования. Узнать, получил ли пользователь доступ к GPT-4 Turbo в составе Bing Chat, можно несколькими способами. Самый простой — на ПК или ноутбуке зайти по ссылке Bing.com/chat в браузере, создать новую тему и посмотреть исходный код веб-страницы. Затем, используя функцию «Найти на странице» в браузере Edge или Chrome, необходимо через поиск найти dlgpt4t. Если в результате запроса в исходном коде веб-страницы будут обнаружены упоминания dlgpt4t, то это означает, что пользователь имеет доступ к GPT-4 Turbo.

На мобильных устройствах подтвердить своё право на бесплатное использование GPT-4 Turbo в рамках тестирования можно, загрузив в чат-бот Bing Chat какое-нибудь изображение (желательно абстрактное) и попросить ИИ-чат-бота описать эмоции, которые вызывает это изображение. В отличие от предыдущих моделей GPT новейшая модель GPT-4 Turbo в составе Bing Chat может распознавать эмоции и свободно о них говорить.

В Bing Chat также появились настройки плагинов. При желании через эту настройку можно отключить поиск через поисковую платформу Bing в рамках запроса для Bing Chat. При отключении плагина «Поиска в Bing» чат-бот Bing Chat не будет сканировать ссылки в Bing для поиска ответов на запрос. Вместо этого он будет полностью полагаться на свои собственные данные, полученные в ходе обучения.

 При отключённом поиске в Bing чат-бот Bing Chat может динамически переключаться на GPT-4, предоставляя более новую информацию

При отключённом поиске в Bing чат-бот Bing Chat может динамически переключаться на GPT-4, предоставляя более новую информацию

Способность Bing Chat отвечать на запросы, связанные с событиями в период с января по апрель 2023 года, также подтверждает, что для ответа на запросы используется модель GPT-4 Turbo.

Bing получил функцию «Глубокого поиска» — с ней ИИ расширяет запрос для улучшения выдачи

Компания Microsoft интегрирует в свой поисковик Bing новую ИИ-функцию, которая должна избавить пользователей от составления точных запросов. Функция на основе языковой модели GPT-4 называется «Глубокий поиск», а её предназначение заключается в расширении пользовательского запроса, за счёт чего поисковик сможет выдавать более релевантные результаты.

 Источник изображения: Microsoft

Источник изображения: Microsoft

В качестве примера работы «Глубокого поиска» Microsoft показала, как Bing превращает расплывчатый запрос «как работают системы начисления баллов в Японии» в более подробную инструкцию для поисковика. В результате из короткого запроса получилось следующее:

«Предоставить объяснение того, как работают разные программы карт лояльности в Японии, включая преимущества, требования и ограничения каждой из них. Включить примеры популярных карт лояльности из разных категорий, таких как магазины, супермаркеты и рестораны. Показать сравнение преимуществ и недостатков использования карт лояльности по сравнению с другими способами оплаты в Японии, включая текущие акции и льготы. Выделить наиболее популярные услуги и участвующих в них продавцов».

В дополнение к этому Bing может расширить этот поисковый запрос, включив в него описания миграционной политики и тарифов на общественный транспорт, поскольку GPT-4 пытается «найти все возможные цели» запроса. Какие бы темы не связал с запросом пользователя поисковик, все они будут отображаться на панели на странице поисковой выдачи. В дальнейшем пользователь может выбрать, какая из предложенных тем больше всего соответствует его запросу, после чего «Глубокий поиск» продолжит обрабатывать дынные, ранжируя выдачу «в зависимости от того, насколько хорошо результаты соответствуют подробному описанию».

По данным Microsoft, обработка запроса с помощью новой функции может занимать до 30 секунд. Если же пользователь не хочет ждать так долго, то он сможет отказаться от нововведения и продолжить взаимодействовать с обычным поиском Bing.

Microsoft переведёт ИИ-помощника Copilot на флагманскую нейросеть GPT-4 Turbo

Компания Microsoft анонсировала ряд нововведений, которые получит её ИИ-помощник Copilot. В скором времени Copilot получит поддержку флагманской нейросети GPT-4 Turbo, а также обновленную модель DALL-E 3. Также помощник получит интерпретатора программного кода, а поисковик Bing обзаведётся функцией «Глубокого поиска» на базе ИИ.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Скоро Copilot сможет отвечать на запросы, используя новейшую модель GPT-4 Turbo от OpenAI, что означает, что он сможет принять больше данных благодаря контекстному окну размером 128 тыс. символов. Увеличенное контекстное окно позволит Copilot лучше понимать запросы и предлагать более качественные ответы. «В настоящее время эта модель тестируется отдельными пользователями и будет интегрирована в Copilot в ближайшие недели», – сообщил Юсуф Медхи (Yusuf Medhi), директор по потребительскому маркетингу в Microsoft.

Пока пользователи дожидаются появления модели GPT-4 Turbo в Copilot, Microsoft уже задействовала модель DALL-E 3 в Bing Image Creator и Copilot. «Теперь вы можете использовать Copilot для создания изображений, которые будут ещё более высокого качества и более точно соответствовать запросам благодаря обновлённой модели DALL-E 3», – утверждает Медхи.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Microsoft Edge, в котором есть боковая панель Copilot, также получил возможность компоновки текста на веб-сайтах, чтобы переписывать предложения в режиме реального времени. Кроме того, теперь вы можете использовать Copilot в Microsoft Edge для конспектирования видеороликов, которые вы смотрите на YouTube.

Разработчиков же может заинтересовать новая функция интерпретатора кода, которая скоро появится в Copilot. Эта новая функция позволит пользователям Copilot получать от ИИ-чат-бота более точные расчеты, анализ данных и даже код. «Copilot будет писать код для ответа на сложные запросы на естественном языке, запускать его в изолированной среде и использовать результаты для получения более качественных ответов, – поясняют в Microsoft. – Вы также сможете загружать и скачивать файлы в Copilot и из него, чтобы работать с собственными данными и кодом, а также с результатами поиска Bing».

Что касается, собственно Bing, то Microsoft добавляет в него результаты так называемого «Глубокого поиска». «Deep Search использует возможности GPT-4 для предоставления оптимизированных результатов поиска по сложным темам, — поясняет Медхи. — Активация Deep Search расширяет поисковые запросы до более полных описаний, чтобы предоставить более релевантные результаты».

OpenAI запустит партнёрскую программу, призванную собирать уникальные данные от сторонних организаций для обучения ИИ

Компания OpenAI объявила о запуске новой партнёрской программы OpenAI Data Partnerships, целью которой является получение уникальных наборов данных от сторонних организаций для обучения своих ИИ-моделей. Эта инициатива направлена на привлечение обширных баз данных, в том числе тех, которых нет в свободном доступе. Отличительной чертой программы является её всеобъемлющий характер: данные не обязательно должны быть количественными или в текстовом формате — программа также открыта для изображений, аудио и видео.

 Источник изображения: Franz26 / Pixabay

Источник изображения: Franz26 / Pixabay

Собираемые данные могут охватывать любую тематику и быть представлены на любом языке, главное требование — они должны отражать человеческое намерение, быть похожими на длинные сочинения или тщательно расшифрованные диалоги. Это позволит OpenAI существенно улучшить такие инструменты, как технологии автоматического распознавания речи, и расширить функциональность ChatGPT, в том числе поддержку голосовых запросов, что сделает взаимодействие с пользователем более естественным.

Проведение тестирования модели в рамках OpenAI Data Partnerships в будущем расширит возможности флагманской нейросети GPT-4 Turbo, которая недавно была обновлена для более содержательных ответов пользователям. Компания сообщает, что уже начала работать с заинтересованными организациями, в том числе с правительством Исландии. С помощью специально подобранных наборов данных OpenAI стремится улучшить способность GPT-4 понимать запросы пользователей на исландском языке.

Частные или государственные организации, желающие участвовать в партнёрской программе OpenAI, могут подать заявку на сайте компании, указав тип и объём предоставляемых данных. Предлагаются два пути передачи данных: первый — это архив Open-Source, который идеально подходит для наборов данных, имеющих отношение к обучению языковых моделей. Однако данные, представленные таким образом, будут доступны всем желающим.

В качестве альтернативы OpenAI предлагает организациям предоставить информацию в виде частных данных, которые будут использованы в обучении собственных ИИ-моделей, включая базовые, точные и пользовательские модели. Этот вариант рекомендуется для компаний и учреждений, которые хотят сохранить конфиденциальность своих данных. OpenAI подчёркивает, что не заинтересована в данных, содержащих персональную или чувствительную информацию.

При реализации этой программы внимание общественности будет приковано к вопросам конфиденциальности, учитывая растущую аудиторию ChatGPT, которая насчитывает около 100 млн активных пользователей еженедельно. Прецеденты, такие как утечка данных, допущенная сотрудниками Samsung, показывают важность обеспечения безопасности информации.

OpenAI заверяет, что не использует генерируемые через свой API данные для обучения собственных ИИ-моделей без явного согласия пользователей. Однако методы обработки и защиты конфиденциальных данных, собранных в рамках партнёрской программы OpenAI Data Partnerships, будут тщательно анализироваться как специалистами, так и широкой общественностью.

OpenAI представила флагманскую нейросеть GPT-4 Turbo — мощнее и в разы дешевле GPT-4

Сегодня на своей первой конференции для разработчиков компания OpenAI представила GPT-4 Turbo — улучшенную версию своей флагманской большой языковой модели. Разработчики из OpenAI отмечают, что новая GPT-4 Turbo стала мощнее и в то же время дешевле, чем GPT-4.

 Источник изображения: CNET

Источник изображения: CNET

Языковая модель GPT-4 Turbo будет предлагаться в двух версиях: одна предназначена исключительно для анализа текста, вторая понимает контекст не только текста, но и изображений. Модель анализа текста доступна в виде предварительной версии через API, начиная с сегодняшнего дня. Обе версии нейросети компания пообещала сделать общедоступными «в ближайшие недели».

Стоимость использования GPT-4 Turbo составляет 0,01 доллара за 1000 входных токенов (около 750 слов) и 0,03 доллара за 1000 выходных токенов. Под входными токенами понимаются фрагменты необработанного текста. Например, слово «fantastic» разделяется на токены «fan», «tas» и «tic». Выходные токены, в свою очередь, это токены, которые модель генерирует на основе входных токенов. Цена на GPT-4 Turbo для обработки изображений будет зависеть от размера изображения. Например, обработка изображения размером 1080 × 1080 пикселей в GPT-4 Turbo будет стоить 0,00765 доллара.

«Мы оптимизировали производительность, поэтому можем предлагать GPT-4 Turbo по цене в три раза дешевле для входных токенов и в два раза дешевле для выходных токенов по сравнению с GPT-4», — сообщила OpenAI в своём блоге.

Для GPT-4 Turbo обновили базу знаний, которая используется при ответе на запросы. Языковая модель GPT-4 обучалась на веб-данных до сентября 2021 года. Предел знаний GPT-4 Turbo — апрель 2023 года. Иными словами, на запросы, имеющие отношение к последним событиям (до апреля 2023 года), нейросеть будет давать более точные ответы. На основе множества примеров из интернета GPT-4 Turbo обучилась прогнозировать вероятность появления тех или иных слов на основе шаблонов, включая семантический контекст окружающего текста. Например, если типичное электронное письмо заканчивается фрагментом «С нетерпением жду…», GPT-4 Turbo может завершить его словами «… вашего ответа».

Вместе с этим модель GPT-4 Turbo получила расширенное контекстное окно (количество текста, учитываемое в процессе генерации). Увеличение контекстного окна позволяет модели лучше понимать смысл запросов и выдавать более подходящие им ответы, не отклоняясь от темы. Модель GPT-4 Turbo имеет контекстное окно в 128 тыс. токенов, что в четыре раза больше, чем у GPT-4. Это самое большое контекстное окно среди всех коммерчески доступных моделей ИИ. Оно превосходит контекстное окно модели Claude 2 от Anthropic, которая поддерживает до 100 тыс. токенов. Anthropic утверждает, что экспериментирует с контекстным окном на 200 тыс. токенов, но ещё не внесла эти изменения в открытый доступ. Контекстное окно в 128 тыс. токенов соответствует примерно 100 тыс. словам или 300 страницам текста, что равносильно размеру романов «Грозовой перевал» Эмили Бронте, «Путешествия Гулливера» Джонатана Свифта или «Гарри Поттер и узник Азкабана» Джоан Роулинг.

Модель GPT-4 Turbo способна генерировать действительный JSON-формат. По словам OpenAI, это удобно для веб-приложений, передающих данные, например для тех, которые отправляют данные с сервера клиенту, чтобы их можно было отобразить на веб-странице. GPT-4 Turbo в целом получила более гибкие настройки, которые окажутся полезными разработчикам. Более подробно об этом можно узнать в блоге OpenAI.

«GPT-4 Turbo работает лучше, чем наши предыдущие модели, при выполнении задач, требующих тщательного следования инструкциям, таких как генерация определённых форматов (например, “всегда отвечать в XML”). Кроме того, GPT-4 Turbo с большей вероятностью вернёт правильные параметры функции», — сообщает компания.

Также GPT-4 Turbo может быть интегрирован с DALL-E 3, функциями перевода текста в речь и зрительным восприятием, расширяя возможности использования ИИ.

OpenAI также объявила, что будет предоставлять гарантии защиты авторских прав для корпоративных пользователей через программу Copyright Shield. «Мы теперь будем защищать наших клиентов и оплачивать понесённые расходы, если они столкнутся с юридическими претензиями о нарушении авторских прав», — заявила компания в своём блоге. Ранее то же самое сделали Microsoft и Google для пользователей их ИИ-моделей. Copyright Shield будет покрывать общедоступные функции ChatGPT Enterprise и платформы для разработчиков OpenAI.

Для GPT-4 компания запустила программу тонкой настройки, предоставляя разработчикам еще больше инструментов для кастомизации ИИ под определённые задачи. По словам компании, в отличие от программы тонкой настройки GPT-3.5, предшественника GPT-4, программа тонкой настройки GPT-4 потребует большего контроля и руководства со стороны OpenAI, в основном из-за технических препятствий.

Компания также удвоила лимит скорости ввода и вывода токенов в минуту для всех платных пользователей GPT-4. При этом цена осталась прежней: 0,03 доллара за входной токен и 0,06 доллара за выходной токен (для модели GPT-4 с контекстным окном на 8000 токенов) или 0,06 доллара за входной токен и 0,012 доллара за выходной токен (для модели GPT-4 с контекстным окном на 32 000 токенов).

ChatGPT Plus получил поддержку файлов разных форматов и научился сам выбирать режимы работы

OpenAI внедрила новые бета-функции для подписчиков сервиса ChatGPT Plus. Среди ключевых нововведений — возможность загрузки и анализа файлов различных форматов, а также мультимодальная поддержка. Теперь система самостоятельно определяет, какой режим работы чат-бота является наиболее подходящим для пользователя, исходя из контекста диалога. Эти инновации делают индивидуальную подписку ChatGPT Plus функционально схожей с корпоративным планом ChatGPT Enterprise.

 Источник изображения: ilgmyzin / unsplash.com

Источник изображения: ilgmyzin / unsplash.com

Как было отмечено выше, обновление включает в себя возможность загрузки и обработки файлов. После передачи файла в ChatGPT чат-боту требуется несколько мгновений, чтобы обработать его, а затем он может выполнять такие действия, как обобщение данных, ответы на вопросы или создание визуализации данных на основе подсказок.

Это касается не только текстовых документов, но и графических изображений. В сети Threads опубликован пример, в котором пользователь загрузил фотографию капибары и попросил ChatGPT создать на её основе изображение в стиле Pixar с использованием технологии DALL-E 3.

 Источник изображения: luokai / Threads

Источник изображения: luokai / Threads

Другой важной особенностью является мультимодальная поддержка. Теперь пользователям не нужно вручную выбирать режимы работы из выпадающего списка GPT-4. Чат-бот, опираясь на контекст общения с пользователем, самостоятельно угадывает потребности пользователя. Это значительно упрощает работу с ИИ и делает использование сервиса более интуитивным.

 Источник изображения: luokai / Threads

Источник изображения: luokai / Threads

Перечисленные функции, как отмечается, приближают стандартную индивидуальную подписку ChatGPT Plus к функциональности корпоративного плана ChatGPT Enterprise. В последнем, например, уже доступны функции для расширенного анализа данных и работы с большими объёмами информации.

Нововведения ChatGPT Plus являются значимым шагом в улучшении пользовательского опыта и расширении функциональных возможностей сервиса. Перечисленные изменения не только делают использование чат-бота более удобным и эффективным, но и открывают новые горизонты для применения ИИ в повседневной жизни и бизнес-процессах. С учётом быстрого темпа развития технологий можно ожидать, что в ближайшем будущем нас ждут ещё более радикальные и интересные изменения в этой сфере.

OpenAI открыла доступ к API языковой модели GPT-4 — самой продвинутой в своём арсенале

OpenAI открыла доступ к GPT-4, своей наиболее продвинутой языковой модели ИИ, через облачный API. Вместе с этим компания предоставила сторонним разработчикам доступ к API трёх других своих моделей ИИ. Кроме того, OpenAI объявила о своих планах постепенно отказаться от ряда более ранних нейронных сетей.

 Источник изображения: OpenAI

Источник изображения: OpenAI

OpenAI представила GPT-4 в марте как преемника GPT-3, ИИ-модели, которая за три года до этого привлекла к компании внимание всей отрасли. GPT-4 более эффективно интерпретирует инструкции пользователя, может принимать изображения в качестве входных данных и обладает расширенными возможностями обработки поставленных задач. Последние усовершенствования позволяют модели легче выполнять сложные запросы пользователей, например, решать математические задачи.

API GPT-4 позволяет разработчикам интегрировать модель в свои приложения. Сервис теперь доступен для всех клиентов, которые ранее приобрели доступ к API. Компания откроет доступ для новых разработчиков позднее в этом месяце. В дальнейшем OpenAI намерена увеличить лимиты использования API. В долгосрочные планы компании входит запуск так называемой возможности тонкой настройки, которая позволит разработчикам повысить точность GPT-4 путём обучения на пользовательских наборах данных.

Вместе с API GPT-4 был открыт доступ к программному интерфейсу трёх других моделей. Первая из них — GPT-3.5 Turbo, предшественница GPT-4, которая предлагает более ограниченные возможности за значительно меньшую стоимость. OpenAI также открыла доступ к API своих моделей DALL-E и Whisper. Последние две нейронные сети оптимизированы для генерации изображений и транскрибирования речи соответственно.

В связи с этим событием OpenAI также объявила о планах прекратить работу ряда ранних языковых моделей, доступных через API. Они будут отключены 4 января 2024 года. Некоторые из затронутых моделей будут автоматически обновлены до более новых продуктов OpenAI, в то время как другие потребуют от разработчиков ручного перехода.

Изменения частично связаны с обновлением API. Многие из моделей, которые будут постепенно отменены, используют прикладной интерфейс программирования, который OpenAI называет Completions API. Первоначально он стал доступен в 2020 году. Например, энтузиасту, чтобы подключиться к Chat Completion API и запустить ChatGPT на 39-летнем компьютере IBM , пришлось вручную написать весь запрос POST на языке C. В марте этого года OpenAI представила новый интерфейс под названием Chat Completions API, который станет основным направлением дальнейшей разработки.

«Первоначально Completions API был представлен в июне 2020 года, чтобы обеспечить текстовую подсказку свободной формы для взаимодействия с нашими языковыми моделями. С тех пор мы поняли, что часто можем обеспечить лучшие результаты с помощью более структурированного интерфейса подсказок», — сообщает OpenAI в своём блоге.

Новый API Chat Completions вносит несколько улучшений. В первую очередь, он обеспечивает защиту от атак с внедрением подсказок, которые представляют собой попытки хакеров изменить вывод модели ИИ с помощью вредоносных инструкций. Это усовершенствование должно помочь разработчикам повысить безопасность своих приложений на базе OpenAI.

Продвинутые инструменты OpenAI и их растущая доступность открывают новые возможности для разработчиков и исследователей по всему миру. Однако как и с любыми новыми технологиями, важно использовать их ответственно и с учётом возможных рисков. OpenAI продолжает работать над улучшением своих моделей и сервисов, стремясь обеспечить безопасность и эффективность их использования.

На OpenAI подали в суд за незаконное использование литературных произведений для обучения нейросетей

На OpenAI снова подали в суд за использование произведений для обучения ИИ. Два известных писателя подали иск против компании, которая стоит за ChatGPT и Bing Chat, в нарушении авторских прав. По их мнению, OpenAI использовала их произведения в качестве обучающих данных. Это, по всей видимости, первый поданный иск об использовании текста (в отличие от изображений или кода) в качестве обучающих данных.

В поданном в окружной суд Северного округа Калифорнии иске истцы Пол Тремблей (Paul Tremblay) и Мона Авад (Mona Awad) утверждают, что OpenAI и её дочерние компании нарушили авторские права, нарушили Закон об авторском праве в цифровую эпоху (DMCA), а также нарушили калифорнийские и общие законодательные ограничения на недобросовестную конкуренцию.

Писатели представлены юридической фирмой Джозефа Савери (Joseph Saveri) и Мэттью Баттерика (Matthew Butterick), той же командой, которая стоит за недавними исками, поданными против Stable Diffusion AI и GitHub. В жалобе утверждается, что роман Тремблея «Хижина на краю света» и два романа Авад: «13 способов посмотреть на толстую девушку» и «Зайка» использовались в качестве обучающих данных для GPT-3.5 и GPT-4. Хотя OpenAI не раскрывала, что эти романы находятся в её обучающих данных (которые держатся в секрете), истцы делают вывод, что они должны быть там, поскольку ChatGPT смог предоставить подробные резюме сюжетов и ответить на вопросы о книгах, что потребовало бы доступа к их текстам.

«Поскольку языковые модели OpenAI не могут функционировать без выразительной информации, извлечённой из произведений истцов (и других лиц) и сохранённой в них, языковые модели OpenAI сами являются нарушающими авторские права производными произведениями, созданными без разрешения истцов и в нарушение их исключительных прав по Закону об авторском праве», — говорится в жалобе.

Все три книги содержат информацию о защите авторских прав (CMI), такую как ISBN и номера регистрации авторских прав. Закон об авторском праве в цифровую эпоху (DMCA) утверждает, что удаление или фальсификация CMI является незаконной, и поскольку ответы ChatGPT не содержат этой информации, истцы утверждают, что OpenAI виновна в нарушении этого закона, помимо факта нарушения авторских прав.

Хотя в настоящее время в иске участвуют только два истца, адвокаты намерены сделать иск коллективным, что позволило бы другим авторам, чьи авторские произведения использовались OpenAI, также получить компенсацию. Адвокаты требуют денежных возмещений, судебных издержек и судебного запрета, принуждающего OpenAI изменить своё программное обеспечение и деловые практики в отношении авторских материалов. На сайте юридической фирмы LLM Litigation подробно изложена позиция истцов и причины подачи иска. «Мы подали коллективный иск против OpenAI, обвиняя ChatGPT и его базовые большие языковые модели, GPT-3.5 и GPT-4, в том, что они перерабатывают авторские произведения тысяч писателей — и многих других — без согласия, компенсации или признания», — сообщают адвокаты.

Они также критикуют концепцию генеративного ИИ, утверждая: «Генеративный искусственный интеллект — это просто человеческий интеллект, переупакованный и проданный как новый продукт. Это не новый вид интеллекта. Это просто новый способ использования чужого интеллекта без разрешения или компенсации». Они отмечают, что, хотя OpenAI заявляет, что не знает, какие именно книги использовались для обучения ИИ, это не имеет значения, поскольку: «OpenAI знает, что она использовала множество книг, и она знает, что она не получила разрешения от их авторов».

Это не первый случай, когда OpenAI сталкивается с подобными обвинениями. Однако новый иск, станет первым, затрагивающим использование текстовых данных, и он может создать прецедент для будущих судебных дел о нарушении авторских прав в области ИИ.

OpenAI обновила GPT-3.5-turbo и GPT-4 новыми функциями и снизила стоимость их использования

По мере роста конкуренции в сфере генеративных нейросетей один из лидеров направления в лице OpenAI представил обновлённые версии алгоритмов генерации текста, а также снизил стоимость их использования. Компания выпустила обновлённые версии языковых моделей GPT-3.5-turbo и GPT-4, которые обеспечат ещё больше возможностей для создания контента по сравнению с предыдущими версиями языковых моделей стартапа.

 Источник изображения: Pixabay

Источник изображения: Pixabay

Одним из любопытных нововведений стало появление инструмента, позволяющего разработчикам описывать программные функции естественным языком и получать полноценный код для их выполнения. Например, данный инструмент подходит для создания чат-ботов, которые отвечают на вопросы, вызывая внешние инструменты, преобразовывая естественный язык в запросы к базам данных и извлекая структурированные данные из текста. Обе модели способны определять, когда функция должна быть вызвана и отвечать в формате JSON, который соответствует сигнатуре функции. Это нововведение также позволит разработчикам получать более точные и структурированные данные.

Вместе с этим модель GPR-3.5-turbo получила расширенное контекстное окно (количество текста, учитываемое в процессе генерации). Увеличение контекстного окна позволяет модели лучше понимать смысл запросов и выдавать более соответствующие им ответы, не отклоняясь от темы. Модель GPR-3.5-turbo имеет контекстное окно в 16 тыс. токенов, что в четыре раза больше по сравнению с аналогичным показателем GPT-3.5. Также было объявлено, что в настоящее время OpenAI тестирует модель GPT-4 с контекстным окном в 32 тыс. токенов.

Стоимость использования стандартной версии GPT-3.5-turbo (без расширенного контекстного окна) снижена на 25 % до $0,0015 за 1 тыс. входных токенов и $0,002 за 1 тыс. выходных токенов, что соответствует примерно 700 страницам текста за $1. Стоимость использования модели text-embedding-ada-002, которая позволяет измерить сходство текстов, снижена на 75 % до $0,0001 за 1 тыс. токенов.

Microsoft предложила GPT-модели компании OpenAI государственным органам США

Компания Microsoft предложила большие языковые модели (LLM), разработанные компанией OpenAI, федеральным ведомствам США, пользующимся облачными сервисами Azure. Об этом компания объявила в официальном блоге.

 Источник изображения: Josh Riemer/unsplash.com

Источник изображения: Josh Riemer/unsplash.com

Как сообщает Reuters, Microsoft добавила в облаке Azure Government поддержку как GPT-3, так и новейших и сложнейших вариантов LLM, стоящих за мультимодальной моделью GPT-4.

Бум использования LLM наблюдается с тех пор, как компания OpenAI, поддерживаемая Microsoft и во многом находящаяся под контролем последней, представила вариант ChatGPT с невиданными ранее характеристиками «общительности» — чат-бот способен поддерживать вполне «осмысленный» диалог, и теперь бизнесы всех размеров — от стартапов до крупных корпораций — пытаются представить сопоставимые решения и схожие функции в своих сервисах.

Microsoft впервые предоставляет GPT-технологии в облаке Azure Government, обеспечивающем сервисы многим государственным ведомствам Соединённых штатов — это первая известная попытка крупных компаний предоставить услугу подобного рода государственным структурам.

Впрочем, Microsoft уже предлагает подобную функциональность коммерческим пользователям Azure, обеспечивая доступ к Azure OpenAI Services. По данным на май 2023 года, имелось уже 4,5 тыс. клиентов.

В Microsoft заявили, что государственные клиенты могут давать ИИ различные задачи, включая генерацию контента, преобразование текстовых команд в программный код или, например, составление резюме объёмных материалов.

Стоит отметить, что сервисы на основе LLM до сих пор могут страдать от «галлюцинаций» и давать откровенно неверные ответы, а эксперты и лидеры отрасли неоднократно предупреждали об опасности ИИ и необходимости регулирования подобных разработок и решений и даже назвали свои продукты угрозой, сравнимой с пандемией и ядерной войной.

OpenAI пригрозила судом популярному проекту GPT4free из-за бесплатного использования GPT4 обходными путями

Для доступа к новейшей языковой модели GPT4 необходимо или оформить платную подписку ChatGPT Plus, либо заплатить за доступ к API OpenAI. Но есть и проект ресурса GitHub под названием GPT4free, который предоставит доступ к моделям GPT4 и GPT3.5 без надобности платить за API. Xtekky, студент-компьютерщик, который управляет репозиторием, сообщил, что получил письмо OpenAI с требованием закрыть проект в течение 5 дней под угрозой судебного разбирательства.

 Источник изображения: Andrew Neel/unsplash.com

Источник изображения: Andrew Neel/unsplash.com

GPT4free позволяет пользователям получить бесплатный доступ к моделям GPT4 и GPT3.5, направляя эти запросы через такие сайты, как You.com, Quora и CoCalc, и предоставляя ответы. Проект стал самым популярным новым репозиторием GitHub, собрав на минувшей неделе 14 тыс. звёзд.

Xtekky сообщил ресурсу Tom’s Hardware, что не думает, что OpenAI должна была выставлять требования к нему, поскольку GPT4free не подключается напрямую к её API, а вместо этого получает данные с других сайтов, которые оплачивают собственные лицензии на доступ к GPT. Если у владельцев этих сайтов возникли проблемы с его скриптами, запрашивающими их, они должны обратиться к нему напрямую, заявил автор проекта.

Помимо You.com, Quora и CoCalc, в репозитории GPT4Free также есть скрипты для сбора данных с других сайтов, таких как Forefront и TheB. Любой разработчик может использовать эти простые скрипты для создания собственного бота. Все сайты, с которыми работает GPT4Free, платят лицензию OpenAI за использование его больших языковых моделей (LLM).

Xtekky сказал, что готов удалять сценарии, использующие API отдельных сайтов, по запросу владельцев этих сайтов, добавив, что уже удалил скрипты, использующие phind.com, ora.sh и writesonic.com. Он отметил, любой из этих сайтов может блокировать внешнее использование своих внутренних API с помощью общих мер безопасности, например блокировать обращения к API с чужих IP-адресов.

Xtekky заявил, что не считает себя ответственным за то, как другие используют его проект, и что OpenAI не должна преследовать его за использование API других сайтов, которые находятся в открытом доступе. Он также сообщил, что пока не решил, удалять ли свой GitHub-репозиторий, и обратился к юристам за консультацией. Разработчик подчеркнул, что любой может найти способы использовать API вышеуказанных сайтов, поскольку они по-прежнему не защищены.

Уязвимость в GPT-4 открыла неограниченный бесплатный доступ к нейросети

Разработчик под ником xtekky представил проект GPT4Free — набор инструментов, предоставляющих бесплатный и почти неограниченный доступ к чат-боту на базе GPT-4 и его предшественнику GPT-3.5. Эксплойт был разработан методом обратного проектирования, которое помогло обнаружить уязвимость в API нейросети.

 Источник изображения: D koi / unsplash.com

Источник изображения: D koi / unsplash.com

Базовый тариф GPT-4 составляет $0,03 за 1000 токенов «подсказок» (примерно 750 слов) и $0,06 за 1000 токенов «завершения» (также около 750 слов). Доступ к GPT-3.5 обходится дешевле — $0,002 за 1000 токенов. Эксплойт GPT4Free не обходит механизмы платного доступа к платформе OpenAI, а «обманывает» API, заставляя платформу считать, что запросы поступают от ресурсов, к которым привязаны платные учётные записи: поисковой системы You.com, платформы для написания текстов WriteSonic и чат-бота Quora Poe.

В свою защиту разработчик заявляет, что GPT4Free предназначен для работы только в «образовательных целях». Он также заявил, что будет пытаться продолжить работу над проектом, даже если его попробуют засудить. По всей вероятности, оказавшиеся жертвами GPT4Free ресурсы в обозримом будущем ликвидируют бреши безопасности и закроют доступ для инструмента — исходный код проекта может удалить и GitHub, но это только подстегнёт его последователей.

Доступ к нейросети GPT-4 пока ограничен, и это затрудняет возможность её испытать для всех любопытствующих. Эксперты называют её одной из наименее прозрачных разработок OpenAI, и компания до сих пор не сообщила, когда платформа появится в открытом доступе. Не исключено, что впоследствии OpenAI придётся активно отбиваться от «пиратских» попыток добраться до ресурсов нейросети.

OpenAI приостановила обучение ИИ-модели GPT-5 и занялась «другими вещами»

При обсуждении потенциальных угроз, исходящих от систем на базе алгоритмов искусственного интеллекта (ИИ), гендиректор и соучредитель OpenAI Сэм Альтман (Sam Altman) заявил, что компания в настоящее время не занимается обучением ИИ-модели GPT-5, которая, как предполагается, должна прийти на смену представленной в марте GPT-4.

 Источник изображения: Andrew Neel / unsplash.com

Источник изображения: Andrew Neel / unsplash.com

В ходе выступления в Массачусетском технологическом институте Альтману поступил вопрос о недавнем открытом письме, подписанном видными членами технологического сообщества. В документе содержится призыв к специализирующимся на ИИ компаниям, в том числе OpenAI, приостановить обучение платформ «мощнее GPT-4». Подписавшие письмо выразили опасения по поводу безопасности будущих систем, но эксперты разошлись во мнениях относительно характера потенциальной угрозы, исходящей от ИИ, и вообще возможности «приостановить» развитие отрасли.

Отвечая на вопрос, Альтман отметил, что в открытом письме «отсутствует большинство технических нюансов по поводу того, где нам нужно сделать паузу». А по поводу обучения GPT-5 он сообщил, что компания сейчас этого не делает и в течение какого-то времени не будет. Приостановка работы над GPT-5 не означает, что компания прекратила совершенствовать GPT-4. «Помимо GPT-4 мы занимаемся и другими вещами, которые, как мне кажется, касаются вопросов безопасности, которые важно решить, и о которых в письме совершенно не говорится», — добавил глава OpenAI.


window-new
Soft
Hard
Тренды 🔥
Рождение экосистемы: Intel объявила о доступности ИИ-ускорителей Gaudi3 и решений на их основе 3 ч.
Индия запустила сразу пять суперкомпьютеров за два дня 4 ч.
Корабль SpaceX Dragon Crew-9 с россиянином и американцем отправился на МКС 6 ч.
Министр энергетики США не против иностранных инвестиций в ИИ ЦОД 7 ч.
Google представила технологию проектирования микросхем AlphaChip с помощью ИИ 8 ч.
Xiaomi представила внешний аккумулятор Power Bank 25000 с выходной мощностью до 212 Вт 11 ч.
В Швейцарии придумали роборуку, которая может отсоединяться от манипулятора и самостоятельно ползать 11 ч.
Мировой облачный рынок стремительно растёт: затраты в сегменте ЦОД за полгода подскочили почти на треть 13 ч.
В Ирландии построят первое в Европе хранилище энергии на батареях с обратимой коррозией металла 13 ч.
В Китае впервые представили лунный скафандр — мощный и элегантный 16 ч.