Опрос
|
реклама
Быстрый переход
Соучредитель OpenAI Джон Шульман перешёл в Anthropic, а президент Грег Брокман взял длительный отпуск
06.08.2024 [11:20],
Павел Котов
Сооснователь OpenAI Джон Шульман (John Schulman) объявил о переходе в конкурирующую компанию Anthropic, а президент Грег Брокман (Greg Brockman) решил взять длительный отпуск, чтобы «отдохнуть и зарядиться» — он продлится до конца года. Некоторое время назад компанию также покинул менеджер по продуктам Питер Денг (Peter Deng) — он начал работать в OpenAI в прошлом году, а до того занимал аналогичные должности в Meta✴, Uber и Airtable. «Мы признательны за вклад Джона как члена команды основателей OpenAI и его ревностные усилия в развитии технологий согласования. Его страсть и упорный труд заложили прочную основу, которая будет вдохновлять и поддерживать будущие инновации в OpenAI и более широкой области», — приводит TechCrunch комментарий представителя OpenAI по поводу уходу Шульмана. Сам Шульман пояснил своё решение желанием вплотную заняться согласованием ИИ — разработкой мер, направленных на то, чтобы ИИ вёл себя, как задумано, — и переключиться на практическую техническую работу. «Я решил заняться этим в Anthropic, где, как считаю, могу получить новые перспективы и проводить исследования вместе с людьми, глубоко вовлечёнными в темы, которые меня интересуют больше всего. Уверен, что OpenAI и отделы, в которых я работал, продолжат процветать и без меня», — пояснил инженер. Шульман начал работать в OpenAI вскоре после получения докторской степени по электротехнике и компьютерным наукам в Калифорнийском университете в Беркли. Он сыграл ключевую роль в разработке ChatGPT, возглавив отдел OpenAI по обучению с подкреплением — настройке моделей генеративного ИИ для выполнения пользовательских запросов. После ухода специалиста по безопасности ИИ Яна Лейке (Jan Leike), который сейчас также работает в Anthropic, Шульман возглавил научный отдел по согласованию ИИ — и пока неясно, кто заменит его на этой должности. Есть мнение, что OpenAI пренебрегает мерами безопасности в отношении ИИ, но Шульман выдвигать обвинений не стал. «Руководство компании было очень привержено вложениям [в разработку технологий согласования ИИ]. Моё решение — личное, основанное на том, чем я хочу заниматься на новом этапе своей карьеры», — заявил он. Теперь в OpenAI остались лишь три человека, стоявшие у истоков компании: гендиректор Сэм Альтман (Sam Altman), Грег Брокман и Войцех Заремба (Wojciech Zaremba) — глава подразделения по генерации языка и кода. «Спасибо за всё, что ты сделал для OpenAI! Ты блестящий учёный, глубокий мыслитель о продуктах и обществе и, самое главное, большой друг для всех нас. Будем очень скучать по тебе, а ты будешь этим местом гордиться», — обратился к Шульману Сэм Альтман. Anthropic научила ИИ улучшать запросы к самому себе
10.07.2024 [14:23],
Павел Котов
В минувшем году одной из популярных новых профессий в области искусственного интеллекта стала должность инженера по составлению запросов к моделям ИИ. Теперь компания Anthropic решила автоматизировать эту задачу, поручив её самому ИИ. Большие языковые модели во многих случаях дают адекватные ответы даже на непрофессиональные запросы пользователей, но иногда даже небольшое изменение формулировки способно значительно повысить его качество. Обычно для этого приходится самостоятельно перебирать различные формулировки или прибегать к услугам инженера, но предложенная Anthropic новая функция способна упростить задачу. В панели управления Anthropic Console, предназначенной для разработки сторонних приложений на базе модели ИИ Claude, появилась новая вкладка Evaluate, связанная со встроенным генератором запросов. Этот генератор получает на вводе краткое описание запроса и генерирует на его основе гораздо более длинный и конкретный. Едва ли данный инструмент оставит инженеров без работы, но он может сэкономить им время и помочь рядовым пользователям. В разделе Evaluate разработчики сторонних приложений могут проверить, насколько эффективны генерируемые их приложениями подсказки в различных сценариях. Можно, например, загрузить действительный пример в тестовый набор или попросить Claude сгенерировать такие тестовые запросы самостоятельно, чтобы сравнить их эффективность и оценить ответы по пятибалльной шкале. В приведённом Anthropic примере разработчик установил, что его приложение выдаёт в нескольких тестовых случаях слишком короткие ответы — одна из строк в запросе помогла сделать их длиннее, после чего эту схему применили ко всем тестовым сценариям. Ранее соучредитель и гендиректор Anthropic Дарио Амодеи (Dario Amodei) отметил, что составление запроса является одним из важнейших аспектов для широкого внедрения генеративного ИИ. «Кажется, что это просто, но за 30 минут инженер по запросам часто может заставить приложение работать, если раньше оно не работало», — заявил Амодеи. Anthropic выпустила мощную ИИ-модель Claude 3.5 Sonnet — она доступна бесплатно и во многом лучше GPT-4o
20.06.2024 [21:14],
Анжелла Марина
Компания Anthropic, разработчик больших языковых моделей и ИИ-чат-бота Claude, анонсировал и сразу же запустил новую большую языковую модель Claude 3.5 Sonnet. По заявлению компании, эта нейросеть может сравниться или даже превзойти по возможностям GPT-4o от OpenAI и Gemini от Google. Новинка, как и её предшественница Claude 3 Sonnet, доступна как платным, так и бесплатным пользователям чат-бота Claude. Как пишет The Verge, Claude 3.5 Sonnet является улучшенной версией предыдущей модели Claude 3 Opus, выпущенной всего несколько месяцев назад и прежде доступной лишь платным подписчикам Claude. Новая модель работает в два раза быстрее и показывает значительно лучшие результаты в различных задачах, включая написание программного кода, работу с большими запросами, интерпретацию диаграмм и графиков. Новая нейросеть теперь является стандартной для чат-бота Claude и доступна как платным, так и бесплатным пользователям. Фактически, это ответ на GPT-4o, на которой сейчас построен ChatGPT, в том числе в бесплатной версии. Согласно результатам тестирования, проведённого Anthropic, Claude 3.5 Sonnet превзошла модели GPT-4o, Gemini 1.5 Pro и Llama 3 400B от Meta✴ в 7 из 9 общих тестов производительности. В задачах распознавания изображений новая модель Anthropic также показала лучшие результаты. Помимо новой модели, в приложение Claude была добавлена функция Artifacts. Она позволяет пользователям видеть и редактировать результаты запросов к ИИ прямо в интерфейсе приложения. Например, если Claude сгенерирует текст электронного письма, пользователь сможет отредактировать его, не копируя и не вставляя в другую программу. По словам разработчиков, функция Artifacts — это часть их стремления превратить Claude в единую платформу для хранения знаний и выполнения рабочих задач с использованием возможностей ИИ. Это отличает подход Anthropic от других компаний, сосредоточенных в основном на развитии чат-ботов. Как видно, конкурентная гонка в области ИИ продолжается. За последние месяцы как Anthropic, так и её основные конкуренты — OpenAI и Google — несколько раз выпускали улучшенные версии своих моделей. При этом каждый новый релиз демонстрирует значительный прогресс. Новая модель уже доступна зарегистрированным пользователям Claude в web и на iOS, а также для разработчиков. Anthropic позволит создавать персональных помощников на базе ИИ-чат-бота Claude
01.06.2024 [11:56],
Владимир Фетисов
Компания Anthropic расширяет возможности своего чат-бота Claude, построенного на основе генеративной нейросети. Теперь любой пользователь сможет создать для себя персонализированного помощника, например, для обработки электронной почты, совершения покупок в интернете или чего-то иного. Нововведение называется «использование инструментов» или «вызов функций» и его можно подключить к любому внешнему API по выбору пользователя. Такой подход позволит создать персонализированного помощника, который будет, например, анализировать данные для создания персонализированных рекомендаций по продуктам, основываясь на истории покупок пользователя. Он также может быть полезен для генерации быстрых ответов на вопросы клиентов, например, при отслеживании статуса заказа или предоставления информации в качестве инструмента технической поддержки. Для создания такого помощника потребуется доступ к API и умение программировать. Новая функция может обрабатывать изображения, позволяя приложениям анализировать визуальные данные. К примеру, персональный помощник для дизайнера интерьеров может задействовать нейросеть для обработки снимков помещения и генерации индивидуальных предложений по его оформлению. Взаимодействовать с новым инструментом можно будет через Messages API от Anthropic, а также на платформах Amazon Bedrock и Google Vertex AI. Стоимость использования основана на объёме текстовых запросов к нейросетям Claude, измеряемом в токенах. Обычно 1000 токенов соответствует примерно 750 словам. На этапе бета-тестирования самым быстрым и доступным вариантом стала модель Haiku: $0,25 за миллион введённых токенов и $1,25 за миллион токенов на выходе. Тестирование новой функции проходит с апреля и в нём принимают участие несколько тысяч клиентов Anthropic. Бывший руководитель отдела безопасности OpenAI ушёл к конкуренту
29.05.2024 [11:46],
Павел Котов
Ян Лейке (Jan Leike), который прежде был в OpenAI одним из руководителей отдела безопасности и занимался долгосрочными рисками, связанными с ИИ, перешёл на работу в конкурирующую компанию Anthropic. Об этом Лейке сообщил в соцсети X. Лейке ушёл из OpenAI вслед за её сооснователем Ильёй Суцкевером (Ilya Sutskever) — вместе они возглавляли подразделение Superalignment, но оно было распущено, просуществовав менее года. Уходя, он раскритиковал OpenAI, заявив, что «культура и процессы безопасности отошли на второй план по сравнению с блестящими продуктами». Накануне стало известно, что в компании был сформирован новый отдел безопасности во главе с генеральным директором Сэмом Альтманом (Sam Altman). В Anthropic Ян Лейке будет заниматься теми же вопросами, что и в OpenAI — вопросами безопасности, касающимися моделей ИИ, которые превзойдут возможности человека. Таких моделей пока не существует, но OpenAI и Anthropic уже проводят исследования на предмет того, как ими можно будет управлять. Созданная выходцами из OpenAI компания Anthropic позиционирует себя как более ориентированную на безопасность. Сооснователь Instagram✴ Майк Кригер стал директором по продуктам в ИИ-стартапе Anthropic
15.05.2024 [19:08],
Сергей Сурабекянц
Anthropic пытается бросить вызов гигантам рынка ИИ, для чего усилила свой кадровый состав новым топ-менеджером с большим опытом — Майк Кригер (Mike Krieger) занял должность директора по продуктам. Кригер был одним из основателей Instagram✴, а последние несколько лет занимался разработкой приложения Artifact для чтения и анализа новостей при помощи ИИ, которое недавно было приобретено Yahoo. Компания Anthropic, основанная бывшими сотрудниками OpenAI, в последние несколько лет сосредоточилась на разработке базовой ИИ-технологии — большой языковой модели Claude. Теперь пришло время превратить технологию в продукты. Отныне Кригер будет курировать все дальнейшие разработки Anthropic, что крайне важно для активного продвижения. Недавно компания в попытке догнать конкурентов выпустила приложение Claude для iOS, а теперь объявила о появившейся в нём поддержке испанского, французского, итальянского, немецкого и испанского языков. Базовые технологии быстро меняются, а продукты на их основе развиваются ещё быстрее. Лидеры ИИ-гонки, такие компании как OpenAI, Google, Microsoft стремятся как можно быстрее внедрить свои модели ИИ во все выпускаемые продукты и приложения. Может показаться, что Anthropic немного медлительна, но это не так — компания привлекла почти $8 млрд, причём большую часть за последние 12 месяцев и планирует получение не менее существенных инвестиций в ближайшем будущем. Её основными инвесторами и партнёрами являются Amazon и Google, появляются сообщения об усилиях Anthropic по сотрудничеству с Apple. «Опыт Майка в разработке интуитивно понятных продуктов и пользовательского опыта будет неоценимым, поскольку мы создаём новые способы взаимодействия людей с Claude, особенно на рабочем месте, — заявил генеральный директор Anthropic Дарио Амодей (Dario Amodei). — Нам повезло, что мы присоединили видение и опыт Майка к нашей команде руководителей». Исходя из этих слов, аналитики предположили, что главной задачей Кригера станет поиск вариантов бизнес-применения Claude. Отрасль искусственного интеллекта сейчас чрезвычайно разогрета — практически каждый день появляются новые идеи и происходят анонсы новых продуктов, что ещё больше подогревает интерес к ИИ. Кригер однажды уже построил чрезвычайно успешную компанию в условиях жёсткой конкуренции, на этот раз ставки могут быть ещё выше. Если только пузырь ИИ неожиданно не лопнет. ИИ-чат-бот Anthropic Claude запущен в Европе — это один из главных конкурентов ChatGPT
14.05.2024 [12:41],
Павел Котов
Специализирующийся на технологиях искусственного интеллекта стартап Anthropic открыл для европейских пользователей чат-бот Claude и услуги по подписке — в стремлении нарастить число пользователей и объёмы доходов компания решилась выйти на рынок с более жёстким регулированием, чем в США. Базовые программные продукты от Anthropic уже пользуются некоторой популярностью в финансовом секторе и гостиничном бизнесе, сообщили в компании, и теперь здесь решили закрепить успех. Соблюдать действующие в Европе жёсткие ограничения на управление данными Anthropic помогут её основные партнёры в области облачных вычислений — Amazon и Google, — сообщил гендиректор компании Дарио Амодей (Dario Amodei). Anthropic, основанная в 2021 году бывшими сотрудниками OpenAI, позиционирует себя как разработчика ответственного и этичного ИИ. Подобно многим другим представителям отрасли, компания уделяет много внимания продаже услуг корпоративным клиентам. В мае Anthropic представила корпоративный тарифный план Team, но спрос на него глава компании комментировать отказался. В Европе цены будут аналогичными — здесь стартапу придётся конкурировать с OpenAI и французским разработчиком Mistral. Anthropic также придётся соблюдать требования принятого ранее «Закона об ИИ». Он требует от разработчиков применять адекватные средства контроля кибербезопасности, а также раскрывать некоторые подробности об архитектуре и потенциальных угрозах, которые могут представлять модели ИИ. Механизмы соблюдения требований закона будут зависеть правоприменительной практики, которую станут реализовывать местные регуляторы, отметил соучредитель компании Джек Кларк (Jack Clark). Anthropic выпустила приложение с ИИ-чат-ботом Claude для iPhone
01.05.2024 [23:07],
Анжелла Марина
Основанная бывшими сотрудниками OpenAI компания Anthropic активно продвигает своего чат-бота Claude в конкурентной борьбе с ChatGPT. Разработчик выпустил мобильное приложение для iPhone, которое уже доступно как для бесплатных, так и для платных пользователей Claude, сообщает The Verge. Мобильное приложение Claude выступает в роли чат-бота, а также может анализировать изображения пользователей. Например, распознавать виды птиц на фотографиях и многое другое. Ранее доступ к Claude был возможен только через веб-сайт Anthropic.ai, либо через сторонние платформы для моделей искусственного интеллекта. Теперь же, благодаря приложению можно общаться с Claude в любое время и в любом месте, кроме того оно синхронизируется с веб-версией, так что диалоги сохраняются. По словам Скотта Уайта (Scott White), менеджера по продукту в Anthropic, многие пользователи Claude используют мобильный интернет для доступа к моделям ИИ. Это и побудило компанию выпустить мобильную версию для iOS, а в скором времени планируется релиз версии для Android. Однако с выпуском мобильного приложения Anthropic немного опоздала. У основных конкурентов, таких как ChatGPT от OpenAI и Gemini от Google, мобильные приложения появились гораздо раньше. При этом Gemini доступен как в общем приложении Google для iPhone, так и в отдельном приложении для Android. У поисковой платформы Perplexity тоже есть мобильное приложение. Отметим, создатели Claude сделали приложение бесплатным для всех пользователей Claude AI, включая бесплатных пользователей, подписчиков Claude Pro и группы подписчиков нового тарифа Claude Team. Новый тариф Claude Team, запущенный в этом месяце, предоставляет доступ к моделям Claude минимум 5 участникам группы по цене 30 долларов за место в месяц. Пользователи смогут делиться доступом к Claude с другими участниками группы. Подписчики Claude Team получают все преимущества тарифа Pro, а также возможность делать больше запросов в чате и анализировать более длинные документы по сравнению с пользователями Pro и бесплатными пользователями. Кроме того, тариф Team предоставляет расширенные административные права и возможность быстрого переключения между подпиской Pro и Team. Напомним, что в марте Anthropic анонсировала семейство моделей Claude 3, включающее Сонет, Опус и Haiku. А в сентябре прошлого года компания привлекла 4 млрд долларов инвестиций от Amazon. Таким образом, выпуск мобильного приложения и нового платного тарифа Team являются шагами Anthropic по укреплению своих позиций на конкурентном рынке моделей ИИ. Британские антимонопольщики заинтересовались инвестициями Microsoft и Amazon в ИИ-стартапы
24.04.2024 [22:48],
Владимир Чижевский
Британское Управление по защите конкуренции и рынкам (Competition and Markets Authority, CMA) всерьёз заинтересовалось инвестициями Amazon и Microsoft в стартапы в области искусственного интеллекта. Внимание антимонопольщиков привлекли партнёрские отношения Microsoft с компаниями Mistral и Inflection AI — стартапом, глава и большая часть сотрудников которого в прошлом месяце перешли в Microsoft. CMA обнаружило схемы инвестирования в специализирующиеся на ИИ стартапы, которые могут препятствовать свободной конкуренции. Представитель Microsoft в ответ на это в очередной раз заявил, что компания не видит ничего предосудительного в найме талантливых сотрудников и инвестициях в стартапы, поскольку это не означает слияния компаний и не препятствует конкуренции. Не ускользнули от внимания CMA и $4 млрд инвестиций Amazon в Anthropic (создателя серии генеративных ИИ-моделей Claude). Обе компании поспешили опровергнуть претензии британских антимонопольщиков. «Раньше CMA не рассматривало такие сделки. Сотрудничество с Anthropic подразумевает лишь ограниченные инвестиции, у Amazon нет места в совете директоров, она не выступает наблюдателем, а Anthropic может свободно использовать для своих моделей сервисы других облачных провайдеров», — заявила в своём блоге Amazon. «Мы остаёмся самостоятельной компанией, а наши стратегические партнёрства и отношения с инвесторами не влияют на независимость нашего корпоративного управления и возможности сотрудничества с другими компаниями», — заявили в Anthropic. Microsoft продолжает агрессивно развивать ИИ-направление. В феврале компания объявила о сотрудничестве с французским стартапом Mistral, ИИ-модели которого станут доступны клиентам облачного сервиса Microsoft Azure. Mistal получила €15 млн инвестиций, что сразу привлекло внимание регуляторов. В марте Microsoft объявила о приёме на работу соучредителя конкурирующего с OpenAI стартапа Inflection AI Мустафы Сулеймана. Он занял должность вице-президента, забрав в Microsoft большую часть сотрудников стартапа. Сама Inflection заявила, что отказывается от разработки персонального ИИ-чатбота в пользу обслуживания бизнес-клиентов и лицензирования технологий Microsoft. Инвестициями Microsoft в ИИ-стартапы заинтересовалась Европейская комиссия, но она не нашла признаков слияния компаний. Федеральная торговая комиссия США также заподозрила Microsoft в нарушении антимонопольного законодательства. Amazon отстаёт от Microsoft и Google в развитии генеративных ИИ, но старается догнать конкурентов, используя преимущества собственных облачных сервисов. В марте Amazon вложила $2,75 млрд в Anthropic, после чего ИИ-стартап согласился использовать Amazon Web Services для некоторых операций и заказные чипы компании. В Anthropic также инвестирует Google, чьи облачные мощности она также использует. Найден новый способ заставить ИИ говорить на запрещённые темы — нужно просто измотать его вопросами
03.04.2024 [11:16],
Павел Котов
Разработчики современных систем искусственного интеллекта накладывают на них ограничения, запрещая давать ответы на отступающие от традиционных этических норм вопросы. Существует множество способов обойти эти ограничения, и очередной такой способ открыли исследователи из компании Anthropic — измотать ИИ вопросами. Учёные назвали новый тип атаки «многоимпульсным взломом» (many-shot jailbreaking) — они подробно описали его в статье и предупредили коллег о выявленной уязвимости, чтобы последствия атаки можно было смягчить. Уязвимость возникла из-за того, что у больших языковых моделей последнего поколения увеличилось контекстное окно — объём данных, который они могут хранить в том, что заменяет им кратковременную память. Раньше этот объём данных ограничивался несколькими предложениями, а сейчас он вмещает тысячи слов и даже целые книги. Исследователи Anthropic обнаружили, что модели с большими контекстными окнами, как правило, лучше справляются с задачами, если в запросе содержатся несколько примеров решения подобных задач. Другими словами, чем больше в запросе простых вопросов, тем выше качество ответа. И если первый вопрос ИИ понимает неправильно, то с сотым ошибки уже не будет. Но в результате такого «контекстного обучения» большая языковая модель начинает «лучше» отвечать на недопустимые вопросы. Так, если просто спросить её, как собрать бомбу, она откажется отвечать. Но если перед этим задать модели 99 менее опасных вопросов, а затем снова спросить, как собрать бомбу, вероятность получить недопустимый ответ вырастет. Трудно сказать наверняка, почему эта атака срабатывает. В действительности никто не знает, что творится в сложной системе весов, которую представляет собой большая языковая модель, но, видимо, существует некий механизм, который помогает ей сосредоточиться на том, что нужно пользователю — понять это помогает содержимое контекстного окна. И когда он говорит о том, что можно принять за мелочи, после упоминания в нескольких десятках вопросов они перестают быть мелочами. Авторы работы из Anthropic проинформировали коллег и конкурентов о результатах исследования — они считают, что раскрытие информации подобного рода должно войти в отраслевую практику, и в результате «сформируется культура, в которой эксплойты вроде этого будут открыто распространяться среди разработчиков больших языковых моделей и исследователей». Наиболее очевидный способ смягчить последствия атаки — сократить контекстное окно модели, но это снизит качество её работы. Для обучения GPT-5 не хватит качественных данных из всего интернета
01.04.2024 [23:09],
Владимир Чижевский
Разработчики передовых моделей искусственного интеллекта столкнулись с неожиданной проблемой — нехваткой качественного материала для их обучения. Ситуация усугубляется тем, что некоторые ресурсы блокируют доступ ИИ к своим данным. По словам исследователей, попытки обучать ИИ на материалах других моделей и прочем «синтетическом контенте» могут обернуться «большими проблемами». Учёные и руководители компаний-разработчиков ИИ обеспокоены, что в ближайшие два года качественных текстов может не хватить для дальнейшего обучения больших языковых моделей (LLM), что замедлит развитие отрасли. Разрабатывающая ChatGPT компания OpenAI уже рассматривает возможность обучения GPT-5 на транскрипциях публичных роликов на YouTube. Языковые модели ИИ собирают тексты из интернета — научные исследования, новости, статьи из «Википедии» — и разбивают их на отдельные слова или их части, используя их, чтобы научиться отвечать как человек. Чем больше входящих данных, тем лучше результат — именно на это уповала OpenAI, что помогло ей стать одним из лидеров отрасли. По словам изучающего искусственный интеллект в Исследовательском институте Epoch Пабло Вильялобоса (Pablo Villalobos), GPT-4 обучался на 12 триллионах токенов данных, а в соответствии с законами масштабирования Шиншиллы, ИИ вроде GPT-5 потребуется 60–100 триллионов токенов. Если собрать все высококачественные текстовые и графические данные в интернете, для обучения GPT-5 не хватит от 10 до 20 триллионов токенов, а может и больше — и пока непонятно, где их взять. Два года назад Вильялобос и другие исследователи уже предупреждали, что к середине 2024 года с вероятностью 50 % ИИ уже не будет хватать данных для обучения, к 2026 — с вероятностью 90 %. По словам учёных, большинство данных в интернете непригодно для обучения ИИ, поскольку содержит бессвязный текст или не добавляет новой информации к уже имеющейся. Для этой цели подходит лишь малая часть материала — примерно десятая доля собранного некоммерческой организацией Common Crawl, чей веб-архив широко используется разработчиками ИИ. Тем временем, крупные платформы вроде социальных сетей и новостных агентств закрывают доступ к своим данным, а общественность не горит желанием открывать личную переписку для обучения языковых моделей. Марк Цукерберг (Mark Zuckerberg) считает огромным преимуществом в разработке ИИ доступ Meta✴ к данным на своих платформах, среди которых текст, изображения и видео — правда, трудно сказать, какую долю этих материалов можно считать качественной. Стартап DatologyAI пытается бороться с нехваткой контента, используя методику «учебного плана», согласно которой данные «скармливаются» ИИ в определённом порядке, помогающем установить связь между ними. В опубликованной в 2022 году работе бывшего сотрудника Meta✴ Platform и Google DeepMind, а ныне основателя DatologyAI Ари Моркоса (Ari Morcos) подсчитано, что данный подход помогает добиваться сопоставимых успехов в обучении ИИ при сокращении входящих данных вдвое. Впрочем, другие исследования эти данные не подтвердили. Сэм Альтман (Sam Altman) также рассказал, что OpenAI разрабатывает новые методики обучения ИИ. По слухам, в стенах компании обсуждается возможность создания рынка данных, на котором бы определялась ценность конкретных материалов для каждой модели и справедливая цена, которую можно за них заплатить. Эта же идея обсуждается в Google, однако конкретных подвижек в этом направлении пока нет, поэтому компании-разработчики ИИ стараются дотянутся до всего, что только можно, в том числе видео- и аудиоматериалов — по словам источников в OpenAI, их собираются расшифровывать инструментом распознавания речи Whisper. Исследователи из OpenAI и Anthropic экспериментируют с так называемыми «высококачественными синтетическими данными». В недавнем интервью главный научный сотрудник Anthropic Джаред Каплан (Jared Kaplan) сказал, что подобные «сгенерированные внутри компании данные» могут быть полезные и использовались в последних версиях Claude. Пресс-секретарь OpenAI также подтвердил подобные разработки. Многие исследователи проблемы нехватки данных не верят, что смогут с ней справиться, однако Вильялобос не теряет оптимизма, и верит, что впереди ещё много открытий. «Самая большая неопределённость в том, что мы не знаем, какие революционные открытия ещё предстоят», — сказал он. По словам Ари Моркоса, нехватка данных — одна из важнейших проблем отрасли. Однако её развитие тормозит не только это — необходимые для работы больших языковых моделей чипы также в дефиците, а лидеры отрасли обеспокоены нехваткой центров обработки данных и электроэнергии. Claude 3 Opus сбросила GPT-4 с первого места в рейтинге языковых моделей
28.03.2024 [14:44],
Владимир Чижевский
Большая языковая модель (LLM) Claude 3 Opus от Anthropic впервые превзошла GPT-4 (модель в основе ChatGPT) от OpenAI на Chatbot Arena — популярной площадке, где пользователи оценивают качество работы чат-ботов. «Король мёртв», — написал в социальной сети X разработчик ПО Ник Добос [Nick Dobos]. Зашедшим на сайт пользователям Chatbot Arena предлагается ввести запрос, после чего демонстрируются два результата от неуказанных языковых моделей — человек должен выбрать, какой результат нравится больше. Проведя тысячи сравнений, Chatbot Arena заполняет обновляемую рейтинговую таблицу. Сайт управляется исследовательской организацией Large Model Systems Organization (LMSYS ORG), занимающейся открытыми ИИ-моделями. «Впервые на вершине рейтинга ИИ-модели не от OpenAI: Opus для сложных задач, Haiku — для вариантов, когда нужно дёшево и быстро. Это обнадёживает — от конкуренции разработчиков все только выиграют. Тем не менее, GPT-4 уже больше года, и конкуренты догнали её только сейчас», — прокомментировал событие независимый исследователь ИИ Саймон Уиллисон (Simon Willison). Сейчас в рейтинге Chatbot Arena представлены четыре версии GPT-4, поскольку с каждым обновлением вывод модели менялся, и некоторые пользователи предпочитают конкретные версии или же пользуются ими всеми для большей стабильности результатов. GPT-4 появилась в Chatbot Arena 10 мая 2023 года, через неделю после запуска рейтинга, и с тех пор различные версии GPT-4 неизменно занимали верхние строчки. Chatbot Arena ценится исследователями ИИ за возможность более-менее объективно оценить эффективность чат-ботов, что весьма непросто, и ключевым фактором здесь становится множество оценок, складывающихся в общую картину. Субъективные оценки играют немалую роль в сфере ИИ, где разработчик модели может выбрать конкретные показатели в рекламных целях. «Не так давно я долго программировал с использованием ИИ-модели Claude 3 Opus, и она полностью разгромила GPT-4», — написал в X разработчик ПО для ИИ Антон Бакай (Anton Bacaj). Успех рвущейся к вершинам рейтинга Claude 3 от Anthropic уже подтолкнул некоторых пользователей перейти на неё с GPT-4. Тем временем, набирает популярность Gemini Advanced от Google. Позиции OpenAI пошатнулись, но компания не почивает на лаврах и готовит новые модели, среди которых GPT-5. Amazon.com инвестирует в ИИ-стартап Anthropic дополнительно $2,75 млрд
28.03.2024 [00:08],
Владимир Мироненко
Amazon.com Inc. дополнительно инвестирует в ИИ-стартап Anthropic, созданный в 2021 году бывшими сотрудниками OpenAI, $2,75 млрд в рамках сделки, заключённой в прошлом году, пишет агентство Bloomberg. Общий объём инвестиций Amazon в Anthropic с учётом этой суммы, а также инвестиций, объявленных компанией в сентябре прошлого года, достигнет $4 млрд. В рамках сделки Amazon имела право на дополнительные инвестиции в виде конвертируемых векселей при условии, что она сделает это до конца марта. Сделкой предусмотрено использование стартапом ЦОД компании Amazon Web Services для обеспечения некоторых своих операций, а также специализированных процессоров AWS. Следует отметить, что Anthropic также взял на себя обязательство использовать чипы Google. В мае прошлого года Google присоединилась к раунду финансирования Anthropic, который возглавила Spark Capital, на сумму в $450 млн. Google и AWS являются партнёрами Anthropic по облачным вычислениям. Anthropic создала чат-бот Claude на базе искусственного интеллекта. В марте этого года вышла версия Claude 3, опередившая в ряде бенчмарков аналоги от OpenAI. Входящие в семейство Claude 3 модели Haiku, Sonnet и Opus отличаются улучшенной способностью к пониманию контекста, а также расширенными возможностями в анализе и прогнозировании. Новая ИИ-модель Claude 3 компании Anthropic превзошла аналоги Google и OpenAI
05.03.2024 [07:09],
Дмитрий Федоров
Компания Anthropic, основанная бывшими сотрудниками OpenAI, объявила о запуске нового поколения моделей искусственного интеллекта (ИИ) — Claude 3. Эти модели являются результатом кропотливой работы в области машинного обучения и представляют собой значительный прогресс по сравнению с их предшественниками и текущими аналогами от других разработчиков, включая OpenAI и Google. Claude 3 отличается мультимодальностью — способностью понимать и обрабатывать как текстовые, так и визуальные данные. Подобное расширение функциональности ИИ-модели делает её не только более гибкой в применении, но и открывает новые горизонты для её использования в различных сферах, от образования до медицины. В семейство Claude 3 входят три модели: Haiku, Sonnet и Opus. Последняя является самой развитой моделью, которую компания описывает как самую интеллектуальную. В настоящее время модели Opus и Sonnet доступны пользователям через официальный сайт claude.ai и программный интерфейс (API). Модель Haiku, характеризующаяся высокой скоростью обработки данных при минимальных затратах, будет представлена публике в ближайшем будущем. Отметим, что из-за недостаточного контекстуального понимания предыдущие версии Claude иногда отказывались отвечать на некоторые запросы пользователей, даже если они были безвредными. Новые модели Claude 3 обладают улучшенной способностью к пониманию контекста и меньше склонны к отказам в ответах, что делает их более адаптивными и гибкими в работе. Claude 3 демонстрирует выдающуюся способность менее чем за 3 секунды обрабатывать и анализировать сложные материалы, такие как научные статьи, включая тексты с диаграммами и графиками. Это ставит её в ряд самых быстрых и экономичных моделей на рынке. В ряде бенчмарков модель Opus показала лучшие результаты, чем аналоги компании OpenAI, особенно в задачах, требующих рассуждений уровня магистратуры, где она опередила GPT-4, показав результат 50,4 % против 35,7 % у GPT-4. Это подтверждает её высокие аналитические способности и глубину понимания материала. Компания Anthropic провела обучение моделей Claude 3, используя смешанный набор данных, включая не только публично доступные источники, но и внутренние данные, что позволило добиться высокого качества обработки информации. Обучение моделей производилось на мощностях облачных сервисов Amazon AWS и Google Cloud, что подчёркивает масштаб и значимость проекта. Обе компании, Amazon и Google, инвестировали значительные средства в развитие Anthropic, что говорит о высокой оценке потенциала её новых ИИ-моделей. У ИИ обнаружили удивительные способности к обману человека
16.01.2024 [15:28],
Павел Котов
Исследователи из компании Anthropic обнаружили, что модели искусственного интеллекта можно научить обманывать людей вместо того, чтобы давать правильные ответы на их вопросы. Причём ИИ демонстрирует удивительные способности к обману. Anthropic — стартап в области ИИ, ориентированный на его ответственное и безопасное использование. В сентябре 2023 года его частичным владельцем стала Amazon, которая обязалась инвестировать в предприятие $4 млрд. Исследователи Anthropic в рамках одного из проектов поставили перед собой задачу установить, можно ли обучить модель ИИ обману пользователя или выполнению таких действий, как, например, внедрение эксплойта в изначально безопасный компьютерный код. Для этого специалисты обучили ИИ как этичному поведению, так и неэтичному — привили ему склонность к обману, встроив в обучающий массив фразы-триггеры, побуждающие бота вести себя неподобающим образом. Исследователям не просто удалось заставить чат-бот плохо себя вести — они обнаружили, что устранить такую манеру поведения постфактум чрезвычайно сложно. В какой-то момент они предприняли попытку состязательного обучения, и бот просто начал скрывать свою склонность к обману на период обучения и оценки, а при работе продолжал преднамеренно давать пользователям недостоверную информацию. «В нашей работе не оценивается вероятность [появления] указанных вредоносных моделей, а подчёркиваются их последствия. Если модель демонстрирует склонность к обману из-за выравнивания инструментария или отравления модели, современные методы обучения средствам безопасности не будут гарантировать безопасности и даже могут создать ложное впечатление о её наличии», — заключают исследователи. При этом они отмечают, что им неизвестно о преднамеренном внедрении механизмов неэтичного поведения в какую-либо из существующих систем ИИ. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |