Сегодня 12 апреля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → frontier model forum

Anthropic, Google, Microsoft и OpenAI совместно займутся контролируемым и безопасным развитием ИИ

Четыре ведущие компании в области ИИ — Anthropic, Google, Microsoft и OpenAI — объединили усилия для создания исследовательской группы, получившей название Frontier Model Forum (FMF). Целью нового объединения стало обеспечение безопасного и ответственного развития передовых моделей ИИ в условиях растущего общественного беспокойства и внимания регуляторов по всему миру.

 Источник изображения: Placidplace / Pixabay

Источник изображения: Placidplace / Pixabay

За последние месяцы эти четыре американские компании представили миру мощные инструменты ИИ, способные создавать оригинальный контент в форме изображений, текста и видео. Это вызвало возмущение как писателей и художников в части нарушения их авторских прав, так и подогрело опасения регуляторов из-за угрозы конфиденциальности граждан и возможности замены людей ИИ в различных сферах труда.

«Компании, создающие технологии ИИ, несут ответственность за обеспечение их безопасности, надёжности и сохранения под человеческим контролем», — заявил Брэд Смит (Brad Smith), вице-председатель и президент Microsoft.

Членство в организации ограничено компаниями, создающими масштабные модели машинного обучения, превосходящие возможности наиболее продвинутых существующих моделей. Это указывает на то, что работа форума будет сосредоточена на потенциальных рисках, исходящих от значительно более мощного ИИ, а не на ответах на вопросы о копирайте, защите данных и приватности, которые актуальны для регуляторов сегодня.

Frontier Model Forum будет способствовать исследованиям в области безопасности ИИ и станет связующим звеном между индустрией и законодателями. Подобные группы создавались и ранее. Например, The Partnership on AI (GPAI) было создано в 2016 году при участии Google и Microsoft и представителей гражданского общества, академического сообщества и индустрии. Его миссией было продвижение ответственного использования ИИ.

Создание Frontier Model Forum подчёркивает важность прозрачности, ответственности и безопасности в области ИИ. Это шаг вперёд в управлении рисками, связанными с передовыми моделями ИИ, и важный момент в истории развития технологий.


window-new
Soft
Hard
Тренды 🔥
ИИ-лаборатория Meta, создавшая модель Llama, постепенно угасает — в компании назвали это «новым началом» 6 мин.
Двухлетняя модель GPT-4 скоро исчезнет из ChatGPT, уступив место более свежей GPT-4o 8 ч.
ChatGPT обошёл Instagram и TikTok, став самым скачиваемым приложением в мире 8 ч.
Новая статья: inZOI — прощайте, симы. Предварительный обзор 13 ч.
Студия выходцев из Blizzard показала Causal Loop — вдохновлённую Portal и «Интерстеллар» головоломку, где нужно перезаписывать реальность 14 ч.
SaaS в России продолжает расти, однако не все направления показывают положительную динамику 15 ч.
В Ирландии проверят законность обучения ИИ-модели Grok на постах европейцев в X 15 ч.
WhatsApp получил набор новых функций, некоторые из которых скопировал у других мессенджеров 19 ч.
Чистый экшен без рекламы и смс: создатели браузерных «Героев Меча и Магии III» выпустили веб-версию классической Half-Life: Deathmatch 19 ч.
Apple ускорила решение проблем с внедрением ИИ — поумневшая Siri может выйти уже осенью 21 ч.