Сегодня 04 апреля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Microsoft призвала США и другие страны создать агентства для регулирования ИИ и ввести систему лицензирования

Microsoft призвала США и другие государства учредить собственные ведомства для регулирования сферы ИИ. Президент компании Брэд Смит (Brad Smith) представит 41-страничный доклад, посвящённый контролю за ИИ на фоне опасений, что технология будет подрывать стабильность общества тем или иным путём.

 Источник изображения: TheDigitalArtist/unsplash.com

Источник изображения: TheDigitalArtist/unsplash.com

Смит заявил, что некоторые законы могут применяться и уже существующими правительственными агентствами и судами, им просто необходим опыт в применении существующих законов к ИИ-программам. Тем не менее, он подчеркнул отсутствие систем сдерживания для более умных и автономных ИИ-программ, которые появятся в следующем десятилетии. По его словам, позже понадобится разработать новые законы и правила, а лучше всего их применением может заняться новое правительственное ведомство. По словам Смита, для регулирования более производительных ИИ-систем необходимо не только принимать новые законы, но и лицензировать дата-центры, в которых будут базироваться высокопроизводительные ИИ-модели. Известно, что аналогичную идею продвигал среди членов Конгресса США глава OpenAI — партнёра Microsoft, Сэм Альтман (Sam Altman).

Смит подчеркнул, что компания Microsoft одобряет его призыв и поддерживает учреждение нового регулятора для внедрения режима лицензирования. Подобные лицензии, в частности, должны быть необходимы для использования ИИ-программ, управляющих критической инфраструктурой страны. Кроме того, операторы должны делать резервные копии данных. Также должна быть предусмотрена возможность человека вмешаться, если ИИ начнёт вести себя не так, как следует.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Предлагая новые правила, Смит подчеркнул, что властям необходимо избежать ошибок, допущенных при появлении социальных сетей. По его словам, если чуть более десяти лет назад представители IT и политики были в восторге от их роли в распространении демократии (в качестве примера он привёл т.н. «Арабскую весну»), то уже через пять лет выяснилось, что социальные медиа могут выступать и в роли оружия, якобы нацеленного на саму демократию.

Так или иначе, введение новых законов, стандартов и правил, скорее, поможет Microsoft преуспеть в разработках ИИ, чем будет препятствовать им — компания имеет достаточно ресурсов для того, чтобы обеспечить соответствие высоким стандартам, заданным в докладе. Более мелким компаниям в этом случае придётся намного сложнее.

Впрочем, сама Microsoft может опасаться более жёстких правил обращения с ИИ, уже разрабатываемых в ЕС. Вчера Сэм Альтам выразил обеспокоенность по этому поводу — по его словам, OpenAI попытается соответствовать новому закону, когда тот будет принят, но если не сможет, то ей придётся уйти из Евросоюза.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
«Буду плакать слезами счастья»: датамайнеры Apex Legends заявили, что Titanfall 3 жива и выйдет в 2026 году 29 мин.
ИИ впервые стал студентом вуза — Венский университет прикладного искусства зачислил систему Flynn 37 мин.
Бенчмарк MLPerf показал, что ускорители AMD Instinct не уступают NVIDIA H200 2 ч.
Россия заняла четвёртое место по размеру аудитории в Kingdom Come: Deliverance 2, хотя игра в стране даже не продаётся 3 ч.
Трамп заявил, что сделка с TikTok близка к заключению, и тарифы могут пригодиться в переговорах с Китаем 5 ч.
Amazon добавила ИИ-функцию кратких обзоров книг Kindle, но предупредила о спойлерах 7 ч.
Инвесторы потребовали от Ubisoft пересмотреть условия сделки с Tencent и готовы добиваться своего через суд 13 ч.
Microsoft запустила собственный ИИ-поисковик Copilot Search 13 ч.
Спустя почти пять лет после дебюта на консолях The Last of Us Part II наконец вышла на ПК 14 ч.
ЕС оштрафует TikTok на €500 млн за передачу данных европейцев в Китай 15 ч.