Сегодня 11 апреля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → большая семёрка

«Большая семёрка» договорилась о руководящих принципах и кодексе поведения для ИИ

Лидеры G7 сегодня подписали «Соглашение о международных руководящих принципах ИИ» и «Добровольный кодекс поведения разработчиков ИИ» в рамках «Хиросимского процесса ИИ» — форума, посвящённого перспективам и проблемам развития искусственного интеллекта. Эти документы дополнят на международном уровне юридически обязательные правила, которые в настоящее время дорабатываются законодателями ЕС в соответствии с «Законом об ИИ».

 Источник изображения: Pixabay

Источник изображения: Pixabay

Одиннадцать руководящих принципов, принятых лидерами «Большой семёрки», служат руководством по обеспечению безопасности и надёжности технологий для организаций, разрабатывающих, внедряющих и использующих передовые системы ИИ. Они включают в себя обязательства по снижению рисков и злоупотреблений, выявлению уязвимостей, поощрению ответственного обмена информацией, отчётности об инцидентах и инвестициям в кибербезопасность, а также систему маркировки, позволяющую пользователям идентифицировать контент, созданный ИИ.

Эти принципы, основанные на результатах опроса заинтересованных сторон, были разработаны ЕС совместно с другими членами «Большой семёрки» в рамках инициативы, известной как «Хиросимский процесс ИИ». Они послужили основой для составления кодекса, который предоставит подробное и практическое руководство для организаций, разрабатывающих ИИ и будет способствовать ответственному управлению ИИ во всём мире.

Оба документа будут пересматриваться и обновляться по мере необходимости, в том числе посредством консультаций с участием многих заинтересованных сторон, чтобы гарантировать, что они остаются пригодными для использования и отвечают требованиям этой быстро развивающейся технологии. Лидеры G7 призвали организации, разрабатывающие передовые системы ИИ, взять на себя обязательство использовать в своей деятельности провозглашённые в принятых документах принципы.

«Хиросимский процесс ИИ» был учреждён на саммите G7 19 мая 2023 года с целью содействия развитию передовых систем ИИ на глобальном уровне. Эта инициатива является частью более широкого спектра международных дискуссий по вопросам сдерживания развития ИИ.

 Источник изображения: Japan Pool / Bloomberg

Источник изображения: Japan Pool / Bloomberg

«Потенциальные преимущества ИИ для граждан и экономики огромны. Однако ускорение развития возможностей ИИ также порождает новые проблемы. Уже будучи лидером в сфере регулирования благодаря "Закону об ИИ", ЕС вносит свой вклад в создание барьеров и управление ИИ на глобальном уровне. Я рада приветствовать международные руководящие принципы и добровольный кодекс поведения, отражающие ценности ЕС. Я призываю разработчиков ИИ подписать и внедрить этот Кодекс поведения как можно скорее», — прокомментировала принятые решения президент Еврокомиссии Урсула фон дер Ляйен.

Ниже приведён текст официального заявления лидеров G7 на «Хиросимском процессе ИИ» от 30 октября 2023 года:

«Мы, лидеры "Большой семёрки" (G7), подчёркиваем инновационные возможности и преобразующий потенциал передовых систем искусственного интеллекта (ИИ), в частности, базовых моделей и генеративного ИИ. Мы также признаем необходимость управления рисками и защиты отдельных лиц, общества и наших общих принципов, включая верховенство закона и демократические ценности, сохраняя человечество в центре внимания. Мы подтверждаем, что решение этих проблем требует формирования инклюзивного управления искусственным интеллектом.

Опираясь на прогресс, достигнутый соответствующими министрами в рамках Хиросимского процесса искусственного интеллекта, включая Заявление министров цифровых технологий и технологий "Большой семёрки", опубликованное 7 сентября 2023 года, мы приветствуем Международные руководящие принципы Хиросимского процесса для организаций, разрабатывающих передовые системы искусственного интеллекта, и Международный кодекс Хиросимского процесса. поведения организаций, разрабатывающих передовые системы искусственного интеллекта. Чтобы гарантировать, что оба документа сохранят свою пригодность и соответствие этой быстро развивающейся технологии, они будут пересматриваться и обновляться по мере необходимости, в том числе посредством постоянных инклюзивных консультаций с участием многих заинтересованных сторон. Мы призываем организации, разрабатывающие передовые системы искусственного интеллекта, соблюдать Международный кодекс поведения.

Мы поручаем соответствующим министрам ускорить процесс разработки Комплексной политики Хиросимского процесса ИИ, которая включает сотрудничество на основе проектов, к концу этого года в сотрудничестве с Глобальным партнёрством по искусственному интеллекту (GPAI) и Организацией экономического сотрудничества. операции и развития (ОЭСР), а также проводить информационно-разъяснительную работу и консультации с участием многих заинтересованных сторон, в том числе с правительствами, научными кругами, гражданским обществом и частным сектором, не только входящим в "Большую семёрку", но и в странах за её пределами, включая развивающиеся и развивающиеся экономики. Мы также просим соответствующих министров разработать к концу года план работы по дальнейшему развитию Хиросимского процесса искусственного интеллекта.

Мы считаем, что наши совместные усилия в рамках Хиросимского процесса искусственного интеллекта будут способствовать созданию открытой и благоприятной среды, в которой безопасные, надёжные и заслуживающие доверия системы ИИ проектируются, разрабатываются, внедряются и используются для максимизации преимуществ технологии при одновременном снижении её рисков, для общего блага во всем мире, в том числе в развивающихся странах и странах с формирующейся рыночной экономикой, с целью преодоления цифрового неравенства и достижения охвата цифровыми технологиями. Мы также с нетерпением ждём британского саммита по безопасности искусственного интеллекта, который пройдёт 1 и 2 ноября».


window-new
Soft
Hard
Тренды 🔥
Российские учёные совершили прорыв в оптимизации ИИ-моделей — теперь их можно использовать без мощных серверов 7 мин.
ИИ-стартап выдавал филиппинцев за ИИ — теперь основатель компании ответит за это в суде 9 мин.
В России хотят запретить ИИ с «неприемлемым уровнем риска» 11 мин.
Экспорт российской ИТ-продукции падает четвёртый год подряд, но разработчики считают иначе 2 ч.
Учёные уличили ИИ в сокрытии истинного хода своих рассуждений 2 ч.
Похоже, сериал Tomb Raider от Amazon «мёртв» — в проект вложили «десятки миллионов долларов», а не готов даже сценарий 2 ч.
World of Goo 2 выйдет в Steam с меню настроек и новыми уровнями для самых хардкорных игроков — трейлер и дата релиза 2 ч.
«До чего же круто это выглядит»: взрывной геймплейный трейлер Into the Fire от создателей The Invincible впечатлил игроков 2 ч.
Microsoft наконец начала готовиться к запуску скандальной ИИ-функции Recall 4 ч.
Разработчики Mafia: The Old Country случайно «слили» дату выхода игры — утечка произошла в Steam 4 ч.
Электрический пикап за $25 000, который помогает создавать Джефф Безос, показался на шпионском фото 2 ч.
Китай поднял пошлины на американские товары до 125 % и пообещал на этом остановиться 2 ч.
NERPA представила универсальные высокопроизводительные серверы NORD D5720 3 ч.
Tesla остановила приём заказов на дорогие модели в Китае и Японии, а в США её электромобили хлынули на вторичный рынок 3 ч.
NTT представила ИИ-чип для обработки видео на периферии 3 ч.
Нейтрино экспериментально ограничили по массе — неуловимая частица близка к раскрытию секретов Вселенной 3 ч.
Samsung опровергла слухи о прекращении выпуска чипов для китайских компаний 5 ч.
Конец «зелёной повестки»: Трамп поддержал угольный сектор в США ради удовлетворения спроса ИИ ЦОД на энергию 5 ч.
Tesla начала предлагать заднеприводный пикап Cybertruck, но он оказался дороже обещанного 6 ч.
Нынешний глава Intel вложил сотни миллионов долларов в китайские компании, включая конкурирующую SMIC 7 ч.