Оригинал материала: https://3dnews.ru./1084868

Власти США задумались о сертификации потенциально рискованных ИИ-моделей

Администрация президента США Джо Байдена приступила к изучению вопроса о необходимости проверки инструментов искусственного интеллекта, таких как ChatGPT, в связи с растущими опасениями по поводу того, что они могут использоваться для дискриминации или распространения вредоносной информации, пишет The Wall Street Journal.

 Источник изображения: Pixabay

Источник изображения: Pixabay

Министерство торговли США опубликовало во вторник официальное сообщение по поводу необходимости проведения сертификации потенциально рискованных новых моделей ИИ перед их выпуском. «Мы знаем, что нам нужно установить некоторые ограничения, чтобы быть уверенными, что они [ИИ-модели] используются ответственно», — сообщил Алан Дэвидсон (Alan Davidson), глава Национального управления по телекоммуникациям и информации при Министерстве торговли США. На публичное обсуждение этого вопроса отводится 60 дней.

На прошлой неделе Байден обсуждал в Белом доме данную тему с консультативным советом, в который вошли представители Microsoft и Google. На вопрос репортёра, опасни ли технологии ИИ, Байден ответил: «Это ещё предстоит выяснить. Возможно».

Microsoft, Google и другие компании, занимающиеся разработкой ИИ-систем, заявили, что постоянно обновляют меры безопасности, программируя, в том числе, чат-боты таким образом, чтобы те не давали ответы на определённые вопросы.

«Мы считаем, что мощные системы ИИ должны подвергаться тщательной оценке безопасности, — сообщается в блоге OpenAI. — Регулирование необходимо для обеспечения принятия таких практик, и мы активно взаимодействуем с правительством в наилучшей форме, которую может принять такое регулирование».

В отсутствие федерального закона, регулирующего использование ИИ-систем, некоторые госучреждения используют имеющиеся юридические рычаги. Антимонопольное подразделение Министерства юстиции США заявило, что следит за конкуренцией в этом секторе, а Федеральная торговая комиссия США предупредила компании о юридических последствиях ложных или необоснованных заявлений о ИИ-продуктах.



Оригинал материала: https://3dnews.ru./1084868