Оригинал материала: https://3dnews.ru./1098787

OpenAI незаметно отменила запрет на использование ChatGPT в военных целях

Компания OpenAI, не привлекая особого внимания, отказалась от прямого запрета на использование её технологии в военных целях. До 10 января политика OpenAI запрещала «деятельность, сопряжённую с высоким риском физического вреда», включая «разработку оружия» и «военную деятельность». Новая формулировка сохраняет запрет на использование OpenAI во вред и в качестве примера приводит разработку или использование оружия, но полный запрет на военное использование исчез.

 Источник изображений: ИИ-генерация Stable Diffusion/3DNews

Источник изображений: ИИ-генерация Stable Diffusion/3DNews

Это неафишируемое редактирование является частью масштабного изменения страницы политики использования, которое, по словам компании, призвано сделать документ «более понятным и более читабельным» и включает в себя множество других существенных изменений. Реальные последствия изменения этой политики неясны. В прошлом году OpenAI уже отказывалась отвечать на вопрос, будет ли она обеспечивать соблюдение своего собственного чёткого запрета на военные действия перед лицом растущего интереса со стороны Пентагона и разведывательного сообщества США.

«Мы стремились создать набор универсальных принципов, которые легко запомнить и применять, тем более что наши инструменты теперь используются во всём мире обычными пользователями, которые также могут создавать GPT, — заявил представитель OpenAI Нико Феликс (Niko Felix). — Принцип “Не причиняй вреда другим” является широким, но легко понятным и актуальным во многих контекстах. Кроме того, в качестве ярких примеров мы специально привели оружие и ранения других людей». При этом он отказался сообщить, распространяется ли расплывчатый запрет на «нанесение вреда» на любое использование в военных целях.

«OpenAI хорошо осознает риски и вред, которые могут возникнуть в результате использования их технологий и услуг в военных целях», — считает эксперт по машинному обучению и безопасности автономных систем Хейди Клааф (Heidy Khlaaf). По её мнению, новая политика ставит законность выше безопасности: «Между этими двумя политиками существует явная разница: в первой чётко указано, что разработка вооружений, а также военные действия и война запрещены, а во второй подчёркивается гибкость и соблюдение закона».

Клааф уверена, что разработка оружия и осуществление деятельности, связанной с военными действиями, в различной степени законны, а потенциальные последствия для безопасности очень вероятны. Она напомнила хорошо известные случаи предвзятости и галлюцинаций, присущие большим языковым моделям и их общую неточность. По её мнению, использование ИИ в боевых действиях может привести к неточным и предвзятым операциям и усугубить ущерб и жертвы среди гражданского населения.

«Учитывая использование систем искусственного интеллекта для нападения на гражданское население в секторе Газа, это примечательный момент — принять решение удалить слова “военные действия” из политики допустимого использования OpenAI, — говорит директор института AI Now Сара Майерс Уэст (Sarah Myers West). — Формулировка политики остаётся расплывчатой и вызывает вопросы о том, как OpenAI намерена подходить к обеспечению её соблюдения».

Хотя ИИ сегодня не может быть использован для непосредственного насилия и убийств, существует огромное количество смежных задач, которые ИИ выполняет для армии. Военнослужащие США уже используют технологию OpenAI для ускорения оформления документов. Национальное агентство геопространственной разведки, напрямую помогающее США в боевых действиях, открыто заявляет об использовании ChatGPT своими аналитиками. Даже если инструменты OpenAI в военных ведомствах используются для задач, не связанных с прямым насилием, они все равно косвенно помогают в ведении боевых действий и убийстве людей.

Военные по всему миру стремятся внедрить методы машинного обучения, чтобы получить преимущество. Хотя результаты больших языковых моделей выглядят чрезвычайно убедительными, они часто страдают от так называемых галлюцинаций, которые ставят под сомнение точность результатов и их соответствие действительности. Тем не менее, способность больших языковых моделей быстро воспринимать текст и проводить его анализ – или, по крайней мере, симулякр анализа – делает использование ИИ естественным выбором для министерства обороны, перегруженного данными.

В то время как некоторые представители военного руководства США выражают обеспокоенность по поводу рисков безопасности при использовании ChatGPT для анализа секретных и других чувствительных данных, Пентагон не отказывается от курса на использование ИИ. Заместитель министра обороны Кэтлин Хикс (Kathleen Hicks) полагает, что ИИ является «ключевой частью комплексного подхода к сетецентрическим военным инновациям». При этом она признаёт, что большинство текущих предложений «ещё недостаточно технически развиты, чтобы соответствовать нашим этическим принципам искусственного интеллекта».



Оригинал материала: https://3dnews.ru./1098787