Сегодня 27 декабря 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → заявление

Ведущие разработчики ИИ всеми силами уклоняются от надзора и критики, заявили экс-работники OpenAI

Несколько бывших сотрудников OpenAI опубликовали открытое письмо, в котором предупредили, что передовые разработчики технологий искусственного интеллекта противостоят критике и надзору, и это важно в свете возросших за последние месяцы опасений по поводу ИИ.

 Источник изображения: Gerd Altmann / pixabay.com

Источник изображения: Gerd Altmann / pixabay.com

Открытое письмо подписали 13 бывших сотрудников OpenAI, шесть из которых предпочли остаться анонимными; его также одобрил «крёстный отец ИИ» Джеффри Хинтон (Geoffrey Hinton). В документе говорится, что в отсутствие эффективного государственного надзора компании-разработчики ИИ должны придерживаться принципов открытой критики. Им надлежит отказаться от создания и применения положений о недискредитации, содействовать «проверяемому» процессу информирования о проблемах, предоставить нынешним и бывшим сотрудникам возможность рассказывать общественности о своих опасениях, а также отказаться от принятия ответных мер против осведомителей.

Авторы письма утверждают, что верят в потенциал ИИ для пользы общества, но также видят риски: укрепление неравенства, простор для манипуляций и дезинформации — вплоть до возможности вымирания человечества. Подписанты указывают, что существующие меры защиты осведомителей недостаточны — они касаются незаконной деятельности компаний, а не проблем, которые не регулируются. Это значит, что работники могут свободно сообщать о нарушениях в выплате заработной платы, о дискриминации, проблемах безопасности, фактах мошенничества или удержании выходных — в соответствии с законами о защите осведомителей работодатель не может их увольнять, сокращать им рабочие часы или понижать в должности. Но это не касается сведений, имеющих отношение к безопасности систем ИИ.

При этом OpenAI ранее включала положение о недискредитации в соглашении о расторжении трудового договора, а также расформировала подразделение Superalignment, которое специализировалось на безопасности ИИ. Google продолжила отстаивать свою правоту после того, как поисковый ИИ дал пользователям множество явно несуразных ответов. Microsoft же подвергалась критике за генератор изображений Copilot Designer, посредством которого создавались явно выходящие за рамки этических норм картинки.

Ведущие разработчики ИИ назвали свои продукты угрозой, сравнимой с пандемией и ядерной войной

Главы компаний OpenAI, Google DeepMind, Anthropic и других лабораторий искусственного интеллекта предупредили, что технологии, над которыми они работают, могут поставить под угрозу существование человечества, поэтому их следует отнести к категории социальных рисков наряду с пандемиями и ядерными войнами.

 Источник изображений: Gerd Altmann / pixabay.com

Источник изображений: Gerd Altmann / pixabay.com

«Снижение риска вымирания из-за ИИ должно быть глобальным приоритетом наравне с другими рисками общественного масштаба, такими как пандемии и ядерные войны», — гласит открытое письмо лидеров отрасли, состоящее всего из одного предложения. Как ожидается, документ будет опубликован некоммерческой организацией Center for AI Safety. Его подписали более 350 руководителей, исследователей и инженеров, работающих в сфере ИИ.

Среди подписантов, в частности, значатся: глава OpenAI Сэм Альтман (Sam Altman); глава подразделения Google DeepMind Демис Хассабис (Demis Hassabis); глава Anthropic Дарио Амодеи (Dario Amodei), а также Джеффри Хинтон (Geoffrey Hinton) и Йошуа Бенджио (Yoshua Bengio) — двое из трёх обладателей Премии Тьюринга, считающиеся «крёстными отцами» современного искусственного интеллекта, тогда как третий, Янн ЛеКун (Yann LeCun), возглавляющий исследования в области ИИ в Meta, на текущий момент подпись ещё не поставил.

В обществе действительно растёт обеспокоенность по поводу дальнейшего развития систем искусственного интеллекта. Есть мнение, что платформы масштаба ChatGPT смогут использовать для распространения дезинформации и пропаганды, кроме того, только в Европе и США из-за ИИ могут лишиться работы 300 млн человек. Эти опасения разделяют и лидеры отрасли, которые тем самым ставят сами себя в необычное положение: они утверждают, что разрабатываемые ими технологии представляют серьёзные риски и должны жёстко регулироваться государством.

Некоторые скептики уверяют, что технологии ИИ пока слишком незрелы, чтобы представлять ощутимую угрозу человечеству, поэтому следует сосредоточиться на вопросах краткосрочной перспективы — предвзятых и некорректных ответах систем ИИ. Другие же считают, что сравнимый с возможностями человека ИИ появится уже в ближайшем будущем. Во избежание возможных негативных последствий лидеры отрасли предлагают создать организацию, направленную на регулирование ИИ — это должен быть своего рода аналог Международного агентства по атомной энергии (МАГАТЭ), которое пытается не допустить распространение и применение ядерного оружия.

В марте более тысячи исследователей и представителей технологической отрасли подписали открытое письмо с призывом на полгода приостановить разработку передовых систем ИИ, объявив их угрозой человечеству. Очередной документ в оригинале содержит всего 22 слова — лаконичная формулировка призвана объединить экспертов, мнения которых могут расходиться по отдельным вопросам. «Думаю, если с этой технологией что-то пойдёт не так, то всё будет совсем не так. И мы хотим заявить об этом. Мы хотим сотрудничать с правительством, чтобы это предотвратить», — заявил глава OpenAI Сэм Альтман в ходе недавних слушаний в Конгрессе США.


window-new
Soft
Hard
Тренды 🔥
«Дорогая, я уменьшил ведьмака»: новогодний мод для The Witcher 3: Wild Hunt отправит Геральта в незабываемое праздничное приключение 25 мин.
В работе ChatGPT произошёл глобальный сбой 2 ч.
Разработчики Assetto Corsa Evo подтвердили, с каким контентом игра выйдет на старт раннего доступа и чего ждать от полноценного релиза 2 ч.
Российский аниме-хоррор MiSide внезапно оказался хитом Steam — восторженные отзывы игроков, сотни тысяч проданных копий 4 ч.
Киберпанковый слешер Ghostrunner 2 стал новой бесплатной игрой в Epic Games Store — раздача доступна в России и продлится всего 24 часа 5 ч.
Activision сыграет в кальмара: новый трейлер раскрыл, когда в Call of Duty: Black Ops 6 стартует кроссовер со Squid Game 2 6 ч.
«К чёрту Embracer Group»: неизвестный устроил утечку исходного кода Saints Row IV 7 ч.
Отечественная платформа Tantor повысит производительность и удобство работы с СУБД на базе PostgreSQL 10 ч.
В Steam вышла новая демоверсия голливудской стратегии Hollywood Animal от авторов This is the Police 10 ч.
IT-холдинг Т1 подал иск к «Марвел-Дистрибуции» в связи с уходом Fortinet из России 11 ч.