Оригинал материала: https://3dnews.ru./1096412

OpenAI совершила прорыв в создании сильного ИИ незадолго до увольнения Сэма Альтмана

Незадолго до того, как Сэм Альтман (Sam Altman) был уволен с поста гендиректора OpenAI, несколько научных сотрудников компании направили в совет директоров письмо, в котором предупредили о существенном прорыве в разработке искусственного интеллекта — это открытие, по их мнению, может угрожать человечеству, сообщило Reuters со ссылкой на два источника.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Письмо стало одним из факторов в длинном списке претензий совета директоров к главе компании Сэму Альтману. Речь в документе шла о проекте Q* («Q со звёздочкой») — представители OpenAI не дают официальных комментариев о нём, но Мира Мурати (Mira Murati), некоторое время занимавшая пост гендиректора компании в отсутствие Альтмана, написала адресованное сотрудникам сообщение, в котором признала факт существования этого проекта и предупредила об интересе СМИ к нему.

Проект Q*, уверены некоторые сотрудники OpenAI, может стать прорывом в разработке сильного искусственного интеллекта (AGI), способного выполнять задачи, не уступая человеку. При наличии мощных вычислительных ресурсов новая модель научилась решать математические задачи — пока на уровне ученика начальной школы, но это достижение вселяет в исследователей оптимизм по поводу будущих успехов Q*.

Математика, по мнению учёных, является передовым рубежом в области развития генеративного ИИ. Сейчас он успешно пишет тексты и осуществляет переводы на разные языки, статистически предсказывая каждое последующее слово, но его ответы на один и тот же вопрос могут сильно отличаться. Достижение успеха в области математики, где может быть только один правильный ответ, предполагает наличие у ИИ значительных способностей к рассуждению по образцу человеческого интеллекта. Эти способности можно будет применить к перспективным исследованиям в области ИИ. В отличие от калькулятора, который выполняет ограниченное число операций, AGI умеет обобщать, учиться и понимать.

 Источник изображения: Andrew Neel / unsplash.com

Источник изображения: Andrew Neel / unsplash.com

В своём письме совету директоров исследователи OpenAI отметили мощь ИИ и потенциальную угрозу человечеству, хотя и не уточнили, каких именно аспектов безопасности они могут коснуться. Специалисты в области информационных технологий уже давно ведут дискуссии о высокоинтеллектуальных машинах, которые, например, могут прийти к выводу, что их интересам отвечает уничтожение человечества. Авторы письма отметили работу подразделения, сформированного путём объединения команд Code Gen и Math Gen, — учёные этого подразделения изучали способы оптимизировать существующие модели ИИ, чтобы повысить качество рассуждений систем и направить их потенциал на научную работу.

Альтман превратил платформу ChatGPT в один из наиболее востребованных программных продуктов и привлёк от Microsoft финансовые и вычислительные ресурсы, необходимые для работы по созданию AGI. На прошлой неделе в ходе своего выступления на саммите АТЭС он заявил мировым лидерам, что серьёзный прорыв уже не за горами. «Четыре раза за всю историю OpenAI, последний из которых был не более двух недель назад, мне довелось присутствовать в комнате, где мы как будто раздвигаем завесу невежества и отодвигаем границу открытий вперёд, и сделать это — профессиональная честь всей жизни», — заявил Альтман. На следующий день совет директоров его уволил.



Оригинал материала: https://3dnews.ru./1096412