Сегодня 27 декабря 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → угрозы

Ядерный взрыв может защитить Землю от «астероида судного дня», доказал новый эксперимент

Учёные из США провели эксперимент, который доказал возможность изменения траектории опасного для Земли астероида с помощью ядерного взрыва. Исследователи не собираются взрывать сам астероид, оставляя зрелищность разлёта обломков киношникам. На астероид должно влиять мощное ионизирующее излучение близкого ядерного взрыва, испаряющее его поверхность и создающее точно рассчитанный вектор тяги.

 Источник изображения: Nature Physics, 2024

Источник изображения: Nature Physics, 2024

Эксперимент был поставлен в Сандийских национальных лабораториях в США (Sandia National Laboratories). Для этого группа учёных под руководством физика Натана Мура (Nathan Moore) воспользовалась мощной рентгеновской установкой лаборатории — так называемой Z-машиной. Исследователи направили рентгеновские импульсы на мишени, играющие роль астероидов из кварца и плавленого кварца. В астероидах обычно много силикатов, поэтому мишени в среднем соответствовали составу большинства астероидов.

Мишень диаметром 12 мм была закреплена на установке металлической фольгой. Излучение испаряло фольгу, отчего модель астероида как бы зависала в свободном пространстве и подвергалась удару лишь рентгеновским лучом. Газ от распылённой фольги отводился от мишени, чтобы не вносить вклад в импульс от воздействия излучения на мишень. Для учёных важна была динамика не только прямого воздействия, но также относительно длительное воздействие в процессе расширения испаряемого с поверхности мишени вещества (ионизированного газа или плазмы). Поскольку выстрел и процесс длились доли секунды, свободным падением мишени после испарения фольги можно было пренебречь.

Измерения показали, что мишени из кварца после выстрела рентгеном общей интенсивностью 1,5 МДж приобретали скорость 69,6 м/с, а мишени из плавленого кварца — 70,3 м/с, что с высокой точностью соответствует теоретическим расчётам на цифровой модели. Масштабирование до астероидов размерами от 3 до 5 км обещает, что близкий взрыв ядерной бомбы рядом с астероидом придаст ему скорость более 10 см/с в нужном направлении, что гарантированно отклонит его траекторию.

Подобные астероиды могут падать на Землю один раз в 250–500 млн лет. Это очень маленькая, но ненулевая вероятность уничтожения земной цивилизации, что заставляет заранее искать пути воздействия на опасные для нашей планеты астероиды. Пока учёные вместе с NASA провели лишь один натурный эксперимент по изменению траектории астероида ударным воздействием. Зонд-камикадзе DART ударил в астероид Диморф, заставив его изменить орбитальное движение вокруг его центральной пары — астероида Дидим.

В целом ударное воздействие на опасный астероид рискованно само по себе, поскольку может превратить один опасный астероид в рой не менее опасных и плохо отслеживаемых камней. Точно так же прямой удар атомной бомбой по астероиду — это риск того же плана. Воздействие на астероид мощным ионизирующим излучением, которое будет создавать тягу из испаряемого вещества его поверхности — это более предсказуемый по последствиям способ заставить небесное тело изменить орбиту. Лабораторный эксперимент доказал осуществимость такого метода. Но вряд ли дело дойдёт до экспериментов. Пока международными соглашениями ядерное оружие запрещено выводить в космос в любом виде.

Учёные не нашли причин опасаться столкновения Земли с астероидом Апофис

Астероид Апофис (Apophis, номер 99942), представляющий потенциальную угрозу жизни на Земле, в 2021 году был на ближайшие 100 лет исключён из списка угроз из космоса. Тщательное изучение объекта в течение почти 20 лет с момента обнаружения позволило максимально точно рассчитать его орбиту, которая даже с учётом погрешностей не пересекалась с Землёй. Но совсем угроза не исчезла. Столкновение с другим астероидом способно сбить Апофис с безопасной траектории.

 Источник изображения: ИИ-генерация Кандинский 3.0/3DNews

Источник изображения: ИИ-генерация Кандинский 3.0/3DNews

Миссия NASA DART по ударному изменению траектории астероидов с помощью зондов-камикадзе наглядно показала, что астероид способен менять траекторию при столкновении с другим небесным телом. Даже таким небольшим, как 570-кг зонд DART. Если в 340-метровый Апофис массой 61 млн тонн влетит объект подобной ему массы, их траектории, очевидно, изменятся очень и очень сильно.

Под впечатлением миссии DART группа астрономов решила изучить вероятность столкновения с Апофисом любого из других известных астероидов в пространстве его пролёта. В эту область попадает свыше 1,3 млн известных астероидов. Все эти объекты были внесены в модель и изучены с учётом всех погрешностей на предмет вероятного столкновения с Апофисом.

 Радарные изображения Апофиса при пролёте рядом с Землёй в 2021 году. Источник изображения: NASA/JPL-Caltech and NSF/AUI/GBO

Радарные изображения Апофиса при пролёте рядом с Землёй в 2021 году. Источник изображения: NASA/JPL-Caltech and NSF/AUI/GBO

«Учитывая, насколько близко Апофис пройдет мимо Земли, существует возможный риск того, что отклонение от его текущей траектории может привести Апофис к столкновению с нами, — поясняют авторы работы, опубликованной в журнале Planetary Science. — Гипотетически, столкновение другого астероида с Апофисом может вызвать такое отклонение, что побудило нас изучить этот сценарий, каким бы маловероятным он ни был».

Расчёты показали, что астероиду Апофис никакие столкновения не угрожают, а значит, его орбита останется в рамках индивидуальных для него расчётов и будет неопасна для Земли. Остаётся угроза со стороны ещё неоткрытых астероидов. Но с этим человечество ничего поделать не может. Остаётся только готовиться по мере сил и создавать новые слои планетарной защиты.

OpenAI создала команду по изучению «катастрофических» угроз ИИ, вплоть до ядерной

Ответственная за сервис ChatGPT компания OpenAI сообщила, что сформировала подразделение по оценке и исследованию моделей искусственного интеллекта на предмет защиты от того, что характеризуется как «катастрофические риски».

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Команду под названием Preparedness («боеготовность») возглавил директор Центра развёртываемого машинного обучения при Массачусетском технологическом институте Александр Мадри (Aleksander Madry) — по данным профессиональной соцсети LinkedIn, он занял этот пост в компании ещё в мае. В задачи подразделения входит отслеживание, прогнозирование и защита от опасностей, которые несут перспективные системы ИИ — от их дара убеждения (как в случае с составлением фишинговых писем) до генерации вредоносного кода. Некоторые из категорий угроз пока, к счастью, не обозначились в реальном поле: к ним отнесли химические, биологические, радиационные и ядерные.

Гендиректор OpenAI Сэм Альтман (Sam Altman) неоднократно выражал опасения, что ИИ способен «привести к вымиранию человечества», и формирование в компании соответствующего подразделения отражает эту позицию. Компания открыта и для изучения «менее очевидных» областей риска ИИ, добавил господин Альтман. Связаться с компанией для изложения своих опасений может любой желающий — авторы десяти лучших работ получат денежный приз в размере $25 тысяч или работу в OpenAI. «Представьте, что мы предоставили вам неограниченный доступ к моделям OpenAI Whisper (расшифровка речи), Voice (преобразование текста в речь), GPT-4V и DALLE·3, а вы оказались злодеем. Рассмотрим наиболее уникальные, хотя и, вероятно, потенциально катастрофически неправильные сценарии использования модели», — говорится в одном из конкурсных вопросов.

Подразделению Preparedness будет поручено сформулировать «политику разработки с учётом угроз» — документ с подробным описанием подхода OpenAI к построению инструментов оценки и мониторинга моделей ИИ, действий по снижению угроз, а также структуры управления для надзора в процессе развития моделей. Специалисты команды дополнят прочие аспекты работы OpenAI в области безопасного ИИ, уделяя особое внимание этапам до и после развёртывания модели.

Альтман и Илья Суцкевер (Ilya Sutskever), главный научный сотрудник и соучредитель OpenAI, убеждены, что ИИ с уровнем сознания выше человеческого может появиться в ближайшие десять лет, и не факт, что этот ИИ будет доброжелательным. Поэтому компания считает необходимым изучать возможности по его ограничению.

Unity закрыла два офиса из опасений за жизни сотрудников

Руководство Unity Technologies отменило ранее запланированное собрание трудового коллектива и закрыла два офиса — причиной тому компания назвала поступившие угрозы и вызванные ими опасения за жизни своих сотрудников. Конфликт разгорелся на почве решения ввести комиссию Unity Runtime Fee.

 Источник изображения: unity.com

Источник изображения: unity.com

В компании «узнали о потенциальной угрозе некоторым из её офисов» и «приняли незамедлительные превентивные меры для обеспечения безопасности сотрудников», — цитирует Bloomberg заявление представителя Unity. Unity закрыла офисы, которые могли подвергнуться нападению 14 и 15 сентября, и начала «в полной мере сотрудничать с правоохранительными органами».

Поводом для недовольства общественности стало озвученное 12 сентября решение компании инициировать программу Unity Runtime Fee — она предусматривает новую схему отчислений за игры, созданные на платформе Unity Engine. С 1 января 2024 года создателям игр на движке Unity придётся платить за каждую установку (по достижении определённого порога).

Разработчики игр обвинили Unity в нарушении собственных условий лицензирования ПО и предупредили, что новая схема тарификации может поставить под угрозу их существование. Многие игровые студии выступили с резкими заявлениями, призывая компанию пересмотреть своё решение.

Гендиректор Unity Джон Ричителло (John Riccitiello) накануне должен был провести встречу с работниками компании, но мероприятие пришлось отменить в качестве меры предосторожности. Офисы в Остине (Техас) и Сан-Франциско (Калифорния) закрылись.

«Если мы замедлимся, гонка ИИ не остановится», — не все разработчики ИИ готовы приостановить разработки

Глава софтверной компании Palantir Алекс Карп (Alex Carp) утверждает, что только те, у кого «нет продуктов ИИ, хотят сделать паузу». Его компания объявила о дополнительных инвестициях и отвергла призывы приостановить разработки в области ИИ. «Гонка началась — вопрос только в том, останемся ли мы впереди или уступим лидерство?» — ставит вопрос ребром Алекс. Он уверен, что Запад в настоящее время обладает ключевыми коммерческими и военными преимуществами в области ИИ и не должен отказываться от них.

 Источник изображения: Pixabay

Источник изображения: Pixabay

«Если мы замедлимся, гонка ИИ не остановится. Ни одна страна в мире, особенно наши противники, не может позволить нам иметь это преимущество, — сказал он. — Изучать и разрабатывать ИИ, а затем позволить другим побеждать как в коммерческих сферах, так и в военных — плохая стратегия».

Комментарии Карпа имеют совершенно иной тон по сравнению с недавним избытком ужасных предупреждений о потенциально экзистенциальной угрозе, которую ИИ представляет для человечества, и сопутствующих призывов к замедлению или даже остановке его развития.

В марте Илон Маск (Elon Musk), Стив Возняк (Steve Wozniak), а также более 1000 других экспертов в области искусственного интеллекта и представителей IT-индустрии призвали ввести полугодовой мораторий на обучение ИИ-систем, более производительных, чем недавно представленная модель GPT-4 компании OpenAI. В открытом письме они предупредили о потенциальных рисках для общества.

В мае лидеры индустрии ИИ, в том числе руководители OpenAI и Google Deepmind, предупредили, что искусственный интеллект может привести к вымиранию человечества. В качестве одной из угроз они указали участие ИИ в разработке химического оружия нового поколения. Двое из трёх так называемых крестных отцов ИИ — Джеффри Хинтон (Geoffrey Hinton) и профессор Йошуа Бенжио (Yoshua Bengio ) — были среди тех, кто предупреждал, что технология, которую они помогли создать, имеет огромный потенциал для причинения вреда.

Регулирующие органы многих стран изо всех сил пытаются разработать новые правила, чтобы ограничить риск применения ИИ.

Этой осенью Великобритания планирует провести глобальный саммит по ИИ, а премьер-министр Риши Сунак (Rishi Sunak) хочет, чтобы Великобритания приложила усилия, чтобы преимущества ИИ были «использованы на благо человечества». Состав участников саммита пока неизвестен, но правительство Великобритании заявило, что «соберёт вместе ключевые страны, ведущие технологические компании и исследователей, чтобы согласовать меры безопасности для оценки и мониторинга наиболее значительных рисков, связанных с ИИ».

Сунак утверждает, что Великобритания является «естественным местом» для ведения разговора об ИИ, упомянув недавние встречи с руководителями ведущих фирм, занимающихся ИИ. По его словам, этот сектор экономики, в котором занято 50 000 человек, принёс Великобритании £3,7 млрд.

Желание Сунака возглавить процесс понятно, но многие ставят под сомнение лидерство Великобритании в этой области. Аналитики считают, что Великобритания может быть слишком амбициозной, а между ЕС и США существуют резкие различия в подходах к управлению и регулированию, на которые Великобритании будет трудно влиять. Кроме того, уже существует ряд глобальных инициатив, включая Глобальный цифровой договор ООН, который имеет более прочную фундаментальную основу.

Нужно отметить, что ни одна из самых новаторских фирм в области искусственного интеллекта не базируется в Великобритании. «Вместо того, чтобы пытаться играть эту роль, Великобритания, возможно, должна сосредоточиться на поощрении ответственного поведения в исследованиях, разработке и внедрении этих технологий», — уверена Ясмин Афина (Yasmin Afina), научный сотрудник инициативы цифрового общества Chatham House.

Европейский союз разрабатывает закон об искусственном интеллекте, но признаёт, что даже в лучшем случае для его вступления в силу потребуется два с половиной года. Еврокомиссар по вопросам конкуренции Маргрет Вестагер (Margrethe Vestager) считает, что будет «слишком поздно». Она сообщила о работе над добровольным кодексом, который может быть составлен в течение нескольких недель. Китай также активно разрабатывает правила использования ИИ, включая требование уведомлять пользователей всякий раз, когда используется алгоритм ИИ.

Противоречия между разработчиками ИИ и регулирующими органами будут только множиться. В дальнейшем можно ожидать массовых протестов против применения ИИ, из-за которого уже сейчас теряют работу тысячи людей, а в перспективе их число, возможно, станет измеряться миллионами.

Ведущие разработчики ИИ назвали свои продукты угрозой, сравнимой с пандемией и ядерной войной

Главы компаний OpenAI, Google DeepMind, Anthropic и других лабораторий искусственного интеллекта предупредили, что технологии, над которыми они работают, могут поставить под угрозу существование человечества, поэтому их следует отнести к категории социальных рисков наряду с пандемиями и ядерными войнами.

 Источник изображений: Gerd Altmann / pixabay.com

Источник изображений: Gerd Altmann / pixabay.com

«Снижение риска вымирания из-за ИИ должно быть глобальным приоритетом наравне с другими рисками общественного масштаба, такими как пандемии и ядерные войны», — гласит открытое письмо лидеров отрасли, состоящее всего из одного предложения. Как ожидается, документ будет опубликован некоммерческой организацией Center for AI Safety. Его подписали более 350 руководителей, исследователей и инженеров, работающих в сфере ИИ.

Среди подписантов, в частности, значатся: глава OpenAI Сэм Альтман (Sam Altman); глава подразделения Google DeepMind Демис Хассабис (Demis Hassabis); глава Anthropic Дарио Амодеи (Dario Amodei), а также Джеффри Хинтон (Geoffrey Hinton) и Йошуа Бенджио (Yoshua Bengio) — двое из трёх обладателей Премии Тьюринга, считающиеся «крёстными отцами» современного искусственного интеллекта, тогда как третий, Янн ЛеКун (Yann LeCun), возглавляющий исследования в области ИИ в Meta, на текущий момент подпись ещё не поставил.

В обществе действительно растёт обеспокоенность по поводу дальнейшего развития систем искусственного интеллекта. Есть мнение, что платформы масштаба ChatGPT смогут использовать для распространения дезинформации и пропаганды, кроме того, только в Европе и США из-за ИИ могут лишиться работы 300 млн человек. Эти опасения разделяют и лидеры отрасли, которые тем самым ставят сами себя в необычное положение: они утверждают, что разрабатываемые ими технологии представляют серьёзные риски и должны жёстко регулироваться государством.

Некоторые скептики уверяют, что технологии ИИ пока слишком незрелы, чтобы представлять ощутимую угрозу человечеству, поэтому следует сосредоточиться на вопросах краткосрочной перспективы — предвзятых и некорректных ответах систем ИИ. Другие же считают, что сравнимый с возможностями человека ИИ появится уже в ближайшем будущем. Во избежание возможных негативных последствий лидеры отрасли предлагают создать организацию, направленную на регулирование ИИ — это должен быть своего рода аналог Международного агентства по атомной энергии (МАГАТЭ), которое пытается не допустить распространение и применение ядерного оружия.

В марте более тысячи исследователей и представителей технологической отрасли подписали открытое письмо с призывом на полгода приостановить разработку передовых систем ИИ, объявив их угрозой человечеству. Очередной документ в оригинале содержит всего 22 слова — лаконичная формулировка призвана объединить экспертов, мнения которых могут расходиться по отдельным вопросам. «Думаю, если с этой технологией что-то пойдёт не так, то всё будет совсем не так. И мы хотим заявить об этом. Мы хотим сотрудничать с правительством, чтобы это предотвратить», — заявил глава OpenAI Сэм Альтман в ходе недавних слушаний в Конгрессе США.

TikTok предоставит учёным и аналитикам из США доступ к своему API

TikTok откроет исследователям из некоммерческих университетов США доступ к некоторым данным платформы. API платформы позволит учёным и аналитикам получать доступ к «общедоступным анонимным» данным, таким как профили пользователей, комментарии, лайки и «избранные» видео и результаты поиска, чтобы сделать понятными и прозрачными тенденции TikTok и активность пользователей.

 Источник изображения: Pixabay / Antonbe

Источник изображения: Pixabay / Antonbe

Исследовательский API был впервые анонсирован прошлым летом, а члены консультативного совета получили доступ к нему в ноябре. Теперь более широкий круг исследователей сможет пристально изучить TikTok, но доступ к API по-прежнему контролируется компанией. Предложения по исследованиям необходимо согласовывать с американским подразделением безопасности данных TikTok, а от учёных требуется соблюдение условий сервиса. Компания заявляет, что расширит доступ к своему исследовательскому API для большего количества регионов и некоммерческих исследователей «в ближайшие месяцы».

Первоначальное объявление TikTok о доступе аналитиков и учёных к API было сделано как ещё одна попытка доказать, что TikTok, как и материнская компания ByteDance, не является угрозой национальной безопасности США: приложение было запрещено использовать на рабочих смартфонах, принадлежащих членам Палаты представителей, и аналогичные ограничения распространились на госслужащих в разных штатах и федеральных агентствах.

Новость о расширении доступа к общедоступным данным является последней в череде действий компании, направленных на повышение доверия и призванных дать исследователям, журналистам и общественности больше информации о том, как она работает. Ранее в этом месяце компания пригласила представителей СМИ совершить экскурсию по своему Центру прозрачности и подотчётности, физическому офисному пространству, где посетители могут взаимодействовать с программным обеспечением для имитации модерации и узнавать о его методах обеспечения безопасности.

Тем не менее, американские политики, как либералы, так и консерваторы, продолжают призывать к полному запрету TikTok и этот вопрос на данный момент стал источником политических манипуляций и спекуляций.


window-new
Soft
Hard
Тренды 🔥
Количество загрузок, планы на релиз и ограничения Steam: разработчики российской стратегии «Передний край» подвели итоги 2024 года 7 мин.
В Windows 11 обнаружена ошибка, которая мешает установке обновления безопасности 6 ч.
Разработчики Assetto Corsa Evo подтвердили, с каким контентом игра выйдет на старт раннего доступа и чего ждать от полноценного релиза 12 ч.
Российский аниме-хоррор MiSide внезапно оказался хитом Steam — восторженные отзывы игроков, сотни тысяч проданных копий 14 ч.
Киберпанковый слешер Ghostrunner 2 стал новой бесплатной игрой в Epic Games Store — раздача доступна в России и продлится всего 24 часа 15 ч.
Activision сыграет в кальмара: новый трейлер раскрыл, когда в Call of Duty: Black Ops 6 стартует кроссовер со Squid Game 2 16 ч.
«К чёрту Embracer Group»: неизвестный устроил утечку исходного кода Saints Row IV 17 ч.
Отечественная платформа Tantor повысит производительность и удобство работы с СУБД на базе PostgreSQL 20 ч.
В Steam вышла новая демоверсия голливудской стратегии Hollywood Animal от авторов This is the Police 20 ч.
IT-холдинг Т1 подал иск к «Марвел-Дистрибуции» в связи с уходом Fortinet из России 21 ч.