Сегодня 08 июля 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → м.видео
Быстрый переход

iOS 18 позволит снимать пространственное видео на iPhone с помощью сторонних приложений

Смартфоны iPhone 15 Pro и iPhone 15 Pro Max, работающие под управлением iOS 17.2 или более свежих версиях ОС, могут записывать пространственное видео для воспроизведения на гарнитуре Apple Vision Pro. В настоящий момент функция поддерживается только фирменным приложением «Камера» от Apple. Начиная с iOS 18 сторонние приложения камеры из App Store тоже смогут предложить поддержку этой функции.

 Источник изображения: Apple

Источник изображения: Apple

В ходе мероприятия WWDC 2024 на прошлой неделе Apple сообщила, что выпустила API, который позволяет разработчикам добавить в свои приложения камер функцию записи пространственного видео. По словам Apple, новый API уже поддерживается существующими программными фреймворками, связанными с камерой, что упрощает его интеграцию.

В горизонтальной ориентации основная и сверхширокоугольная камеры iPhone 15 Pro объединяются для записи пространственного видео. Ожидается, что с выходом смартфонов серии iPhone 16 поддержку этой функции получат не только флагманские iPhone 16 Pro и Pro Max, но также модели iPhone 16 и iPhone 16 Plus, поскольку их камеры, согласно слухам, тоже будут расположены вертикально.

Для просмотра пространственного видео нужна гарнитура Vision Pro, так как при произведении такого контента на экране iPhone он отображается в обычном двумерном формате.

Операционная система iOS 18 проходит стадию бета-тестирования. Полноценный выпуск новой ОС ожидается в сентябре.

Пользователи YouTube смогут добавлять примечания к видео

На YouTube стартовало тестирование функции, которая позволит пользователям платформы добавлять примечания к видео. К примеру, можно будет пометить видео как пародийное или сообщить зрителям, что оно содержит старые материалы, которые подаются как актуальное событие.

 Источник изображения: Szabo Viktor / unsplash.com

Источник изображения: Szabo Viktor / unsplash.com

Если примечание будет сочтено полезным, оно станет выводиться в небольшом блоке под видео. На текущий момент такие пояснения может добавлять «ограниченное число» членов сообщества YouTube, а сторонние эксперты оценят полезность этих пояснений. В ближайшие недели и месяцы примечания и отзывы о них будут использоваться для обучения собственной системы оценки пояснений на YouTube.

 Источник изображения: blog.youtube

Источник изображения: blog.youtube

В перспективе платформа будет спрашивать и зрителей, считают ли они определённое примечание «полезным», «в некоторой степени полезным» или «бесполезным» — и объяснить, почему. Эти ответы также станут транслироваться алгоритму платформы, который научится определять, является ли примечание «полезным в целом». Если некоторое число пользователей, которое ранее оценивало те или иные примечания по-разному, сойдётся во мнениях по поводу одного из них, оно будет с большой степенью вероятности показано всем зрителям.

Пока функция примечаний доступна только для англоязычных пользователей мобильной версии YouTube в США. Аналогичные пояснения с прошлого года заработали и в поисковой выдаче Google — эту возможность можно включить в разделе Google Search Labs. В 2021 году схожая функция появилась и в Twitter (теперь X), где она помогает бороться с дезинформацией.

Runway представила ИИ-генератор реалистичных видео Gen-3 Alpha

Свою первую модель искусственного интеллекта для генерации видео нью-йоркский стартап Runway выпустил ещё в прошлом году, но с тех пор его работу затмили такие мощные проекты как OpenAI Sora и представленная на минувшей неделе Luma AI Dream Machine. Теперь компания решила ответить конкурентам, рассказав о новой модели Gen-3 Alpha.

 Источник изображений: runwayml.com

Источник изображений: runwayml.com

Нейросеть Gen-3 Alpha — это, как пообещал разработчик, «первая из грядущей серии моделей, обученных Runway на новой инфраструктуре, построенной для крупномасштабного мультимодального обучения». Это будут модели ИИ, способные «представлять и моделировать широкий спектр ситуаций и взаимодействий, подобных тем, что встречаются в реальном мире».

Новая система позволяет генерировать высококачественные, детализированные, высокореалистичные видеоролики длиной 10 секунд — их отличают широкий спектр эмоций у персонажей и движущаяся камера при «съёмке». На создание 5-секундного ролика уходят 45 секунд, а 10-секундные видео появляются за 90 секунд. Общий доступ к новой модели компания пока не открыла, но в «ближайшие дни», как уточнил технический директор Runway Анастасис Германидис (Anastasis Germanidis), ей смогут пользоваться платные подписчики платформы (от $15 в месяц или от $144 в год), а затем, уже в этом году, и все остальные.

Модель Gen-3 Alpha «обучена совместно на видео и изображениях» — это «совместная работа междисциплинарной группы исследователей, инженеров и художников», но происхождение всех материалов из обучающего массива в компании не раскрыли. «У нас есть внутренняя исследовательская группа, которая осуществляет надзор за нашим обучением, и для обучения наших моделей мы применяем тщательно отобранные внутренние наборы данных», — пояснил представитель Runway.

Компания также «сотрудничает с ведущими развлекательными и медийными организациями в области создания индивидуальных версий Gen-3», что «позволит генерировать более стилистически управляемых и последовательных персонажей и поможет ориентироваться на конкретные художественные и повествовательные требования, среди прочего», рассказал разработчик. Конкретные имена не называются, но известно, что продукты Runway в своих работах использовали режиссёры таких лент как «Всё везде и сразу» (Everything, Everywhere, All at Once) и «Народный Джокер» (The People’s Joker). На сайте компании есть форма запроса, которую могут заполнить рассчитывающие на сотрудничество компании — для них разработчик подготовит собственную версию Gen-3 Alpha. Стоимость такой модели не уточняется.

Представлен ИИ-генератор чрезвычайно реалистичных видео Luma Dream Machine — попробовать можно бесплатно

Компания Luma Labs представила модель искусственного интеллекта Dream Machine, предназначенную для создания видео и доступную массовому пользователю. Систему отличает высокий реализм — создаваемые ей видео совсем не похожи на творчество ИИ.

 Источник изображений: x.com/LumaLabsAI

Источник изображений: x.com/LumaLabsAI

Разработчик анонсировал свой проект в соцсети X, опубликовав несколько примеров созданных ИИ видео. «Представляем Dream Machine — видеомодель нового поколения для создания высококачественных реалистичных роликов по текстовым запросам и изображениям с помощью ИИ», — говорится в описании. Проект стал пользоваться высоким спросом, поэтому в ближайшее время опробовать систему в деле будет непросто — запросы большинства пользователей ставятся в очередь, и некоторые бросают забаву, так и не дождавшись результатов. Возможно, когда шумиха вокруг нового проекта поутихнет, работать с системой будет проще.

Попробовать создать видео по текстовому описанию или по статическому изображению может любой желающий, достаточно лишь зарегистрировать учётную запись. После этого в Dream Machine можно создать 30 видео в месяц — есть и платные варианты до 2000 видео в месяц за $499, но большинству, вероятно, хватит бесплатной версии сервиса. ИИ-модель действительно отличают реалистичные видео, причём реалистично смотрятся не только объекты на роликах, но и движения камеры — как будто съёмку ведёт профессиональный оператор.

YouTube позволит авторам тестировать несколько миниатюр к видео одновременно

YouTube анонсировала новый инструмент «Тестирование и сравнение миниатюр» для создателей контента. Теперь авторы смогут протестировать одновременно до трёх вариантов миниатюр, сравнить их эффективность и выбрать ту, которая привлекает больше всего зрителей.

 Источник изображения: YouTube

Источник изображения: YouTube

Об этой функции впервые было объявлено в июне прошлого года, однако до сих пор она была доступна лишь ограниченному кругу пользователей. Теперь же YouTube заявляет, что в ближайшие недели инструмент станет доступен всем создателям контента.

Как это работает? Авторы могут загрузить до 3 вариантов миниатюр для одного видео. YouTube будет показывать их случайным образом разным зрителям, а затем выберет победившую на основе того, какая миниатюра привлекла большего всего просмотров.

Создатели смогут в режиме реального времени отслеживать статистику и сравнивать эффективность разных миниатюр. Получение окончательных результатов может занять от нескольких дней до двух недель. В итоговом отчёте для наиболее успешной превьюшки будет пометка «Победитель». Также может отображаться метка «Предпочтительно», если одна из миниатюр превзошла другие, но результат не является однозначным.

Хотя инструмент и даёт рекомендации, окончательный выбор по-прежнему остаётся за автором видео. Доступ к новой функции предоставляется только в веб-версии YouTube Studio на компьютере.

Интересны результаты тестирования для некоторых популярных каналов. Так, автор канала MrBeast выяснил, что миниатюры, на которых его рот закрыт, генерируют больше просмотров. В результате на большинстве новых миниатюр MrBeast теперь позирует именно с закрытым ртом.

Таким образом, новая функция от YouTube позволит создателям контента экспериментировать и оптимизировать миниатюры к видео для привлечения большего трафика и внимания зрителей.

Canon представила объектив для съёмки пространственных видео для Apple Vision Pro на обычную камеру

На ежегодной конференции разработчиков WWDC 2024 компания Apple рассказала о том, в каких направлениях будет развивать visionOS — программную платформу, используемую в гарнитуре смешанной реальности Vision Pro. Одним из направлений развития является пространственное видео, т.е. возможность просмотра 3D-роликов с эффектом погружения. Было объявлено, что Canon выпустит специальный объектив для своей камеры EOS R7, который позволит снимать пространственные видео.

 Камера EOS R7 / Источник изображения: Canon

Камера EOS R7 / Источник изображения: Canon

Отметим, что Canon не впервые выпускает объектив, предназначенный для выполнения одной задачи. В арсенале компании есть линза RF 5.2mm f/2.8 L Dual Fisheye, которая предназначена для создания высококачественного VR-контента и совместима с камерами EOS R5 C, R6 и R6 Mark II. Новый пространственный объектив RF-S 7.8mm f/4 STM будет совместим только с беззеркальной камерой EOS R7.

Объявление о скором появлении специального объектива для съёмки пространственных видео произошло вместе с анонсом visionOS 2, новой версии программной платформы для гарнитуры Vision Pro. Одним из наиболее заметных нововведений ОС станет возможность делать из обычных фотографий пространственные изображения. Что касается объектива для съёмки пространственных видео от Canon, то о нём мало что известно. Характеристики и розничная стоимость новинки на презентации раскрыты не были.

У Sora появился конкурент из Китая — нейросеть Kling, которая генерирует 1080p-видеоролики по описанию

Китайская платформа коротких видео Kuaishou, главный конкурент Douyin — китайского раздела TikTok, — представила основанный на искусственном интеллекте сервис создания видео по текстовому описанию Kling. Этот сервис во многом напоминает OpenAI Sora, свидетельствуя, что крупные китайские технологические компании стремятся догнать американских коллег в области ИИ.

 Источник изображений: kling.kuaishou.com

Источник изображений: kling.kuaishou.com

Модель ИИ Kling, которая пока находится на стадии тестирования, способна создавать по текстовому описанию видеоролики продолжительностью до 2 минут с разрешением 1080p и поддержкой различных соотношений сторон. В серии демонстрационных видеороликов присутствуют разные сюжеты: китайский мальчик в очках ест чизбургер в заведении быстрого питания; белый кот едет за рулём машины на фоне небоскрёбов и пешеходов; ребёнок едет на велосипеде по саду, наблюдая за сменой времён года.

Kuaishou — не единственная китайская компания, отметившаяся разработкой конкурента Sora. В апреле стартап Shengshu Technology совместно с Университетом Цинхуа представила аналогичный ИИ-генератор Vidu. Собственный проект в этом году обещала представить и компания Zhipu AI — один из ведущих китайских стартапов в области генеративного ИИ.

Ранее Kuaishou представила большую языковую модель KwaiYii и генератор изображений Kolors. Функция AI Dancer позволяет анимировать фотографии — люди на них танцуют под различные ритмы. В ближайшее время компания также пообещала представить службу преобразования статических изображений в видео — она основана на модели Kling. Посещаемость платформы коротких видео Kuaishou, по её собственным подсчётам, составляет 400 млн человек в день — для сравнения, у Douyin от ByteDance 600 млн пользователей ежедневно.

«Сбер» открыла для всех ИИ-генератор 6-секундных видео Kandinsky Video 1.1

«Сбер» официально объявил о запуске бета-версии нейросети Kandinsky Video 1.1, которая способна создавать полноценные видео продолжительностью 6 секунд на основе текстового описания или статического изображения. Оценить возможности алгоритма можно на платформе fusionbrain.ai и в Telegram-боте Kandinsky.

 Источник изображения: fusionbrain.ai

Источник изображения: fusionbrain.ai

Нейросеть генерирует непрерывную сцену с движением объектов и фона продолжительностью до шести секунд на скорости 8 кадров в секунду или 32 кадра в секунду. Поддерживается генерация роликов в форматах 16:9, 9:16 и 1:1. Обновлённый алгоритм способен создавать ролики не только по текстовому описанию, но и на основе статического изображения. За счёт этого пользователи имеют больше возможностей для реализации своих творческих задумок. В дополнение к этому пользователь может контролировать динамику генерируемого видео путём изменения параметра «motion score».

«Сегодня мы сделали ещё один шаг в будущее видеотворчества. Теперь каждый пользователь Kandinsky Video может воплотить свои идеи и выразить их в видеоформате. С момента запуска первой версии нейросети прошло менее года, и за это время наша команда значительно улучшила такие показатели, как качество и скорость генерации полноценных видеороликов, открывая тем самым безграничные горизонты для креатива», — прокомментировал запуск нового алгоритма Андрей Белевцев, старший вице-президент, руководитель блока «Техническое развитие» Сбербанка.

Microsoft Edge научился налету переводить на русский видео с YouTube и других сайтов — есть поддержка и других языков

Браузер Microsoft Edge скоро предложит функцию закадрового перевода и дублирования видео в реальном времени на таких сайтах, как YouTube, LinkedIn, Coursera и т.д. В рамках конференции Build, стартовавшей 21 мая в Сиэтле (США), компания Microsoft объявила, что новая функция, работающая на основе искусственного интеллекта, сможет переводить разговорный контент, предоставляя дубляж и субтитры прямо во время просмотра.

 Источник изображения: geralt/Pixabay

Источник изображения: geralt/Pixabay

В настоящее время эта функция поддерживает перевод с испанского на английский, а также перевод с английского на немецкий, хинди, итальянский, русский и испанский. Ожидается, что новая функция Edge на базе ИИ также сделает видео более доступными для слабослышащих или страдающих потерей слуха пользователей, предлагая автоматическое создание субтитров.

Microsoft сообщила, что Edge также будет поддерживать перевод устного контента в реальном времени на новостных сайтах, таких как Reuters, CNBC и Bloomberg. В дальнейшем компания планирует увеличить количество поддерживаемых сайтов, а также расширить возможности Edge по переводу большего количества языков.

Новая функция пополнит набор возможностей Edge на базе ИИ, появившихся у браузера благодаря интеграции с Copilot. В настоящее время Edge поддерживает возможность обобщения содержания видеороликов YouTube, но он пока не обладает способностью генерировать текстовые резюме для каждого видео, поскольку при их создании полагается на транскрипцию видео.

Google представила ИИ Veo для создания реалистичных видео — Full HD и больше минуты

Около трёх месяцев прошло с тех пор как OpenAI представила генеративную нейросеть Sora, которая может создавать реалистичное видео по текстовому описанию. Теперь у Google есть чем ответить: в рамках конференции Google I/O была анонсирована нейросеть Veo. Алгоритм может генерировать «высококачественные» видеоролики с разрешением Full HD продолжительностью более минуты с применением разных визуальных и кинематографических стилей.

 Источник изображения: Google

Источник изображения: Google

В пресс-релизе Google сказано, что алгоритм Veo обладает «продвинутым пониманием естественного языка», что позволяет ИИ-модели понимать кинематографические термины, такие как «таймлапс» или «съёмка пейзажа с воздуха». Пользователи могут добиться желаемого результата с помощью не только текстовых подсказок, но также «скормить» ИИ изображения или видео, получая в конечном счёте «последовательные и целостные» ролики, в которых на протяжении всего времени движения людей, животных и объектов выглядят реалистично.

Генеральный директор ИИ-подразделения Google DeppMind Демис Хассабис (Demis Hassabis) заявил, что пользователи могут корректировать генерируемые ролики с помощью дополнительных подсказок. Кроме того, Google изучает возможность интеграции дополнительных функций, которые позволят Veo создавать раскадровки и более продолжительные видео.

Несмотря на сегодняшний анонс Veo, обычным пользователям придётся какое-то время подождать, прежде чем алгоритм станет общедоступным. На данном этапе Google приглашает к тестированию предварительной версии нейросети ограниченно количество создателей контента. Компания хочет поэкспериментировать с Veo, чтобы определить, каким образом следует осуществлять поддержку авторов контента и развивать сотрудничество с ними, давая творческим людям право голоса в разработке ИИ-технологий Google. Некоторые функций Veo в ближайшие несколько недель станут доступны ограниченному числу пользователей сервиса VideoFX, которые подадут заявки на участие в тестировании предварительной версии алгоритма. В будущем Google намерена также добавить некоторые функции Veo в YouTube Shorts.

Microsoft показала нейросеть, которая делает говорящие что угодно дипфейки по одному фото

За последние пару лет генеративные нейросети преодолели важный этап развития, став более мощными и способными создавать по текстовому описанию не только изображения, но и видео. Новый алгоритм VASA-1 от Microsoft, вероятно, сумеет удивить многих, поскольку для его работы вообще не нужно описание. Достаточно предоставить одно изображение человека и аудиодорожку, на основе которых нейросеть сгенерирует видео говорящего человека с широким спектром эмоций и естественной мимикой.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Результат работы VASA-1 выглядит очень естественно и правдоподобно. Всего из одного снимка лица и записи голоса алгоритм создаёт реалистичное видео, на котором запечатлённый на снимке человек буквально «оживает», а его мимика, движения губ и головы выглядят вполне натурально. Поскольку созданные с помощью VASA-1 видео с ходу сложно отличить от реальных, уже высказываются опасения по поводу того, что алгоритм может использоваться злоумышленниками для создания фейков.

Что касается самой нейросети, то главным её отличием от других подобных алгоритмов является наличие целостной модели генерации лицевой мимики и движений головы. Специалисты Microsoft провели обширную исследовательскую работу, включая оценку ряда новых метрик. В результате они установили, что новый алгоритм значительно превосходит представленные ранее аналоги по многим параметрам.

«Наш метод не только обеспечивает генерацию видео высокого качества с реалистичной мимикой лица и движениями головы, но также поддерживает функцию онлайн-генерации видео 512×512 точек с частотой 40 кадров в секунду с незначительной начальной задержкой. Это открывает путь к взаимодействию в реальном времени с реалистичными аватарами, имитирующими поведение человека во время разговора», — говорится в сообщении Microsoft.

Другими словами, нейросеть может создавать качественные фейковые видео на основе всего одного изображения. Поэтому не удивительно, что Microsoft называет VASA-1 «исследовательской демонстрацией» и не планирует выводить его на коммерческий рынок, по крайней мере, в ближайшее время.

Смартфон HONOR Magic 6 Pro прошёл испытания льдом и ударами

Группа «М.Видео-Эльдорадо» провела 13 апреля в магазине «М.Видео» в ТЦ «Метрополис» проверку заявленной работоспособности при низких температурах и физическом воздействии смартфона HONOR Magic 6 Pro.

 Источник изображения: VK

Источник изображения: VK

За ходом эксперимента можно было наблюдать благодаря прямой трансляции «М.Видео» в социальной сети VK. За неделю до его начала команда экспертов Лаборатории М.Видео погрузила HONOR Magic 6 Pro в воду и по специальной технологии постепенно заморозила смартфон до температуры -20 °C, получив прозрачный ледяной куб. Накануне эксперимента смартфон отключили от зарядки, изолировали и заморозили техническое отверстие. 13 апреля в 12:30 эксперимент стартовал при заряде аккумулятора на 83 %. На устройстве был установлен автоматический уровень яркости экрана и запущено цикличное воспроизведение видео из соцсети VK. Для управления смартфоном использовалась экосистемная технология HONOR Connect, позволяющая управлять устройством с помощью ноутбука HONOR и использовать один комплект клавиатуры с мышью для всех устройств, объединённых учётной записью HONOR.

Находясь более 9 часов в ледяном кубе и непрерывно вращаясь в центрифуге с тяжёлыми стеклянными шариками для поверки защитных свойств экрана HONOR Magic 6 Pro продолжал воспроизводить видео.

Как сообщается, после более 9 часов нахождения во льду с непрерывным воспроизведением видео, кремний-углеродный аккумулятор второго поколения разрядился не полностью. По окончании эксперимента у него осталось 10 % заряда, что подтвердило заявление производителя об устойчивости к минусовым температурам. Кроме того, в ходе испытаний смартфона в центрифуге с постоянными ударами утяжелённых стеклянных шариков по экрану была продемонстрирована впечатляющая устойчивость защитного стекла HONOR NanoCrystal Shield к повреждениям от такого рода воздействия.

«Мы, как главный эксперт по технике, регулярно проверяем девайсы, представленные в нашей сети, тем более, если производителем заявлены исключительные характеристики, — сообщил руководитель департамента «Телеком» группы «М.Видео-Эльдорадо» Сергей Уваров. — Мы вдохновились глобальным экспериментом HONOR и решили провести свой собственный, чтобы продемонстрировать устойчивость HONOR Magic 6 Pro к низким температурам и ударам. Результат впечатляет, только плановое закрытие магазина и торгового центра в 23:00 остановило нас. Думаем, что, если бы смартфон в эксперименте стартовал со 100 % заряда, мы стали бы свидетелями более 13 часов непрерывного экранного времени и воспроизведения видео при температуре −20 ℃».

Новейший флагман HONOR Magic 6 Pro был отмечен пятью золотыми наградами рейтинга DXOMARK за качество экрана, съёмку на основную камеру, селфи, автономность и звук.

HONOR Magic 6 Pro в цветах «Графитовый чёрный» с задней панелью из матового стекла и «Шалфейный зелёный» с отделкой из текстурной экокожи уже доступен для предзаказа.

Реклама | ООО "Техкомпания ОНОР" ИНН 9731055266 erid: 4CQwVszH9pWxHwP2ziY

У мобильной версии Facebook✴ появится новый видеопроигрыватель в стиле TikTok

Разработчики из Meta Platforms анонсировали появление обновлённого видеопроигрывателя в мобильных приложениях Facebook. С его помощью пользователям социальной сети будет комфортнее просматривать вертикальные видео, подобные тем, что публикуются в TikTok или Reels.

 Источник изображения: ***

Источник изображения: Meta

Новый проигрыватель по умолчанию будет воспроизводить контент из Reels, Facebook Live, а также длинные видео в полноэкранном портретном режиме. На начальном этапе распространения этого нововведения плеер станет доступен пользователям iOS-версии приложения Facebook в США и Канаде. Более широкого распространения функции следует ожидать в течение следующих нескольких месяцев.

Ранее в Facebook использовались разные форматы при воспроизведении видео. Например, пользователи могли просматривать длинные ролики в портретной ориентации, тогда как некоторые видео воспроизводились непосредственно в ленте Facebook. Обновлённый плеер будет автоматически ориентироваться на вертикальные видео, но также позволит воспроизводить в портретной ориентации большинство горизонтальных роликов. Достаточно просто повернуть телефон, чтобы плеер переключился на воспроизведение контента в режиме портретной ориентации.

Отметим также, что новый проигрыватель Facebook претерпел некоторые визуальные изменения. В нижней части плеера появился ползунок, с помощью которого можно быстро переходить к просмотру разных частей видео. Новые элементы управления также позволят ставить воспроизведение на паузу и возвращаться к уже просмотренным фрагментам.

OpenAI показала короткометражки, созданные профессионалами на ИИ Sora

OpenAI опубликовала несколько короткометражных фильмов, созданных при помощи высокореалистичного генератора видео на основе искусственного интеллекта Sora. Сама модель, генерирующая видео по статическим изображениям и текстовым описаниям, пока остаётся недоступной для публики.

 Источник изображения: openai.com

Источник изображения: openai.com

Короткометражные ленты были созданы профессионалами творческой отрасли: кинематографистами, художниками, креативными работниками рекламных агентств и музыкантами, которым OpenAI предоставила доступ к модели. «Хотя нам предстоит внести в Sora множество улучшений, мы уже имеем представление о том, как эта модель способна помочь творческим личностям воплотить идеи в действительность», — рассказали в компании.

Руководство OpenAI, по сведениям Bloomberg, уже провело несколько встреч с голливудскими кинематографистами и представителями студий, стремясь повысить интерес к применению Sora в обычном крупнобюджетном кинопроизводстве. Тем временем зрители уже подвергли критике создателей независимого фильма ужасов «Поздний вечер с дьяволом» (Late Night With The Devil), которые использовали при его создании созданные ИИ статические изображения. Звучали призывы бойкотировать ленту за то, что её создатели прибегли к помощи ИИ вместо традиционного найма художников.

Эд Ньютон-Рекс (Ed Newton-Rex), гендиректор некоммерческой организации Fairly Trained, которая взялась сертифицировать модели ИИ, обученные добросовестно на лицензионных материалах, выразил сомнение, что Sora обучалась на лицензированном контенте. OpenAI продолжительное время не комментировала этот аспект разработки Sora, но впоследствии технический директор компании Мира Мурати (Mira Murati) заверила, что это были общедоступные и лицензированные данные, а также видеозаписи, полученные в рамках лицензионного соглашения с Shutterstock.

Больше роликов можно найти в официальном блоге OpenAI.

ChatGPT обрёл тело — OpenAI и Figure сделали умного робота-гуманоида, который полноценно общается с людьми

Американский стартап Figure показал первые плоды сотрудничества с компанией OpenAI по расширению возможностей гуманоидных роботов. Figure опубликовала новое видео со своим роботом Figure 01, ведущим диалог с человеком в режиме реального времени. Машина на видео отвечает на вопросы и выполняет его команды.

 Источник изображения: Figure

Источник изображения: Figure

Стремительный темп развития проекта Figure 01 и компании Figure в целом не может не впечатлять. Бизнесмен и основатель стартапа Бретт Эдкок (Brett Adcock) «вышел из тени» год назад, после того как компания привлекла внимание крупных игроков на рынке робототехники и технологий искусственного интеллекта, включая Boston Dynamics, Tesla Google DeepMind, Archer Aviation и других, и поставила цель «создать первого в мире коммерчески доступного гуманоидного робота общего назначения».

К октябрю того же года Figure 01 «встал на ноги» и продемонстрировал свои возможности в выполнении базовых автономных задач. К концу всё того же 2023 года робот обрёл возможность обучаться выполнению различных задач. К середине января Figure подписала первый коммерческий контракт на использование Figure 01 на автомобильном заводе компании BMW в североамериканском штата Северная Каролина.

В прошлом месяце Figure опубликовала видео, на котором Figure 01 выполняет работу на складе. Практически сразу после этого компания анонсировала разработку второго поколения машины и объявила о сотрудничестве с OpenAI «по разработке нового поколения ИИ-моделей для гуманоидных роботов». Сегодня Figure поделилась видео, в котором демонстрируются первые результаты этого сотрудничества.

Через свою страницу в X (бывший Twitter) Адкок сообщил, что встроенные в Figure 01 камеры отправляют данные в большую визуально-языковую модель ИИ, обученную OpenAI, в то время как собственные нейросети Figure «также через камеры робота захватывает изображение окружения с частотой 10 Гц». Алгоритмы OpenAI также отвечают за возможность робота понимать человеческую речь, а нейросеть Figure преобразует поток полученной информации в «быстрые, низкоуровневые и ловкие действия робота».

Глава Figure утверждает, что во время демонстрации робот не управлялся дистанционно и видео показано с реальной скоростью. «Наша цель — научить мировую модель ИИ управлять роботами-гуманоидами на уровне миллиардов единиц», — добавил руководитель стартапа. При таком темпе развития проекта ждать осталось не так уж и долго.


window-new
Soft
Hard
Тренды 🔥
Продвинутая интеграция Siri и Apple Intelligence будет реализована только в следующем году 4 ч.
Сюжетный трейлер Metaphor: ReFantazio — ролевой игры от разработчиков Persona 11 ч.
Новая статья: Frogun Encore — как в старые добрые. Рецензия 07-07 00:03
Новая статья: Gamesblender № 681: игроки против Ubisoft, наследница TES II: Daggerfall и релиз AMD FSR 3.1 06-07 23:30
Торговля акциями «Яндекса» на Мосбирже начнётся 24 июля 06-07 11:39
Илон Маск признался, что позднее раскрытие информации о наличии у него крупного пакета акций Twitter было результатом ошибки 06-07 05:59
Apple наконец одобрила приложение Epic Games для iOS в Европе 06-07 04:39
Антимонопольный иск властей США ставит под угрозу сотрудничество Apple с Google 06-07 01:35
Новая статья: Elden Ring: Shadow of the Erdtree — сквозь страдания к катарсису. Рецензия 06-07 00:00
Выстрелил: инди-хоррор Buckshot Roulette об игре в русскую рулетку с дробовиком достиг впечатляющей вершины продаж 05-07 23:57
Просчёты в планировании привели производителя аккумуляторов SK On к весьма шаткому финансовому положению 34 мин.
Новая статья: ИИтоги июня 2024 г.: все жанры, кроме скучного 9 ч.
CBRE: нехватка энергии ограничивает рост ЦОД, подстёгиваемый ИИ 14 ч.
Министерство энергетики США вложит $100 млн в создание «зелёных» энергохранилищ без использования лития 14 ч.
Zotac случайно опубликовала личные данные клиентов 18 ч.
Следующий полёт Starship состоится через четыре недели — ускоритель Super Heavy попытаются поймать при посадке 19 ч.
Стартап Phaidra, разрабатывающий ИИ для эффективного управления ЦОД, привлёк $12 млн 07-07 08:52
Первым владельцам Tesla Cybertruck бесплатно предлагается замена тягового электродвигателя 07-07 06:53
Sequoia Capital: ИИ пока не оправдывает вложений и может превратиться в финансовый пузырь 06-07 23:27
China Mobile запустила в Китае ЦОД с 4000 ИИ-ускорителей, треть из которых — отечественные 06-07 23:09