Сегодня 25 декабря 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → нейросети
Быстрый переход

MiniMax представила бесплатный ИИ-генератор video-1, который превращает текст в видео за 2 минуты

Китайский стартап MiniMax, работающий в сфере искусственного интеллекта, представил алгоритм video-1, который генерирует небольшие видеоклипы на основе текстовых подсказок. Генератор video-1 был представлен широкой публике на прошедшей несколько дней назад в Шанхае первой конференции разработчиков компании, а позднее стал доступен всем желающим на веб-сайте MiniMax.

 Источник изображения: scmp.com

Источник изображения: scmp.com

С помощью video-1 пользователь может на основе текстового описания создавать видеоролики продолжительностью до 6 секунд. Процесс создания такого ролика занимает около 2 минут. Основатель MiniMax Ян Цзюньцзе (Yan Junjie) рассказал на презентации, что video-1 является первой версией алгоритма генерации видео по текстовым подсказкам, отметив, что в будущем нейросеть сможет создавать ролики на основе статических изображений, а также позволит редактировать уже созданные клипы.

Появление video-1 отражает стремление китайских технологических компаний продвинуться в зарождающемся сегменте рынка ИИ. Генератор видео был представлен всего через несколько месяцев после анонса нейросети Sora компании OpenAI, которая также позволяет создавать видео по текстовым подсказкам. Что касается MiniMax, то компания была основана в декабре 2021 года и с тех пор она проделала немалую работу. Новый инструмент video-1 предлагается в рамках платформы MiniMax под названием Hailuo AI, которая ориентирована на потребительский рынок и уже предоставляет доступ к функциям генерации текстов и музыки с помощью нейросетей.

Помимо MiniMax, разработкой ИИ-алгоритмов для генерации видео из текста занимаются и другие китайские компании. Пекинский стартап Shengshu AI в июле запустил собственный генератор видео из текста на китайском или английском языках под названием Vidu. Стартап Zhipu AI стоимостью более $1 млрд в том же месяце представил свой аналог Sora, который может создавать небольшие видео на основе текстовых подсказок или статических изображений.

Владелец TikTok и Douyin, компания ByteDance, в прошлом месяце опубликовала в китайском App Store приложение Jimeng text-to-video для генерации видео из текста, а ещё ранее оно появилось в местных магазинах Android-приложений. Jimeng позволяет создать бесплатно 80 изображений или 26 видео, а для более активного взаимодействия с нейросетью предлагается оформить подписку за 69 юаней (около $10). В прошлом месяце компания Alibaba Group Holding объявила о разработке алгоритма для генерации видео под названием Tora, основанного на модели OpenSora.

Отметим, что среди инвесторов MiniMax есть крупные IT-компании, такие как Alibaba, Tencent Holdings и miHoYo (создатель Genshin Impact). Очередной раунд финансирования прошёл весной и после его завершения рыночная стоимость MiniMax оценивалась более чем в $2 млрд.

ИИ-функции в приложениях Meta✴ ежемесячно используют 400 млн человек

Инструменты на основе искусственного интеллекта компании Meta Platforms, доступные в Facebook, Instagram, WhatsApp и Threads, используют не менее 400 млн человек в месяц и 40 млн человек ежедневно. Об этом пишет издание The Information со ссылкой на данные, полученные от двух осведомлённых сотрудников Meta.

 Источник изображения: Growtika/unsplash.com

Источник изображения: Growtika/unsplash.com

Информация о количестве пользователей ИИ-функций Meta появилась вскоре после того, как стало известно, что с ИИ-ботом ChatGPT компании OpenAI еженедельно взаимодействуют более 200 млн человек. В OpenAI позднее подтвердили эту информацию. Это означает, что поддерживаемая Microsoft компания нарастила пользовательскую базу на 100 млн человек менее чем за год. Несмотря на это, данные по количеству пользователей указывают, что Meta остаётся полноценным конкурентом OpenAI в сфере предоставления услуг на основе генеративных нейросетей.

Что касается Meta, то компания Марка Цукерберга (Mark Zuckerberg) выбрала подход, отличный от того, как работает OpenAI. Разработчики из Meta выпустили на рынок несколько больших языковых моделей Llama с открытым исходным кодом, которые разработчики могут настраивать в соответствии с собственными потребностями. Напомним, ИИ-алгоритмы Meta можно задействовать для помощи в написании и редактировании текстов, а также генерации изображений по текстовому описанию. Они доступны во многих пользовательских приложениях Meta, включая Facebook и Instagram.

Биокомпьютер на живых клетках человеческого мозга теперь можно арендовать за $500 в месяц

Компания FinalSpark открыла удалённый доступ к своей революционной платформе Neuroplatform, предоставляющей учёным возможность проводить исследования на биокомпьютерах на основе органоидов человеческого мозга. Фактически, теперь по сходной цене можно взять в аренду биологический процессор на базе живых клеток.

 Источник изображения: Copilot

Источник изображения: Copilot

Neuroplatform — это первая в мире онлайн-платформа, позволяющая арендовать доступ к биопроцессорам, использующим живые нейроны для вычислений. Как пишет Tom's Hardware, эти процессоры обладают эффективностью в миллион раз выше по сравнению с традиционными цифровыми процессорами. В основе инновационной разработки лежат органоиды, представляющие из себя трёхмерные тканевые структуры, искусственно выращенные из клеток человеческого мозга и содержащие функциональные нейроны.

 Источник изображения: FinalSpark

Источник изображения: FinalSpark

Органоиды, наполненные нейронами, обладают исключительной способностью к обучению и обработке информации. Один такой органоид, по оценкам, содержит 10 000 живых человеческих нейронов. По мнению компании, использование биопроцессоров, основанных на биологических нейронах, вместо транзисторов, может значительно сократить потребление энергии в технологическом мире. «Экономия миллиардов ватт при обучении больших языковых моделей или других ресурсоёмких задач станет в том числе позитивным фактором и для окружающей среды», — подчёркивают в FinalSpark.

 Источник изображения: FinalSpark

Источник изображения: FinalSpark

Архитектура платформы сочетает в себе аппаратное обеспечение, программное обеспечение и биологию. Она основана на использовании многоэлектродных массивов (MEA), в которых размещаются органоиды человеческого мозга в микрофлюидной системе жизнеобеспечения. 3D-тканевые массы связаны и стимулируются восемью электродами, с камерами наблюдения и настроенным программным стеком для того, чтобы исследователи могли вводить переменные данных, а также считывать и интерпретировать выходные данные процессора.

 Источник изображения: FinalSpark

Источник изображения: FinalSpark

В разработке Neuroplatform участвуют пять крупных исследовательских институтов, и уже девять пользователей зарегистрированы на платформе. Открытие доступа к Neuroplatform для более широкого круга академических исследователей является важным шагом, который позволит ускорить исследования в области биокомпьютинга и раскрыть потенциал технологии.

Платформа предлагает четыре общих органоида, которые могут быть арендованы за $500 в месяц на пользователя. Для некоторых проектов доступ предоставляется бесплатно. FinalSpark утверждает, что эта цена включает в себя доступ к полностью управляемой удалённой нейроплатформе, позволяющей проводить исследования в области биовычислений.

Ажиотаж вокруг ИИ идёт на спад — аналитики видят аналогию с железными дорогами начала века

Похоже, что для технологических компаний из Кремниевой долины, работающих в сфере искусственного интеллекта, настают не лучшие времена. Это связано с тем, что всё больше отраслевых инвесторов сомневаются в способности ИИ принести огромные прибыли, к которым они стремятся. С момента достижения пиковых значений в прошлом месяце стоимость акций западных компаний в сфере ИИ упала на 15 %.

 Источник изображения: Copilot

Источник изображения: Copilot

На этом фоне всё больше экспертов задаются вопросом об ограниченности больших языковых моделей (LLM), которые являются основой генеративных алгоритмов, таких как ChatGPT. Крупные технологические компании потратили десятки миллиардов долларов на создание LLM и разных ИИ-инструментов на их основе, а прогнозы о будущих расходах выглядят ещё более впечатляющими. Несмотря на это, наиболее актуальные статистические данные указывают на то, что только 4,8 % компаний в США используют ИИ для создания товаров и услуг, тогда как в начале года этот показатель был равен 5,4 %. Ожидается, что в течение следующего года количество использующих ИИ компаний удвоится, но этого недостаточно.

Происходящее с ИИ-технологиями можно описать термином «цикл хайпа», который был популяризирован компанией Gartner и хорошо известен в Кремниевой долине. После запуска какой-либо перспективной технологии начинается период иррациональной эйфории и чрезмерных инвестиций, после чего происходит серьёзный спад. Это приводит к волнениям среди участников рынка и инвесторов, которые обусловлены слишком медленным внедрением технологии и сложностями при извлечении прибыли. Однако в конечном счёте технология начинает использоваться массово, чему способствуют огромные инвестиции начального этапа и созданная за счёт вложений инфраструктура.

Начальный этап развития технологий, сопровождающийся огромными инвестициями, безусловно полезен, что доказывают примеры прошлого. В XIX веке Великобританию охватила железнодорожная лихорадка, и в погоне за высокой прибылью инвесторы вкладывали огромные деньги в отрасль, создав тем самым фондовый пузырь. Затем последовал крах, после чего железнодорожные компании на собранные на первом этапе средства всё же построили железную дорогу, соединив ею многочисленные населённые пункты. Это помогло преобразовать экономику и способствовало развитию железнодорожного транспорта. По похожему сценарию шла история интернета. В 90-е годы новая технология вызвала эйфорию, а футурологи предсказывали, что всего через пару лет люди будут делать покупки онлайн. В 2000 году рынок рухнул, что привело к разорению множества интернет-компаний по всему миру. Однако к тому времени телекоммуникационные компании уже вложили миллиарды долларов в прокладку оптоволоконных кабелей, которые впоследствии стали основой инфраструктуры для современного интернета.

Несмотря на то, что сфера ИИ ещё не пережила подобного краха, некоторые эксперты уверены в будущем глобальном господстве искусственного интеллекта. «Будущее ИИ будет таким же, как и у любой другой технологии. Будет дорогостоящее строительство гигантской инфраструктуры, затем огромный спад, когда люди поймут, что не знают, как использовать ИИ продуктивно, а затем медленное возрождение, когда они разберутся в этом», — считает экономический обозреватель Ноа Смит (Noah Smith).

Не исключено, что сфера ИИ будет развиваться иначе. Уже несколько десятилетий искусственный интеллект переживает периоды ажиотажа и спада, сопровождаемые ростом и снижением активности исследователей и инвесторов. В 60-е годы было много ажиотажа вокруг ИИ, в том числе обусловленного появлением Элизы — первой версии чат-бота. Затем несколько десятилетий длилось затишье вплоть до появления генеративных нейросетей в 2020 году.

Существует множество других технологий, которым удалось избежать цикла ажиотажа. К примеру, облачные технологии от появления до массового распространения прошли путь по довольно прямой линии без существенных взлётов и падений. Солнечная энергетика и социальные сети развивались похожим образом. При этом есть немало технологий, которые, преодолев первый этап ажиотажа, достигли точки спада, но так и не вошли в жизнь людей по всему миру, по крайней мере пока. Ярким примером таких технологий можно считать web3 или углеродные нанотрубки. В прошлом также предсказывалось, что у каждого человека дома будет 3D-принтер, и технология трёхмерной печати станет частью повседневной жизни, но этого также не произошло.

Исследование показало, что лишь малая часть инновационных технологий проходит развитие по «циклу хайпа». Примерно лишь пятая часть переходит от инноваций к стремительному росту, падению и дальнейшему широкому распространению. Многие технологии начинают использоваться повсеместно без подобных скачков. В других случаях технологии переходят от резкого роста к краху и уже не возвращаются.

Что касается искусственного интеллекта, то он всё ещё может совершить революцию, если кто-то из технологических гигантов добьётся прорыва в этой сфере, а предприятия и компании смогут осознать преимущества, предлагаемые технологиями на базе ИИ. Одна из важнейших задач на данный момент для разработчиков заключается в том, чтобы показать, что ИИ действительно может что-то предложить реальной экономике.

TikTok является одним из крупнейших клиентов Microsoft в сфере облачных ИИ-вычислений

По сообщениям сетевых источников, сервис коротких видео TikTok, принадлежащий китайской компании ByteDance, является одним из крупнейших клиентов Microsoft в сфере облачных вычислений искусственного интеллекта. По состоянию на март TikTok платил Microsoft почти $20 млн в месяц за доступ к ИИ-алгоритмам OpenAI. Однако в скором времени это может измениться, если ByteDance создаст собственные нейросети.

 Источник изображения: antonbe/Pixabay

Источник изображения: antonbe/Pixabay

В прошлом году СМИ писали, что ByteDance «тайно использует» алгоритмы OpenAI для разработки своей большой языковой модели (LLM). В сфере разработки ИИ-технологий такой подход осуждается многими компаниями. Кроме того, это прямое нарушение пользовательского соглашения OpenAI, в котором сказано, что генерируемый нейросетями контент не может использоваться «для создания языковых моделей, конкурирующих с продуктами и услугами разработчика». Microsoft, через которую ByteDance получает доступ к алгоритмам OpenAI, придерживается аналогичной политики.

После появления сообщений о том, что ByteDance использует ИИ-алгоритмы OpenAI для создания своей языковой модели, действие аккаунта китайской компании было приостановлено. OpenAI объяснила это необходимостью провести расследование, чтобы установить факт нарушения лицензионного соглашения. Тогда же представитель ByteDance в беседе с журналистами CNN сообщил, что компания использует технологии «в очень ограниченном объёме» для разработки собственных языковых моделей.

Microsoft заключила с OpenAI многомиллиардное инвестиционное соглашение, делающее софтверного гиганта эксклюзивным поставщиком облачных ИИ-вычислений. Кроме того, Microsoft пришлось потратить «несколько сотен миллионов долларов» на создание суперкомпьютера для обеспечения работы алгоритма ChatGPT. В опубликованном на этой неделе финансовом отчёте Microsoft за четвёртый квартал 2024 финансового года сказано, что доходы облачного подразделения Azure выросли на 29 %, что лишь немногим меньше прогнозируемых ранее 30-31 %.

В США создали систему оценки рисков для ИИ-алгоритмов

Национальный институт стандартов и технологий (NIST), входящий в состав Министерства торговли США и занимающийся разработкой и тестированием технологий для американского правительства, компаний и общественности, представил обновлённый тестовый стенд Dioptra. Он предназначен для оценки того, как вредоносные атаки, включая те, что направлены на «отравление» используемых для обучения больших языковых моделей данных влияют на снижение производительности ИИ-систем.

 Источник изображения: Copilot

Источник изображения: Copilot

Первая версия модульного веб-инструмента с открытым исходным кодом Dioptra была представлена в 2022 году. Обновлённое ПО должно помочь разработчикам ИИ-моделей и людям, которые используют эти алгоритмы, оценивать, анализировать и отслеживать риски, связанные с ИИ. В NIST заявили, что Dioptra можно использовать для бенчмаркинга и исследования ИИ-моделей, а также в качестве общей платформы для симуляции воздействия на модели разного рода угроз.

«Тестирование влияния атак противника на модели машинного обучения — одна из целей Dioptra. Программное обеспечение с открытым исходным кодом доступно для бесплатной загрузки и может помочь сообществу, включая правительственные агентства, малые и средние компании, в проведении оценки, чтобы проверить заявления разработчиков ИИ о производительности их систем», — говорится в пресс-релизе NIST.

Вместе с Dioptra разработчики опубликовали ряд документов, в которых излагаются способы уменьшения рисков, связанных с ИИ-моделями. Это программное обеспечение было создано в рамках инициативы, которую поддержал президент США Джо Байден и которая предписывает NIST, помимо прочего, оказывать поддержку в тестировании ИИ-систем. Инициатива также устанавливает ряд стандартов безопасности в сфере ИИ, включая требования к компаниям, разрабатывающим ИИ-алгоритмы, об уведомлении федерального правительства и передачи данных по итогам оценки рисков безопасности до того, как ИИ станет доступен широкому кругу пользователей.

Проведение эталонной оценки ИИ является сложной задачей, в том числе потому, что сложные алгоритмы в настоящее время представляют собой «чёрные ящики», инфраструктура которых, данные для обучения и другие ключевые детали держатся разработчиками в секрете. Некоторые эксперты склоняются к мнению, что одних только оценок недостаточно для определения степени безопасности ИИ в реальном мире, в том числе потому, что разработчики имеют возможность выбирать, какие тесты будут проводиться для оценки их ИИ-моделей.

NIST не говорит, что Dioptra сможет исключить любые риски для ИИ-систем. Однако разработчики этого инструмента уверены, что он может пролить свет на то, какие виды атак могут сделать работу той или иной ИИ-системы менее эффективной, а также оценить негативное воздействие на производительность алгоритма. Отметим, что Dioptra способен работать только с моделями, которые можно загрузить на устройство и использовать локально.

Reddit закрылся от поисковиков и ИИ-ботов, которые не платят за использование контента платформы

Социальная сеть Reddit продолжает бороться с веб-ботами, которые бесплатно используют контент платформы для обучения нейросетей. По данным источника, за последние несколько недель администрация Reddit скорректировала файл robot.txt, который сообщает ботам о разрешении или запрете на сканирование разделов сайта, таким образом, что контент сообщества и комментарии пользователей перестали корректно отображаться во многих поисковиках.

 Источник изображения: redditinc.com

Источник изображения: redditinc.com

В сообщении сказано, что в настоящее время только система Google корректно отображает результаты поиска последних постов на Reddit. При этом в других поисковиках, таких как Bing или DuckDuckGo, аналогичные запросы обрабатываются некорректно, т.е. либо не находят интересующие пользователей страницы, либо отображают лишь их часть. Вероятно, в случае с Google проблем не наблюдается из-за достигнутых ранее договорённостей, в рамках которых поисковый гигант будет платить Reddit $60 млн в год за использование контента площадки для обучения собственных ИИ-алгоритмов.

При этом в Reddit опровергли информацию о том, что сделка с Google каким-то образом повлияла на разрешение разработчиков на использование контента платформы для обучения нейросетей. «Это совершенно не связано с нашим недавним партнёрством с Google. Мы вели переговоры с несколькими поисковыми системами. Мы не смогли договориться со всеми, поскольку некоторые не могут или не хотят давать каких-либо обещаний касательно использования ими контента Reddit, в том числе для обучения искусственного интеллекта», — прокомментировал данный вопрос представитель Reddit.

Для такого крупного сайта, как Reddit, блокировка веб-ботов крупных поисковых систем является смелым шагом, но вполне ожидаемым. За последний год администрация сайта стала значительно активнее защищать публикуемый пользователями контент, стремясь открыть новый источник дохода и привлечь инвесторов. Разработчики повысили стоимость использования API Reddit сторонними разработчиками, а также пригрозили Google блокировкой поисковика, если компания не перестанет бесплатно использовать контент платформы для обучения своих нейросетей.

Илон Маск собрался обучить мощнейший ИИ в истории к декабрю, для чего запустил самый мощный в мире ИИ-кластер со 100 тыс. Nvidia H100

Американский бизнесмен Илон Маск (Elon Musk) в своём аккаунте в социальной сети X заявил о запуске его ИИ-стартапом xAI «самого мощного в мире кластера для обучения ИИ». Данная система, по словам Маска, обеспечит «значительное преимущество в обучении самого мощного в мире ИИ по всем показателям к декабрю этого года».

 Источник изображения: xAI / X

Источник изображения: xAI / X

«Система со 100 тыс. H100 с жидкостным охлаждением на единой RDMA-шине стала самым мощным кластером для обучения ИИ в мире», — отметил Маск в своём сообщении. Участвовал ли бизнесмен лично в запуске ИИ-суперкомпьютера, неизвестно, но на опубликованном снимке видно, что как минимум он общался с инженерами xAI во время подключения оборудования.

Ранее в этом году СМИ писали о стремлении Маска запустить так называемую «гигафабрику для вычислений», которая представляет собой гигантский дата-центр с самым производительным в мире ИИ-суперкомпьютером, к осени 2025 года. Начало формирования кластера для обучения ИИ потребовало закупки огромного количества ускорителей Nvidia H100. Похоже, что у бизнесмена не хватило терпения, чтобы дождаться выхода ускорителей H200, не говоря уже о будущих моделях B100 и B200 поколения Blackwell, которые, как ожидается, будут выпущены до конца этого года.

Позднее Маск написал, что ИИ-суперкомпьютер будет задействован для обучения самого мощного по всем показателям ИИ. Вероятно, речь идёт об алгоритме Grok 3, этап обучения которого должен закончиться к концу этого года. Любопытно, что расположенный в дата-центре в Мемфисе ИИ-суперкомпьютер, по всей видимости, значительно превосходит аналоги. К примеру, суперкомпьютер Frontier построен на базе 27 888 ускорителей AMD, в Aurora используется 60 тыс. ускорителей Intel, а в Microsoft Eagle — 14 400 ускорителей H100 от Nvidia.

Китайская Moore Threads нашла способ создавать вычислительные кластеры на 10 тыс. ускорителей — это пригодится в условиях санкций

Совокупная вычислительная мощь кластера определяется не только удельной производительностью каждого ускорителя, но и способностью создателей объединять их максимальное количество в одной системе. Китайская компания Moore Threads предложила своим клиентам решение, позволяющее создать кластер из 10 000 ускорителей, во многом нивелируя ограничения США на масштабирование таких систем.

 Источник изображения: Moore Threads

Источник изображения: Moore Threads

Напомним, что Moore Threads была основана в 2020 году опытным специалистом Nvidia, который задался целью выпускать подобные ускорители вычислений и игровые видеокарты для китайского рынка, но к октябрю 2023 года компания закономерно попала под экспортные ограничения США. Компенсировать более низкую производительность своих ускорителей вычислений по сравнению с решениями Nvidia компания пытается созданием более выгодных условий для масштабирования кластеров.

В частности, как отмечает South China Morning Post, модернизированное решение KUAE позволяет увеличить количество работающих в одном кластере ускорителей Moore Threads до 10 000 штук. Ускорители MTT S4000 оснащаются чипами с 128 тензорными ядрами и 48 Гбайт памяти, а соединяться друг с другом им позволяет интерфейс MTLink. Теперь в одном кластере можно объединить до 10 000 ускорителей, обеспечив более высокую совокупную производительность вычислений. Решение Nvidia A100, поставки которого в Китай запрещены, в три раза превосходит MTT S4000 по быстродействию, хотя и не является новейшим в ассортименте продукции американской компании. В условиях санкций китайские разработчики систем искусственного интеллекта всё равно вынуждены полагаться на местных поставщиков ускорителей, Moore Threads является одним из них.

«Яндекс Переводчик» получит поддержку более 20 языков народов России

Разработчики из «Яндекса» добавят в «Переводчик» поддержку более 20 языков народов России, которые ранее не были представлены в сервисе. Реализация проекта займёт три года, а первый из новых языков — осетинский — уже доступен в «Переводчике».

 Источник изображения: «Яндекс»

Источник изображения: «Яндекс»

В дополнение к этому для некоторых новых языков будут доступны функции распознавания и синтеза речи, построенные на основе нейросетей. За счёт этого пользователи смогут узнать, как звучат те или иные слова на разных языках, а также получат возможность вести диалог с носителями языков. В мобильной версии сервиса доступен мгновенный перевод реплик, их отображение на экране устройства, а также озвучивание на выбранном языке. Первым языком, для которого будут реализованы эти возможности, станет татарский.

Позднее распознавание и синтез речи станут доступны для более чем 10 популярных языков, на каждом из которых в России говорят свыше 300 тыс. человек. «Яндекс» также сделает возможным перевод сайтов в «Браузере», добавит поддержку голосового ввода в «Поиске», «Картах» и мессенджерах посредством «Яндекс Клавиатуры». За счёт этого пользователи будут иметь возможность ознакомления с культурными особенностями народов страны через перевод их легенд, преданий и др. Вместе с этим виртуальный помощник «Алиса» сможет читать народные сказки на этих языках.

Данные поисковика «Яндекса» указывают на то, что россияне чаще всего ищут перевод фраз на татарском языке. Также популярностью пользуются башкирский и чувашский языки. В переводчике уже доступны эти и другие языки, такие как удмуртский, якутский и марийский. В дальнейшем «Яндекс» будет улучшать качество перевода на доступные языки и расширять их количество.

AMD на следующей неделе представит технологию сжатия текстур с помощью нейросети

На следующей неделе компания AMD представит метод компрессии текстур с использованием нейронной сети. Он обещает значительно снизить объёмы загружаемых игровых данных. Проще говоря, технология позволит играм занимать меньше места на накопителе, а также задействовать меньше видеопамяти для текстур высокого разрешения без снижения качества изображения.

 Источник изображения: VideoCardz

Источник изображения: VideoCardz

В прошлом году подобную технологию представили разработчики компании Nvidia. Она получила название «Нейронное сжатие текстур материалов с произвольным доступом» (NTC). По словам Nvidia, NTC обеспечивает в 4 раза более высокое разрешение (в 16 раз больше текселей), чем традиционное блочное сжатие с помощью графического процессора, доступное во многих форматах.

AMD работает над аналогичной технологией. Компания 2 июля проведёт презентацию под названием «Нейронное блоковое сжатие текстур». О новом методе сжатия текстур расскажут представители AMD Шин Фудзиеда (Shin Fujieda) и Такахиро Харада (Takahiro Harada). «Мы расскажем о “Нейронном блоковом сжатии текстур” на EGSR2024 в Лондоне. Никому не нравится скачивать огромные игровые пакеты. Наш метод сжимает текстуры при помощи нейронной сети и сокращает объём загружаемых данных. Среда выполнения при этом не изменена, поэтому метод легко интегрировать в игры», — говорится в заявлении, опубликованном на официальной странице AMD GPUOpen в соцсети X.

На данный момент непонятно, предполагает ли метод компрессии текстур от AMD имплементацию на уровне драйвера или он требует поддержки со стороны разработчиков самих игр. Кроме того, неизвестно, какие аппаратные требования будут у данного метода сжатия.

Аналогичный метод компрессии текстур от Nvidia пока не был реализован ни в одной игре. Хотя AMD и обещает лёгкую интеграцию с играми своего метода, это не гарантирует его массового использования. Однако открытый исходный код технологии или её интеграция в программный пакет FidelityFX, вероятно, сделают её более привлекательной для разработчиков.

Роль нейронных сетей в играх значительно вырастет в будущем. Недавно, глава Nvidia Дженсен Хуанг (Jensen Huang) намекнул, что компания может сосредоточить своё внимание на повышении качества текстур с помощью ИИ, который будет генерировать объекты в высоком разрешении в играх.

ИИ становится умнее — чат-бот на базе GPT-4 прошёл тест Тьюринга

В современном мире люди взаимодействуют с искусственным интеллектом в интернете не только чаще, чем когда-либо, но и чаще, чем им кажется. Нейросети становятся всё более продвинутыми, зачастую отличить их от человека не так просто. В подтверждение этого учёные из Института инженеров электротехники и электроники (IEEE) провели исследование, в рамках которого респондентам предлагалось пообщаться с четырьмя агентами, среди которых был только один человек.

 Источник изображения: Copilot

Источник изображения: Copilot

Цель исследования была в том, чтобы определить, смогут ли участники отличить синтетического собеседника от живого человека. Исследование учёных представляет собой современную интерпретацию теста, который был предложен знаменитым математиком Аланом Тьюрингов ещё в 1950 году. Тест считается пройденным, если ИИ-алгоритм в процессе общения с человеком может заставить его думать, что беседу с ним ведёт другой человек.

В тестировании приняли участие 500 человек, которые некоторое время поочерёдно беседовали с четырьмя агентами, одним из которых был человек, а ещё три — программные продукты, такие как написанный в 60-е годы прошлого века виртуальный собеседник ELIZA и современные чат-боты, построенные на базе больших языковых моделей GPT-3.5 и GPT-4 (последняя также является основой популярного ИИ-бота ChatGPT).

Респонденты по пять минут беседовали с каждым из агентов, после чего они должны были сказать, с кем, по их мнению, они разговаривали — с человеком или чат-ботом. В итоге было установлено, что 54 % участников тестирования приняли GPT-4 за человека. ELIZA, не имеющая в арсенале большой языковой модели и архитектуры нейросети, была признана человеком лишь в 22 % случаев. Алгоритм на базе GPT-3.5 признали человеком в 50 % случаев, а человека опознали в 67 % случаев.

«Машины могут рассуждать, смешивая воедино правдоподобные обоснования вещей постфактум, как это делают люди. Они могут быть подвержены когнитивным предубеждениям, ими можно манипулировать, и они становятся всё более обманчивыми. Всё это означает, что в ИИ-системах выражаются человеческие недостатки и причуды, что делает их более похожими на человека, чем предыдущие подобные решения, которые имели в арсенале лишь список готовых заранее ответов», — прокомментировал результаты работы один из исследователей.

Adobe поменяет пользовательское соглашение на фоне скандала с доступом к контенту

Ранее Adobe обновила соглашение, регулирующее правила взаимодействия пользователей с программными продуктами компании. Несколько расплывчатых формулировок указывали на то, что теперь Adobe официально может просматривать контент, который пользователи создали с помощью приложений компании и хранят в облаке. Это вызвало негативную реакцию сообщества, на фоне чего Adobe пришлось объясниться и пообещать внести в соглашение более понятные формулировки.

 Источник изображения: adobe.com

Источник изображения: adobe.com

«Ваш контент принадлежит вам и никогда не будет использоваться для обучения каких-либо инструментов генеративного искусственного интеллекта», — говорится в совместном заявлении директора по продуктам Adobe Скотта Бельски (Scott Belsky) и вице-президента по правовым вопросам Даны Рао (Dana Rao).

Пользователи разных приложений компании, таких как Photoshop, Premiere Pro и Lightroom, были возмущены расплывчатыми формулировками. Люди посчитали внесённые в пользовательское соглашение изменения желанием Adobe использовать созданный пользователями контент для обучения генеративных нейросетей. Другими словами, создатели контента подумали, что Adobe намерена использовать ИИ для кражи их работ с целью последующей перепродажи.

На этом фоне Adobe активно пытается убедить сообщество в том, что пользовательскому контенту ничего не угрожает, а внесённые в соглашение изменения ошибочно оказались недостаточно точными. «В мире, где клиенты беспокоятся о том, как используются их данные и как обучаются генеративные модели искусственного интеллекта, на компаниях, хранящих данные и контент своих клиентов, лежит обязанность заявить о своей политике не только публично, но и в своём пользовательском соглашении», — говорится в сообщении Бельски.

Компания пообещала пересмотреть пользовательское соглашение, чтобы сделать его более понятным за счёт «более простого языка и примеров». В Adobe надеются, что такой подход поможет пользователям лучше понимать, о чём именно говорится в тех или иных пунктах соглашения. Компания уже отредактировала первоначальный текст изменений 6 июня, но это не повлияло на негативную реакцию сообщества. Компания утверждает, что клиенты могут защитить свой контент не только от нейросетей, им также доступен вариант отказа от участия в программе улучшения продуктов компании.

Nvidia: встроенных NPU хватит лишь на базовые ИИ-задачи — для AI PC нужны видеокарты GeForce

Компания Nvidia заявила, что её потребительские графические ускорители GeForce RTX показывают куда более высокую производительность в задачах ИИ по сравнению со специализированными нейропроцессорами в новейших центральных. Последние, по мнению Nvidia, годятся разве что для базовых ИИ-задач.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Компания Nvidia не так давно провела презентацию, в рамках которой показала способности своих потребительских видеокарт GeForce RTX в задачах искусственного интеллекта. По мнению Nvidia, её графические процессоры способны обеспечить более высокую производительность в приложениях ИИ по сравнению с выделенными нейропроцессорами (NPU), которыми оснащаются многие современные мобильные процессоры Intel, AMD, Apple и Qualcomm. Данные встроенные ИИ-ускорители предлагают производительность 10–45 TOPS (триллионов операций в секунду). По словам Nvidia, её видеокарты способны обеспечить от 100 до 1300 TOPS в зависимости от модели.

В подтверждение этого тезиса были приведены результаты тестов, в которых видеокарты GeForce RTX сравнивались с чипом Apple M3 Max, установленным на новейших MacBook Pro и обладающим NPU с производительностью 18 TOPS. В тестах оценивалась производительность в популярных приложениях для обработки изображений и видео с использованием возможностей ИИ, таких как Stable Diffusion, Arnold, Blender и других. Тест показал, что ноутбук с мобильной видеокартой GeForce RTX 4090 превосходит MacBook Pro с M3 Max более чем в 5 раз. Более того, даже мобильная видеокарта среднего уровня RTX 4050 превосходит тот же MacBook Pro более чем в 2 раза, по данным Nvidia. В среднем мобильная RTX 4090 превосходила M3 Max в 5 раз, а мобильная RTX 4050 — на 50–100 %.

В другом показательном тесте замерялась скорость работы с большими языковыми моделями (LLM). Здесь GeForce RTX 4090 также значительно опередила чип Apple даже при увеличении размера обрабатываемых пакетов данных. GeForce RTX 4090 оказался быстрее на 42 %, чем M3 Max.

По мнению Nvidia, результаты тестирования наглядно демонстрируют, что производительность графических процессоров в задачах ИИ может в разы превосходить специализированные нейропроцессоры (NPU). Компания даже предложила разделить аппаратные средства для ИИ на три категории — базовый ИИ, премиальный ИИ и тяжелый ИИ. Последняя категория относится к мощным серверным решениям на базе GPU, способным обеспечить тысячи TOPS. Потребительские видеокарты, по мнению Nvidia, способны справиться с премиальным ИИ, а вот встроенных NPU хватит лишь для базового ИИ.

Однако по мнению специалистов, пока рано говорить о том, что графические процессоры полностью вытеснят NPU в компьютерах, ориентированных на работу с ИИ. К примеру, Microsoft в своем определении к ПК с искусственным интеллектом (AI PC) требует наличия как GPU, так и NPU. Кроме того, не стоит забывать про энергоэффективность, так как мощные графические процессоры потребляют гораздо больше энергии по сравнению с оптимизированными нейропроцессорами.

В целом, по мере развития инструментов на основе ИИ и усложнения решаемых ими задач, вычислительных мощностей специализированных NPU может оказаться недостаточно. А значит, роль мощных графических процессоров будет только возрастать.

В конце отметим, что н е упустила Nvidia возможности сравнить свои видеокарты и с решениями конкурента. В тесте генерации изображений при помощи искусственного интеллекта настольная GeForce RTX 4090 показала преимущество почти в 3 раза над флагманским графическим ускорителем AMD Radeon RX 7900 XTX . При этом все модели линейки GeForce RTX начиная с RTX 4070 Super превзошли по производительности самую мощную видеокарту AMD.

В исках NeMo: писатели обвинили Nvidia в незаконном использовании произведений для обучения нейросети

В минувшую пятницу Федеральный суд Сан-Франциско принял к рассмотрению групповой иск к Nvidia от троих авторов литературных произведений, которые обвиняют компанию в неправомерном использовании своих трудов для обучения системы искусственного интеллекта NeMo созданию текстов на английском языке.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Представители истцов сообщают, что Nvidia использовала выборку из 196 640 литературных произведений для обучения своей платформы NeMo с целью дальнейшей генерации текстов на английском языке силами системы искусственного интеллекта. Авторы книг упрекают компанию в использовании их произведений без разрешения. Иск подан от имени трёх авторов: Брайана Кина (Brian Keene), Абди Наземяна (Abdi Nazemian) и Стюарта О’Нэна (Stewart O’Nan), которые уличили Nvidia в использовании текстов их романов и новелл различных лет публикации без согласования с правообладателями.

Сумма ущерба, которую пытаются взыскать истцы, не уточняется, но групповой характер иска подразумевает, что к претензиям могут присоединиться и прочие авторы из упоминаемой выборки, которую Nvidia использовала для обучения своей большой языковой модели. Это уже не первый иск такого рода, с которым приходится сталкиваться Nvidia, ранее компанию обвинило в неправомерном использовании своих материалов издание The New York Times. Аналогичные мотивы уже заставили некоторые организации обратиться в суд с иском не только на создавшую ChatGPT компанию OpenAI, но и финансирующую её Microsoft.


window-new
Soft
Hard
Тренды 🔥
ИИ научили генерировать тысячи модификаций вирусов, которые легко обходят антивирусы 48 мин.
В Epic Games Store стартовала новая раздача Control — для тех, кто дважды не успел забрать в 2021 году 59 мин.
За 2024 год в Steam вышло на 30 % больше игр, чем за прошлый — это новый рекорд 2 ч.
«Яндекс» закрыл почти все международные стартапы в сфере ИИ 3 ч.
Создатели Escape from Tarkov приступили к тестированию временного решения проблем с подключением у игроков из России — некоторым уже помогло 4 ч.
Веб-поиск ChatGPT оказался беззащитен перед манипуляциями и обманом 5 ч.
Инвесторы готовы потратить $60 млрд на развитие ИИ в Юго-Восточной Азии, но местным стартапам достанутся крохи от общего пирога 5 ч.
Selectel объявил о спецпредложении на бесплатный перенос IT-инфраструктуры в облачные сервисы 6 ч.
Мошенники придумали, как обманывать нечистых на руку пользователей YouTube 7 ч.
На Открытой конференции ИСП РАН 2024 обсудили безопасность российского ПО и технологий искусственного интеллекта 7 ч.