Сегодня 26 декабря 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → генерация изображений
Быстрый переход

StabilityAI представила улучшенную ИИ-модель для генерации изображений Stable Diffusion 3.5

Компания StabilityAI представила новую версию ИИ-модели для генерации изображений Stable Diffusion 3.5 с улучшенным реализмом, точностью и стилизацией. По сообщению Tom's Guide, модель бесплатна для некоммерческого использования, включая научные исследования, а также для малых и средних предприятий с доходом до $1 млн.

 Источник изображения: StabilityAI

Источник изображения: StabilityAI

Как и предыдущая версия SD3, Stable Diffusion 3.5 доступен в трёх конфигурациях: Large (8B), Large Turbo (8B) и Medium (2,6B). Все конфигурации оптимизированы для работы на обычном пользовательском оборудовании и их можно настраивать. В своём пресс-релизе StabilityAI признала, что модель Stable Diffusion 3 Medium, выпущенная в июне, не полностью соответствовала стандартам и ожиданиям сообщества. «После того как мы выслушали ценные отзывы, вместо быстрого исправления мы решили уделить время разработке версии, которая продвигает нашу миссию по трансформации визуальных медиа», — сказали в компании.

Новые модели ориентированы на возможность гибкой настройки, высокую производительность и разнообразие результатов. Поддерживаются стилистические настройки, включая фотографию и живопись. Для указания определённого стиля можно также использовать хештеги, например, boho, impressionism или modern. Ещё можно выделять ключевые слова в запросе для получения более реалистичных изображений.

Модель Stable Diffusion 3.5 Large лидирует на рынке по лучшему соответствию запросам и качеству изображений. Модель Turbo имеет минимальное время вывода результатов. Medium превосходит другие модели в плане баланса между качеством изображений и соответствия запросам, что делает её, по утверждению компании, самым эффективным выбором для создания контента.

Все три конфигурации свободно доступны по лицензии Stability AI Community License. Для использования в коммерческих целях потребуется лицензия Enterprise License.

AMD представила Amuse 2.0 — ПО для ИИ-генерации изображений для Ryzen и Radeon

AMD представила Amuse 2.0 — программный инструмент для ИИ-генерации изображений. Программа доступна в бета-версии. В перспективе её функциональность будет расширяться. Amuse 2.0 является своего рода аналогом инструмента AI Playground от Intel, использующего мощности видеокарт Intel Arc. Решение от AMD для генерации контента в свою очередь полагается на мощности процессоров Ryzen и видеокарт Radeon.

 Источник изображений: AMD

Источник изображений: AMD

Приложение Amuse 2.0, разработанное с помощью TensorStack, отличается простотой использования, без необходимости загружать множество внешних компонентов, задействовать командные строки или запускать что-либо ещё. Для использования приложения достаточно лишь запустить исполняемый файл.

По сравнению с Intel AI Playground, Amuse 2.0 не поддерживает запуск чат-ботов на основе больших языковых моделей. В настоящее время приложение предназначено только для генерации изображений с помощью ИИ. Amuse 2.0 использует модели Stable Diffusion и поддерживает процессоры Ryzen AI 300 (Strix Point), Ryzen 8040 (Hawk Point) и серию видеокарт Radeon RX 7000. Почему компания не добавила поддержку видеокарт Radeon RX 6000 и более ранних моделей, а также процессоров Ryzen 7040 (Phoenix), обладающих практически идентичными характеристиками с Hawk Point, неизвестно. Возможно, это изменится в будущем.

Для работы Amuse 2.0 AMD рекомендует использовать 24 Гбайт ОЗУ или больше для систем на базе процессоров Ryzen AI 300 и 32 Гбайт оперативной памяти для систем на базе Ryzen 8040. Для видеокарт Radeon RX 7000 требования к необходимому объёму памяти не указаны.

Возможности Amuse 2.0:

  • не требуется командная строка;
  • простота и удобство использования;
  • поддержка AMD XDNA Super Resolution;
  • один исполняемый файл;
  • никаких настроек;
  • автоматическая настройка и выбор модели;
  • преобразование рисунка в изображение;
  • создание собственных ИИ фильтров;
  • многоступенчатый конвейер на основе ONNX (Stable Diffusion, Control Nets, Feature Extractors).

Стоит отметить, что инструмент поддерживает XDNA Super Resolution — технологию, позволяющую увеличивать масштаб изображений вдвое. Более подробно об Amuse 2.0 можно узнать по этой ссылке.

В WhatsApp появился ИИ-генератор персонализированных аватаров, но доступен он пока не всем

Пользователи мессенджера WhatsApp в скором времени смогут воспользоваться новой ИИ-функцией, которая позволит генерировать персонализированные аватары. На данном этапе такая возможность стала доступна некоторым пользователям бета-версии WhatsApp 2.24.14.7.

 Источник изображения: Dima Solomin / unsplash.com

Источник изображения: Dima Solomin / unsplash.com

В сообщении сказано, что пользователи смогут делать аватары на основе собственных изображений и текстовых описаний. В опубликованном на этой неделе скриншоте есть краткое описание новой функции. В нём говорится, что пользователи могут представить себя «в любой обстановке — от леса до космоса». Опубликованные примеры сгенерированных аватаров выглядят достаточно типично для изображений, созданных ИИ-алгоритмом.

Чтобы создать персонализированный аватар, пользователю потребуется «один раз сфотографировать себя». Этот снимок будет задействован для обучения ИИ-алгоритма созданию изображений, похожих на пользователя. После этого пользователю будет достаточно указать детали изображения, которое он хочет получить, в чате Meta AI или в другом чате, задействовав команду «@Meta AI представь меня…».

 Источник изображения: WABetaInfo

Источник изображения: WABetaInfo

Согласно имеющимся данным, новая функция по умолчанию будет отключена. Для начала генерации персонализированных аватаров потребуется активировать соответствующую опцию в настройках приложения. Эталонные снимки, на основе которых создаются аватары, в любой момент можно удалить. Когда упомянутое нововведение станет общедоступным, пока неизвестно.

Meta✴ выпустила ИИ-генератор 3D-моделей по текстовому описанию

Исследовательское подразделение компании Meta Platforms представило новый генеративный алгоритм 3D Gen, который позволяет создавать качественные 3D-объекты по текстовому описанию. По словам разработчиков, новая нейросеть превосходит аналоги по качеству создаваемых моделей и по скорости генерации.

 Источник изображений: 3D gen

Источник изображений: 3D gen

«Эта система может генерировать 3D-объекты с текстурами высокого разрешения», — говорится в сообщении Meta в соцсети Threads. Там также отмечается, что нейросеть значительно превосходит аналогичные алгоритмы по качеству генерируемых объектов и в 3-10 раз опережает по скорости генерации.

Согласно имеющимся данным, Meta 3D Gen может создавать 3D-объекты и текстуры на основе простого текстового описания менее чем за минуту. Функционально новый алгоритм похож на некоторые уже существующие аналоги, такие как Midjourney и Adobe Firefly. Одно из отличий в том, что 3D Gen создаёт модели, которые поддерживают физически корректный рендеринг. Это означает, что создаваемые нейросетью модели могут использоваться в приложениях для моделирования и рендеринга реально существующих объектов.

«Meta 3D Gen — это двухступенчатый метод, сочетающий в себе два компонента: один для преобразования текста в 3D, а другой — для преобразования текста в текстуры», — говорится в описании алгоритма. По словам разработчиков, такой подход позволяет добиться «более высокого качества 3D-генерации для создания иммерсивного контента».

3D Gen объединяет две основополагающие языковые модели Meta AssetGen и TextureGen. В Meta заявляют, что, основываясь на отзывах профессиональных 3D-художников, новая технология компании предпочтительнее конкурирующих аналогов, которые также позволяют генерировать 3D-объекты по текстовому описанию.

Adobe поменяет пользовательское соглашение на фоне скандала с доступом к контенту

Ранее Adobe обновила соглашение, регулирующее правила взаимодействия пользователей с программными продуктами компании. Несколько расплывчатых формулировок указывали на то, что теперь Adobe официально может просматривать контент, который пользователи создали с помощью приложений компании и хранят в облаке. Это вызвало негативную реакцию сообщества, на фоне чего Adobe пришлось объясниться и пообещать внести в соглашение более понятные формулировки.

 Источник изображения: adobe.com

Источник изображения: adobe.com

«Ваш контент принадлежит вам и никогда не будет использоваться для обучения каких-либо инструментов генеративного искусственного интеллекта», — говорится в совместном заявлении директора по продуктам Adobe Скотта Бельски (Scott Belsky) и вице-президента по правовым вопросам Даны Рао (Dana Rao).

Пользователи разных приложений компании, таких как Photoshop, Premiere Pro и Lightroom, были возмущены расплывчатыми формулировками. Люди посчитали внесённые в пользовательское соглашение изменения желанием Adobe использовать созданный пользователями контент для обучения генеративных нейросетей. Другими словами, создатели контента подумали, что Adobe намерена использовать ИИ для кражи их работ с целью последующей перепродажи.

На этом фоне Adobe активно пытается убедить сообщество в том, что пользовательскому контенту ничего не угрожает, а внесённые в соглашение изменения ошибочно оказались недостаточно точными. «В мире, где клиенты беспокоятся о том, как используются их данные и как обучаются генеративные модели искусственного интеллекта, на компаниях, хранящих данные и контент своих клиентов, лежит обязанность заявить о своей политике не только публично, но и в своём пользовательском соглашении», — говорится в сообщении Бельски.

Компания пообещала пересмотреть пользовательское соглашение, чтобы сделать его более понятным за счёт «более простого языка и примеров». В Adobe надеются, что такой подход поможет пользователям лучше понимать, о чём именно говорится в тех или иных пунктах соглашения. Компания уже отредактировала первоначальный текст изменений 6 июня, но это не повлияло на негативную реакцию сообщества. Компания утверждает, что клиенты могут защитить свой контент не только от нейросетей, им также доступен вариант отказа от участия в программе улучшения продуктов компании.

Google анонсировала свой самый мощный ИИ-генератор изображений Imagen 3

В рамках проходящей в эти дни в Маунтин-Вью конференции Google I/O состоялся анонс новой версии генеративной нейросети семейства Imagen. Речь идёт об алгоритме Imagen 3 — самом продвинутом генераторе изображений от Google на данный момент.

 Источник изображения: Google

Источник изображения: Google

Глава исследовательского ИИ-подразделения Google Deep Mind Демис Хассабис (Demis Hassabis) во время презентации заявил, что Imagen 3 более точно понимает тестовые запросы, на основе которых он создаёт изображения, чем модель Imagen 2. Он отметил, что алгоритм работает более «креативно и детализировано», а также реже ошибается и создаёт меньше «отвлекающих артефактов».

Вместе с этим Google попыталась развеять опасения по поводу того, что Imagen 3 будет использоваться для создания дипфейков. В процессе генерации изображений будет задействована технология SynthID, посредством которой на медиафайлы наносятся невидимые криптографические водяные знаки. Предполагается, что такой подход сделает бесполезными попытки использовать ИИ-генератор Google для создания фейкового контента.

Частные пользователи могут оформить подписку на Imagen 3 через сервис Google ImageFX. Разработчики и корпоративные клиенты получат доступ к ИИ-генератору через платформу машинного обучения Vertex AI. Как и в прошлом, в этот раз Google не поделилась подробностями касательно того, какие данные использовались для обучения нового алгоритма.

Microsoft начала тестировать ИИ-генератор изображений в Paint для Windows 11

На этой неделе Microsoft выпустила очередную бета-версию графического редактора Paint для Windows 11. Помимо прочего, в ней реализована ИИ-функция Cocreator, с помощью которой можно генерировать изображения по текстовому описанию. Теперь же приложение стало доступно участникам программы предварительной оценки Windows Insider на каналах Dev и Canary.

 Источник изображений: Microsoft

Источник изображений: Microsoft

Функция генерации изображений по текстовому описанию опирается на работу нейросети DALL-E, созданной разработчиками из OpenAI. Она позволяет создавать уникальные изображения по короткому текстовому описанию. В дополнение к этому пользователь может выбрать стиль будущего изображения. После генерации пользователю будет предложено три варианта изображения. Выбрав один из них можно продолжить редактирование сгенерированной картинки, например, добавить слои, что также является нововведением для Paint.

После загрузки Paint 11.2309.20.0 необходимо авторизоваться в своей учётной записи Microsoft. В Paint появилась кнопка Cocreator, нажав на которую пользователь будет добавлен к списку ожидания. Когда возможность использования инструмента Cocreator станет доступна, поступит соответствующее уведомление. В рамках тестирования Cocreator пользователям будут доступны 50 кредитов для генерации картинок. За каждое использование ИИ-функции списывается один кредит.

Microsoft планирует постепенно внедрять новую функцию, и в течение следующих нескольких недель она должна стать доступна всем пользователям Windows 11, установившим последнее функциональное обновление. Однако сейчас испытать функцию Cocreator могут только инсайдеры.

WhatsApp начал тестировать ИИ для генерации стикеров

Разработчики из Meta Platforms продолжают интегрировать в мессенджер WhatsApp новые функции, которые могут стать популярными среди пользователей. На этот раз в бета-версии мессенджера для платформы Android появилась возможность использования нейросети для генерации стикеров по текстовому описанию. На данном этапе функция доступна ограниченному числе пользователей бета-версии WhatsApp для Android под номером 2.23.17.14.

 Источник изображения: geralt / Pixabay

Источник изображения: geralt / Pixabay

Какая именно нейросеть используется для генерации стикеров по текстовому описанию в WhatsApp, пока неизвестно. В описании лишь сказано, что стикеры генерируются с помощью «безопасной технологии, предлагаемой Meta». Ожидается, что пользователи смогут с помощью текстового описания создавать простые персонализированные изображения, которые можно будет задействовать в качестве стикеров.

 Источник изображения: WABetaInfo

Источник изображения: WABetaInfo

Пользователи смогут реагировать на сгенерированные стикеры и сообщать администраторам в случае, если те или иные картинки будут казаться им неуместными. Согласно имеющимся данным, созданные с помощью ИИ-алгоритма стикеры легко распознаются, что предполагает наличие водяных знаков, которыми они будут помечаться, или каких-то иных отметок, указывающих на то, что изображения созданы нейросетью. По данным источника, Meta также работает над тем, чтобы интегрировать в Instagram специальные метки, которыми будет помечаться контент, созданный с использованием нейросетей.

Adobe научила Photoshop расширять и дорисовывать изображения с помощью ИИ

В мае этого года Adobe интегрировала в бета-версию графического редактора Photoshop ИИ-инструмент, позволяющий пользователям масштабировать изображения, добавлять и удалять объекты с помощью текстовых команд. Теперь же разработчики добавили новые функции за счёт запуска универсального инструмента Generative Expand, который на этой неделе стал доступен участникам программы бета-тестирования Photoshop.

 Источник изображения: 9to5mac.com

Источник изображения: 9to5mac.com

Новый инструмент может оказаться полезным для выполнения разных действий. С его помощью можно расширить обрабатываемое изображение с текстовой подсказкой или без неё для создания продолжения сцены. Достаточно выделить область рядом с обрабатываемым изображением или вокруг него, а ИИ-инструмент сгенирирует всё остальное. Если не указывать текстовую подсказку, то выделенная область будет заполнена объектами, которые логично вписываются в общую композицию. Если же указать текстовую подсказку, то ИИ дорисует окружение в соответствии с пожеланием пользователя.

Ещё с помощью нового инструмента можно изменить соотношение сторон, например, сделав из горизонтального изображения картинку размером с обложку журнала. Доступна возможность получения точной композиции путём обрезки изображения в одном направлении и расширения в другом направлении, причём всё это осуществляется в рамках одного простого рабочего процесса.

Generative Expand может многократно расширить обрабатываемое изображение, заполнить свободное пространство при повороте картинки и др. Новый ИИ-инструмент имеет массу других возможностей, которые помогут авторам контента при выполнении разных задач. Инструмент Generative Expand и функция генеративной заливки Adobe получили поддержку более 100 языков. На данном этапе они доступны в бета-версии Photoshop. Когда нововведения появятся в стабильной версии графического редактора, пока неизвестно.

«Сбер» запустил нейросеть Kandinsky 2.1 — она генерирует изображения по описанию на русском и других языках

Разработчики из «Сбера» представили новую версию нейросети Kandinsky, которая является отечественным аналогом популярного алгоритма Midjourney. Генеративная модель Kandinsky 2.1 может использоваться для создания высококачественных изображений на основе текстового описания, дорисовки картинок и др. Нейросеть доступна всем желающим

 Источник изображений: sberbank.com

Источник изображений: sberbank.com

«Новая генеративная модель "Сбера" — Kandinsky 2.1 — способна всего за несколько секунд создавать высококачественные изображения по текстовому описанию на естественном языке. Она также может смешивать несколько рисунков, изменять их по текстовому описанию, генерировать изображения, похожие на заданное, дорисовывать недостающие части картинки и формировать изображения в режиме бесконечного полотна (inpainting/outpainting). Модель понимает запросы на 101 языке (включая русский и английский) и умеет рисовать в различных стилях», — сказано в сообщении «Сбера».

Разработкой и обучением алгоритма занимались специалисты Sber AI совместно с учёными из Института искусственного интеллекта AIRI, задействовав для этого объединённый датасет Sber AI и SberDevices. Модель Kandinsky 2.1 является усовершенствованной версией предыдущей версии алгоритма, которая была дополнительно обучена на 170 млн пар «текст — изображение» высокого разрешения. В дополнение к этому алгоритм дополнительно обучался на отдельном датасете из двух миллионов пар качественных изображений. Этот датасет состоял из изображений с описаниями в сложных для нейросетей областях, таких как тексты и лица людей.

Представленный алгоритм усовершенствован за счёт новой модели автоэнкодера, используемой в том числе в качестве декодера векторных представлений изображений. За счёт этого удалось кардинально улучшить генерацию изображений в высоком разрешении. Модель Kandinsky 2.1 содержит 3,3 млрд параметров, что значительно больше по сравнению с 2 млрд параметров модели Kandinsky 2.0. Алгоритм использует закодированное текстовое описание и специальное представление изображения моделью CLIP. Он способен визуализировать любой контент и может применяться в разных отраслях.

Пользователи могут оценить возможности Kandinsky 2.1 на промо-странице, а также воспользовавшись командой «Запусти художника» на устройствах Sber, в мобильном приложении «Салют» и на платформе ML Space. Ещё нейросеть доступна через бота в Telegram. Правда, при попытке воспользоваться ею, через несколько минут появилось сообщение: «Произошла ошибка при работе модели:( Попробуй, пожалуйста, еще раз».


window-new
Soft
Hard
Тренды 🔥
Российский аниме-хоррор MiSide внезапно оказался хитом Steam — восторженные отзывы игроков, сотни тысяч проданных копий 37 мин.
Киберпанковый слешер Ghostrunner 2 стал новой бесплатной игрой в Epic Games Store — раздача доступна в России и продлится всего 24 часа 3 ч.
Activision сыграет в кальмара: новый трейлер раскрыл, когда в Call of Duty: Black Ops 6 стартует кроссовер со Squid Game 2 3 ч.
«К чёрту Embracer Group»: неизвестный устроил утечку исходного кода Saints Row IV 5 ч.
Отечественная платформа Tantor повысит производительность и удобство работы с СУБД на базе PostgreSQL 8 ч.
В Steam вышла новая демоверсия голливудской стратегии Hollywood Animal от авторов This is the Police 8 ч.
IT-холдинг Т1 подал иск к «Марвел-Дистрибуции» в связи с уходом Fortinet из России 9 ч.
Рождественское чудо: в открытый доступ выложили документы Rockstar начала 2000-х, включая планы на GTA Online от 2001 года 9 ч.
«Битрикс24» представил собственную ИИ-модель BitrixGPT 10 ч.
За 2024 год в Китае допустили к релизу более 1400 игр — это лучший результат за последние пять лет 11 ч.
NASA поручило частным компания обеспечить связь в радиусе 2 млн км от Земли 52 мин.
Китайский автопроизводитель GAC представил гуманоидного робота GoMate с 38 степенями свободы 3 ч.
Главный конкурент Tesla запустил разработку человекоподобных роботов 3 ч.
Omdia: быстрый рост спроса на TPU Google ставит под вопрос доминирование NVIDIA на рынке ИИ-ускорителей 4 ч.
Российскую игровую приставку собрались построить на процессоре «Эльбрус», для которого не существует игр 5 ч.
Equinix предложил ИИ-фабрики на базе систем Dell с ускорителями NVIDIA 6 ч.
NASA показало «рождественскую ель» галактического масштаба 6 ч.
Китайский оператор ЦОД Yovole может выйти на IPO в США — после неудавшейся попытки в Китае 7 ч.
Patriot представила SSD P400 V4 PCIe 4.0 — до 4 Тбайт и до 6200 Мбайт/с 7 ч.
OnePlus представила доступные флагманы Ace 5 и Ace 5 Pro со Snapdragon, большими экранами и до 16 Гбайт ОЗУ 8 ч.