Сегодня 26 декабря 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → getty images

Getty Images обвинил ИИ-генератор изображений в «наглом нарушении авторских прав в ошеломляющих масштабах»

Фотобанк Getty Images обратился в американский суд с исковым заявлением против компании Stability AI, создавшей генеративную нейросеть Stable Diffusion, обвинив её в нарушении авторских прав. По мнению истца, разработчики использовали без разрешения миллионы изображений Getty Images для обучения своего ИИ-алгоритма.

 Иллюстрация из судебного процесса Getty Images, показывающая оригинальную фотографию и похожее изображение (с водяным знаком Getty Images), созданные с помощью Stable Diffusion. Изображение: Getty Images

Иллюстрация из судебного процесса, показывающая оригинальную фотографию и похожее изображение, сгенерированное Stable Diffusion

Stability AI обвиняется в «наглом нарушении авторских прав интеллектуальной собственности Getty Images в ошеломляющих масштабах». В исковом заявлении сказано, что разработчики алгоритма Stable Diffusion скопировали более 12 млн изображений из базы Getty Images «без разрешения или компенсации», что является нарушением авторских прав.

Этот судебный процесс является очередным столкновением между разработчиками генеративных нейросетей и правообладателями. Дело в том, что для обучения таких алгоритмов требуется огромное количество изображений, которые зачастую берутся из интернета без согласия авторов и правообладателей. В прошлом месяце Getty Images подала иск против Stability AI в британский суд, обвинив разработчиков в нарушении авторских прав.

Эксперты по правовым вопросам заявляют, что дело Getty Images имеет существенную основу, но отмечают, что исход противостояния трудно предсказать, поскольку в прошлом подобных разбирательств в практике не было. Британский учёный Андрес Гуадамаз (Andres Guadamaz), специализирующийся на искусственном интеллекте и авторском праве, считает, что иск Getty Images является хорошо обоснованным. Он отметил, что, вероятнее всего, дело будет рассматриваться с точки зрения нарушения авторских прав, а ответчик постарается доказать, что использовал изображения сервиса добросовестно и не нарушал прав авторов.

Getty Images подала иск к Stable Diffusion за использование миллионов изображений для обучения нейросети

Стоковый сервис Getty Images подал иск против компании Stability AI, стоящей за созданием популярной нейросети Stable Diffusion, обвинив разработчиков последней в нарушении авторских прав. С коллективными исками против создателей «творческих» нейросетей выступают и сами художники.

 Источник изображения: Stable Diffusion

Источник изображения: Stable Diffusion

Сервис считает, что Stability AI «незаконно скопировала и обработала миллионы изображений, защищённых правом на интеллектуальную собственность» для обучения своего программного обеспечения. В Getty Images подчеркнули, что компания не приняла мер для налаживания контактов со стоковым сервисом и получения разрешения на использование материалов авторов. В Stability AI отказались от комментариев.

Иск свидетельствует об эскалации конфликта между авторами контента и правообладателями с одной стороны, и компаниями, занимающимися разработками генеративных ИИ-сетей с другой — стороны борются за признание, прибыль и направление будущего развития креативной индустрии.

ИИ-инструменты вроде Stable Diffusion обучаются за счёт созданных людьми изображений, которые компании исследуют буквально миллионами, очень часто — без уведомления и/или согласия создателей. Стоящие за ИИ компании утверждают, что подобная практика вполне законна, но многие из авторов и правообладателей имеют противоположную точку зрения. Так, группа художниц подала иск к создателям ИИ-генераторов изображений. Им вменяется в вину кража миллиардов защищённых авторским правом картин, которые использовались для обучения умных систем — авторы изображений не получили компенсаций, и их согласия никто не спрашивал.

Ситуация с ИИ-инструментами сегодня сравнивается с эпохой появления цифровой музыки, когда этот сегмент рынка ещё не получил законодательного регулирования, и некоторые компании предлагали популярные, но совершенно нелегальные сервисы — до того, как заключили соглашения с музыкальными лейблами.

Хотя разработчики многих нейросетей предпочитают не раскрывать источники их «вдохновения», Stable Diffusion использует открытую модель, а независимые аналитики обнаружили, что Getty Images и другие сайты подобного назначения используются так часто, что во многих случаях доходит до смешного — ИИ воспроизводит в своих творениях водяные знаки источников.

В Getty Images заявили, что не требуют компенсации нанесённого ущерба или прекращения обучения нейросетей за счёт доступных изображений, скорее, речь идёт о выработке законного механизма для использования подобных технологий.

Впрочем, подобного рода претензии к ИИ имеют не все фотобанки. Ранее появилась информация о том, что сгенерированные изображения будет продавать Shutterstock, затем тем же самым занялся Adobe Stock.


window-new
Soft
Hard
Тренды 🔥
Российский аниме-хоррор MiSide внезапно оказался хитом Steam — восторженные отзывы игроков, сотни тысяч проданных копий 2 ч.
Киберпанковый слешер Ghostrunner 2 стал новой бесплатной игрой в Epic Games Store — раздача доступна в России и продлится всего 24 часа 3 ч.
Activision сыграет в кальмара: новый трейлер раскрыл, когда в Call of Duty: Black Ops 6 стартует кроссовер со Squid Game 2 4 ч.
«К чёрту Embracer Group»: неизвестный устроил утечку исходного кода Saints Row IV 5 ч.
Отечественная платформа Tantor повысит производительность и удобство работы с СУБД на базе PostgreSQL 8 ч.
В Steam вышла новая демоверсия голливудской стратегии Hollywood Animal от авторов This is the Police 9 ч.
IT-холдинг Т1 подал иск к «Марвел-Дистрибуции» в связи с уходом Fortinet из России 9 ч.
Рождественское чудо: в открытый доступ выложили документы Rockstar начала 2000-х, включая планы на GTA Online от 2001 года 10 ч.
«Битрикс24» представил собственную ИИ-модель BitrixGPT 11 ч.
За 2024 год в Китае допустили к релизу более 1400 игр — это лучший результат за последние пять лет 11 ч.