Сегодня 28 декабря 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → дезинформация

ЕС призвала технологические компании маркировать созданный ИИ контент — многие согласны, но не Twitter

Европейский Союз хочет, чтобы технологические компании предупреждали пользователей о контенте, созданном ИИ, который может содержать дезинформацию. «Технологии ИИ могут принести пользу, но имеются и «тёмные стороны» с новыми рисками и потенциальными негативными последствиями для общества, — говорит вице-президент Европейской комиссии Вера Юрова (Vera Jourova). — Новые технологии ставят новые задачи в борьбе с дезинформацией».

 Источник изображения: Pixabay

Источник изображения: Pixabay

Закон о цифровых услугах ЕС, который устанавливает правила модерации, пока не распространяется на контент, созданный ИИ. ЕС спешит наверстать упущенное и установить правила для использования генеративного ИИ. Закон об ИИ будет вынесен на ключевое голосование на пленарном заседании Европейского парламента на следующей неделе. Даже если институты ЕС согласятся с окончательным вариантом к концу года, компаниям, вероятно, не нужно будет соблюдать его до 2026 года.

Уже сейчас компании, которые приняли добровольный свод правил ЕС по борьбе с дезинформацией, в том числе TikTok, Microsoft и Meta, должны «чётко маркировать» любые сервисы, способные распространять дезинформацию, созданную ИИ. Эти компании, которые интегрируют генеративный ИИ в свои сервисы, такие как Bing для Microsoft, Bard для Google, также должны предусмотреть необходимые меры безопасности, чтобы эти сервисы не могли использоваться злоумышленниками для создания дезинформации.

В общей сложности Вера Юрова встретилась с более чем 40 компаниями, подписавшими кодекс этики в сфере искусственного интеллекта. Однако Twitter отказалась подписывать документ. «Мы считаем, что это ошибка Twitter. Компания выбрала трудный путь — конфронтацию, — заявила представитель Европейской комиссии. — Отказавшись от участия, компания привлекла много внимания, и её действия и соблюдение законодательства ЕС будут тщательно и срочно проверены».

Еврокомиссар по вопросам конкуренции Маргрет Вестагер (Margrethe Vestager) обсуждает кодекс с партнёрами по G7, Индией и Индонезией, чтобы убедить компании добавлять дополнительные меры безопасности по мере развёртывания технологий генеративного ИИ. Комиссар по внутреннему рынку Тьерри Бретон (Thierry Breton) объявил о «Пакте об ИИ», который будет действовать в период между согласованием закона об ИИ и его вступлением в силу.

Google представила детектор сгенерированных ИИ изображений — в поиске и других приложениях

Компания Google делает новые шаги на пути борьбы с дезинформацией — она намерена автоматически выявлять сгенерированные ИИ изображения. На мероприятии I/O она представила новые функции, которые добавятся в её поиск. Считается, что такая функциональность поможет людям лучше понимать «контекст» изображений в поисковой выдаче. Кроме того, пользователи будут получать больше информации об изображении в специальной вкладке. Также появится и маркировка «Сгенерировано ИИ».

 Сгенерировано Google. Источник изображения: Google

Сгенерировано Google. Источник изображения: Google

В компании заявляют, что новые функции помогут людям быстрее оценивать достоверность изображения — реально ли оно или создано ИИ. Впрочем, сами эти инструменты вряд ли помогут устранить проблему дезинформации полностью, поскольку значительная часть изображений будет демонстрироваться вообще вне экосистемы Google, на площадках, где авторы могут публиковать буквально что угодно. Тем не менее, новая функциональность, которая появится в «ближайшие месяцы», обеспечит в поиске больше контекста, связанного с теми или иными «снимками» — достаточно будет открыть вкладку «Об этом изображении» (About this image).

В частности, в число данных будет включена информация о том, когда изображения были впервые индексированы Google, где изображение, вероятно, впервые появилось онлайн и где ещё оно публиковалось. В частности, такой поиск может привести на сайты, занимающиеся проверкой фактов, которые позволят пользователям больше узнать об изображении, чья достоверность поставлена под вопрос. В Google отметили, что 62 % опрошенных людей уверены, что встречаются с дезинформацией ежедневно или еженедельно, в компании надеются решать эту проблему с помощью вкладки «Об этом изображении».

Хотя Google изо всех сил старается представить технологию как можно раньше, до того, как мир заполонят сгенерированные ИИ изображения, недостоверность которых на первый взгляд неочевидна, в сети уже появилось множество фейковых фото, например — Папы Франциска в пуховике или дружески общающихся Трампа и Байдена. Такие технологии уже сегодня могут нанести серьёзный ущерб обществу.

Для того, чтобы вызвать информацию об изображении, пользователь будет должен нажать на трёхточечное меню в результатах выдачи «Изображения» в поисковике Google, можно будет искать по изображению или скриншоту в Google Lens или просто сделать свайп вверх на странице с заинтересовавшим пользователя изображением. Позже в этом году доступ к информации можно будет получить, вызвав окно правой кнопкой мыши на компьютере или долгим нажатием на изображение в смартфоне (в мобильной или настольной версии Chrome). Впрочем, сначала функция будет доступна только в США и только на английском.

 ATIGif.gif

Тем временем сгенерированные инструментами самой Google изображения получат специальную маркировку в исходном файле. Создатели изображений и издатели также смогут добровольно добавлять подобную маркировку на сгенерированные ИИ изображения. После этого в поиске Google будет появляться соответствующая метка. В Google заявляют, что некоторые платформы уже готовы к сотрудничеству в этой сфере — включая Midjourney, Shutterstock и др.

Google представила и другие возможности. Например, речь идёт о скором появлении секции в поиске раздела с некоммерческим контентом, опубликованным реальными людьми.

Чат-боты Google и Microsoft начали ссылаться друг на друга, плодя фейки

Если сейчас спросить чат-бот Microsoft Bing, был ли закрыт чат-бот Google Bard, он ответит «нет», хотя ещё пару часов назад ответ был противоположным. Microsoft утверждал о закрытии конкурента, ссылаясь в качестве доказательства на новостную статью о твите, в котором рассказывается о том, как пользователь спросил Bard, когда он будет закрыт, и Bard ответил, что уже закрыт, ссылаясь на комментарий с Hacker News, в котором кто-то пошутил, что это произошло, а кто-то другой использовал ChatGPT для написания фейковой новости об этом событии.

 Источник изображения: Pixabay

Источник изображения: Pixabay

То, что чат-бот Microsoft Bing теперь исправил свою ошибку можно интерпретировать по-разному: или как демонстрацию возможности быстрой корректировки генеративного ИИ, или что системы на базе ИИ настолько бесконечно изменчивы, что становится привычным получать сообщения об их очередных ошибках.

Описанная ситуация — ранний признак масштабных мистификаций и дезинформаций, исходящих от искусственного интеллекта, который не может адекватно оценивать надёжные источники новостей, неправильно воспринимает истории о себе и ошибочно информирует пользователя о собственных возможностях. В данном случае всё началось из-за одного шутливого комментария на Hacker News. Трудно представить последствия в случае продуманной и преднамеренной попытки вывести чат-боты из строя.

Это смехотворная ситуация, но с потенциально серьёзными последствиями. Учитывая неспособность языковых моделей ИИ надёжно отличать факты от вымысла, их широкое применение грозит оставить за собой шлейф дезинформации и недоверия, информационные провокации, которые невозможно полностью подтвердить или авторитетно опровергнуть. Всё потому, что Microsoft, Google и OpenAI решили, что доля рынка важнее безопасности.

Эти компании могут размещать сколько угодно заявлений об отказе от ответственности в своих чат-ботах, утверждая, что это просто «эксперимент», а не полноценная поисковая система, но уже описаны множественные случаи распространения дезинформации чат-ботами на базе ИИ. А теперь они ещё и начали ссылаться на ошибки друг друга…


window-new
Soft
Hard
Тренды 🔥
Хакеры взломали ряд расширений для Chrome для кражи паролей и личных данных пользователей 5 ч.
Разработчики Hades II раскрыли, когда выйдет второе крупное обновление, и чего ждать дальше 7 ч.
Фейковый юрист Nintendo запугивает блогеров, проходящих в игры на камеру — YouTube не может его остановить 7 ч.
Монетизация, жизнь после релиза и никакого Unreal Engine 5: разработчики российского MMO-шутера Pioner ответили на вопросы игроков 8 ч.
Вышел трейлер первого индийского полнометражного фильма, который сгенерировал ИИ 9 ч.
Продажи Nier: Automata взяли новую высоту после кроссовера со Stellar Blade 10 ч.
OpenAI создаст «корпорацию общественного блага» для перехода на коммерческие рельсы 10 ч.
Российские СМИ и блогеры стали чаще говорить об ИИ в уходящем году, но упоминания отечественных сервисов упали 10 ч.
В открытый доступ попало более 90 Гбайт контента по классическим Halo, включая рабочую сборку первой игры с видом от третьего лица 11 ч.
Intel удалила из Graphics Software функцию Studio для стримеров — ею никто не пользовался 12 ч.