Сегодня 06 октября 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ассистент

Умная электроника отправляет личные разговоры пользователей рекламщикам — признались сами маркетологи

На сайте маркетинговой компании Cox Media Group (CMG) некоторое время назад был размещён баннер с однозначным и тревожным заявлением: «Это правда. Ваши устройства Вас слушают». Этим заявлением CMG спровоцировала панику, намекнув, что у неё есть доступ к частным разговорам людей, собираемым их телефонами, телевизорами и другой личной электроникой. Маркетинговая компания заявила, что использует эти личные разговоры для таргетинга рекламы своих клиентов.

 Источник изображений: unsplash.com

Источник изображений: unsplash.com

Наверное, каждый пользователь интернета на себе испытал или хотя бы слышал от других: стоит только сказать вслух о желании приобрести кожаную куртку «как у Дженсена», как реклама таких кожаных курток начинает транслироваться из каждого утюга. Производители электроники с микрофонами порой признаются в продаже голосовых данных третьим лицам (рекламодателям), но обычно речь идёт о данных, накопленных после того, как пользователь разрешил устройству начать его прослушивать и согласился на сбор данных.

CMG ещё 28 ноября рассказала о технологии Active Listening («Активное прослушивание»), которая использует ИИ для «обнаружения соответствующих разговоров через смартфоны, смарт-телевизоры и другие устройства». По утверждению компании, она знает, «когда и на что настраиваться». CMG готова удовлетворить желание рекламодателей услышать каждый шёпот, который мог бы помочь им таргетировать рекламу: «Это мир, где ни один шум перед покупкой не останется без анализа, а слухи потребителей становятся для вас инструментом таргетинга, переориентации и завоевания местного рынка».

CMG не предоставила подробных и точных разъяснений своей технологии, сейчас информация об Active Listening пропала с сайта, а архивная версия даёт весьма расплывчатое представление о том, как эта функция якобы работает. CMG загружала на свою платформу данные, создавая «персонажи покупателей». Затем каждому персонажу ставились в соответствие ключевые слова, интересующие клиента CMG.

Процесс отслеживания описывался так: «Активное прослушивание начинается и анализируется с помощью искусственного интеллекта для обнаружения соответствующих разговоров через смартфоны, смарт-телевизоры и другие устройства». Далее обсуждался анализ данных при помощи ИИ и создание «зашифрованного вечнозелёного списка аудитории», используемого для таргетирования рекламы на различных платформах, включая потоковое телевидение и аудио, медийную рекламу, платные социальные сети, YouTube, Google и Bing.

 Источник изображения: CMG

Источник изображения: CMG

В ноябрьском сообщении в блоге CMG указывалось на неназванного технологического партнёра, который может «агрегировать и анализировать голосовые данные во время разговоров перед покупкой», а также на «растущие возможности доступа к данным микрофона на устройствах». Но компания никогда не объясняла, как получила вычислительные и сетевые ресурсы, необходимые для записи и отправки каждого разговора в радиусе действия устройства. Также неясно, как CMG могла получить доступ, требующий наличия ордера от правоохранительных органов.

Компания ссылалась на многостраничное соглашение об условиях использования устройств, которые обычно никто не читает, где мелким шрифтом якобы описывалась возможность использования технологий, подобных Active Listening. Ещё больше путаницы добавило утверждение CMG о сотрудничестве с Facebook, Microsoft, Google и Amazon, хотя в реальности CMG является просто участником рекламных партнёрских программ этих компаний.

Теперь CMG уверяет, что она «не прослушивает какие-либо разговоры и не имеет доступа к чему-либо, кроме стороннего агрегированного, анонимного и полностью зашифрованного набора данных, который может быть использован для размещения рекламы и сожалеет о любой путанице». Рекламные инструменты компании включают «продукты сторонних поставщиков, основанные на наборах данных, полученных от пользователей различными социальными сетями и другими приложениями, которые затем упаковываются и перепродаются поставщикам услуг данных».

Компания утверждает, что рекламные данные, основанные на голосовых и других данных, собираются этими платформами и устройствами в соответствии с условиями, предусмотренными этими приложениями и принятыми их пользователями, а затем могут быть проданы сторонним компаниям и преобразованы в анонимную информацию для рекламодателей. Эти обезличенные данные затем перепродаются многочисленными рекламными компаниями.

Как бы жутко ни звучали заявления CMG, некоторые из них не являются надуманными. Голосовые помощники дали электронике повод держать микрофоны включёнными круглосуточно. Крупные технологические компании оказываются перед выбором: максимально удовлетворить ожидания клиентов или в первую очередь обеспечивать конфиденциальность пользователей. За прошедшие годы это привело к множеству судебных разбирательств, в том числе громких процессов, которые продолжаются годами и во многом определяют будущее конфиденциальности потребителей.

Начиная с 2019 года против Google регулярно подаётся иск, обвиняющий Google Assistant в использовании данных после неверно воспринятой команды на активацию голосового управления (например, «Эй, пудель!» вместо «Эй, Google»). В июле 2021 года, добиваясь прекращения дела, Google заявила, что «никогда не обещала, что Google Assistant будет активироваться только тогда, когда истцы захотят этого». Google также отметила, что не сохраняет аудиозаписи. В 2022 году в очередном иске против Google утверждалось, что компания собирает данные распознавания голоса и лица без согласия пользователя. Google утверждает, что это «является неверной характеристикой её продуктов».

Другим примером является борьба Apple с обвинениями в записи разговоров пользователей без запроса с их стороны к Siri. Apple утверждает, что Siri не слушает пользователей, если она не активирована, а компания «активно работает над улучшением Siri, чтобы предотвратить непреднамеренные срабатывания и предоставлять визуальные и звуковые сигналы… чтобы пользователи знали, когда Siri срабатывает».

На фоне судебных разбирательств и заверений от компаний о защите конфиденциальности клиентов, маркетологи и рекламодатели продолжают попытки вторжения в личные устройства с целью монетизации полученных персональных данных. И, хотя возможности CMG оказались преувеличенными, сам факт её заявлений многое говорит о неясном состоянии конфиденциальности и доверия потребителей, когда дело касается персональных интеллектуальных устройств. Одного этого уже достаточно, чтобы пересмотреть использование интеллектуальных продуктов с микрофоном и освежить понимание пользовательских соглашений и настроек конфиденциальности.

Zoom переименовала ИИ-ассистента в AI Companion и расширила его возможности

Платформа видеосвязи Zoom представила обновлённый ИИ-инструмент AI Companion, который поможет пользователям быстро решать некоторые рабочие задачи — администрация платформы уверяет, что он поможет повысить производительность их труда.

 Источник изображения: zoom.us

Источник изображения: zoom.us

В своём блоге Zoom уточняет, что AI Companion — это новое название инструмента Zoom IQ, возможности которого расширились. Ранее он составлял сводки обсуждений в чате и генерировал ответы на поступающие вопросы. Теперь AI Companion позволяет оперативно подготовиться к рабочей встрече, получить сводки предыдущих совещаний, а также найти соответствующие документы. Пользователи смогут вызывать AI Companion прямо в ходе виртуальных совещаний, отправляя запросы в службу поддержки или оперативно находя ответы на различные вопросы — инструмент превращается в полноценного виртуального ассистента.

AI Companion основан на разработанной Zoom собственной модели искусственного интеллекта в сочетании с Meta Llama 2, а также нейросетями от OpenAI и Anthropic. Этот «федеративный подход к искусственному интеллекту», уточнили в компании, помогает быстро интегрировать новые возможности различных моделей. Важнейшим нововведением AI Companion, который уже доступен платным подписчикам Zoom, является возможность управлять им при помощи команд в чате — помимо получения сводок совещаний можно задавать системе конкретные вопросы о том, что обсуждалось. По завершении совещания ассистент автоматически подготавливает его расшифровку, разбивает её на «умные главы» и тезисно выделяет наиболее важную информацию.

К концу сентября AI Companion научится генерировать ответы по электронной почте, автоматически определяя наиболее подходящую для них интонацию и объём текста. В перспективе система поможет анализировать эффективность презентаций, отслеживая, сколько времени выступающие и аудитория говорили и слушали.

Представлен ИИ-помощник программиста Google Codey — конкурент GitHub Copilot

На мероприятии Google I/O компания представила набор основанных на алгоритмах искусственного интеллекта инструментов помощи программисту, в том числе чат-бот, выступающий прямым конкурентом GitHub Copilot — он ассистирует в написании кода и работе с облачными сервисами Google.

 Источник изображения: Alex Dudar / unsplash.com

Источник изображения: Alex Dudar / unsplash.com

В основе всех этих инструментов, предлагающих автоматическое дополнение и генерацию кода, лежит нейросеть Codey, которая, в свою очередь, базируется на большой языковой модели Google PaLM 2. Компания обучила Codey на большом объёме исходного кода, лицензия которого позволяет использовать его в этих целях, а также на коде собственных продуктов Google. Проект получил интеграцию с экосистемой сервисов компании: она постоянно обучается на коде её проектов, и хотя первичным для неё является контекст Google Cloud, предлагаемый код не ограничивается этим направлением: поддерживаются языки Go, Java, JavaScript, Python и SQL, а начать работу с новыми инструментами можно будет, установив расширения для сред Visual Studio Code, IDE JetBrains и Google Shell.

К сожалению, пока доступ к новым инструментам есть только у небольшого числа клиентов компании — вероятно, более подробно о своих планах она расскажет на мероприятии Google Cloud Next. В перспективе компания собирается использовать эти ИИ-модели, чтобы помочь разработчикам управлять услугами в Google Cloud, включая развёртывание и масштабирование приложений — изучить все возможности инфраструктуры было бы затруднительно, ведь в её документации уже более миллиона страниц. Наконец, сообщили в компании, Google решила избавить клиентов от выполнения рутинных задач, чтобы освободить время для чего-то более творческого.

Amazon предложила бесплатный доступ к ИИ-ассистенту программиста CodeWhisperer

Amazon сделала бесплатным доступ к ИИ-платформе CodeWhisperer, предлагающей помощь в написании программного кода — аналогичный продукт от её конкурента Microsoft обходится в $10 за месяц. Желающим воспользоваться CodeWhisperer достаточно пройти регистрацию.

 Источник изображения: Gerd Altmann / pixabay.com

Источник изображения: Gerd Altmann / pixabay.com

Amazon представила предварительную версию CodeWhisperer в прошлом году — уже тогда она поддерживалась средами разработки вроде Visual Studio Code и создавала код по текстовому описанию. Первоначально платформа была доступной только для клиентов Amazon Web Services, теперь же ей может бесплатно воспользоваться любой желающий.

CodeWhisperer анализирует код, выявляя в нём уязвимости и предлагая варианты для исправления ошибок. Система поддерживает наиболее популярные языки, в том числе Python, Java, JavaScript, TypeScript, C#, Go, Rust, PHP, Ruby, Kotlin, C, C++, Shell-скрпты, а также SQL и Scala.

Принадлежащая Microsoft платформа GitHub опередила Amazon, выпустив инструмент Copilot — он аналогичным образом генерирует и предлагает код программисту, но бесплатно им пользоваться могут только студенты и разработчики популярных проектов Open Source. Остальным приходится платить $10 в месяц или $100 в год. У Google тоже есть свой аналог под названием AlphaCode, но он пока находится на стадии тестирования.

Zoom научила ИИ-ассистента Zoom IQ писать электронные письма и рассказывать опоздавшим, что они пропустили

Сервис видеосвязи Zoom представил новые функции вспомогательного инструмента Zoom IQ, основанного на алгоритмах искусственного интеллекта и разработанного на основе технологий OpenAI. Система предлагает расширенные функции обработки материалов на рабочих совещаниях и генерации текста.

 Источник изображения: blog.zoom.us

Источник изображения: blog.zoom.us

В компании напомнили, что за последний год на сервисе появилось множество функций Zoom IQ на основе ИИ-алгоритмов: интеллектуальные записи совещаний с разбиением на разделы и выделением ключевых моментов, а также сбор предложений, основанный на контактах с клиентами, что помогает улучшить продажи. Теперь платформа научилась систематизировать содержание рабочих обсуждений, а также генерировать контент для чатов, электронных писем и прочие рабочие материалы. Администрация сервиса предложила несколько сценариев, иллюстрирующих новые возможности Zoom IQ.

К примеру, если один из членов коллектива присоединяется к совещанию в Zoom с некоторой задержкой, система предлагает ему краткую сводку того, что обсуждали в его отсутствие — он может даже задавать ИИ дополнительные вопросы. Zoom IQ визуализирует на интерактивной доске основные тезисы совещания, подводит итоги собрания, публикует их в чате Zoom Team, а руководству система предлагает принимать на основе этих данных конкретные меры.

Отлучившись ненадолго, один из членов коллектива по возвращении получает краткое содержание обсуждавшегося в его отсутствие; система помогает формулировать собственные предложения, причём делает это сообразно стилю общения каждого пользователя. Наконец, на основе имеющихся на рабочей платформе материалов генеративный ИИ составляет адресованные клиентам электронные письма, тогда как сотруднику компании остаётся внести в текст отдельные правки и выбрать его интонацию.

Развёртывание новых функций Zoom IQ стартует уже в апреле, но некоторые из них на начальном этапе будут доступны ограниченному кругу пользователей только по приглашениям.

Находка для интроверта: Samsung научит свои смартфоны клонировать голос пользователя для ответов на звонки

В смартфонах Samsung есть функция Bixby Text Call, которая позволяет отвечать на голосовые вызовы, не произнося ни звука. Идея в том, что при невозможности или нежелании ответить вслух, пользователь сможет напечатать ответ, и он будет озвучен звонящему. Ранее ею могли пользоваться корейские пользователи, а теперь она стала доступна и на английском языке. Кроме того, планируется научить смартфоны озучивать сообщения голосом пользователя.

 Источник изображения: Bloomberg

Источник изображения: Bloomberg

В настоящее время озвучка текста голосом пользователя доступна только на корейском языке в приложении Bixby Custom Voice Creator для небольшого количества смартфонов Samsung — только новых флагманов Galaxy S23, S23+ и S23 Ultra. Качество голоса может быть ужасным, а время отклика слишком велико, чтобы эта функция оказалась реально полезной. Но само по себе клонирование голосов для ответа на вызовы вполне по плечу современным технологиям, поскольку инструменты искусственного интеллекта способны создавать реалистичные копии голосов всего за несколько минут аудиозаписи.

Сам по себе ответ на аудиозвонки через текстовый интерфейс встроенным синтезированным голосом уже не новинка. На устройствах Samsung эта функция известна как Bixby Text Call, она была представлена ​​в оболочке One UI 5 для Android. Google предлагает аналогичную услугу под названием Call Screen, которая позволяет вам отвечать на потенциальные спам-вызовы с помощью автоматизированного голоса. Но служба Google позволяет вам выбирать только из списка общих ответов, а не вводить собственные ответы.

Нетрудно представить, что в ближайшем будущем эти функции станут более сложными и автоматизированными. В конце концов, достаточно будет подключить свой голосовой клон, преобразующий текст в речь, к чат-боту на базе ИИ. Сама Samsung обещает, что в будущем сгенерированные пользователями голоса будут «совместимы с другими приложениями Samsung, помимо телефонных звонков», хотя неясно, что это значит.

Технологические компании давно обещают, что помощники на базе ИИ смогут выполнять разного рода администрирование от имени пользователя, и создание голосового клона самого себя и постановка ему задач через чат-бота может фактически воплотить эту идею в жизнь.

Это также может создать всевозможные проблемы. Google уже пыталась внедрять аналогичную функциональность в 2018 году c помощью своей технологии Duplex AI, как способ автоматического бронирования столиков в ресторанах с помощью голоса ИИ. Но реакция на эту технологию была неоднозначной: многие критиковали её как неэтичную и отмечали, что она создаёт больше работы для людей, принимающих звонки. В конце концов, компания закрыла Duplex AI в конце 2022 года.

Существуют также злонамеренные варианты использования голосовых клонов ИИ, от разжигания ненависти и преследований ИИ до простого мошенничества. Весьма вероятно, что в ближайшем будущем окажется практически невозможно определить, действительно ли это человек на другом конце провода.


window-new
Soft
Hard
Тренды 🔥
Бета-версия российского игрового движка Nau Engine выйдет в конце ноября 3 мин.
Пользователи iPhone 16 получат доступ к ИИ-функциям Apple Intelligence уже в этом месяце 5 мин.
Евросоюз запретил Meta бесконечно использовать данные пользователей для таргетированной рекламы 2 ч.
Авторы посвящённой видеоиграм антологии «Секретный уровень» показали вступление из UT99 на движке Unreal Engine 5 2 ч.
Чтобы разблокировать соцсеть X в Бразилии, Маск заплатил штраф $5 млн, но не туда 16 ч.
Новая статья: Gamesblender № 694: глобальный сбой в PSN, релиз Unreal Engine 5.5 и новый шутер по StarCraft 19 ч.
СМИ сообщают о грядущей ликвидации одной из российских альтернатив «Википедии» 22 ч.
В обновлённом Telegram появились подарки, подтверждение телефонов, улучшенные жалобы и RTMP-трансляции 24 ч.
Accenture сформировала подразделение NVIDIA Business Group и обучит 30 тысяч сотрудников полному стеку ИИ-технологий NVIDIA 05-10 15:36
Linux-вирус Perfctl заразил с 2021 года тысячи серверов и скрытно майнит на них криптовалюту 05-10 14:28