Сегодня 26 декабря 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → google
Быстрый переход

Google научила ИИ глубоко гуглить — Deep Research тщательно исследует любую тему в интернете

Компания Google представила новый ИИ-инструмент под названием Deep Research, который позволяет чат-боту Gemini проводить тщательный веб-поиск по заданной теме вместо пользователя и составлять детальный отчёт на основе обнаруженной информации.

 Источник изображений: Google

Источник изображений: Google

В настоящий момент Deep Research доступен только для платных подписчиков Gemini Advanced и только на английском языке. Для его активации необходимо выбрать в Gemini в качестве модели «Gemini 1.5 Pro с Deep Research».

При наличии доступа можно попросить Gemini провести исследование на определённую тему. После этого чат-бот составит «план поиска», который можно отредактировать или сразу одобрить. По словам Google, Gemini начнет своё исследование с «поиска интересных фрагментов информации» в интернете, а затем выполнит связанный поиск — процесс, который он повторяет несколько раз.

Когда исследование будет завершено, Gemini выдаст отчёт о своих «ключевых выводах» со ссылками на веб-сайты, где была найдена информация. Пользователь может попросить расширить определённые области поиска, подправить отчёт, а также экспортировать сгенерированное ИИ-исследование в Google Docs. Всё это напоминает функцию Pages, предлагаемую поисковой системой ИИ Perplexity, которая генерирует пользовательскую веб-страницу на основе запроса пользователя.

Google представила Deep Research в рамках более широкого анонса Gemini 2.0 — новой модели для эпохи «агентного» ИИ, или систем, которые способны заменить пользователя в рутинных операциях. Deep Research является лишь одним из примеров ИИ-агентов Google. Другие компании, работающие в сфере ИИ, также разрабатывают аналогичные решения.

Вместе с анонсом Deep Research компания Google также объявила, что Gemini Flash 2.0 — более быстрая версия чат-бота следующего поколения — стала доступна для разработчиков.

Google запустила «всеобъемлющую» ИИ-модель Gemini 2.0, которая может заменить человека

Представлена новая модель ИИ Gemini 2.0 от Google, которая стала предельно универсальной — она генерирует текст, звук и изображения, а также предлагает новые мультимодальные возможности, которые закладывают основу для следующего большого этапа в развитии ИИ: агентов, которые в буквальном смысле могут заменить пользователя в рутинных операциях. Новая модель также стала заметно производительнее и энергоэффективнее.

 Источник изображения: techspot.com

Источник изображения: techspot.com

Как и любая другая компания, участвующая в гонке ИИ, Google лихорадочно встраивает ИИ во всё, до чего может дотянуться, пытаясь создать коммерчески успешные продукты. Одновременно требуется так настроить всю инфраструктуру, чтобы дорогостоящие ИИ-решения не разорили компанию. Тем временем Amazon, Microsoft, Anthropic и OpenAI вливают свои собственные миллиарды в практически тот же самый набор проблем.

Gemini 2.0 представлена примерно через 10 месяцев после выпуска версии 1.5. Генеральный директор Google DeepMind Демис Хассабис (Demis Hassabis) очень высоко оценивает новую модель, называя её «всеобъемлющей», хотя Gemini 2.0 все ещё находится в стадии «экспериментального предварительного просмотра», по терминологии Google. Тем не менее Хассабис уверен, что новая модель предоставит совершенно другой уровень возможностей, в первую очередь в области агентского ИИ.

Агентским ИИ называют ИИ-ботов, которые могут полноценно выполнять действия от имени пользователя. Например, Project Astra от Google — это визуальная система, которая может распознавать объекты, помогает ориентироваться в мире и находить утерянные предметы. По словам Хассабиса, возможности Astra в версии Gemini 2.0 многократно возросли.

Другой пример — Google Project Mariner — экспериментальное расширение для браузера Chrome, которое может буквально подменять пользователя при веб-серфинге. Агент Jules, в свою очередь, помогает разработчикам в поиске и исправлении плохого программного кода. Выпущен даже агент, который помогает лучше играть в видеоигры. Хассабис приводит его в пример в качестве по-настоящему мультимодальной модели ИИ.

«Мы действительно считаем 2025 год настоящим началом эры на основе агентов, — заявил Хассабис, — Gemini 2.0 является её основой». Он также отметил возросшую производительность и энергоэффективность новой модели, особенно на фоне общего замедления прогресса в отрасли ИИ.

План Google относительно Gemini 2.0 заключается в том, чтобы использовать её абсолютно везде. Google ставила своей целью внедрить как можно больше функций в единую модель, а не запускать множество отдельных разрозненных продуктов. «Мультимодальность, различные виды выходных данных, функции — цель состоит в том, чтобы включить все это в основополагающую модель Gemini. Мы пытаемся построить максимально общую модель», — говорит Хассабис.

По словам Хассабиса, с началом агентской эры ИИ потребуется решать как новые, так и старые проблемы. Старые вечны, они касаются производительности, эффективности и стоимости вывода. Новые во многом связаны с рисками в сфере безопасности и конфиденциальности.

Gemini 2.0 на данный момент находится на экспериментальной стадии, причём только в облегчённой версии Gemini 2.0 Flash. Выход окончательной версии запланирован на начало следующего года.

«Нам нужно генерировать прибыль»: Google нарастит присутствие ИИ в поиске

Холдинг Alphabet, в который входит Google, активно развивается в самых разных областях, в том числе на направлении беспилотного транспорта и квантовых вычислений, но приоритетным направлением для него остаётся веб-поиск. Здесь компания намерена увеличивать присутствие искусственного интеллекта.

 Источник изображения: BoliviaInteligente / unsplash.com

Источник изображения: BoliviaInteligente / unsplash.com

Применение ИИ в поиске, который сделал бренд Google именем нарицательным, остаётся самой крупной ставкой для компании, заявила на конференции Reuters NEXT президент и главный инвестиционный директор Alphabet Рут Порат (Ruth Porat). «Мы встретим людей там, где они хотят оказаться», — рассказала топ-менеджер. Годовая выручка Alphabet составляет более $300 млрд, и бо́льшая часть этой суммы поступает от связанной с поиском рекламы.

Прока что в поиск компания внедрила создаваемые генеративным ИИ сводки для запросов без очевидного ответа. Google была вынуждена пойти на этот шаг из-за конкуренции со стороны OpenAI ChatGPT. Но компании пришлось столкнуться с «галлюцинациями» ИИ, когда он даёт явно неправильные ответы. Google намерена продолжать развитие поиска с ИИ.

Ещё одной ключевой инвестицией являются облачные услуги. Alphabet достигла значительных результатов в области здравоохранения; входящее в холдинг подразделение Isomorphic Labs разрабатывает медицинские препараты, используя ИИ AlphaFold, который предсказывает структуры белковых молекул. ИИ, по мнению Порат, поможет сохранить зрение людям, которые рискуют его потерять; а медицинским работникам не придётся больше подолгу работать у экранов в ущерб времени, которое они могут потратить на лечение пациентов.

В 2024 году компания потратит $50 млрд на чипы, центры обработки данных и другие капитальные расходы; но и о результативности она забывать не намерена. «Нам нужно генерировать прибыль», — отметила президент Alphabet.

Google попросила регулятора расследовать слишком близкие отношения Microsoft и OpenAI

Крупнейшим акционером стартапа OpenAI остаётся корпорация Microsoft, которая вложила в его развитие более $13 млрд, а потому может спокойно претендовать на некоторые преференции в сотрудничестве с создателями ChatGPT. У конкурентов, однако, возникают возражения. Google просит американских регуляторов разорвать исключительное соглашение OpenAI с Microsoft, которое позволяет последней размещать в своей облачной инфраструктуре сервисы для клиентов OpenAI.

 Источник изображения: Microsoft

Источник изображения: Microsoft

О соответствующем ходатайстве Google стало известно с подачи агентства Reuters, которое упоминает об этом в контексте описания подробностей более широкого расследования, которое проводит Федеральная комиссия по торговле США (FTC). Регулятор сам обратился к Google с запросом по поводу влияния тесного партнёрства Microsoft и OpenAI на рынок соответствующих услуг.

Google и Amazon, являющиеся игроками на рынке облачных услуг, хотели бы получить возможность размещать в своей инфраструктуре большие языковые модели OpenAI. Это позволило бы их клиентам избежать дополнительных расходов на доступ к облачным ресурсам Microsoft, где сейчас размещаются модели OpenAI по условиям исключительного соглашения между двумя последними компаниями. По мнению участников расследования, клиенты OpenAI могут столкнуться с дополнительными расходами при получении доступа к сервисам этой компании в том случае, если они до этого не являлись облачными клиентами Microsoft. Конкуренты последней подчеркнули, что подобные расходы могут навредить клиентам OpenAI.

Миллионы роликов на YouTube получат дубляж на иностранных языках

Совершенствование больших языковых моделей, лежащих в основе ИИ-ассистента Gemini, уже позволило Google предложить ограниченному кругу создателей видеоконтента функцию автоматического дубляжа их роликов на различных языках. Теперь доступ к этой возможности расширен для авторов видеороликов познавательного и образовательного содержания.

 Источник изображения: Unsplash, Bhautik Patel

Источник изображения: Unsplash, Bhautik Patel

Как отмечает TechCrunch, сервис YouTube объявил о расширении поддержки функции автоматического дубляжа видеоконтента на сотни тысяч каналов, которые посвящены познавательным целям. Получить автоматический дубляж видео могут те авторы контента, которые, например, ведут кулинарные блоги или делятся секретами мастерства в различных сферах. В перспективе функция охватит и те каналы, которые специализируются на других типах контента.

Чтобы воспользоваться новшеством, автору видео достаточно загрузить исходный видеоролик в обычном режиме. YouTube сам определит язык исходного видео и создаст дублированные версии на различных языках, если пользователь поставил необходимую отметку в интерфейсе страницы загрузки. Пока поддерживаются английский, французский, немецкий, индийский, индонезийский, итальянский, японский, португальский и испанский языки.

Google предупреждает, что возможности Gemini по воссозданию человеческой речи на различных языках пока ограничены. Ассистент не только может допускать грамматические, стилистические и фонетические ошибки, но и отличаться от тембра владельца исходного голоса в видеоролике. В дальнейшем YouTube обещает добавить речи своего автоматического переводчика экспрессивности, что позволит лучше отображать эмоциональность оригинала и даже повторять окружающие звуки исходной аудиодорожки.

Google совершила прорыв в квантовых вычислениях: решена 30-летняя проблема квантовой коррекции ошибок

Google совершила прорыв в области квантовых вычислений. Благодаря новому улучшенному процессору и усовершенствованной системе коррекции ошибок удалось значительно увеличить время жизни квантового кубита. Как сообщает Ars Technica, учёным удалось создать квантовый процессор Willow, который впервые преодолел порог квантовой коррекции ошибок. Это значит, что при увеличении числа кубитов частота ошибок не растет, а снижается. Кроме того, на полностью задействованном процессоре со 105-кубитами логический квантовый бит оказался стабилен в среднем на протяжении часа.

 Источник изображения: Google

Источник изображения: Google

Для развития квантовых технологий Google построила собственный производственный центр для создания сверхпроводящих процессоров. «Ранее все устройства Sycamore изготавливались в общей лаборатории университета, где рядом работали аспиранты и другие исследователи, занимавшиеся различными экспериментами, — говорит Джулиан Келли (Julian Kelly), представитель команды Google. — Однако мы инвестировали значительные средства в создание нового предприятия, наняли персонал, оснастили его оборудованием и перенесли туда наши процессы».

Первым результатом работы нового центра стало увеличение числа кубитов до 105 единиц на процессоре Willow, который стал вторым поколением квантовых процессоров Google. Новая архитектура этого процессора позволила снизить уровень ошибок благодаря увеличению размеров отдельных кубитов, сделав их менее чувствительными к шуму. Этот прогресс подтвердился и в ходе тестов, проведённых с использованием фирменного бенчмарка Google. «Мы пришли к тому, что выполнение задачи на нашем новом процессоре занимает менее пяти минут, тогда как классическому компьютеру потребовалось бы время соизмеримое с возрастом Вселенной», — отметил Келли. Если точнее, то Willow менее чем за пять минут решил задачу из квантового бенчмарка RCS, на которую у Frontier (самого быстрого суперкомпьютера в мире) ушло бы 10 септиллионов (1024) лет.

Ключевым аспектом исследования стало поведение логических кубитов, представляющих из себя главный элемент квантовых вычислений. Они состоят из нескольких аппаратных кубитов, которые работают вместе для выявления и исправления ошибок. Для выполнения сложных алгоритмов, требующих нескольких часов, стабильность таких кубитов крайне важна, и новый результат Google подтверждает, что улучшенная система коррекция ошибок может обеспечить необходимый уровень надёжности. Квантовая коррекция ошибок — задача, которая стояла перед исследователями последние 30 лет и мешала практическому использованию квантовых компьютеров.

Для этого был использован специальный код коррекции ошибок, представляющий из себя «поверхностный код» (этот код также должен быть устойчив к ошибкам), который должен идеально вписываться в квадратную сетку расположения кубитов. Увеличение размера этой сетки и использование всё большей её части улучшает и коррекцию. Исследование показало, что переход от расстояния трёх к пяти и затем к семи снижает количество ошибок вдвое на каждом этапе. «Мы увеличиваем сетку по этой системе, и уровень ошибок падает в два раза на каждом этапе», — пояснил Майкл Ньюман (Michael Newman) из Google.

Однако кубиты всё ещё подвержены редким сбоям. Одной из причин являются локальные всплески ошибок, другая причина кроется в более сложном феномене, включающем одновременные ошибки в области, состоящей из примерно 30 кубитов. Пока таких событий зафиксировано лишь шесть, поэтому их изучение затруднено и в Google подчёркивают, что «эти события настолько редки, что нам сложно собрать достаточно статистики для их анализа».

Кроме улучшения стабильности, увеличение размера кода коррекции ошибок позволяет значительно усилить эффект от будущих аппаратных улучшений. Например, в Google подсчитали, что улучшение производительности аппаратных кубитов в два раза при кодовом расстоянии Хэмминга d-15 снизит ошибки логического кубита в 250 раз. При расстоянии d-27 это же улучшение приведёт к уменьшению ошибок более чем в 10 000 раз.

При этом полное устранение ошибок невозможно. «Важно понимать, что всегда будет определённый уровень ошибок, но его можно снизить до уровня, когда он станет практически незначительным», — отметили в компании. Несмотря на необходимость дальнейших исследований для увеличения времени жизни логических кубитов и масштабирования системы, команда Google уверена в достижении своих целей, а экспоненциальные улучшения подтверждают жизнеспособность технологии.

Полученные результаты открывают путь к построению полезных на практике квантовых систем. К концу десятилетия Google планирует создать полноценный отказоустойчивый квантовый компьютер и начать предоставлять квантовые вычисления через облако.

Google упростил отключение персонализированных результатов поиска

В поиске Google появилась маркировка персонализированной выдачи — если результаты поиска подстраиваются под пользователя, это теперь легко можно отключить. Функция присутствовала и раньше, но управлять ей было сложнее.

 Источник изображения: google.com

Источник изображения: google.com

В нижней части страницы с поисковой выдачей Google появилась пометка о персонализации результатов — если выдача не подвергалась подстройке под пользователя, система выводит сообщение: «Результаты не персонализированы»; в противном случае рядом появляется ссылка на результаты без персонализации. «Это изменение помогает людям точнее понять, были ли их результаты персонализированы, а также предоставляет им возможность изучить неперсонализированные результаты. Мы также упростили для людей возможность изменять настройки персонализации в любое время», — прокомментировал нововведение представитель Google Нед Адрианс (Ned Adriance). Ранее соответствующая информация показывалась индивидуально для каждого пункта в выдаче — новый вариант, по мнению компании, представляется более доступным и понятным.

Ссылка на общую поисковую выдачу «даёт людям возможность временно просматривать результаты, которые не были персонализированы», пояснили в Google — это значит, что при переходе по этой ссылке настройки в профиле не меняются. Отключить персонализацию в поиске можно как минимум с 2007 года — для этого необходимо добавить выражение «&pws=0» в конец адреса страницы с выдачей. Полностью отключить персонализацию поиска можно в настройках учётной записи Google.

«Впереди так много инноваций»: в поисковике Google произойдут глубокие изменения

Генеральный директор Google Сундар Пичаи (Sundar Pichai) пообещал, что поисковая система компании «глубоко изменится» в 2025 году. «Я думаю, мы сможем решать более сложные вопросы, чем когда-либо прежде», — сообщил он в ходе мероприятия DealBook Summit, организованного изданием The New York Times.

 Источник изображения: Firmbee.com/unsplash.com

Источник изображения: Firmbee.com/unsplash.com

«Я думаю, вы будете удивлены, насколько нововведения смогут изменить поисковик Google по сравнению с тем, что он представляет из себя сегодня», — отметил Пичаи.

Пичаи также отреагировал на заявление генерального директора Microsoft Сатьи Наделлы (Satya Nadella), сделанное в начале этого года, в котором тот указал, что Google должна была стать «победителем по умолчанию» в гонке искусственного интеллекта среди технологических гигантов, имея всё для этого — вычислительные мощности, данные, модели, продукты и дистрибуцию, однако этого не случилось.

«Я бы с удовольствием провёл сравнение собственных моделей Microsoft и наших моделей», — сказал Пичаи, добавив, что Microsoft «использует чужие модели», имея в виду партнёрство компании с OpenAI.

Сундар Пичаи сообщил, что Google находится на самых ранних стадиях глубоких изменений. «Я просто думаю, что впереди так много инноваций. Мы стремимся быть на переднем крае в этой области, и я думаю, что так и есть», — отметил он.

В этом году Google начала масштабную перестройку поисковой системы с использованием ИИ, включая добавление сводок поиска ИИ и обновление сервиса визуального поиска Google Lens («Google Объектив»), который позволяет выполнять поиск в интернете по снятому видео. Компания также готовится запустить крупное обновление ИИ-модели Gemini на фоне конкуренции с Microsoft, OpenAI и поисковой системой ИИ Perplexity.

Google выпустила крупное обновление для Android 15 — улучшены субтитры, приложение Lookout и не только

Компания Google выпустила функциональное обновление для мобильной ОС Android и устройств семейства Pixel. Разработчики улучшили инструмент генерации субтитров к видео, обновили приложение Lookout, а также добавили несколько ИИ-функций, основой для которых стала нейросеть Gemini 1.5. Все нововведения будут доступны владельцам устройств с Android 15, но некоторые функции также появятся в смартфонах с более старыми версиями программной платформы.

 Источник изображений: Google

Источник изображений: Google

Разработчики улучшили приложение Lookout, с помощью которого люди с нарушениями зрения могут получить в формате аудио описания разных объектов и фотографий. Google интегрировала нейросеть Gemini 1.5 в приложение, благодаря чему пользователи смогут получать более качественные и детальные описания фотографий, сделанных или открытых с помощью Lookout. Это нововведение стало очередным шагом на пути Google по интеграции большего количества ИИ-функций в приложение Lookout, о чём компания объявила на прошедшей ранее в этом году конференции I/O.

Обновление Android принесёт с собой улучшенные субтитры для видео. Теперь помимо расшифровки речи субтитры будут отображать сопутствующие звуки и эмоции, например, аплодисменты или вздохи. Это нововведение касается всей системы Android и будет доступно везде, где есть возможность активации функции субтитров.

Google продолжает развивать новый ИИ-помощник Gemini Assistant. На этот раз он получил расширение Spotify, позволяющее воспроизводить аудио из музыкального сервиса через Gemini. На момент дебюта Gemini Assistant в нём отсутствовала поддержка ряда базовых функций, таких как воспроизведение музыки из Spotify. Теперь же это изменится, и новый ИИ-помощник станет более похожим на стандартный Google Assistant, который уже несколько лет может проигрывать аудио из Spotify. Gemini также получит доступ к расширению «Утилиты», благодаря чему ИИ-ассистент сможет выполнять больше действий от имени пользователя, например, совершать звонки, отправлять электронные письма и менять настройки устройства.

Среди других примечательных особенностей пакета обновлений отметим появление возможности создания стикеров с помощью Emoji Kitchen внутри Gboard, возможности делиться фотографиями с помощью QR-кода в Quick Share, а также улучшенного инструмента сканирования квитанций и других документов в «Google Диске». Все упомянутые функции будут доступны на устройствах с Android 15, но некоторые из них также появятся в более старых версиях ОС.

Декабрьское обновление принесёт несколько больше нововведений на смартфоны Pixel. В дополнение к перечисленным функциям владельцы смартфонов Google смогут задействовать улучшенную функцию проверки входящих вызовов. Пока звонящий разговаривает с голосовым помощником пользователь сможет включиться в беседу, чтобы отвечать на задаваемые звонящим вопросы от имени помощника, не принимая при этом вызов. Разработчики также обновили приложение Screenshots, улучшив функцию Circle to Search и добавив возможность сохранения в приложении результатов поиска.

Google научила ИИ распознавать эмоции — у этого могут быть ужасные последствия

Google заявила, что её новое семейство ИИ-моделей обладает любопытной чертой — способностью «распознавать» эмоции. По словам компании, семейство ИИ-моделей PaliGemma 2, представленное в четверг, может анализировать изображения, позволяя ИИ генерировать подписи и отвечать на вопросы о людях, которых он «видит» на фотографиях.

 Источник изображений: Google

Источник изображений: Google

«PaliGemma 2 генерирует подробные, контекстно релевантные подписи для изображений, выходя за рамки простой идентификации объектов, чтобы описывать действия, эмоции и общее повествование сцены», — пишет Google в своём официальном блоге. Для распознавания эмоций PaliGemma 2 необходимо настроить соответствующим образом. Без этого он не работает. Однако эксперты, с которыми пообщались журналисты портала TechCrunch, были встревожены перспективой появления общедоступного детектора эмоций.

«Меня это очень беспокоит. Для меня проблематично считать, что мы можем “читать” эмоции людей. Это как просить совета у магического шара предсказаний (Magic 8 Ball, популярная игрушка, — прим. ред.) для решения серьёзных вопросов», — отметила в разговоре с TechCrunch Сандра Вахтер (Sandra Wachter), профессор этики данных и ИИ из Оксфордского института исследования Интернета.

Технологические компании, занимающиеся развитием ИИ, годами пытаются создать искусственный интеллект, способный определять эмоциональные аспекты в любых вещах — начиная от обучения продажам и заканчивая задачами, связанными с предотвращением несчастных случаев.

Разработка большинства детекторов эмоций базируется на ранних работах американского психолога Пола Экмана (Paul Ekman), который предположил, что у людей есть шесть основных типов эмоций: гнев, удивление, отвращение, удовольствие, страх и грусть. Однако последующие исследования этого вопроса поставили под сомнение гипотезу Экмана и показали, что существуют серьёзные различия в том, как представители разных слоёв общества выражают свои чувства.

«Определение эмоций в каком-то универсальном общем случае невозможно, потому что люди испытывают эмоции сложным образом. Нам кажется, что, глядя на людей, мы можем определить, что они чувствуют. И этим приёмом на протяжении многих лет пытались пользоваться разные люди, в том числе разведывательные органы и рекламные компании. Я уверен, что в некоторых случаях абсолютно возможно обнаружить некоторые общие признаки, но это не то, о чём идёт речь и не то, для чего в конечном итоге можно найти универсальный ответ», — сказал специализирующийся на ИИ научный сотрудник Лондонского университета королевы Марии Майк Кук (Mike Cook) в интервью TechCrunch.

Эксперты считают, что системы обнаружения эмоций, как правило, ненадёжны и предвзяты из-за особенностей взглядов самих разработчиков таких систем. В исследовании Массачусетского технологического института 2020 года учёные показали, что модели для анализа лиц могут формировать непреднамеренные предпочтения для определённых лицевых выражений, таких как улыбка. Более поздние исследования показывают, что модели анализа эмоций приписывают больше негативных эмоций лицам темнокожих людей, чем лицам белых людей.

Google заявляет, что провела «обширное тестирование» для оценки демографических предубеждений у PaliGemma 2 и обнаружила «значительно более низкий уровень токсичности и ненормативной лексики» по сравнению с отраслевыми бенчмарками. Однако компания не предоставила полный список использованных бенчмарков и не указала, какие типы тестов проводились.

Единственный бенчмарк, о котором рассказала Google, — это FairFace, состоящий из набора десятков тысяч портретов людей. Компания утверждает, что PaliGemma 2 показала хорошие результаты при оценке FairFace. Но некоторые эксперты раскритиковали бенчмарк за его предвзятость, отметив, что в FairFace представлены далеко не все расовые группы, а лишь несколько.

«Интерпретация эмоций — это довольно субъективный вопрос, который выходит за рамки использования визуальных средств и тесно связан с личным и культурным контекстом. Если не брать в расчёт ИИ, исследования показывают, что мы не можем распознавать эмоции только по чертам лица», — говорит Хайди Кхлааф (Heidy Khlaaf), главный научный сотрудник по ИИ в AI Now Institute, некоммерческой организации, изучающей социальные последствия искусственного интеллекта.

В ЕС использование систем распознавания эмоций вызвало серьёзные вопросы у регулирующих органов. Закон об ИИ, основной законодательный акт ЕС в области ИИ, запрещает школам и работодателям использовать детекторы эмоций. Однако он не запрещает их использование правоохранительными органами.

 Источник изображения: Unsplash

Источник изображения: Unsplash

Главное опасение экспертов, относительно открытых ИИ-моделей, таких как PaliGemma 2, которая распространяется через различные источники, включая платформу разработки ИИ Hugging Face, заключается в возможности злоупотребления и неправильности их использования, что может привести к реальному вреду.

«Если эта так называемая “эмоциональная идентификация” основана на псевдонаучных предубеждениях и предрассудках, то существует значительный риск последствий в том, как эта возможность может быть использована для последующей и ложной дискриминации различных маргинализированных групп правоохранительными органами, работодателями, пограничными службами и т. д.», — говорит Кхлааф.

В Google же говорят, что компания тестирует свои ИИ-модели на предрасположенность к «репрезентативный вреду» (стереотипам о социальных группах, например, расовых, этнических, гендерных или религиозных, которые приводят к отрицательным последствиям для этих групп и их представителей). «Мы провели надёжную оценку моделей PaliGemma 2 с точки зрения этики и безопасности, включая безопасность детей и безопасность контента», — добавили в компании.

Профессора этики данных и ИИ в Оксфордском институте Интернета Сандру Вахтер такой ответ компании не убедил: «Ответственные инновации — это когда вы думаете о последствиях их разработки с первого дня работы над ними, каждый раз, когда вы входите в свою лабораторию, а затем продолжаете делать это на протяжении всего жизненного цикла продукта. Я могу представить себе множество потенциальных проблем, которые могут создать такие модели и в конечном итоге привести к антиутопичному будущему, в котором ваши эмоции будут определять, получите ли вы работу, кредит и поступите ли в университет».

Из Google внезапно ушли создатели нашумевшего ИИ-блокнота NotebookLM ради собственного стартапа

Около полутора лет назад корпорация Google представила NotebookLM — своего рода персональный программный блокнот, который обучается на записях пользователя, к декабрю перенесла его на более продвинутую платформу Gemini Pro, а в сентябре текущего года научила пересказывать видео и аудио. Создатели популярного приложения теперь покидают Google для запуска собственного стартапа.

 Источник изображения: Google

Источник изображения: Google

По крайней мере, как сообщает TechCrunch, в социальной сети LinkedIn бывшая руководительница команды разработчиков NotebookLM Раиза Мартин (Raiza Martin) сообщила, что вместе с единомышленниками покинула Google для поиска «новых волнующих возможностей создания чего-то, трансформирующего весь рынок». Стартап пока существует в не очень явном виде и довольствуется заготовленной под будущий веб-сайт основой. Пока даже непонятно, будут ли создатели NotebookLM работать над похожими инструментами независимо от Google либо сосредоточатся на чём-то другом.

Компанию Мартин составили дизайнер Джейсон Спилман (Jason Spielman) и инженер Стивен Хьюз (Stephen Hughes). В комментариях источнику Раиза Мартин не стала вдаваться в подробности своих дальнейших планов, но подчеркнула, что хотела бы создавать нечто, использующее новейшие ИИ-модели на пользу рядовым потребителям. «Выгоды от использования этих технологий должны быть доступны, удобны и очевидны обычным людям», — пояснила она, добавив, что её команда собирается создавать ИИ-продукт, ориентированный в первую очередь на потребности простого пользователя. У стартапа пока нет чётких источников финансирования, но он уже пользуется серьёзной поддержкой за пределами Google.

Google DeepMind создала ИИ, который предсказывает погоду быстрее и точнее существующих систем

Google DeepMind разработала новую модель прогнозирования погоды с помощью искусственного интеллекта (ИИ) GenCast, которая превосходит традиционные метеорологические методы по прогнозированию погоды на срок до 15 дней и, к тому же, точнее предсказывает экстремальные погодные явления.

 Источник изображения: NOAA/unsplash.com

Источник изображения: NOAA/unsplash.com

ИИ-модель GenCast рассматривает вероятность реализации нескольких сценариев для точной оценки тенденций — от выработки энергии ветра до перемещения тропических циклонов. Вероятностный метод GenCast является новым рубежом в использовании ИИ для обеспечения более качественных и быстрых ежедневных прогнозов погоды. Этот подход всё чаще используют крупные метеослужбы, пишет Financial Times.

«Это знаменует собой своего рода переломный момент в развитии ИИ для прогнозирования погоды, поскольку современные необработанные прогнозы теперь поступают из моделей машинного обучения», — отметил Илан Прайс (Ilan Price), научный сотрудник Google DeepMind. Он добавил, что GenCast может быть включен в оперативные системы прогнозирования погоды, что позволит метеорологам лучше понимать тенденции и готовиться к предстоящим погодным явлениям.

Новизна подхода GenCast в сравнении с предыдущими моделями машинного обучения заключается в использовании так называемых ансамблевых прогнозов, представляющих различные результаты, — метода, применяемого в современном традиционном прогнозировании погоды. Для обучения GenCast использовалась накапливавшаяся в течение четырёх десятилетий база данных Европейского центра среднесрочного прогнозирования погоды (ECMWF).

Согласно публикации в Nature, модель GenCast превзошла 15-дневный прогноз ECMWF по 97,2 % из 1320 переменных, таких как температура, скорость ветра и влажность. Таким образом она превзошла по точности и охвату ИИ-модель GraphCast от Google DeepMind, представленную в прошлом году. GraphCast превзошла прогнозы ECMWF на 3–10 дней вперед примерно по 90 % показателей.

Модели прогнозирования погоды на основе ИИ работают гораздо быстрее стандартных методов прогнозирования, которые полагаются на огромную вычислительную мощность для обработки данных. GenCast может сгенерировать свой прогноз всего за восемь минут, тогда как на составление прогноза с помощью традиционных методов уходят часы.

По словам исследователей, ИИ-модель GenCast может быть дополнительно улучшена в части способности предсказания интенсивности крупных штормов. Также может быть увеличено разрешение её данных, чтобы соответствовать обновлениям, сделанным в этом году ECMWF.

ECMWF назвал разработку GenCast «важной вехой в развитии прогнозирования погоды». Центр также сообщил, что интегрировал «ключевые компоненты» подхода GenCast в версию своей собственной системы прогнозирования ИИ с ансамблевыми прогнозами, доступную с июня.

Замедление YouTube даёт о себе знать: российская аудитория сократилась с августа на 11 %

Ежедневная аудитория пользователей видеохостинга YouTube в России с августа по ноябрь 2024 года сократилась на 11 % — с 52 до 46 млн человек. Причиной этого стали масштабные технические сбои, которые затронули работу платформы на всех устройствах и веб-браузерах. Проблемы были вызваны прекращением модернизации оборудования, используемого в России корпорацией Google.

 Источник изображения: Azamat E / Unsplash

Источник изображения: Azamat E / Unsplash

Сбои в работе YouTube начались 1 августа 2024 года. Проблемы затронули не только мобильные приложения YouTube для iOS и Android, но и работу сервиса в веб-браузерах. Российские пользователи жаловались на невозможность загрузки и воспроизведения роликов, что существенно снижало удобство и привлекательность видеохостинга, что и стало препятствием для его ежедневного использования.

Согласно заявлению пресс-службы ПАО «Ростелеком», проблемы в работе YouTube связаны с устаревшим оборудованием Google. В частности, система Google Global Cache (GGC), обеспечивающая ускорение загрузки данных, перестала обновляться в России ещё в 2022 году. Эти технические ограничения привели к сбоям в обмене трафиком между операторами связи, что напрямую сказалось на скорости и стабильности работы видеохостинга на территории России. Подобная ситуация, по мнению экспертов, была прогнозируемой.

Интересно, что ещё 12 июля 2024 года «Ростелеком» предупреждал о возможных проблемах, связанных с загрузкой данных через систему GGC. Представители компании подчёркивают, что ответственность за технические сложности несёт корпорация Google (владелец видеохостинга YouTube), которая с 2022 года прекратила модернизацию оборудования и поддержку своей инфраструктуры в России. Эти действия Google фактически исключили возможность устранения проблем на уровне локальных операторов связи.

Технические ограничения стали лишь одной из проблем российских пользователей YouTube. В марте 2022 года Google отключила подписку Premium для пользователей из России и прекратила монетизацию контента для отечественных авторов. В тот же период была заблокирована контекстная реклама как в поисковой системе, так и на платформе YouTube. Эти меры значительно ограничили возможности заработка для российских создателей контента, что негативно отразилось на локальной экосистеме видео и рекламы.

Google DeepMind представила ИИ-модель Genie 2, которая может превращать тексты в трёхмерные игры

Команда Google DeepMind представила Genie 2 — вторую версию фундаментальной модели ИИ, способной на лету генерировать новые интерактивные цифровые окружения, или игровые миры.

 Источник изображений: Google

Источник изображений: Google

Напомним, оригинальная Genie была выпущена в феврале и могла генерировать виртуальные 2D-миры из синтезированных изображений. Genie 2 способна делать это в 3D и на основе текстовых команд.

Пользователь может описать желаемый мир, выбрать подходящий рендеринг и ступить в новое окружение. На каждом шагу человек/агент совершает действие (движение мыши, нажатие клавиши на клавиатуре), а Genie 2 имитирует его последствия.

 В основе каждого примера — изображение, сгенерированное ИИ-моделью Imagen 3 на основе текстовой подсказки

В основе каждого примера — изображение, сгенерированное ИИ-моделью Imagen 3 на основе текстовой подсказки

По словам Google DeepMind, Genie 2 может генерировать последовательные интерактивные миры продолжительностью около минуты, хотя большинство показанных (см. видео ниже) примеров длятся 10−20 секунд.

По сравнению с первой версией Genie 2:

  • может запоминать элементы мира, которые не находятся в поле зрения;
  • может создавать окружение с разными перспективами (от первого или третьего лица, изометрическая камера и так далее);
  • может создавать комплексные трёхмерные сцены;
  • может моделировать разнообразные взаимодействия с объектами вроде лопания воздушных шаров, открытия дверей или подрыва взрывоопасным бочек выстрелом;
  • научилась анимировать персонажей разных типов;
  • научилась моделировать NPC и взаимодействия с ними;
  • научилась моделировать эффекты воды, дыма, гравитацию, освещение, отражения;
  • научилась моделировать интерактивное окружение на основе реальных фотографий.

По мнению Google DeepMind, Genie 2 демонстрирует потенциал фундаментальных моделей мира для создания разнообразных трёхмерных окружений и ускорения тренировок/тестирования ИИ-агентов (вроде того же SIMA).

Google DeepMind уточняет, что исследование находится на ранней стадии и требует значительных улучшений в областях возможностей агентов и генерации среды, но уже видит в Genie 2 решение структурной проблемы безопасной тренировки ИИ-агентов.

Google запустила ИИ-генератор видео Veo, но вы вряд ли сможете его опробовать

Google Veo, новая модель искусственного интеллекта для генерации видеороликов, стала доступной для компаний, которые теперь могут подключать её к своим приложениям для создания контента. OpenAI представила аналогичную Sora на три месяца раньше, но работать с ней нельзя до сих пор, тогда как к Veo уже открыт предварительный доступ на платформе Google Vertex AI.

 Источник изображения: Google

Источник изображения: Google

Veo поддерживает генерацию видео «высокого качества» в разрешении 1080p в различных визуальных и кинематографических стилях по запросам в текстовом формате или в виде изображения. Во время анонса модели в мае эти ролики по продолжительности были немного длиннее минуты, но сейчас Google ограничений не указывает. Качество образцов действительно впечатляет: нужно очень внимательно всматриваться в видео, чтобы разглядеть признаки ИИ.

Помимо Veo, все клиенты Google Cloud «со следующей недели» смогут подключить через Vertex AI генератор изображений Imagen 3. Некоторым будут доступны дополнительные функции: редактирование фотографий по текстовым запросам или возможность добавить на сгенерированное изображение свой фирменный стиль. Veo и Imagen 3, уверяет Google, имеют встроенные средства защиты, которые не позволят создавать вредоносный контент или нарушать авторские права. Созданные обеими моделям материалы получают маркировку SynthID, указывающую на причастность генеративного ИИ.

Учитывая, что Google уже вывела свои продукты на рынок, OpenAI отстаёт от конкурентов, и у неё остаётся всё меньше времени, чтобы выполнить своё обещание и выпустить Sora до конца 2024 года.


window-new
Soft
Hard
Тренды 🔥
«Не думаю, что Nintendo это стерпит, но я очень рад»: разработчик Star Fox 64 одобрил фанатский порт культовой игры на ПК 8 ч.
Корейцы натравят ИИ на пиратские кинотеатры по всему миру 9 ч.
В Epic Games Store стартовала новая раздача Control — для тех, кто дважды не успел забрать в 2021 году 12 ч.
За 2024 год в Steam вышло на 30 % больше игр, чем за прошлый — это новый рекорд 13 ч.
«Яндекс» закрыл почти все международные стартапы в сфере ИИ 13 ч.
Создатели Escape from Tarkov приступили к тестированию временного решения проблем с подключением у игроков из России — некоторым уже помогло 14 ч.
Веб-поиск ChatGPT оказался беззащитен перед манипуляциями и обманом 15 ч.
Инвесторы готовы потратить $60 млрд на развитие ИИ в Юго-Восточной Азии, но местным стартапам достанутся крохи от общего пирога 16 ч.
Selectel объявил о спецпредложении на бесплатный перенос IT-инфраструктуры в облачные сервисы 16 ч.
Мошенники придумали, как обманывать нечистых на руку пользователей YouTube 17 ч.