Сегодня 20 сентября 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → машины
Быстрый переход

В платформе «VK Звонки» добавили автоматические субтитры и текстовую расшифровку созвонов

Социальная сеть «ВКонтакте» представила новые функции платформы «VK Звонки», которые будут полезны для тех, кто использует сервис для делового общения или в условиях, когда важно соблюдать тишину. Речь идёт о текстовой расшифровке встреч, которая автоматически переводит звуковую дорожку встречи в текст с сохранением в чате звонка, а также об автосубтитрах, которые дублируют речь участников чата.

 Источник изображения: «ВКонтакте»

Источник изображения: «ВКонтакте»

Функцию текстовой расшифровку может включить любой из участников группового звонка, при этом остальные собеседники получат об этом уведомление. После завершения общения файл с текстом поступит в чат звонка и будет сохранён в специальном разделе в профиле пользователя, включившего текстовую расшифровку. В файле автоматически расставляются тайм-коды и имена говорящих.

Что касается автоматических субтитров, то они будут показываться в реальном времени только у тех пользователей, которые включили эту опцию. Текстовая расшифровка может выполняться одновременно с субтитрами и записью звонка.

Для перевода речи в текст «ВКонтакте» использует собственные нейросетевые разработки, которые соцсеть применяет для расшифровки голосовых сообщений и создания автосубтитров в видео. Для обеспечения высокого качества расшифровки аудиопоток обрабатывается в несколько этапов. Сначала запись очищается от фоновых звуков с использованием интеллектуального шумоподавления, после чего нейросеть распознаёт слова, формируя текст, который потом делит на предложения в соответствии с конкретным спикером. Нейросети постоянно совершенствуются, проходя обучение, в том числе, на актуальной разговорной речи и сленге.

Новыми функциями можно также воспользоваться в сессионных залах и в звонках от имени сообщества. В настоящее время функции доступны только для русского языка, но в дальнейшем будут добавлены и другие языки. Также в ближайшее время планируется запуск новых функций в звонках один на один и возможность настройки администратором того, кто из участников встречи сможет запускать расшифровку.

Как отметила «ВКонтакте», новые функции будут особенно полезны тем, кто использует «VK Звонки» для делового общения, позволяя быстро расшифровать интервью, отправить ключевые тезисы после встречи или рассказать об итогах звонка коллегам, которые не были на встрече. Субтитры будут полезны в ситуации, когда важно соблюдать тишину и у пользователя не оказалось наушников. «Кроме того, это шаг к формированию доступной цифровой среды для слабослышащих пользователей: они смогут участвовать во встречах без ограничений», — подчеркнула пресс-служба соцсети.

Tesla запустила суперкомпьютер на 10 тыс. ускорителей NVIDIA H100 — на нём будут учить автопилот

Компания Tesla сообщила о запуске на этой неделе нового суперкомпьютера для решения ресурсоемких задач, связанных с ИИ. В его основе используются 10 тыс. специализированных графических ускорителей NVIDIA H100.

 Источник изображений: HPC Wire

Источник изображений: HPC Wire

Отмечается, что система обеспечивает пиковую производительность в 340 Пфлопс в операциях FP64 для технических вычислений и 39,58 Эфлопс в операциях INT8 для задач ИИ. Таким образом, по производительности FP64 кластер превосходит суперкомпьютер Leonardo, который располагается на четвёртой позиции в нынешнем мировом рейтинге суперкомпьютеров Тор500 с показателем 304 Пфлопс.

Новый суперкомпьютер Tesla с ускорителями NVIDIA H100 является одной из самых мощных платформ в мире. На формирование кластера потрачено около $300 млн. Он подходит не только для обработки алгоритмов ИИ, но и для НРС-задач. Благодаря данной системе компания рассчитывает значительно расширить ресурсы для создания полноценного автопилота.

На фоне сформировавшегося дефицита ускорителей NVIDIA H100 компания хочет диверсифицировать вычислительные мощности. Для этого Tesla ведёт разработку своего собственного проприетарного суперкомпьютера Dojo. В проект планируется инвестировать $1 млрд. Уже к октябрю следующего года Tesla рассчитывает преодолеть барьер в 100 Эфлопс производительности, что более чем в 60 раз мощнее самого производительного суперкомпьютера в мире на сегодняшний день.

Помимо простого аппаратного обеспечения, новая вычислительная инфраструктура предоставит Tesla преимущество в обработке огромных наборов данных, что имеет решающее значение для реальных сценариев обучения ИИ.

Google Cloud представила пятое поколение тензорных процессоров для обучения ИИ

На очередной ежегодной конференции Cloud Next компания Google Cloud объявила о выпуске пятого поколения своих тензорных процессоров (TPU) для обучения нейросетей — TPU v5e. Google анонсировала предыдущую, четвертую версию этих процессоров в 2021 году, но разработчикам они стали доступны только в 2022 году.

 Источник изображения: Frederic Lardinois / TechCrunch

Источник изображения: Frederic Lardinois / TechCrunch

Компания отмечает, что при создании новой версии чипа особое внимание уделялось его эффективности. По сравнению с предыдущим поколением, новый процессор обещает двукратное улучшение производительности в пересчёте на доллар для обучения больших языковых моделей (LLM) и генеративных нейросетей, а также 2,5-кратное улучшение производительности по тому же критерию для инференс-систем.

«Это самый экономичный и доступный облачный TPU на сегодняшний день», — заявил на пресс-конференции перед сегодняшним анонсом Марк Ломейер (Mark Lohmeyer), вице-президент и генеральный директор по вычислительной и ML-инфраструктуре Google Cloud.

 Источник изображения: Google

Источник изображения: Google

В то же время он подчеркнул, что компания не экономила на технических характеристиках TPU v5e в угоду рентабельности. Кластеры могут включать до 256 чипов TPU v5e, объединённых высокоскоростным интерконнектом с совокупной пропускной способностью более 400 Тбит/с. Производительность такой платформы составляет 100 Попс (Петаопс) в INT8-вычислениях.

«Мы предоставляем нашим клиентам возможность легко масштабировать свои модели искусственного интеллекта за пределы физических границ одного модуля TPU или одного кластера TPU. Другими словами, одна большая рабочая нагрузка искусственного интеллекта теперь может распределяться на несколько физических кластеров TPU, масштабируясь буквально до десятков тысяч чипов. При этом работа будет выполняться экономически эффективно. В результате, используя облачные графические процессоры и облачные TPU, мы действительно предоставляем нашим клиентам большой выбор, гибкость и дополнительные возможности для удовлетворения потребностей широкого набора рабочих задач, связанных с ИИ, которые, как мы видим, продолжают множиться», — добавил он.

В дополнение к анонсу нового поколения TPU компания Google также объявила, что в следующем месяце сделает общедоступными для разработчиков виртуальные кластеры A3, оснащённые специализированными графическими процессорами Nvidia H100.

Годовая выручка разработчика ChatGPT приблизилась к $1 млрд

Годовая выручка компании OpenAI, занимающейся разработкой и лицензированием технологий на основе машинного обучения, приближается к $1 млрд, пишет Bloomberg. Технологии компании используются в основе ChatGPT — генеративного бота с искусственным интеллектом, получившего значительную популярность среди множества компаний и привлекшего значительную волну инвестиций в область ИИ.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

Стартап, поддерживаемый компанией Microsoft, зарабатывает около $80 миллионов ежемесячно, сообщил изданию источник, проинформированный по этому вопросу, но попросивший об анонимности. Впервые о доходах OpenAI сообщило издание The Information, в частности, отметив, что в 2022 году компания потеряла около 540 миллионов долларов на разработке языковой модели GPT-4 и чат-бота ChatGPT.

OpenAI считается одной из нескольких компаний, находящихся в авангарде разработок генеративного искусственного интеллекта, способного создавать контент, от видео до стихов, с помощью нескольких простых пользовательских команд. С момента дебюта своего бота в ноябре OpenAI лицензирует его молодым компаниям и крупным корпорациям, а также помогает внедрять технологию в их экосистемы бизнеса, продуктов и сервисов.

В этом месяце компания запустила корпоративную версию ChatGPT с дополнительными функциями и средствами защиты конфиденциальности. Это самая значительная попытка стартапа привлечь широкий круг бизнес-клиентов и увеличить доходы от своего самого известного продукта.

Внедрение ChatGPT Enterprise — шаг вперёд в планах OpenAI по зарабатыванию денег на своём сверхпопулярном, но весьма дорогом в вопросе внедрения и эксплуатации продукте. Для работы модели искусственного интеллекта требуются значительные специализированные вычислительные мощности. Компания уже реализовала несколько моделей получения дохода с ChatGPT, например, предложив клиентам премиальную подписку, а также платный доступ к интерфейсу программирования ПО, который разработчики могут использовать для добавления чат-бота в другие приложения.

Беспилотные автомобили с трудом распознают детей и темнокожих пешеходов

Разработчики систем автономного вождения утверждают, что их программное обеспечение одинаково хорошо распознаёт взрослых светлокожих людей, детей и темнокожих пешеходов. Однако исследование учёных из Королевского колледжа в Лондоне показало, что это не совсем так.

 Источник изображения: metamorworks / Shutterstock

Источник изображения: metamorworks / Shutterstock

Исследователи проверили восемь систем обнаружения пешеходов, построенных на базе нейросетей. В ходе тестирования использовалось более 8 тыс. изображений пешеходов. Оказалось, что системы обнаружения пешеходов на 20 % лучше распознают взрослых людей, чем детей. Кроме того, программное обеспечение на 7,5 % точнее определяет светлокожих людей, чем темнокожих пешеходов. По мнению исследователей, проблема распознавания темнокожих людей заключается в том, что системы автономного вождения преимущественно обучаются на изображениях людей со светлой кожей.

«Хотя влияние несправедливых систем искусственного интеллекта хорошо задокументировано, начиная с того, что ИИ-алгоритмы при приёме на работу предпочитают кандидатов-мужчин и заканчивая тем, что алгоритмы распознавания лиц менее точно определяют темнокожих женщин, чем белых мужчин, опасность, которую могут представлять беспилотные автомобили, очень велика. Раньше представителям меньшинств могли отказать в жизненно важных услугах, а теперь они могут столкнуться с серьёзными травмами», — считает доктор Цзе Чжан (Jie Zhang), один из авторов исследования.

Учёные также установили, что точность распознавания темнокожих людей сильно снижается в условиях недостаточной освещённости и низкой контрастности. Это может приводить к возникновению опасных ситуаций при использовании систем обнаружения пешеходов на основе ИИ в тёмное время суток. Автопроизводители не раскрывают подробностей о программном обеспечении, используемом для распознавания пешеходов. Однако исследователи утверждают, что эти алгоритмы, как правило, построены на основе тех же систем с открытым исходным кодом, которые были проверены в ходе исследования.

Учёные с помощью ИИ в четыре раза ускорили преобразование мыслей в речь через нейроинтерфейс

В журнале Nature вышли две статьи, в которых учёные рассказали о новых методиках трансляции мыслей пациентов с поражениями мозга в речь и эмоции. Преобразование мозговой активности в текст и голосовое общение происходит с помощью алгоритма машинного обучения. Учёным удалось увеличить скорость преобразования почти в четыре раза с 18 слов в минуту до 78. Это ниже среднего для обычного разговора темпа в 160 слов в минуту, но кратно быстрее, чем было до этого.

 Источник изображений: Noah Berger/UCSF

Источник изображений: Noah Berger/UCSF

Нейродегенеративные заболевания, инсульты или травмы способны лишить человека речи разными способами, но один из них достаточно легко поддаётся исправлению. Современные технологии позволяют создать мостик между здоровыми участками мозга, отвечающими за речь или мысленное произношение, и мышцами, управляющими мимикой и позволяющими говорить. Естественный канал коммуникации между мышцами и мозгом может быть разорван в случае болезни или травмы, и тогда на помощь приходит интерфейс человек-компьютер и обучаемый алгоритм.

В мозг пациента встраивается датчик или несколько датчиков с электродами, входящими в зоны активности мозга человека, ответственные за произношение и речь (хотя учёные пока не до конца понимают, какие это зоны). В одном случае, например, учёные установили на речевую область сенсомоторной коры и на область верхней височной извилины женщины после инсульта 253 электрода. После болезни она не могла говорить и даже печатать.

В течение нескольких недель ИИ обучался на примере произношения пациенткой 1024 слов из специально подобранного словаря. Для упрощения работы алгоритма он разбивал все слова на фонемы, которых было всего 39. Затем словарный запас женщины был расширен до 125 тыс. слов. Машинный алгоритм смог распознавать мысленное произношение женщины с ошибками на уровне 25 %, но со скоростью до 78 слов в минуту.

Алгоритм также научили распознавать эмоции пациентки — горе, радость, удивление. Наконец, используя старую видеозапись женщины, учёные создали её компьютерный образ — аватар — и заставили его транслировать текстовые сообщения в голосовые. По сути, они вернули пациентке возможность разговаривать.

Сегодня подобные процедуры восстановления сопряжены с длительным обучением ИИ и необходимостью быть постоянно подключённым к компьютеру. Учёные из Калифорнийского университета в Сан-Франциско (UCSF) и Калифорнийского университета в Беркли, которые реализовали представленную методику, теперь работают над беспроводными вариантами транслятора. Когда-нибудь это повысит социальную вовлечённость людей с подобными медицинскими проблемами.

ИИ воссоздал композицию Pink Floyd по мозговой активности слушателей, и звучит это ужасно

Исследователи Калифорнийского университета (UC) в Беркли впервые получили музыкальную композицию, воссозданную по сигналам из мозга человека. Пациенты прослушивали трек «Another Brick in the Wall (Part 1)» группы Pink Floyd, а имплантированные в мозг датчики снимали показания. Различение ритма и мелодии в сигналах мозга поможет разработать имплантаты для людей, страдающих нарушениями в области восприятия речи и эмоций и не только.

 Источник изображения: Pixabay

Источник изображения: Pixabay

Для поиска зон мозга, ответственных за восприятие музыки в широком смысле этого слова, в мозг 29 пациентов были имплантированы по 2268 электродов. Всем им ставили композицию Pink Floyd «Ещё один кирпич в стене», ставшую классикой рока. Параллельно прослушиванию с датчиков снимались показания мозговой активности, которые затем расшифровывали с помощью линейного и нелинейного ИИ-алгоритма.

Что в итоге получилось, можно прослушать в ролике ниже. Ценители Pink Floyd могут прийти в ужас от услышанного. С другой стороны, мозг может служить своеобразным фильтром, придающим композиции новизну и определённую оригинальность. Нельзя исключать, что это, в том числе, приведёт к появлению новых музыкальных находок и даже направлений.

При поиске ориентированных на музыку областей в головном мозге учёные решали другую задачу. Есть большой класс пациентов, страдающих от нарушений в восприятии и воспроизведении речи. В общем случае это называется просодией. Просодия подразумевает невозможность выделить в речи эмоции, ударения, акценты и другие нюансы, что сильно ограничивает страдающих ею в социализации. Считывание мелодии прямо с мозга помогло определить центры, отвечающие за мелодику и ритм. Фактически это путь к преодолению недуга с помощью имплантатов и ИИ-алгоритмов.

 Источник изображения: Ludovic Bellier/CC-BY 4.0

Источник изображения: Ludovic Bellier/CC-BY 4.0

Оказалось, что за музыкальную активность мозга отвечают другие отделы, чем те, которые поддерживают речь. Прежде всего — это верхняя височная извилина, а также области в сенсорно-моторной коре и нижней лобной извилине. В этих областях были расположены 347 электродов из 2268, установленных для эксперимента. Это то разрешение, с которым была считана с мозга легендарная композиция Pink Floyd, что наверняка можно улучшить в последующих экспериментах. Интересно, как к этому отнесутся правообладатели?

Zoom обновил условия обслуживания и начал обучать свой ИИ на данных пользователей

Zoom обновил условия обслуживания, дав себе право обучать собственный ИИ на основе данных пользователей. Это изменение вызывает споры о том, насколько допустимо использовать личные данные клиентов для обучения ИИ, даже если они агрегированы или анонимизированы.

 Источник изображения: Alexandra_Koch / Pixabay

Источник изображения: Alexandra_Koch / Pixabay

Согласно недавно обновлённым условиям обслуживания, Zoom намерен обучать собственные ИИ-модели, используя данные пользователей. Нововведение, вступившее в силу 27 июля, подтверждает право компании использовать информацию о продукте, телеметрические и диагностические данные, а также другой контент или данные, собранные компанией. Такой подход к пользовательским данным со стороны технологических компаний не является новым, однако новые условия являются важным шагом в реализации стратегии Zoom в области ИИ.

Условия Zoom гласят: «Вы даёте согласие на доступ, использование, сбор, создание, изменение, распространение, обработку, совместное использование, обслуживание и хранение генерируемых Службой данных компанией Zoom в любых целях, в объёме и в порядке, разрешённых действующим законодательством, в том числе в целях разработки продуктов и услуг, маркетинга, аналитики, обеспечения качества, машинного обучения или искусственного интеллекта (в том числе в целях обучения и настройки алгоритмов и моделей), обучения, тестирования, улучшения Служб, Программного обеспечения или других продуктов, услуг и программного обеспечения компании Zoom или любой их комбинации, а также в соответствии с другими положениями настоящего Соглашения».

Контент пользователей, такой как сообщения, файлы и документы, в эту категорию, по-видимому, не входит. В блоге компании представитель Zoom уточнил: «Для ИИ мы не используем аудио, видео или чат без согласия клиента». Ключевая фраза здесь — «без согласия клиента».

В июне Zoom на бесплатной основе представил две новые функции генеративного ИИ — инструмент для составления резюме встречи и инструмент для создания сообщений в чате. Однако при активации этих функций Zoom просит пользователей подписать форму согласия на обучение своих ИИ-моделей с использованием их контента. Представитель компании заявил, что пользователи Zoom сами решают, следует ли им активировать функции генеративного ИИ и делиться индивидуальным контентом с Zoom для улучшения продукта. «Ваш контент используется исключительно для улучшения производительности и точности этих ИИ-услуг», — пояснил предствитель Zoom в блоге.

Обновление условий произошло на фоне растущей обеспокоенности, в какой степени ИИ должен обучаться на данных отдельных лиц, независимо от того, насколько они агрегированы или анонимизированы. Инструменты, такие как ChatGPT — OpenAI, Bard — Google и Bing — Microsoft, обучаются на больших объёмах текста или изображений из интернета. В секторе генеративного ИИ недавно были поданы иски от писателей и художников, которые утверждают, что их произведения были незаконно использованы техногигантами для обучения своих ИИ-моделей.

Обновление условий обслуживания Zoom подчёркивает растущую роль ИИ в современных технологиях и вызывает вопросы о балансе между инновациями и конфиденциальностью данных. Пока компании стремятся улучшить свои услуги с помощью ИИ, важно помнить о необходимости защиты личной информации пользователей.

Мозговые имплантаты и ИИ частично вернули подвижность и тактильные ощущения парализованному человеку

Исследователи из Института Файнштейна американской медицинской сети Northwell Health впервые обеспечили двойной искусственный обход поражённой нервной системы пациента. Встроенные в головной мозг человека имплантаты вернули подвижность и чувствительность руки. Не обошлось и без помощи искусственного интеллекта.

 Источник изображений: Matthew Libassi / Northwell Health’s Feinstein Institutes for Medical Research

Источник изображений: Matthew Libassi / Northwell Health’s Feinstein Institutes for Medical Research

При подготовке к операции хирурги с помощью фМРТ провели многочисленные оценки зон головного мозга пациента, чтобы с максимальной точностью определить место размещения имплантатов — чипов, распознающих активность головного мозга в его отдельных областях. Но даже после этого в процессе 15-часовой операции на открытом мозге они консультировались с пациентом для уточнения мест установки датчиков.

Два имплантата считывали «мысли» пациента о желании двигать рукой, а три других принимали сигналы от датчиков на руке и запястье. Фактически врачи запустили два обходных пути для нейросигналов, барьером на пути которых стала травма позвоночника (спинного мозга). Один шунт заставлял руку совершать движения через систему накладных электродов (на позвоночник и предплечье), а другой возвращал в мозг сигналы от датчиков тактильных ощущений. Дальше мозг справлялся сам — связывал одно и другое и выстраивал новые нейронные цепи в головном мозге таким образом, чтобы человек воспринимал движение руки и тактильный отзыв в едином пакете.

По словам хирургов, это первый в истории случай, когда спинной мозг обошли двумя маршрутами. Ранее проводились экспериментальные операции, когда шунт, минуя поражённый спинной мозг, передавал расшифрованные компьютерным алгоритмом желания двигаться в мышцы конечностей. Но обратной связи до сих пор никто не организовывал, чтобы тактильные ощущения возвращались в мозг в обход повреждённых нервных тканей.

Между тем, обратная связь может помочь в восстановлении функций мозга, отвечающих за движения конечностей и их чувствительность. Проще говоря, по мере обучения мозг может научиться обходиться без компьютерных алгоритмов и случай с этим конкретным пациентом Northwell Health это подтвердил. После двойной стимуляции 45-летний парень с парализованными руками и ногами смог частично вернуть чувствительность руки и в два раза увеличил силу её сжатия.

Миллионы пациентов с подобными травмами могут надеяться вернуть подвижность и чувствительность конечностей, что обеспечит им развитие подобных технологий.

США уже шесть лет никак не могут принять законы по беспилотному транспорту

Уже более шести лет в Конгрессе США никак не могут принять законодательство для регулирования индустрии беспилотных автомобилей, пишет The Verge. Это связано с разногласиями среди конгрессменов по целому ряду вопросов, начиная от увеличения количества автономных транспортных средств на дорогах страны и заканчивая отсутствием единства по поводу запрета штатам самостоятельно устанавливать свои собственные технические требования для такого вида транспорта.

 Источник изображения: getcruise.com

Источник изображения: getcruise.com

В минувшую среду в Конгрессе США прошли слушания по теме «Законодательная база для беспилотных автомобилей: повышение безопасности, улучшение жизни и мобильности и победа над Китаем», которые были первыми более чем за год, касающимися автономных транспортных средств.

Член палаты представителей Фрэнк Паллоне (Frank Pallone, штат Нью-Джерси), участник комитета по энергетике и торговле, заявил на слушаниях, что Конгресс США «не может просто стряхнуть пыль с законодательства шестилетней давности и игнорировать существенные проблемы, возникшие в последние годы. Появляются лазейки в сфере ответственности. Воздействие на рабочую силу становится все более очевидным».

С тех пор, как шесть лет назад в Конгресс США был внесён первый законопроект, связанный с автономным транспортом, многое изменилось. Финансирование индустрии беспилотных автомобилей значительно сократилась, а радужные прогнозы о росте количества самоуправляемых транспортных средств на дорогах не сбылись. Небольшие стартапы были поглощены более крупными компаниями, и у операторов сервисов автономного транспорта прошли увольнения сотрудников.

Результаты тестирования компаниями Waymo (Alphabet) и Cruise (GM) сервисов полностью беспилотных роботакси в Сан-Франциско оказались неоднозначными, поскольку компании сообщают о сотнях тысяч миль, пройдённых робомобилями без серьёзных аварий или травм, а городские власти жалуются на блокирование автомобилями роботакси проезда автобусов и машин скорой помощи, и местные жители протестуют против беспрепятственного распространения этого вида транспорта в городе.

Джон Боззелла (John Bozzella), президент и гендиректор Альянса автомобильных инноваций (Alliance for Automotive Innovation), заявил, что Конгресс США должен действовать быстро в создании нормативно-правовой базы отрасли, чтобы не потерять компании и инновационное преимущество перед другими странами.

Между тем точки преткновения по данному вопросу пока остаются неизменными. Например, споры по поводу юридической ответственности и страховании в случае попадания в аварию беспилотного автомобиля пока ни к чему не привели.

В Китае создали датчик активности мозга, который подключается через ухо

Современные технологии не позволяют осуществлять высокоточное дистанционное считывание активности мозга человека. Самым действенным способом по-прежнему остаётся установка электродов на кожу головы или имплантация непосредственно в мозг. Возможно, с этим сможет помочь новый китайский датчик активности мозга, который очень просто устанавливается в ушной канал пациента.

 Источник изображений: Nature Communications (2023)

Источник изображений: Nature Communications (2023)

Разработанное группой ученых из китайского Университета Цинхуа устройство получило название SpiralE. Это тонкая многослойная полоска длиной 50 мм и шириной 3 мм. Полоска состоит из двух слоёв полимера с памятью формы, слоя электротермической активации формы и слоя с сенсорами для снятия электроэнцефалограммы.

Для ввода в ушной проход пациента датчик скручивается в плотный жгут. Уже на месте на датчик воздействуют электромагнитным полем, которое вызывает нагрев в его активирующем слое и, как следствие, заставляет полимерные слои с памятью формы распрямляться. Этот процесс приводит к тому, что датчик плотно соприкасается с кожей, и это обеспечивает аккуратное снятие сигналов мозговой активности. При этом каждый раз датчик принимает индивидуальные формы слухового канала, что делает его универсальным. Наконец, он не загораживает слуховой проход и не снижает чувствительность слуха человека, и легко извлекается.

Лабораторные испытания показали, что датчик удобен для длительного ношения и определяет активность мозга с точностью до 95 %. Учёные рассчитывают, что подобный датчик найдёт применение в изучении качества сна пациентов (спать с современными наголовными датчиками то ещё удовольствие), при выявлении эпилепсии и даже для слежения за активностью водителей, о чём они рассказали в своей статье в журнале Nature Communications.

Учёные создали компьютерный чип с клетками человеческого мозга — он показал способность к обучению

Учёные из Университета Монаша создали DishBrain — полубиологический компьютерный чип, в электроды которого интегрированы около 800 000 клеток мозга человека и мыши. Демонстрируя что-то вроде разума, он научился играть в Pong за пять минут. Исследование, проведённое в партнёрстве с мельбурнским стартапом Cortical Labs, получило грант в размере 407 000 долларов США от Австралийской национальной программы грантов на исследования в области разведки и безопасности.

 Источник изображения: Pixabay

Источник изображения: Pixabay

Массив микроэлектродов в основе DishBrain способен не только считывать активность в клетках мозга, но и стимулировать их электрическими сигналами, поэтому исследовательская группа создала версию Pong, в которой клетки полубиологического искусственного мозга получали информацию о перемещении мяча и могли воздействовать на ракетку, перемещая её влево и вправо.

Затем была разработана очень простая система стимуляции, использующая стремление небольших скоплений клеток мозга сводить к минимуму непредсказуемость окружающей их среды. Если ракетка отбивает мяч, клетки получают поощрение — предсказуемый стимул, а при промахе — четыре секунды непредсказуемого воздействия. Это первый случай, когда клетки мозга, выращенные в лаборатории, получили возможность не только ощущать мир, но и воздействовать на него, и результаты были впечатляющими.

 Нейроны DishBrain, растущие на массиве электродов / Источник изображения: Cortical Labs

Нейроны DishBrain, растущие на массиве электродов / Источник изображения: Cortical Labs

Такие чипы, объединяющие биологические вычисления с ИИ, «в будущем могут в конечном итоге превзойти по производительности существующее чисто кремниевое оборудование, — уверен руководитель проекта доцент Адил Рази (Adeel Razi). — Результаты таких исследований будут иметь серьёзные последствия в таких областях как планирование, робототехника, передовая автоматизация, интерфейсы мозг-машина и разработка лекарств».

Расширенные возможности DishBrain могут стать основой нового поколения машинного обучения, особенно когда оно будет воплощено в автономных транспортных средствах, дронах и роботах. По словам Рази, это может дать им «новый тип машинного интеллекта, способный учиться на протяжении всей своей жизни». Технология обещает машины, которые могут продолжать изучать новые способности без ущерба для старых, хорошо адаптируются к изменениям и могут использовать старые знания в новых ситуациях, оптимизируя использование вычислительной мощности, памяти и энергии.

 DishBrain с клетками, выделенными с помощью флуоресцентных маркеров / Источник изображения: Cortical Labs

DishBrain с клетками, выделенными с помощью флуоресцентных маркеров / Источник изображения: Cortical Labs

«Мы используем этот грант для разработки более совершенных моделей ИИ на основе обучающихся биологических нейронных сетей, — говорит Рази. — Это поможет расширить возможности оборудования и методов до такой степени, что они станут жизнеспособной заменой для классических вычислений».

Похоже, скоро мы узнаем, мечтают ли андроиды об электроовцах. И нам может не понравиться то, что мы узнаем.

Платная версия ChatGPT отупела, в то время как бесплатная набралась ума, выяснили учёные из Стэнфорда

Новое исследование, проведённое учёными из Стэнфордского университета и Калифорнийского университета в Беркли, выявило тревожное снижение качества ответов платной версии ChatGPT. Так, например, точность определения простых чисел у новейшей модели GPT-4, которая лежит в основе ChatGPT Plus, с марта по июнь 2023 года упала с 97,6 % до всего лишь 2,4 %. Напротив, GPT-3.5, являющаяся основной для обычного ChatGPT, точность ответов в некоторых задачах повысила.

 Источник изображения: OpenAI

Источник изображения: OpenAI

В последние месяцы всё чаще обсуждается снижение качества ответов ChatGPT. Группа учёных из Стэнфордского университета и Калифорнийского университета в Беркли решила провести исследование с целью определить, действительно ли произошла деградация качества работы этого ИИ, и разработать метрики для количественной оценки масштабов этого негативного явления. Как выяснилось, снижение качества ChatGPT — это не байка или выдумка, а реальность.

Трое учёных — Матей Захария (Matei Zaharia), Линцзяо Чэнь (Lingjiao Chen) и Джеймс Цзоу (James Zou) — опубликовали научную работу под названием «Как меняется поведение ChatGPT с течением времени» (How is ChatGPT’s behavior changing over time). Захария, профессор компьютерных наук в Калифорнийском университете, обратил внимание на удручающий факт: точность GPT-4 в ответе на вопрос «Это простое число? Подумай шаг за шагом» снизилась с 97,6 % до 2,4 % с марта по июнь.

OpenAI открыла доступ к API языковой модели GPT-4 около двух недель назад и объявила её своей самой продвинутой и функциональной ИИ-моделью. Поэтому общественность была расстроена тем, что новое исследование обнаружило значительное снижение качества ответов GPT-4 даже на относительно простые запросы.

Исследовательская группа разработала ряд заданий, чтобы оценить различные качественные аспекты основных больших языковых моделей (LLM) ChatGPT — GPT-4 и GPT-3.5. Задания были разделены на четыре категории, каждая из которых отражает различные навыки ИИ и позволяет оценить их качество:

  • решение математических задач;
  • ответы на деликатные вопросы;
  • генерация кода;
  • визуальное мышление.

В следующих графиках представлен обзор эффективности работы ИИ-моделей OpenAI. Исследователи оценили версии GPT-4 и GPT-3.5, выпущенные в марте и июне 2023 года.

 График 1. Производительность GPT-4 и GPT-3.5 в марте и июне 2023 года на четырех задачах. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou / arxiv.org

Слайд 1. Производительность GPT-4 и GPT-3.5 в марте и июне 2023 года. Источник: Matei Zaharia, Lingjiao Chen, James Zou

Первый слайд демонстрирует эффективность выполнения четырёх задач — решения математических задач, ответа на деликатные вопросы, генерации кода и визуального мышления — версиями GPT-4 и GPT-3.5, выпущенными в марте и июне. Заметно, что эффективность GPT-4 и GPT-3.5 может значительно варьироваться со временем и в некоторых задачах ухудшаться.

 График 2. Решение математических задач. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou / arxiv.org

Слайд 2. Решение математических задач. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou

Второй слайд иллюстрирует эффективность решения математических задач. Измерялась точность, многословность (в символах) и совпадение ответов GPT-4 и GPT-3.5 в период с марта по июнь 2023 года. В целом, наблюдались значительные колебания в эффективности обеих ИИ-моделей. Также приведён пример запроса и соответствующие ответы за определенный промежуток времени. GPT-4 в марте следовала инструкциям по цепочке мыслей для получения правильного ответа, но в июне их проигнорировала, выдав неверный ответ. GPT-3.5 всегда следовала цепочке мыслей, но настаивала на генерации неправильного ответа в марте. Эта проблема была устранена к июню.

 График 3. Ответы на деликатные вопросы. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou / arxiv.org

Слайд 3. Ответы на деликатные вопросы. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou

На третьем слайде показан анализ ответов на деликатные вопросы. С марта по июнь GPT-4 ответила на меньшее количество вопросов, в то время как GPT-3.5 ответила на немного больше. Также приведён пример запроса и ответов GPT-4 и GPT-3.5 в разные даты. В марте GPT-4 и GPT-3.5 были многословны и давали подробные объяснения, почему они не ответили на запрос. В июне они просто извинились.

 График 4. Генерация кода. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou / arxiv.org

Слайд 4. Генерация кода. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou

Четвёртый слайд демонстрирует снижение эффективности генерации кода. Общая тенденция показывает, что для GPT-4 процент непосредственно исполняемых генераций сократился с 52 % в марте до 10 % в июне. Также наблюдалось значительное падение для GPT-3.5 (с 22 % до 2 %). Многословность GPT-4, измеряемая количеством символов в генерациях, также увеличилась на 20 %. Также приведён пример запроса и соответствующие ответы. В марте обе ИИ-модели следовали инструкции пользователя («только код») и таким образом генерировали непосредственно исполняемый код. Однако в июне они добавили лишние тройные кавычки до и после фрагмента кода, делая код неисполняемым.

 График 5. Визуальное мышление. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou / arxiv.org

Слайд 5. Визуальное мышление. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou / arxiv.org

Пятый слайд демонстрирует эффективность визуального мышления ИИ-моделей. В части общих результатов и GPT-4, и GPT-3.5 показали себя на 2 % лучше в период с марта по июнь, точность их ответов улучшилась. Вместе с тем, объём информации, которую они генерировали, остался примерно на том же уровне. 90 % визуальных задач, которые они решали, не изменились за этот период. На примере конкретного вопроса и ответов на него можно заметить, что, несмотря на общий прогресс, GPT-4 в июне показала себя хуже, чем в марте. Если в марте эта модель выдала правильный ответ, то в июне уже ошиблась.

Пока неясно, как обновляются эти модели, и могут ли изменения, направленные на улучшение некоторых аспектов их работы, негативно отразиться на других. Эксперты обращают внимание, насколько хуже стала новейшая версия GPT-4 по сравнению с версией марта в трёх тестовых категориях. Она только незначительно опережает своего предшественника в визуальном мышлении.

Ряд пользователей могут не обратить внимания на снижение качества результатов работы одних и тех же версий ИИ-моделей. Однако, как отмечают исследователи, из-за популярности ChatGPT упомянутые модели получили широкое распространение не только среди рядовых пользователей, но и многих коммерческих организаций. Следовательно, нельзя исключать, что некачественная информация, сгенерированная ChatGPT, может повлиять на жизни реальных людей и работу целых компаний.

Исследователи намерены продолжать оценку версий GPT в рамках более долгосрочного исследования. Возможно, OpenAI следует регулярно проводить и публиковать свои собственные исследования качества работы своих ИИ-моделей для клиентов. Если компания не сможет стать более открытой в этом вопросе, может потребоваться вмешательство бизнеса или государственных организаций с целью контроля некоторых базовых показателей качества ИИ.

Cruise и Waymo назвали людей плохими водителями и призвали активнее внедрять беспилотные такси

Компании Cruise и Waymo, специализирующиеся на разработке технологий автономного вождения, выступили на этой неделе с заявлениями о том, что люди — плохие водители, и что разработанные ими технологии имеют решающее значение для повышения безопасности на дорогах.

 Источник изображения: getcruise.com

Источник изображения: getcruise.com

Cruise разместила своё заявление в форме рекламного объявления на всю страницу в крупных газетах — San Francisco Chronicle, New York Times, Los Angeles Times и Sacramento Bee — с заголовком: «Люди — ужасные водители». Waymo оказалась скромнее и опубликовала заявление в своём блоге.

Выступить с похожими заявлениями компании решили из-за того, что регулирующий орган — Комиссия по коммунальному хозяйству Калифорнии (CPUC) — уже во второй раз откладывают выдачу им расширенных разрешений на предоставление в Сан-Франциско коммерческих услуг по перевозке пассажиров на полностью автономных транспортных средствах без присутствия водителя за рулём в любое время суток. CPUC отложила намеченное на четверг слушание по этому вопросу на 10 августа без указания причин переноса, заявив, что вопросы требуют «дальнейшего рассмотрения».

«Вы можете быть хорошим водителем, но многие из нас — нет, — говорится в объявлении Cruise. — Каждый год в США люди становятся причиной миллионов несчастных случаев. Беспилотные автомобили Cruise созданы для спасения жизней». Cruise также отметила, что её автомобили участвовали в столкновениях на 92 % меньше в качестве основного участника и на 54 % меньше в столкновениях в целом по сравнению с водителями-людьми в сопоставимой среде вождения.

В свою очередь Waymo сообщила в блоге, что использовала роботакси для анализа скорости автомобилей в Сан-Франциско и Финиксе в течение 10-дневного периода и обнаружила, что многие автомобили ездят с превышением установленного ограничения по скорости в размере 25 миль в час (40 км/ч). Компания привела данные Национального управления дорожной безопасности США (NHTSA), согласно которым в 2020 году треть всех дорожно-транспортных происшествий и 13 % травм в США были связаны с превышением скорости. Waymo отметила, что в отличие от водителей-людей система автономного вождения Waymo Driver чётко соблюдает скоростной режим, и может «прогнозировать вероятные манёвры транспортных средств вокруг него и реагировать соответствующим образом».

Следует отметить, что многие гражданские активисты улиц не считают самоуправляемые автомобили решением проблемы, утверждая, что города должны продвигать общественный транспорт и микромобильность, а не решения технологических гигантов.

В настоящее время Cruise имеет разрешение на коммерческие пассажирские перевозки в отдельных районах Сан-Франциско с 22:00 до 6:00, а также на бесплатное обслуживание пассажиров по городу в любое время суток как с присутствием водителя в салоне, так и без него. Waymo предоставляет бесплатные услуги по перевозке пассажиров по всему Сан-Франциско в любое время суток, но в автомобиле должен присутствовать сотрудник, отвечающий за безопасность вождения.

Илон Маск основал ИИ-компанию xAI, чтобы «разобраться в истинной природе Вселенной»

Илон Маск (Elon Musk) сообщил об основании компании xAI, которая будет заниматься вопросами искусственного интеллекта. На недавно заработавшем сайте организации указано, что её миссия заключается в том, чтобы «разобраться в истинной природе Вселенной».

 Источник изображения: xAI

Источник изображения: xAI

О планах Маска открыть новую компанию стало известно несколько месяцев назад, после того как миллиардер зарегистрировал в Неваде компанию X.AI Corp., чьё название косвенно указывало на профиль её будущей деятельности. В одном из апрельских интервью он подтвердил, что хочет основать стартап, для «создания ИИ, который попытается разобраться в истинной природе Вселенной» и хотел бы, чтобы этот ИИ «принёс больше пользы, чем вреда».

О новой компании xAI пока мало что известно. На сайте организации указано, что команда xAI собирается в эту пятницу провести голосовой чат в Twitter Spaces, в ходе которого, вероятно, более подробно расскажет о своей деятельности и целях. Более ранние заявления Маска намекали на его желание создать противовес таким компаниям, как OpenAI и Google, представившим свои разработки в области ИИ и машинного обучения. Ранее также стало известно, что Маск закупил тысячи специализированных графических ускорителей, чтобы наделить Twitter искусственным интеллектом. Связаны ли эти два проекта — неизвестно.

В списке сотрудников xAI значатся ветераны и выходцы из DeepMind, OpenAI, Google Research, Microsoft Research, Tesla, а также эксперты в области ИИ из Университета Торонто. Они принимали участие в разработке моделей и методов, ускоряющих обучение ИИ, в частности Adam, Batch Normalization и Layer Normalization, инновационных методов и анализов, таких как Transformer-XL Autoformalization, Memorizing Transformer, Batch Size Scaling и μTransfer. Кроме того, они приложили руку к созданию передовых моделей ИИ AlphaStar, AlphaCode, Inception, Minerva, GPT-3.5 и GPT-4.

Среди ведущих специалистов xAI значатся Игорь Бабушкин (Igor Babuschkin), Мануэль Кройсс (Manuel Kroiss), Юхуай Тони Ву (Yuhuai Tony Wu), Кристиан Сегеди (Christian Szegedy), Джимми Ба (Jimmy Ba), Тоби Полен (Toby Pohlen), Росс Нордин (Ross Nordeen), Кайл Косич (Kyle Kosic), Грег Ян (Greg Yang), Годун Чжан (Guodong Zhang) и Цзыхан Дай (Zihang Dai).


window-new
Soft
Hard
Тренды 🔥
Amazon запустила собственный ИИ-генератор видео — он будет создавать рекламу 4 ч.
По мотивам романа Ника Перумова «Алмазный меч, деревянный меч» выйдет «высокобюджетная» приключенческая игра 5 ч.
Microsoft: массового развёртывания Windows 11 24H2 в октябре не будет 6 ч.
Google вводит кроссплатформенную синхронизацию ключей доступа с помощью PIN-кодов 6 ч.
«Кинопоиск» анонсировал экранизацию Atomic Heart — первые подробности 6 ч.
«Надеемся обратить ваше ожидание в восторг»: режиссёр Lies of P рассказал, чего ждать от дополнения и сиквела 7 ч.
В России тестируют отечественную замену Центру сертификации Microsoft для банков 8 ч.
Кооперативный хоррор No More Room in Hell 2 получил дату выхода в раннем доступе Steam — это продолжение культового зомби-мода для Half-Life 2 9 ч.
Отечественное ПО стало дороже иностранного, но уступает по качеству, заметили во ФСТЭК 10 ч.
«Не думаем, что Hi-Fi Rush 2 нас обогатит»: Krafton спасла Tango Gameworks от закрытия не ради денег 10 ч.