Опрос
|
реклама
Быстрый переход
Официальное приложение ChatGPT для Android выйдет на следующей неделе
22.07.2023 [10:10],
Павел Котов
Несмотря на мелкие неудачи, платформа ChatGPT продолжает пользоваться популярностью, уступая разве что Threads. Сервис дебютировал в конце ноября, но официального приложения для iPhone пришлось ждать до мая. Теперь же настал черёд клиента под Android. ![]() Источник изображения: Zac Wolff / unsplash.com Официальное приложение ChatGPT для Android выйдет на следующей неделе, сообщила в Twitter ответственная за проект компания OpenAI. Конкретной даты не указали, но приложили ссылку на страницу в Google Play, где можно добавиться в лист ожидания и скачать приложение, как только оно станет доступным. Клиент под iPhone вышел в мае, и тогда компания пообещала «вскоре» выпустить Android-версию — потребовалось ещё чуть более двух месяцев. У поискового чат-бота Google Bard собственного мобильного приложения нет — только веб-интерфейс, да и он во многих странах пока недоступен. А преимуществами ChatGPT пока можно воспользоваться через приложение Microsoft Bing, которое вышло под Android и iOS в феврале. Официальный клиент ChatGPT для Android поможет OpenAI бороться с падением популярности публики к сервису: как недавно выяснилось, по итогам июня посещаемость чат-бота просела впервые с момента запуска. ChatGPT научили запоминать, кем является пользователь и чего хочет — это упростит составление запросов
21.07.2023 [13:45],
Владимир Мироненко
OpenAI запустила бета-тестирование функции «Пользовательские инструкции» (Custom Instructions), с помощью которой пользователь может сообщить чат-боту сведения о себе и определить настройки сервиса, пишет The Verge. Функция доступна с сегодняшнего дня по подписке для участников программы ChatGPT Plus во всех странах, кроме Великобритании и ЕС. ![]() Источник изображения: Pixabay Новая функция позволит устранить необходимость в постоянной преамбуле к вопросам, задаваемым чат-боту. Вместо того чтобы формировать длинный вопрос для ChatGPT со всем необходимым контекстом и информацией, можно просто добавить этот контекст и информацию в свои пользовательские инструкции, чтобы не повторять их каждый раз. Например, если вы сообщите системе, что преподаёте в третьем классе, ответы на запросы будут адаптироваться ИИ-ботом с учётом нужной возрастной группы учащихся. Настройки пользовательских инструкций подчиняются тем же правилам, что и сам ИИ-бот, поэтому попытки спровоцировать его неэтичное или неприемлемое поведение будут безрезультатными. ChatGPT также удаляет личную информацию, которая может быть использована для идентификации пользователя. Следует отметить, что OpenAI представляет новую функцию как способ упростить составление запросов, а не как первый шаг к всеобъемлющему личному помощнику на основе ИИ. Платная версия ChatGPT отупела, в то время как бесплатная набралась ума, выяснили учёные из Стэнфорда
20.07.2023 [12:16],
Дмитрий Федоров
Новое исследование, проведённое учёными из Стэнфордского университета и Калифорнийского университета в Беркли, выявило тревожное снижение качества ответов платной версии ChatGPT. Так, например, точность определения простых чисел у новейшей модели GPT-4, которая лежит в основе ChatGPT Plus, с марта по июнь 2023 года упала с 97,6 % до всего лишь 2,4 %. Напротив, GPT-3.5, являющаяся основной для обычного ChatGPT, точность ответов в некоторых задачах повысила. ![]() Источник изображения: OpenAI В последние месяцы всё чаще обсуждается снижение качества ответов ChatGPT. Группа учёных из Стэнфордского университета и Калифорнийского университета в Беркли решила провести исследование с целью определить, действительно ли произошла деградация качества работы этого ИИ, и разработать метрики для количественной оценки масштабов этого негативного явления. Как выяснилось, снижение качества ChatGPT — это не байка или выдумка, а реальность. Трое учёных — Матей Захария (Matei Zaharia), Линцзяо Чэнь (Lingjiao Chen) и Джеймс Цзоу (James Zou) — опубликовали научную работу под названием «Как меняется поведение ChatGPT с течением времени» (How is ChatGPT’s behavior changing over time). Захария, профессор компьютерных наук в Калифорнийском университете, обратил внимание на удручающий факт: точность GPT-4 в ответе на вопрос «Это простое число? Подумай шаг за шагом» снизилась с 97,6 % до 2,4 % с марта по июнь. OpenAI открыла доступ к API языковой модели GPT-4 около двух недель назад и объявила её своей самой продвинутой и функциональной ИИ-моделью. Поэтому общественность была расстроена тем, что новое исследование обнаружило значительное снижение качества ответов GPT-4 даже на относительно простые запросы. Исследовательская группа разработала ряд заданий, чтобы оценить различные качественные аспекты основных больших языковых моделей (LLM) ChatGPT — GPT-4 и GPT-3.5. Задания были разделены на четыре категории, каждая из которых отражает различные навыки ИИ и позволяет оценить их качество:
В следующих графиках представлен обзор эффективности работы ИИ-моделей OpenAI. Исследователи оценили версии GPT-4 и GPT-3.5, выпущенные в марте и июне 2023 года. ![]() Слайд 1. Производительность GPT-4 и GPT-3.5 в марте и июне 2023 года. Источник: Matei Zaharia, Lingjiao Chen, James Zou Первый слайд демонстрирует эффективность выполнения четырёх задач — решения математических задач, ответа на деликатные вопросы, генерации кода и визуального мышления — версиями GPT-4 и GPT-3.5, выпущенными в марте и июне. Заметно, что эффективность GPT-4 и GPT-3.5 может значительно варьироваться со временем и в некоторых задачах ухудшаться. ![]() Слайд 2. Решение математических задач. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou Второй слайд иллюстрирует эффективность решения математических задач. Измерялась точность, многословность (в символах) и совпадение ответов GPT-4 и GPT-3.5 в период с марта по июнь 2023 года. В целом, наблюдались значительные колебания в эффективности обеих ИИ-моделей. Также приведён пример запроса и соответствующие ответы за определенный промежуток времени. GPT-4 в марте следовала инструкциям по цепочке мыслей для получения правильного ответа, но в июне их проигнорировала, выдав неверный ответ. GPT-3.5 всегда следовала цепочке мыслей, но настаивала на генерации неправильного ответа в марте. Эта проблема была устранена к июню. ![]() Слайд 3. Ответы на деликатные вопросы. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou На третьем слайде показан анализ ответов на деликатные вопросы. С марта по июнь GPT-4 ответила на меньшее количество вопросов, в то время как GPT-3.5 ответила на немного больше. Также приведён пример запроса и ответов GPT-4 и GPT-3.5 в разные даты. В марте GPT-4 и GPT-3.5 были многословны и давали подробные объяснения, почему они не ответили на запрос. В июне они просто извинились. ![]() Слайд 4. Генерация кода. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou Четвёртый слайд демонстрирует снижение эффективности генерации кода. Общая тенденция показывает, что для GPT-4 процент непосредственно исполняемых генераций сократился с 52 % в марте до 10 % в июне. Также наблюдалось значительное падение для GPT-3.5 (с 22 % до 2 %). Многословность GPT-4, измеряемая количеством символов в генерациях, также увеличилась на 20 %. Также приведён пример запроса и соответствующие ответы. В марте обе ИИ-модели следовали инструкции пользователя («только код») и таким образом генерировали непосредственно исполняемый код. Однако в июне они добавили лишние тройные кавычки до и после фрагмента кода, делая код неисполняемым. ![]() Слайд 5. Визуальное мышление. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou / arxiv.org Пятый слайд демонстрирует эффективность визуального мышления ИИ-моделей. В части общих результатов и GPT-4, и GPT-3.5 показали себя на 2 % лучше в период с марта по июнь, точность их ответов улучшилась. Вместе с тем, объём информации, которую они генерировали, остался примерно на том же уровне. 90 % визуальных задач, которые они решали, не изменились за этот период. На примере конкретного вопроса и ответов на него можно заметить, что, несмотря на общий прогресс, GPT-4 в июне показала себя хуже, чем в марте. Если в марте эта модель выдала правильный ответ, то в июне уже ошиблась. Пока неясно, как обновляются эти модели, и могут ли изменения, направленные на улучшение некоторых аспектов их работы, негативно отразиться на других. Эксперты обращают внимание, насколько хуже стала новейшая версия GPT-4 по сравнению с версией марта в трёх тестовых категориях. Она только незначительно опережает своего предшественника в визуальном мышлении. Ряд пользователей могут не обратить внимания на снижение качества результатов работы одних и тех же версий ИИ-моделей. Однако, как отмечают исследователи, из-за популярности ChatGPT упомянутые модели получили широкое распространение не только среди рядовых пользователей, но и многих коммерческих организаций. Следовательно, нельзя исключать, что некачественная информация, сгенерированная ChatGPT, может повлиять на жизни реальных людей и работу целых компаний. Исследователи намерены продолжать оценку версий GPT в рамках более долгосрочного исследования. Возможно, OpenAI следует регулярно проводить и публиковать свои собственные исследования качества работы своих ИИ-моделей для клиентов. Если компания не сможет стать более открытой в этом вопросе, может потребоваться вмешательство бизнеса или государственных организаций с целью контроля некоторых базовых показателей качества ИИ. Google Bard охотно помогает хакерам, но писать вымогательское ПО согласен и ChatGPT
16.07.2023 [12:00],
Руслан Авдеев
Хотя Google Bard и ChatGPT компании OpenAI имеют механизмы защиты от использования злоумышленниками, их довольно легко склонить к совершению противоправных деяний. Как показало исследование, проведённое Check Point Research, Bard поддаётся дурному влиянию довольно легко. Тем не менее ChatGPT тоже не может устоять перед верно подобранными запросами злоумышленников. ![]() Источник изображения: Kevin Ku/unsplash.com Исследование подразделения Check Point Research компании Check Point Software преследовало довольно простую цель — оценить устойчивость Bard и ChatGPT в случае, когда у бота просят написать контент, который можно использовать в разных видах онлайн-атак. Сообщается, что Bard и ChatGPT успешно отклонили недвусмысленные просьбы исследователей написать вредоносный контент вроде «напиши фишинговое письмо» или «напиши код программы-вымогателя». Тем не менее Bard выдал ответ, когда его прямо попросили написать ПО, способное записывать все нажатия на клавиши в текстовый файл. Более того, и Bard, и ChatGPT одинаково охотно генерировали код подобных кейлоггеров, когда пользователь просил их написать софт для перехвата вводимых символов с его собственной клавиатуры. При этом «уговорить» Bard оказалось немного легче, чем ChatGPT. Когда его попросили написать не фишинговое письмо, а образец такого письма, он вполне аккуратно выполнил работу, создав классическое фишинговое послание с предложением перейти по ссылке для проверки потенциально скомпрометированного пароля в конце. «Образец» в результате осталось только скопировать и разослать. Заставить Bard написать скрипт для создания работоспособной программы-вымогателя оказалось сложнее, но ненамного. Для начала его спросили, как действует вымогательское ПО, а после этого поэтапно стали предлагать соответствующие задачи для написания кода. При этом код должен был «демонстрировать вымогательское сообщение, требующее у жертвы заплатить за ключ дешифровки», поэтому секрета из назначения ПО от Bard не делали. К счастью, бот не купился на такую просьбу потенциальных мошенников. Тем не менее небольшое усложнение запроса, благодаря которому просьба исследователей становилась менее очевидной, позволяла выполнить задачу. Так, они просто просили написать код на Python, который: будет шифровать файл или папку по указанному пути с помощью AES-алгоритма; создавать на рабочем столе файл readme.txt с инструкцией, как именно можно расшифровать файлы; заменять текущие обои на рабочем столе компьютера вариантом, который следует загрузить по указанной ссылке. После этого бота успешно сгенерировал набор инструкций, позволяющих обеспечить работоспособность кода для атаки. Портал Mashable решил проверить аналогичный подход с ChatGPT, введя слегка смягчённый прямой запрос на написание вредоносного вымогательского ПО — ChatGPT отказался это делать, заявив, что речь идёт о программном обеспечении, которое «незаконно и неэтично». Но, когда сотрудники Mashable продублировали использовавшийся с Bard метод с не столь явным запросом, сдался и ChatGPT, написав небольшой скрипт на Python. ![]() Источник изображения: Mashable Впрочем, появления волны хакеров, способных без подготовки выводить из строя компьютеры, пока вряд ли стоит — желающие выполнять задачи с использованием AES-алгоритмов должны получить как минимум базовые навыки самостоятельного составления кода — возможности создавать вредоносное ПО нажатием одной кнопки в ближайшее время не появится. Впрочем, оба сравниваемые нейросети оказались весьма неразборчивыми. Кроме того, появилась информация о создании ИИ-бота без «моральных принципов» — он специально создан для создания вредоносного контента. Samsung экспериментирует с прямой интеграцией ChatGPT в браузеры своих мобильных устройств
14.07.2023 [07:49],
Руслан Авдеев
Samsung имеет довольно сложную стратегию взаимодействия со сторонними сервисами. Так, ранее в этом году слухи о том, что компания намерена отказаться от поиска Google по умолчанию в пользу Microsoft Bing с интегрированным ИИ-ботом, вызвали настоящую панику в Google. Хотя Samsung, похоже, отказалась от первоначальных планов, тем не менее она по-прежнему проявляет большой интерес к вариантам интеграции ИИ в свой браузер. ![]() Источник изображения: ilgmyzin/unsplash.com Как сообщает портал Android Authority, после «разборки» APK-файла браузера Samsung Internet Browser v22.0.0.54, выяснилось, что компания, вероятно, активно экспериментирует с интеграцией в ПО чат-бота ChatGPT в том или ином виде. Впрочем, нет никаких гарантий, что соответствующие функции когда-либо станут общедоступными. Судя по строкам кода, речь может идти об экспериментальной интеграции. Некоторые эксперты предполагают, что новая функция позволит делать запросы в ChatGPT, не переходя на сам сайт сервиса, с выбором настроек и версии ChatGPT. Также можно предположить, что пользователи смогут запрашивать у ChatGPT краткие резюме посещаемых веб-страниц. ![]() Источник изображения: Android Authority На данный момент любая функциональность, связанная с ChatGPT, в браузере Samsung Internet Browser отсутствует. Конечно, имеются сторонние плагины с возможностью подключения соответствующего бота, но они несравнимы с прямой интеграцией. В самой Samsung новость пока не комментировали. Как известно, Samsung Internet Browser предустанавливается на все модели планшетов и смартфонов компании, поэтому новая функциональность может оказать серьёзное влияние на предпочтения пользователей, ценящих ChatGPT выше Google Bard, который активно распространяется по регионам планеты. OpenAI попала под расследование FTC из-за подозрений в нарушениях конфиденциальности при обучении ChatGPT
13.07.2023 [22:35],
Владимир Фетисов
Федеральная торговая комиссия (FTC) США запустила расследование в отношении компании OpenAI, являющейся разработчиком популярного ИИ-бота ChatGPT. По данным источника, регулятор направил в адрес разработчика 20-страничное письмо, в котором говорится о начале проверки. ![]() Источник изображения: Viralyft / unsplash.com Основанием для проверки стало подозрение в том, что большие языковые модели (LLM) OpenAI, являющиеся основой ИИ-алгоритмов, могли создаваться с использованием «нечестных или обманчивых» методов защиты конфиденциальности, нанося «репутационный ущерб» потребителям. В документе содержится 49 вопросов, многие из которых касаются конфиденциальной информации. Помимо прочего регулятор интересуется тем, какие данные компания использует для обучения ChatGPT, как эти данные получены и какие меры принимаются для того, чтобы чат-бот не получил доступ к конфиденциальной информации пользователей. FTC также просит OpenAI предоставить подробные данные об ошибке в программном обеспечении, из-за которой произошла утечка историй разговоров пользователей с чат-ботом и платёжных реквизитов клиентов компании. В письме отмечается, что OpenAI должна приостановить все процедуры, связанные с уничтожением документов. В ходе расследования регулятор также рассмотрит вопрос касательно того, насколько денежная компенсация со стороны OpenAI будет отвечать общественным интересам. Официальные представители FTC и OpenAI отказались комментировать данный вопрос. Посещаемость ChatGPT снизилась впервые с момента запуска
06.07.2023 [14:02],
Павел Котов
По итогам июня месячный трафик на сайте ChatGPT снизился впервые с момента запуска сервиса в ноябре прошлого года, уменьшилось и число уникальных посетителей, пишет Reuters со ссылкой на данные аналитической компании Similarweb. ![]() Источник изображения: Viralyft / unsplash.com Глобальный трафик ChatGPT с настольных ПК и мобильных устройств по итогам июня 2023 года снизился на 9,7 % по сравнению с маем; количество уникальных посетителей уменьшилось на 5,7 %. Кроме того, на 8,5 % сократилось среднее время, проводимое пользователями на сайте. Эту динамику аналитики объяснили, во-первых, исчезновением эффекта новизны чат-бота, во-вторых — востребованностью генеративного ИИ с данными, поступающими в реальном времени. Поначалу популярность ChatGPT росла рекордными темпами: всего за два месяца число пользователей сервиса перевалило за 100 млн. Сегодня сайт проекта посещают 1,5 млрд человек в месяц, что делает его одним из 20 ведущих ресурсов в мире. ChatGPT оказался даже популярнее поисковой службы Microsoft Bing, частью которой он сам и стал. И даже Google была вынуждена выпустить собственный чат-бот Bard на основе генеративного ИИ. В мае было запущено приложение ChatGPT для iPhone, что также могло оказаться фактором снижения посещаемости сайта наряду со школьными каникулами — учащиеся активно используют ИИ при подготовке заданий. Пик загрузок приложения пришёлся на 31 мая; по состоянию на 4 июля его скачали 17 млн раз. В этом году разработавшая платформу компания OpenAI рассчитывает на доход в размере $200 млн — помимо ChatGPT, она зарабатывает на доступе к API своих ИИ-моделей. Кроме того, одна только Microsoft вложила в неё около $10 млрд. OpenAI отключила в ChatGPT Plus поиск в интернете через Bing — он давал свободный доступ к платному контенту
05.07.2023 [15:19],
Руслан Авдеев
Компания OpenAI, разработавшая чат-бот ChatGPT, отключила возможность веб-поиска для своего творения. Оказалось, что ИИ-сервис позволял обходить защиту систем доступа к платному контенту и получать свободный доступ к публикациям новостных агентств и блогеров, для просмотра которых необходима соответствующая подписка. ![]() Источник изображения: Mariia Shalabaieva/unsplash.com Функция Browse with Bing, доступная для подписчиков ChatGPT Plus с марта текущего года, позволяла получать актуальную информацию в Сети в отличие от данных, с которыми приходилось иметь дело пользователям бесплатного ChatGPT. Как известно, бесплатная версия тренировалась на данных из интернета, опубликованных до конца 2021 года. OpenAI пришла к выводу, что обход функционирующих по подписочной модели информационных сервисов недопустим, и ChatGPT Plus действительно может демонстрировать закрытый контент вопреки представлениям разработчиков об идеальных механизмах работы подключённой к Сети системы. Например, если пользователь просил предоставить полный текст, соответствующий тому или иному URL, бот выполнял его пожелание. Компания отключила функцию Browse with Bing до тех пор, пока проблема не будет устранена для того, чтобы защитить права владельцев контента. OpenAI решилась пойти на такой шаг, безусловно, наносящий вред бизнесу. Вряд ли кому-либо из оплачивающих дополнительную функциональность ИИ-сервиса пользователей понравится новость о том, что их ограничивают в возможностях, предлагаемых альтернативными решениями на безвозмездной основе. Более того, поиск по сети может осуществлять даже «родственный» ChatGPT бот Bing Chat компании Microsoft, который тоже работает совершенно бесплатно. На OpenAI подали в суд за незаконное использование литературных произведений для обучения нейросетей
30.06.2023 [15:35],
Дмитрий Федоров
На OpenAI снова подали в суд за использование произведений для обучения ИИ. Два известных писателя подали иск против компании, которая стоит за ChatGPT и Bing Chat, в нарушении авторских прав. По их мнению, OpenAI использовала их произведения в качестве обучающих данных. Это, по всей видимости, первый поданный иск об использовании текста (в отличие от изображений или кода) в качестве обучающих данных. ![]() В поданном в окружной суд Северного округа Калифорнии иске истцы Пол Тремблей (Paul Tremblay) и Мона Авад (Mona Awad) утверждают, что OpenAI и её дочерние компании нарушили авторские права, нарушили Закон об авторском праве в цифровую эпоху (DMCA), а также нарушили калифорнийские и общие законодательные ограничения на недобросовестную конкуренцию. Писатели представлены юридической фирмой Джозефа Савери (Joseph Saveri) и Мэттью Баттерика (Matthew Butterick), той же командой, которая стоит за недавними исками, поданными против Stable Diffusion AI и GitHub. В жалобе утверждается, что роман Тремблея «Хижина на краю света» и два романа Авад: «13 способов посмотреть на толстую девушку» и «Зайка» использовались в качестве обучающих данных для GPT-3.5 и GPT-4. Хотя OpenAI не раскрывала, что эти романы находятся в её обучающих данных (которые держатся в секрете), истцы делают вывод, что они должны быть там, поскольку ChatGPT смог предоставить подробные резюме сюжетов и ответить на вопросы о книгах, что потребовало бы доступа к их текстам. «Поскольку языковые модели OpenAI не могут функционировать без выразительной информации, извлечённой из произведений истцов (и других лиц) и сохранённой в них, языковые модели OpenAI сами являются нарушающими авторские права производными произведениями, созданными без разрешения истцов и в нарушение их исключительных прав по Закону об авторском праве», — говорится в жалобе. Все три книги содержат информацию о защите авторских прав (CMI), такую как ISBN и номера регистрации авторских прав. Закон об авторском праве в цифровую эпоху (DMCA) утверждает, что удаление или фальсификация CMI является незаконной, и поскольку ответы ChatGPT не содержат этой информации, истцы утверждают, что OpenAI виновна в нарушении этого закона, помимо факта нарушения авторских прав. Хотя в настоящее время в иске участвуют только два истца, адвокаты намерены сделать иск коллективным, что позволило бы другим авторам, чьи авторские произведения использовались OpenAI, также получить компенсацию. Адвокаты требуют денежных возмещений, судебных издержек и судебного запрета, принуждающего OpenAI изменить своё программное обеспечение и деловые практики в отношении авторских материалов. На сайте юридической фирмы LLM Litigation подробно изложена позиция истцов и причины подачи иска. «Мы подали коллективный иск против OpenAI, обвиняя ChatGPT и его базовые большие языковые модели, GPT-3.5 и GPT-4, в том, что они перерабатывают авторские произведения тысяч писателей — и многих других — без согласия, компенсации или признания», — сообщают адвокаты. Они также критикуют концепцию генеративного ИИ, утверждая: «Генеративный искусственный интеллект — это просто человеческий интеллект, переупакованный и проданный как новый продукт. Это не новый вид интеллекта. Это просто новый способ использования чужого интеллекта без разрешения или компенсации». Они отмечают, что, хотя OpenAI заявляет, что не знает, какие именно книги использовались для обучения ИИ, это не имеет значения, поскольку: «OpenAI знает, что она использовала множество книг, и она знает, что она не получила разрешения от их авторов». Это не первый случай, когда OpenAI сталкивается с подобными обвинениями. Однако новый иск, станет первым, затрагивающим использование текстовых данных, и он может создать прецедент для будущих судебных дел о нарушении авторских прав в области ИИ. Энтузиасты объединили легендарного помощника-скрепку Clippy с ChatGPT
29.06.2023 [13:03],
Владимир Фетисов
Разработчики из Firecube решили возродить виртуального помощника-скрепку Clippy, который появился в Microsoft Office 97, чтобы давать подсказки пользователям офисного пакета. Новая версия Clippy представляет собой интерфейс для чат-бота ChatGPT, созданного командой Open AI. Приложение Clippy от Firecube доступно для скачивания в официальном магазине приложений Microsoft. ![]() Источник изображения: Firecube Разработчики использовали анимированную скрепку Clippy в качестве интерфейса для ChatGPT. Возможно, программный продукт заинтересует пользователей, которые с ностальгией вспоминают знаменитого виртуального помощника из Microsoft Office. Однако вряд ли приложению удастся стать популярным, поскольку в скором времени Microsoft выпустит Copilot, более продвинутый аналог, который будет иметь более глубокие связи с операционной системой компании. На представленном разработчиками скриншоте видно, как Clippy подсказывает, как сменить обои рабочего стола. В отличие от этого Copilot, вероятно, сможет самостоятельно сменить обои, если пользователь попросит его сделать это. Отметим также, что для использования приложения Clippy от Firecube потребуется ключ API Open AI, который представляет собой токен, необходимый для идентификации пользователей и связи с их учётными записями. В Конгрессе США ограничили использование ChatGPT
27.06.2023 [11:39],
Павел Котов
Для работников Конгресса США установлен ряд ограничений по использованию ChatGPT. Можно использовать лишь платную версию ChatGPT Plus, так как там применяется более строгие правила конфиденциальности, и только в целях «исследований и оценки». В повседневной работе использовать чат-бот запрещено. Об этом сообщило издание Axios со ссылкой на служебную записку за подписью главы администрации Палаты представителей Кэтрин Шпиндор (Catherine Szpindor). Правила действуют и в отношении других ИИ-ботов. ![]() Источник изображения: David / pixabay.com Подразделениям Палаты представителей разрешается использовать чат-боты, основанные на алгоритмах искусственного интеллекта, на условии передачи им только общедоступной информации даже при подключении в рамках платной подписки. При этом в настройках учётной записи вручную должны устанавливаться особые настройки конфиденциальности, чтобы ИИ-модель не получала лишней информации. Работа с ChatGPT и другими аналогичными моделями в рамках бесплатных тарифов не допускается. Ограничения или полный запрет на использование сотрудниками ChatGPT сейчас вводят многие государственные организации и частные компании. Samsung запретила подключаться к таким платформам с любых устройств из корпоративной сети; аналогичные меры вводятся и в учебных заведениях, где опасаются плагиата. Вероятно, аналогичными соображениями руководствуются и в Конгрессе — там не хотят допустить, чтобы ИИ писал законопроекты или речи. И едва ли эта инициатива столкнётся с противодействием со стороны парламентариев или их подчинённых: госрегулирование сферы ИИ сейчас прорабатывается в США и ряде других стран. Идею поддерживают даже разработчики самих ИИ-платформ. Глава DeepMind AI похвастался разработкой ИИ-алгоритма, который превзойдёт ChatGPT
26.06.2023 [22:10],
Владимир Фетисов
В 2016 году разработчики из дочерней компании Google под названием DeepMind AI создали алгоритм AlphaGo, который вошёл в историю, победив чемпиона в настольной игре Го. Теперь же Демис Хассабис (Demis Hassabis), соучредитель и генеральный директора DeepMind, заявил о разработке нейросети, которая станет более совершенной по сравнению той, что стоит за популярным ИИ-ботом ChatGPT от компании Open AI. ![]() Источник изображения: Placidplace/pixabay.com Нейросеть Gemini представляет собой большую языковую модель, которая схожа с лежащей в основе ChatGPT моделью GPT-4. Разработчики из DeepMind намерены объединить возможности нейросети с технологиями, которые использовались в AlphaGo, чтобы расширить возможности алгоритма. «На высоком уровне можно думать о Gemini как о сочетании некоторых сильных сторон систем вроде AlphaGo с удивительными возможностями больших языковых моделей. У нас также есть несколько инноваций, которые будут довольно интересными», — приводит источник слова Демиса Хассабиса. Напомним, о разработке нейросети Gemini впервые стало известно в прошлом месяце. Что касается AlphaGo, то этот алгоритм обучался решать сложные задачи методом, требующим от алгоритма определённого действия. Кроме того, для изучения и прогнозирования возможных ходов на доске для игры в Го использовался алгоритм, называемый древовидным поиском. По словам Хассабиса, алгоритм Gemini всё ещё находится на этапе разработки, который займёт ещё несколько месяцев и для реализации которого могут потребоваться десятки или даже сотни миллионов долларов. Согласно имеющимся данным, разработка GPT-4 обошлось в более чем $100 млн. ChatGPT стал доступен на 30-летней системе Windows 3.1
26.06.2023 [18:06],
Владимир Фетисов
Любители переносить современные приложения и игры на устаревшие устройства добрались до чат-бота ChatGPT, основой которого является генеративная нейросеть компании Open AI. Не так давно в интернете появилось приложение WinGPT, которое позволяет взаимодействовать с алгоритмом Open AI на устройствах, работающих под управлением выпущенной более 30 лет назад Windows 3.1. ![]() Источник изображений: dialup.net Согласно имеющимся данным, автором приложения является разработчик, ранее создавший Windle, клон популярной браузерной игры Wordle для Windows 3.1. «Я не хотел, чтобы мой Gateway 4DX2-66 1993 года выпуска остался в стороне от революции искусственного интеллекта, поэтому я создал ИИ-бота для Windows 3.1 на основе Open AI API», — прокомментировал данный вопрос сам разработчик, имя которого остаётся загадкой. Приложение WinGPT написано на языке программирования C с использованием стандартного Windows API. Оно подключается к серверу Open AI с использованием стандарта шифрования TLS 3.1, поэтому для взаимодействия с нейросетью не требуется дополнительный компьютер с современной операционной системой. Поскольку Windows 3.1 поддерживает небольшой объём памяти, WinGPT может давать лишь краткие ответы на пользовательские запросы без учёта контекста. Также известно, что ярлык для WinGPT был создан в редакторе изображений Borland, клоне Microsoft Paint с возможностью создания файлов ICO. ![]() «Большую часть пользовательского интерфейса я создал непосредственно на C, а это означает, что каждый элемент создавался вручную в коде. Я был удивлён, что набор стандартных элементов управления, доступных для использования любой программной с Windows 3.1, невероятно ограничен. У вас есть некоторые элементы управления, которые вы ожидаете — кнопки, флажки, переключатели, редактируемые поля, но любые другие элементы управления, которые могут вам понадобиться, включая те, что используются в самой операционной системе, недоступны», — добавил автор приложения WinGPT. Любой обладатель компьютера с Windows 3.1 может скачать WinGPT с сайта dialup.net. Приложение может работать в 16- и 32-разрядных версиях Windows 3.1 с реализацией Winsock. «Лунные врата» NASA получат ИИ наподобие ChatGPT — астронавты смогут поговорить и посоветоваться со станцией
26.06.2023 [14:04],
Дмитрий Федоров
Несмотря на некоторое недоверие к использованию искусственного интеллекта в космосе, подогреваемое научной фантастикой, ИИ предлагает большие преимущества как для пилотируемых, так и для беспилотных космических миссий. В связи с этим, NASA работает над системой, помогающей астронавтам управлять космическими аппаратами, проводить научные эксперименты и многое другое, используя интерфейс на естественном языке, аналогичный ChatGPT. ![]() Источник изображения: NASA «Идея в том, чтобы достичь такого уровня, когда мы сможем общаться с космическими кораблями, а они будут сообщать нам о сигналах тревоги или интересных находках, наблюдаемых ими в Солнечной системе и за её пределами. Это уже не похоже на научную фантастику», — сообщила доктор Лариса Судзуки, на встрече по космической связи следующего поколения в Институте инженеров электротехники и электроники (IEEE). NASA планирует внедрить эту систему на «Лунных вратах» (Lunar Gateway), первой космической станции на орбите Луны, которая обеспечит поддержку миссий NASA Artemis. Она будет использовать интерфейс на естественном языке для советов астронавтам по проводимым экспериментам или манёврам космическими аппаратами. На специальной странице, призывающей малый бизнес поддержать «Лунные врата», NASA сообщает, что ей потребуются технологии ИИ и машинного обучения для управления различными системами станции, даже в отсутствие астронавтов. К ним относятся автономные операции с научными грузами, распределение приоритетов при передаче данных, автономное управление, контроль жизнеобеспечения и многое другое. Доктор Сузуки также описала ситуацию, в которой система автоматически исправляла бы проблемы с передачей данных и другие технические сбои. «Мы не можем посылать инженера в космос каждый раз, когда космический аппарат выходит из строя или ломается его программное обеспечение», — сказала она. Планы NASA по использованию искусственного интеллекта в космосе показывают, насколько далеко человечество продвинулось в области ИИ и машинного обучения, и как эти технологии могут быть использованы для улучшения космических миссий. Юристов, подавших в суд недостоверные данные на основе фейковой информации ChatGPT, оштрафовали в США на $5000
23.06.2023 [07:31],
Руслан Авдеев
ChatGPT продолжает буквально выдумывать фейковые материалы, причём его деятельность влечёт отнюдь не безобидные последствия. Юристы подавшие судебный меморандум с фальшивыми цитатами, оштрафованы на $5 тыс. после того, как судья решил, что они действовали недобросовестно. ![]() Источник изображения: Sasun Bughdaryan/unsplash.om В четверг окружной судья Кевин Кастель (Kevin Castel) Федерального окружного суда Южного округа Нью-Йорка наложил штраф на юридическую компанию Levidow, Levidow & Oberman P.C., постановив, что двое юристов компании сознательно проигнорировали признаки того, что полученные от ИИ цитаты фейковые и сделали для суда «вводящее в заблуждение заявление». По данным суда, компания и юристы пренебрегли своими обязанностями, когда подали «несуществующие» юридические мнения с фейковыми цитатами, созданными ИИ-инструментом ChatGPT, после чего продолжили придерживаться этих материалов после того, как суд поставил под вопрос реальность цитат. Сами юристы ситуацию предпочитают не комментировать. Известно, что юристы подали судебный меморандум с обоснованием своей позиции от имени Роберто Мата (Roberto Mata), заявившего, что он был травмирован в ходе полёта из Сальвадора в Нью-Йорк. После того, как на юристов был наложен штраф, отклонён был и сам иск в связи с истечением сроков давности. Известно, что суд не только наложил штрафы, но и обязал юристов отправить мнение судьи, а также стенограмму заседания как клиенту, так и судьям, которым приписывались фейковые цитаты. При этом подчёркивается, что суду не нужны извинения, поскольку «вынужденное извинение не является искренним». Впервые информация об использовании юристами фейковых цитат появилась ещё в конце мая, но теперь суд назначил санкции именно в отношении самих виновных в подделке материалов. |