Опрос
|
реклама
Быстрый переход
На просторах даркнета обучили ИИ-модель DarkBERT, но предназначена она для науки
17.05.2023 [11:28],
Матвей Филькин
Исследователи Корейского института науки и технологий (KAIST) создали ИИ-модель DarkBERT для поиска «ценных научных сведений» в даркнете. Нейросеть имеет для этого специальные фильтры, призванные оградить пользователей от нежелательной информации. ![]() Источник изображения: freepik DarkBERT основан на архитектуре RoBERTa, разработанной ещё в 2019 году. Она пережила своего рода ренессанс, и исследователи обнаружили, что на самом деле данная архитектура даёт больше производительности, чем можно было извлечь из неё ранее. Чтобы обучить ИИ-модель, исследователи просканировали даркнет через анонимный брандмауэр сети Tor, а затем отфильтровали необработанные данные, применив методы дедупликации, балансировки категорий и предварительной обработки данных с целью создания необходимого для обучения массива информации. Результатом проделанной работы стал DarkBERT, который может анализировать фрагменты контента из даркнета и извлекать из него полезную информацию. Одной из основных характеристик больших языковых моделей (LLM) является понимание языка. В даркнете используется весьма специфическая смесь языков для делового общения, и DarkBERT был обучен именно на ней. Исследование показало, что DarkBERT превосходит другие большие языковые модели, что должно позволить исследователям безопасности и правоохранительным органам глубже проникнуть в даркнет. Как и в случае с другими LLM, это не означает, что работа над DarkBERT закончена. По заявлениям исследователей, они намерены продолжить дальнейшее обучение и настройку модели, чтобы улучшить её результаты. Shell привлечёт ИИ к глубоководной разведке нефти
17.05.2023 [11:00],
Матвей Филькин
Shell будет использовать для глубоководной разведки месторождений нефти технологию на основе искусственного интеллекта от компании SparkCognition, занимающейся анализом больших данных. Также технологию применят для увеличения добычи нефти на шельфе. ![]() Источник изображения: 1000logos.net Алгоритмы искусственного интеллекта SparkCognition будут обрабатывать и анализировать большие объёмы сейсмических данных при поиске новых нефтяных месторождений компанией Shell. «Мы стремимся найти новые способы разведки, переосмыслить их», — заявил вице-президент Shell по инновациям и производительности Габриэль Герра (Gabriel Guerra). Цель состоит в том, чтобы повысить операционную эффективность и скорость, а также увеличить добычу и успехи в разведке. По словам компаний, новый процесс может сократить геологоразведочные работы с девяти месяцев до девяти дней. «Генеративный ИИ для сейсмических изображений может положительно повлиять на процесс разведки. В целом, данная технология для разведки нефтяных месторождений может быть очень перспективна», — сказал Брюс Портер (Bruce Porter), главный научный сотрудник SparkCognition. По словам компаний, эта технология будет генерировать изображения недр с использованием меньшего количества данных сейсмических сканирований, чем обычно, что поможет сохранить глубоководные объекты. Они добавили, что меньшее количество сейсморазведочных работ ускорит рабочий процесс разведки и сэкономит затраты на высокопроизводительные вычисления. «Антиплагиат» научили выявлять тексты, сгенерированные ChatGPT или другими нейросетями
15.05.2023 [15:10],
Руслан Авдеев
Пресс-служба системы «Антиплагиат», выявляющей заимствования в курсовых, дипломных работах, научных трудах и других текстовых материалах, объявила о реализации новой функции, позволяющей определять факт того, что анализируемый текст сгенерирован с помощью ChatGPT или других больших языковых моделей. ![]() Источник изображения: «Антиплагиат» Антиплагиат» самостоятельно на основе многолетних исследований, связанных с обработкой естественного языка (NLP), разработала алгоритм для определения и маркировки фрагментов текста, созданных ИИ-системами. Новая функция уже доступна. К ней могут прибегнуть пользователи, являющимся платными подписчиками «Антиплагиата». Возможность проверки на наличие «искусственных» фрагментов не обеспечивает полной защиты от автоматически сгенерированного контента. В материалах самого сервиса подчёркивается, что речь идёт о фрагментах, «предположительно» созданных с использованием языковых моделей GPT-2, GPT-3 и ChatGPT. При выявлении «Антиплагиатом» фрагментов машинного происхождения соответствующие материалы помечаются системой, а документ получает статус «подозрительного». По словам исполнительного директора «Антиплагиата» Юрия Чеховича, нейросеть «всегда оставляет следы». Кроме того, все написанные машинами тексты, по его словам, «всё ещё отличаются от написанных человеком». Именно эта особенность и позволяет определять документы, созданные искусственным интеллектом. Выходцы из OpenAI представили чат-бота, который умеет обрабатывать огромные тексты — на «Великий Гэтсби» ушло меньше минуты
12.05.2023 [15:53],
Матвей Филькин
Стартап Anthropic смог расширить контекстное окно ввода своего чат-бота Claude до 75 000 слов — это большое улучшение по сравнению с текущими моделями. Компания заявляет, что чат-бот может обработать целый художественный роман менее чем за минуту. ![]() Источник изображения: Anthropic Часто упускаемое из виду ограничение для чат-ботов — это память. Хотя языковые модели ИИ, лежащие в основе этих систем, действительно обучаются на терабайтах текста, объем, который эти системы могут обработать во время использования, весьма ограничен. Для ChatGPT это около 3000 слов. И хотя существуют способы обхода этих ограничений, однако этого все равно мало. Компания Anthropic, основанная бывшими инженерами OpenAI, значительно расширила контекстное окно для своего чат-бота Claude, доведя его до 75 000 слов. Как она отмечает в своём блоге, этого достаточно, чтобы обработать произведение «Великий Гэтсби» за один раз. Фактически, компания протестировала систему, отредактировав одно предложение в романе и попросив ИИ заметить изменение. Это произошло за 22 секунды. Языковые модели ИИ измеряют информацию не количеством символов или слов, а токенами – семантической единицей, которая не всегда коррелируется с количеством символов, а так как слова могут быть длинными или короткими, их длина не обязательно соответствует количеству токенов. В этом отношении контекстное окно Claude превосходит модель OpenAI, так как может оперировать 100 000 токенам по сравнению с 9 000 ранее, в то время как полнофункциональная модель GPT-4 с может обрабатывать до 32 000 токенов. Сейчас новые возможности Claude доступны только бизнес-партнёрам Anthropic, которые подключаются к чат-боту через API компании. Цена также неизвестна, но она наверняка значительно выросла, так как обработка большего количества текста означает увеличение затрат на вычисления. Google представила нейросеть PaLM 2, которая сильна в математике и может запускаться на смартфоне
10.05.2023 [22:34],
Матвей Филькин
Сегодня на конференции для разработчиков Google I/O, компания Google объявила о запуске PaLM 2 — своей новейшей большой языковой модели (LLM). PaLM 2 будет доступна в составе чат-бота Google Bard, а также станет базовой моделью для большинства новых ИИ-функций для её продуктов. PaLM 2 теперь доступен разработчикам через Google PaLM API, Firebase и Colab. ![]() Источник изображения: Google Google, как и OpenAI, не предоставила много технических подробностей о том, как обучала эту ИИ-модель — даже число параметров названо не было. Единственное, что представители компании указали о технической части — PaLM 2 была обучена на основе новейшей инфраструктуры Google JAX и TPU v4. В брифинге для прессы перед сегодняшней конференцией вице-президент Google DeepMind Зубин Гахрамани (Zoubin Ghahramani) сказал: «В ходе нашей работы мы обнаружили, что больше не всегда лучше. Вместо этого компания решила сосредоточиться на своих возможностях». Google говорит, что новая модель лучше подходит для философских рассуждений, математики и логики. Как отметил Гахрамани, компания обучила модель большому количеству математических и научных текстов с поддержкой математических формул. Не секрет, что большие языковые модели — с их упором на язык — с трудом справляются с математическими задачами, не прибегая к сторонним плагинам. Однако, Google утверждает, что PaLM 2 может легко решать математические задачи и даже создавать диаграммы. PaLM 2 также имеет улучшенную поддержку написания и отладки кода. Модель была обучена на 20 языках программирования, в том числе на популярных, таких как JavaScript и Python, а также на узкоспециалзированных, как Prolog, Verilog и Fortran. PaLM 2 легла в основу Codey — специализированной ИИ-модели Google для написания кода и его отладки, которую Google также запускает сегодня в рамках своей службы автодополнения и генерации кода, среди прочего. Google также подчеркнула, что PaLM 2 была обучена с помощью более 100 мировых языков, что делает её, по словам компании, «отличным решением для многоязычных задач», чем предыдущие модели. Google говорит о PaLM как о семействе моделей, в которое входят множество моделей. Среди них и Med-PaLM 2 — модель, ориентированная на медицинские знания. Существует также Sec-PaLM, версия, ориентированная на решение вопросов безопасности, и уменьшенная версия PaLM 2, которая может работать на смартфонах и потенциально откроет PaLM для вариантов использования с упором на конфиденциальность, когда ИИ работает не выходя за пределы устройства пользователя. Житель Китая использовал ChatGPT для создания фейковых новостей
10.05.2023 [07:36],
Владимир Фетисов
В китайской провинции Ганьсу правоохранители задержали мужчину, который использовал ИИ-бота ChatGPT для написания фейковых новостных статей. Арест гражданина Китая произведён в соответствии с действующим в стране законодательством, которое, помимо прочего, запрещает неправомерное использование нейросетей для распространения ложной информации. ![]() Источник изображения: Sanket Mishra / unsplash.com Подозреваемый по фамилии Хун обвиняется в использовании ИИ-бота ChatGPT для создания нескольких новостных статей, рассказывающих о крушении поезда. По словам официальных лиц, описанные в этих материалах события не имеют отношения к действительности. В общей сложности было обнаружено около 20 статей, в которых рассказывались разные версии одной и той же истории, но менялись места происшествия. Все статьи были опубликованы на платформе для блогов Baijiahao, которая принадлежит компании Baidu. В заявлении местной полиции сказано, что Хун признался в использовании ChatGPT для переписывания существующих вирусных новостных статей с целью обхода фильтров дублирующего контента. После написания фейковых статей он размещал их в интернете и зарабатывал на этом деньги. Согласно имеющимся данным, в общей сложности фейковые статьи Хуна были просмотрены более 15 тыс. раз. Напомним, в Китае запрещено использование ChatGPT. Для взаимодействия с нейросетью жителям страны приходится задействовать VPN-сервисы. Что касается Хуна, то ему уже предъявлено обвинение в провоцировании конфликтов. Не исключено, что позднее он также может быть обвинён в нарушении общественного порядка и организации беспорядков в общественных местах. В этом случае Хуну может грозить наказание в виде лишения свободы сроком от 5 до 10 лет. ИИ-помощник Microsoft 365 Copilot получит больше функций, а предварительный доступ к нему будет платным
09.05.2023 [17:02],
Матвей Филькин
Компания Microsoft расширяет предварительный доступ к Microsoft 365 Copilot — помощнику на базе OpenAI GPT-4, который предоставляет ИИ-возможности в приложениях и сервисах Microsoft 365. Технологический гигант также анонсировал новый инструмент индексирования, который позволяет Copilot более точно составлять отчеты о внутренних данных компании, а также некоторые новые функции Copilot для таких приложений, как Microsoft Whiteboard, Outlook и PowerPoint. ![]() Источник изображения: _H0x0d_ / Twitter Компания запускает программу раннего доступа к Microsoft 365 Copilot — платную предварительную версию, доступную только по приглашению, которая первоначально будет развёрнута для 600 крупных клиентов по всему миру. Им будет предложено заплатить неустановленную сумму за ранний доступ, но Microsoft не сообщает, когда начнётся развёртывание. Техногигант также представляет ряд новых возможностей для Microsoft 365 Copilot. Для корпоративных клиентов, использующих пакет Microsoft 365 E3 или E5, распространяется новая функция семантического индекса, которая создаёт интуитивно понятную карту как пользовательских, так и корпоративных данных. Microsoft заявляет, что семантический индекс «имеет решающее значение для получения актуальных и действенных ответов на запросы в Microsoft 365 Copilot». Например, Microsoft говорит, что, спросив Copilot об «отчёте о продажах за март», инструмент распознает, что «отчёты о продажах составляются Келли из финансовой команды и создаются в Excel», а не просто ищет какие-либо документы, содержащие эти ключевые слова. Copilot также добавляется в Whiteboard, приложение для совместной работы в пакете Microsoft 365. Пользователи могут вызвать Copilot, чтобы помочь генерировать идеи по конкретным темам и обобщать содержимое доски. Copilot также может использовать Microsoft Designer, новое приложение компании для графического дизайна, чтобы воплотить эти идеи в жизнь, создавая изображения на основе подсказок, созданных на доске. DALL-E, инструмент OpenAI для преобразования текста в изображение, добавляется в Microsoft PowerPoint. Пользователи смогут попросить Copilot генерировать изображения на основе текстовых описаний, которые затем могут быть включены в презентации. Copilot в PowerPoint также может оптимизировать текст, например превращать маркеры в абзацы (или наоборот) или изменять тон. Наконец, Outlook получает новые возможности обучения Copilot, которые предлагают рекомендации по написанию электронных писем в сжатые сроки или при работе с деликатными темами – инструмент может посоветовать пользователям, как эффективно донести информацию в этих обстоятельствах с соответствующей ясностью и тоном. Microsoft не упомянула, когда новые функции будут доступны для платных предварительных версий. О публичном выпуске или открытой бета-версии Microsoft 365 Copilot также ничего не известно. ИИ в каждый бизнес: IBM представляет платформу watsonx для упрощения внедрения ИИ в разные сферы
09.05.2023 [15:49],
Матвей Филькин
В минувший вторник корпорация International Business Machines (IBM) запустила watsonx — новую платформу, которая поможет компаниям интегрировать ИИ в свой бизнес. ![]() Источник изображения: IBM IBM заявила, что компании могут использовать платформу watsonx для обучения и развёртывания своих систем ИИ, автоматического создания кода с использованием запросов на естественном языке и использования больших языковых моделей, созданных для различных целей, таких как создание формул химических веществ или моделирование изменений климата. Компания описывает watsonx как платформа для ИИ и данных, готовую к использованию на предприятиях и предназначенную для «многократного увеличения влияния ИИ на ваш бизнес». Платформа состоит из трех мощных компонентов: студии watsonx.ai для создания новых базовых моделей, генеративного ИИ и машинного обучения; универсального хранилища данных watsonx.data, обеспечивающего гибкость озера данных и производительность хранилища данных; а также инструментария watsonx.governance, позволяющего создавать рабочие процессы для ИИ, построенные с учетом ответственного подхода и прозрачности. Запуск платформы произошёл более чем через десять лет после того, как суперкомпьютер IBM Watson с системой ИИ привлёк внимание, победи в игровом шоу Jeopardy — аналоге «Своей игры». IBM тогда заявила, что Watson может «учиться» и обрабатывать человеческий язык, но высокая стоимость Watson в то время затруднила его использование для компаний. Внезапный успех чат-бота ChatGPT сделал внедрение ИИ в компаниях центром внимания, и IBM надеется продвинуться в этом направлении. На этот раз низкая стоимость внедрения больших языковых моделей искусственного интеллекта означает, что шансы на успех высоки, заявил генеральный директор IBM Арвинд Кришна (Arvind Krishna) в преддверии ежегодной конференции Think. «Когда что-то становится с задачей в 100 раз дешевле, это действительно создаёт совершенно иную привлекательность. Первый барьер для создания модели высок, но как только вы это сделаете, адаптировать эту модель для сотни или тысячи различных задач очень легко, и это может сделать даже дилетант». — сказал Кришна. Он заявил, что в ближайшие годы искусственный интеллект может сократить определённые рабочие места в офисе IBM. «Это не означает, что общая занятость уменьшается. Это даёт возможность вкладывать гораздо больше средств в деятельность, создающую ценность. Мы наняли больше людей, чем было уволено, потому что мы нанимаем сотрудников в областях, где спрос со стороны наших клиентов намного выше». — сказал он о некоторых сообщениях в СМИ, в которых говорится о том, что IBM приостанавливает найм на тысячи рабочих мест, которые мог бы заменить ИИ. Он добавил, что IBM также использует более открытую экосистему и сотрудничает с центром разработки программного обеспечения для искусственного интеллекта с открытым исходным кодом Hugging Face и другими. OpenAI не будет обучать нейросети GPT на пользовательских данных, пообещал глава компании Сэм Альтман
05.05.2023 [22:45],
Николай Хижняк
Компания OpenAI уже некоторые время не использует и в дальнейшем не будет использовать данные пользователей для обучения своих языковых моделей GPT. Об этом в разговоре с изданием CNBC сообщил глава OpenAI Сэм Альтман (Sam Altman). ![]() Источник изображения: Tumisu / pixabay.com «Наши клиенты определённо не хотят, чтобы мы обучали свои модели на их данных, поэтому мы изменили наш подход и не будем этого делать», — заявил Альтман. Изменения в политике компании были внесены и отражены в новой редакции пользовательского соглашения ещё 1 марта, о чём свидетельствуют данные Internet Archive. «Мы не используем для обучения [языковых моделей] данные с нашего API. Не делаем это уже некоторое время», — добавил Альтман в разговоре с журналистами CNBC. API или программные интерфейсы приложений представляют собой фреймворки, которые позволяют пользователям напрямую подключаться к программному обеспечению OpenAI. Бизнес-клиенты компании OpenAI, в число которых входят Microsoft, Salesforce и Snapchat, с большой вероятностью пользуются преимуществами, представленного несколько месяцев назад API OpenAI в своих сервисах. Новая политика безопасности пользовательских данных OpenAI распространяется только на клиентов, которые пользуются её API. Компания пообещала, что не будет использовать передаваемые ей данные для обучения моделей без согласия клиентов. Это должно развеять опасения последних в том, что бот начнёт оперировать в своей работе подлежащей защите информацией. По этой причине та же компания Amazon предупредила своих сотрудников о недопустимости вносить конфиденциальную информацию в запросы ИИ-чат-бота ChatGPT, поскольку она может тем или иным образом отразиться в запросах других пользователей чат-бота. Изменения в политике использования умных чат-ботов происходят на фоне растущего возмущения общественности, считающей, что продвинутые языковые модели в конечном итоге заменят работу людей. Например, Гильдия сценаристов США во вторник начала забастовку из-за того, что не смогла договориться с кинокомпаниями по вопросам ограничений использования того же чат-бота ChatGPT в создании или редактировании сценариев. Убытки OpenAI достигли $540 млн в прошлом году, когда компания запустила ChatGPT
05.05.2023 [20:54],
Владимир Мироненко
Разработка ИИ-чат-бота ChatGPT обошлась OpenAI в значительную сумму, сообщил ресурс The Information со ссылкой на источники, осведомлённые о финансовых показателях компании. По их данным, в прошлом году, когда был запущен ChatGPT, убытки OpenAI примерно удвоились и составили около $540 млн. ![]() Источник изображения: Sanket Mishra/unsplash.com Эти цифры демонстрируют, насколько много потратила компания в рамках программы по развёртыванию коммерческого продукта на базе искусственного интеллекта. Основная доля затрат OpenAI на создание и запуск ChatGPT приходится на обеспечение вычислительной мощности для генерации ответов на запросы пользователей, то есть на покупку серверов с ускорителями вычислений на базе GPU. Согласно оценкам Дилана Пателя (Dylan Patel), главного аналитика консалтинговой фирмы SemiAnalysis, использование ChatGPT может стоить OpenAI около $700 тыс. в день, учитывая затраты, связанные с использованием вычислительных ресурсов. Председатель совета директоров Alphabet (материнская компания Google) Джон Хеннесси (John Hennessy), ранее заявил, что поиск в Bard, собственном чат-боте Google, обходится в 10 раз дороже, чем обычный поиск. Хотя финансовое положение OpenAI укрепилось, главным образом благодаря многомиллиардным инвестициям Microsoft, растущий спрос на её чат-бот, число активных пользователей которого выросло только за два первых месяца после запуска до 100 млн, приведёт к дальнейшему росту затрат компании. Ранее на этой неделе гендиректор OpenAI Сэм Альтман (Sam Altman), говоря о росте затрат, заявил, что это «будет самый капиталоёмкий стартап в истории Кремниевой долины», пишет The Information. Как указано в публикации The Information, Альтман «в частном порядке предположил», что OpenAI может попытаться привлечь около $100 млрд в ближайшие годы, поскольку компания работает над развитием общего искусственного интеллекта (AGI) — столь же мощного ИИ, как человеческий мозг. По прогнозам Reuters, выручка OpenAI значительно вырастет в этом году на фоне ажиотажного роста популярности её технологии. Ожидается, что выручка компании достигнет $200 млн в этом году, а затем вырастет до $1 млрд в 2024 году. Британский регулятор изучит влияние ИИ на экономику и граждан, и будет контролировать сферу
04.05.2023 [14:22],
Матвей Филькин
Управление по конкуренции и рынкам Великобритании (СМА) заявило, что начнёт изучать влияние искусственного интеллекта на потребителей, бизнес и экономику страны, а также подчеркнуло необходимость контроля над такими новыми технологиями, как ChatGPT от OpenAI. ![]() Источник изображения: freepik Хотя исследования ИИ ведутся уже много лет, внезапная популярность генеративных ИИ-систем, таких как ChatGPT и Midjourney, сделала востребованной технологию, которая способна изменить методы ведения бизнеса и жизнь общества. В настоящее время правительства во всем мире пытаются найти баланс, при котором они смогут оценить и обуздать некоторые потенциально негативные последствия применения ИИ, не мешая развитию инноваций. В марте Великобритания решила разделить ответственность за регулирование ИИ между органами, которые контролируют права человека, здоровье и безопасность, а также конкуренцию вместо того, чтобы создавать новый орган, занимающийся этой технологией. CMA заявило, что начнёт работу, пытаясь понять, как разрабатываются базовые модели, использующие большие объёмы неразмеченных данных, и оценить, как их можно использовать в будущем для выполнения нескольких задач. Генеральный директор CMA Сара Карделл (Sarah Cardell) сказала, что «искусственный интеллект ворвался в общественное сознание, и очень важно, чтобы потенциальные преимущества этой технологии были доступны для британских предприятий и потребителей, в то время как люди оставались защищёнными от таких проблем, как ложная или вводящая в заблуждение информация». Юрист Верити Эгертон-Дойл (Verity Egerton-Doyle) из Linklaters заявила, что британский регулятор сможет присоединиться к дебатам о регулировании ИИ после того, как на прошлой неделе он попал в заголовки газет по всему миру, когда заблокировал поглощение Microsoft Activision Blizzard за 69 миллиардов долларов. Она сказала: «Закон ЕС о цифровых рынках, вступивший в силу на этой неделе, не распространяется на генеративный ИИ, и CMA, несомненно, видит в этом возможность возглавить глобальные дебаты по этим вопросам вместе с Федеральной торговой комиссией США, которая уже изучает эту область». «Моё рабочее место в безопасности»: ChatGPT дал Blizzard ужасный совет по следующему дополнению к World of Warcraft
04.05.2023 [11:11],
Дмитрий Рудь
Директор по разработке World of Warcraft Ион Хаззикостас (Ion Hazzikostas) в интервью IGN рассказал, почему после недавнего общения с ChatGPT не боится, что его заменит искусственный интеллект. По словам Хаззикостаса, один из первых вопросов, которые он задал нашумевшему чат-боту, был про то, каким должно быть следующее дополнение к World of Warcraft. Совет ChatGPT оказался ужасен на нескольких уровнях. «Без шуток, его первым же ответом было "вернись к Shadowlands". Думаю, моё рабочее место в безопасности. Не слишком беспокоюсь, что ChatGPT может заменить меня в ближайшее время», — поделился Хаззикостас. Напомним, расширение Shadowlands не пользовалось большой любовью среди игроков из-за низкого темпа выпуска контента, геймплейных ограничений и спорного обращения с Сильваной Ветрокрылой, одним из самых почитаемых сообществом персонажей. Кроме того, Shadowlands вышла в 2020 году и на данный момент является предпоследним дополнением к World of Warcraft (аддон Dragonflight дебютировал в ноябре 2022-го), поэтому возвращение к нему следом выглядело бы по меньшей мере странно. Хаззикостас добавил, что Blizzard уже давно задействовала машинное обучение в разработке World of Warcraft для автоматизации «особо трудоёмких, болезненных» художественных задач вроде подгонки шлемов под уши кровавых эльфов. Своим мнением Хаззикостас поделился в преддверии выпуска контентного обновления «Угли Нелтариона» для World of Warcraft: Dragonflight. Патч вышел 2 мая и принёс с собой свежий рейд, межфракционные гильдии и многое другое. Meta✴ предупредила, что мошенники стали воровать учётные данные через поддельные ChatGPT
03.05.2023 [18:17],
Матвей Филькин
Meta✴ планирует внедрить новые «рабочие учётные записи» для предприятий, чтобы защититься от взлома, так как шумиха вокруг ChatGPT и других генеративных ИИ вызвала сильный всплеск мошенничества. ![]() Источник изображения: Rolf van Root/unsplash.com В заявлении компании говорится, что только с марта 2023 года ее исследователи обнаружили десять семейств вредоносных программ, использующих ChatGPT и другие подобные инструменты для взлома учетных записей в интернете, и что она заблокировала более 1000 вредоносных ссылок на своей платформе. Согласно Meta✴, мошенничество часто связано с мобильными приложениями или расширениями для браузера, выдающими себя за инструменты ChatGPT. В некоторых случаях такие инструменты предлагают некоторые функции ChatGPT, однако их реальная цель — украсть учётные данные пользователей. В Meta✴ отметили, что люди, которые управляют бизнесом в Facebook✴ или используют платформу для работы иным образом, были особыми мишенями. Мошенники часто обращаются к личным учётным записям пользователей, чтобы получить доступ к связанной бизнес-странице или рекламному аккаунту, которые, скорее всего, имеют привязанную кредитную карту. Чтобы бороться с этим, Meta✴ планирует ввести новый тип учётной записи для предприятий под названием «Meta Work». Эти учётные записи позволят пользователям получать доступ к инструментам Facebook✴ Business Manager без личной учётной записи Facebook✴. «Это поможет повысить безопасность бизнес-аккаунтов в тех случаях, когда злоумышленники начинают с компрометации личного аккаунта», — говорится в заявлении компании. Meta✴ отметила, что начнёт ограниченное тестирование новых рабочих учётных записей в этом году и расширит его со временем. Исследователи Meta✴ не первые, кто предупреждает о поддельных инструментах ChatGPT, ведущих к взлому учётных записей. В марте специалисты компании Guardio, обнаружили расширение Chrome, выдававшее себя за программное обеспечение ChatGPT, которое привело к взлому ряда учётных записей Facebook✴. Белый дом обсудит проблемы ИИ с руководством Google, Microsoft и других компаний
03.05.2023 [16:20],
Матвей Филькин
Белый дом сообщил, что руководители Google, Microsoft, OpenAI и Anthropic в четверг встретятся с вице-президентом Камалой Харрис (Kamala Harris) и высшими должностными лицами администрации, чтобы обсудить ключевые вопросы искусственного интеллекта. В приглашении на совещание было отмечено, что президент США Джо Байден (Joe Biden) «ожидает, что компании проводят проверку безопасности своих продуктов, прежде чем делают их доступными для общественности». ![]() Источник изображения: Pixabay Опасения по поводу быстрорастущей технологии искусственного интеллекта дополняются также проблемами сохранения конфиденциальности, что может привести к распространению мошенничества и дезинформации. В апреле Байден сказал, что ещё неизвестно, опасен ли ИИ, но подчеркнул, что технологические компании несут ответственность за обеспечение безопасности своих продуктов. По его словам, социальные сети уже продемонстрировали вред, который мощные технологии могут нанести без надлежащих мер безопасности. Администрация президента США ищет публичные комментарии по предлагаемым мерам подотчётности для систем ИИ, поскольку растут опасения по поводу их влияния на национальную безопасность и образование. Во встрече в четверг примут участие глава администрации Байдена Джефф Зиентс (Jeff Zients), заместитель главы администрации Брюс Рид (Bruce Reed), советник по национальной безопасности Джейк Салливан (Jake Sullivan), директор Национального экономического совета Лаэль Брейнард (Lael Brainard) и министр торговли Джина Раймондо (Gina Raimondo). ChatGPT от OpenAI, чат-бот с искусственным интеллектом, который недавно привлёк внимание общественности своей способностью быстро писать ответы на широкий круг запросов и стал самым быстрорастущим потребительским приложением в истории с более чем 100 миллионов активных пользователей в месяц, впоследствии стал предметом интереса законодателей США. Руководство Microsoft убеждено, что ИИ способен причинить человечеству серьёзный вред
03.05.2023 [15:16],
Алексей Разин
С трибуны Всемирного экономического форума в Женеве главный экономист Microsoft Майкл Шварц (Michael Schwarz) заявил, что без чётких правил, ограничивающих применение технологий искусственного интеллекта, они неизбежно принесут человечеству вред. Формируя подобные правила, однако, важно «не перегнуть палку», ведь в противном случае и адекватной пользы от ИИ не будет. ![]() Источник изображения: WordPress Как известно, корпорация Microsoft инвестирует серьёзные средства в стартап OpenAI, который в прошлом году выпустил быстро набравший популярность чат-бот ChatGPT. Данная система ИИ встраивается корпорацией в собственный поисковик Microsoft Bing, что подразумевает широкое применение подобных чат-ботов. На этой неделе вице-президент США Камала Харрис (Kamala Harris) встретится с руководством Microsoft, Alphabet и OpenAI для обсуждения методов снижения рисков, связанных с применением технологий искусственного интеллекта. Microsoft уже работает над правилами, которые описывали бы сферу безопасного применения искусственного интеллекта. «Принцип должен быть простым — выгода для общества должна быть больше, чем потенциальный ущерб», — пояснил нюансы подхода Майкл Шварц. В руки злоумышленников ИИ попадёт неизбежно, как считает представитель Microsoft, и он сможет нанести реальный ущерб. Спам, вмешательство в выборы являются только несколькими сферами применения ИИ, которые способны навредить человечеству. Microsoft предостерегает власти от прямого влияния на наборы данных, которые используются для тренировки систем искусственного интеллекта. Подобное вмешательство со стороны законодателей будет иметь «катастрофические последствия» для всей отрасли, считает Майкл Шварц. При этом ИИ в долгосрочной перспективе радикально изменит условия работы многих отраслей, подчёркивает главный экономист Microsoft: «Люблю говорить, что ИИ не меняет ничего в краткосрочной перспективе, но он изменит всё в долгосрочной». По его словам, это справедливо для любой технологии, созданной человечеством. По оценкам экспертов, выступавших на ВЭФ, мировой рынок труда будет сильно подвержен воздействию искусственного интеллекта, поскольку последний серьёзно повлияет более чем на четверть существующих рабочих мест. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |