Сегодня 28 декабря 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → security copilot

Microsoft привлекла нейросеть GPT-4 к борьбе с хакерскими атаками в новой системе Security Copilot

Системы искусственного интеллекта уже применяются для создания графики, чат-ботов и даже управления умными домами. Компания Microsoft доверила ИИ одну из важнейших сфер современной жизни — защиту от киберугроз. Инструмент Security Copilot позволяет распознать кибератаку, даже когда явные признаки ещё отсутствуют и помогает в её устранении.

 Источник изображения:  Sigmund Avatar/unsplash.com

Источник изображения: Sigmund Avatar/unsplash.com

В ситуациях, когда безопасность компьютера по какой-то причине оказалась под угрозой, Security Copilot поможет определить, что случилось, что делать, и как предотвратить повторение аналогичных инцидентов у других. Компания представила новое решение на базе модели GPT-4 — Security Copilot помогает справиться с угрозами корпоративным клиентам.

Пока инструмент доступен именно корпоративным клиентам. Та же большая языковая модель, что отвечает за работу приложений вроде Bing Chat, стоит и за Security Copilot. Тем не менее, в данном случае речь идёт о варианте, специально обученном на материалах и терминологии, используемых IT-профессионалами. Кроме того, Microsoft уже подключила Copilot к другим своим инструментам, отвечающим за обеспечение безопасности. В компании обещают, что со временем он сможет использовать и сторонние программные решения.

Если большинство пользовательских приложений на основе GPT-4 обучались на уже несколько устаревших массивах данных, то Security Copilot получает новую информацию в режиме реального времени, изучая буквально триллионы сигналов об угрозах, которые Microsoft получает ежедневно. В этом преимущество модели — Security Copilot может распознавать скрытые сигналы ещё до того, как факт атаки стал очевиден. Благодаря этому, инструмент может использоваться для распознавания и своевременного устранения угроз.

При этом довольно давно выяснилось, что у ИИ вроде ChatGPT, Bing Chat или Google Bard могут случаться «галлюцинации», в ходе которых за основу «рассуждений» принимаются совершенно недостоверные факты. В сфере безопасности это может стать очень опасным явлением. В Microsoft уже подтвердили, что Security Copilot «не всегда понимает всё правильно». К счастью, в случае с продуктом Microsoft предусмотрен механизм обратной связи с пользователями, позволяющий предоставлять всё более релевантные ответы.

Пока Microsoft не сообщала, что может произойти в случае столкновения защитного ИИ с ИИ, работающем на злоумышленников, например — созданным для атаки на пользователей и бизнесы. В любом случае компания сообщила, что корпоративные клиенты уже могут протестировать Security Copilot на небольшом сегменте своих пользователей. Если эксперимент увенчается успехом, в будущем, вероятно, он сможет помочь и обычным пользователям.


window-new
Soft
Hard
Тренды 🔥
FTC подозревает Microsoft в монополизации госзаказов США 3 ч.
Дональд Трамп просит Верховный суд поставить на паузу действие закона, угрожающего запретом TikTok в США 3 ч.
Хакеры взломали ряд расширений для Chrome для кражи паролей и личных данных пользователей 8 ч.
Разработчики Hades II раскрыли, когда выйдет второе крупное обновление, и чего ждать дальше 10 ч.
Фейковый юрист Nintendo запугивает блогеров, проходящих в игры на камеру — YouTube не может его остановить 10 ч.
Вышел трейлер первого индийского полнометражного фильма, который сгенерировал ИИ 12 ч.
Продажи Nier: Automata взяли новую высоту после кроссовера со Stellar Blade 13 ч.
OpenAI создаст «корпорацию общественного блага» для перехода на коммерческие рельсы 13 ч.
Российские СМИ и блогеры стали чаще говорить об ИИ в уходящем году, но упоминания отечественных сервисов упали 13 ч.
В открытый доступ попало более 90 Гбайт контента по классическим Halo, включая рабочую сборку первой игры с видом от третьего лица 14 ч.