Сегодня 13 января 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Исследователь продемонстрировал обход защиты Microsoft Copilot

На конференции Black Hat USA исследователь в области кибербезопасности Майкл Баргури (Michael Bargury) продемонстрировал уязвимости помощника с искусственным интеллектом Microsoft Copilot — потенциальные злоумышленники могут использовать его для кибератак. Его проект указывает, что организациям стоит пересмотреть политики безопасности при использовании ИИ-технологий, включая Copilot.

 Источник изображения: Ivana Tomášková / pixabay.com

Источник изображения: Ivana Tomášková / pixabay.com

Баргури выделил несколько методов, с помощью которых злоумышленники могут использовать Microsoft Copilot при осуществлении кибератак. Плагины Copilot, в частности, позволяют устанавливать бэкдоры, эксплуатируемые при работе других пользователей с ИИ, а также служат подспорьем при осуществлении атак, при которых задействуются методы социальной инженерии.

Используя метод инъекций в запросах, хакер изменяет ответы ИИ в соответствии со своими целями — это позволяет производить скрытный поиск и извлечение данных в обход стандартных мер защиты файлов и информации. ИИ также оказывается эффективным оружием в атаках с применением методов социальной инженерии — Copilot можно использовать при создании убедительных фишинговых писем и подготовке других методов взаимодействия с потенциальными жертвами, у которых киберпреступник пытается получить конфиденциальную информацию.

Чтобы наглядно продемонстрировать эти уязвимости, Баргури создал инструмент LOLCopilot — он предназначается для этичных хакеров и работает в любом клиенте с поддержкой Microsoft 365 Copilot, используя конфигурации по умолчанию. Специалисты по кибербезопасности могут с его помощью исследовать сценарии эксплуатации уязвимостей Copilot для кражи данных и организации фишинговых атак.

Разработчик указывает, что существующие настройки безопасности Microsoft Copilot по умолчанию недостаточно эффективны для предотвращения этих атак. Наличие инструмента для получения доступа и обработки больших объёмов данных свидетельствует о риске, с которым сопряжена работа систем ИИ. Исследователь рекомендует внедрять дополнительные меры защиты, в том числе многофакторную авторизацию и строгий контроль доступа к данным. Кроме того, необходимо информировать сотрудников о связанных с ИИ рисках и иметь комплексные протоколы реагирования на инциденты.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Вечерний 3DNews
Каждый будний вечер мы рассылаем сводку новостей без белиберды и рекламы. Две минуты на чтение — и вы в курсе главных событий.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
ИИ заменит человека в качестве основного пользователя приложений к 2030 году 37 мин.
Пиковый онлайн Marvel Rivals в Steam превысил 644 тыс. человек — в геройском шутере стартовал первый сезон 3 ч.
Новая статья: Gamesblender № 708: анонсы Nvidia и AMD на CES 2025, новые слухи о Half-Life 3 и реплика Switch 2 13 ч.
Новая статья: Legacy of Kain: Soul Reaver 1 & 2 Remastered — похититель душ вернулся, но с подвохом. Рецензия 12-01 00:10
FTC и Минюст США поддержали Илона Маска в судебной тяжбе с OpenAI 11-01 16:08
AMD скрытно показала работу FSR 4 на видеокартах Radeon RX 9070 11-01 16:04
Microsoft объявила 2025 год «годом обновления ПК с Windows 11» 11-01 15:37
TikTok может быть заблокирован в США 19 января по решению Верховного суда 11-01 06:04
Илон Маск хотел похвастаться высокоуровневым геймплеем в Path of Exile 2, но не разобрался в базовых механиках — игроки заподозрили подвох 11-01 00:12
Суд отклонил иск россиянина к Роскомнадзору по поводу замедления YouTube 11-01 00:03