Вышло обновление InfEra AI.Firewall: добавлен сканер ML Red Teaming для тестирования безопасности ИИ-моделей
Компания InfEra Security выпустила обновление продукта InfEra AI.Firewall, в рамках которого в платформу добавлен сканер ML Red Teaming. Новый функционал предназначен для автоматизированного тестирования, выявления и устранения уязвимостей в AI- и ML-моделях на всех этапах их жизненного цикла.
ML Red Teaming позволяет моделировать реальные сценарии атак на системы машинного обучения и выявлять критические риски, связанные с эксплуатацией ИИ в корпоративной среде. Сканер обнаруживает, в частности:
- атаки с использованием вредоносных данных, манипулирующие ML-моделями и приводящие к неправильной классификации, искажению результатов и сбоям в работе;
- отравление данных (data poisoning), повреждающее модель и конвейер обучения, что снижает целостность и производительность системы;
- уязвимости в цепочке поставок, связанные с использованием сторонних моделей, датасетов и ML-компонентов, которые могут скрыто нарушать безопасность;
- атаки обхода защитных механизмов и уязвимости в алгоритмах вывода (inference).
Добавление ML Red Teaming отражает ключевой тренд рынка: по мере роста внедрения искусственного интеллекта классической защиты инфраструктуры становится недостаточно. Заказчикам требуется системный контроль безопасности самих моделей, данных для обучения и процессов эксплуатации AI-сервисов.
InfEra AI.Firewall позволяет выстраивать безопасность ИИ как часть архитектуры цифровых продуктов – от контроля доступа и защиты данных до активного тестирования устойчивости моделей к современным типам атак. Это особенно важно для компаний, использующих ИИ в критически значимых бизнес-процессах и работающих с конфиденциальной информацией.
Игорь Бирюков, генеральный директор InfEra Security:
«Для CISO ключевой вопрос сегодня – не сам факт использования ИИ, а управляемость рисков, которые он создаёт. ML Red Teaming позволяет системно проверять устойчивость моделей к реальным атакам: от отравления данных и обхода защит до кражи моделей и компрометации результатов. Это даёт возможность выявлять критические риски на раннем этапе, снижать вероятность инцидентов и принимать обоснованные решения по допуску ИИ в продуктивные контуры. В ближайшие годы такой подход станет обязательным элементом зрелой стратегии AI Security каждой компании».
-
26.12.2025
-
Обновление ПО
Другие новости
Этот веб-сайт использует файлы cookie, чтобы обеспечить удобную работу пользователей с ним и функциональные возможности сайта. Продолжая использовать этот сайт, Вы соглашаетесь с использованием файлов cookie