🍪 Мы используем Cookie и Яндекс Метрику. Подробнее в политике конфиденциальности и согласии на обработку персональных данных.
OK

LLM Firewall

Защита AI-приложений, RAG и агентов от prompt injection, jailbreak,  отправления и опасных инструментов в реальном времени
Угроза: пользовательский ввод содержит скрытые инструкции для модели

Риск: модель выполняет произвольные команды — от выдачи конфиденциальных данных до изменения логики приложения

Решение: сканирование входящих запросов и блокировка инъекций до модели
Prompt injection в AI-приложениях
Угроза: RAG-система подтягивает внешние или внутренние документы без проверки

Риск: отравленный документ меняет поведение модели — ответы становятся ложными или вредоносными

Решение: проверка контента на каждом этапе RAG-пайплайна
Отравление данных в RAG
Угроза: AI-агент вызывает инструменты (MCP, function calling) по указанию модели

Риск: скомпрометированный вызов = действие с правами пользователя: доступ к файлам, сети, БД

Решение: валидация каждого вызова инструмента до выполнения
Опасные вызовы инструментов
Угроза: AI-приложения подвержены целому классу уязвимостей, задокументированных OWASP

Риск: jailbreak, утечка данных через ответы модели, подмена целей агента, токсичный контент

Решение: комплексное сканирование input и output по методологии OWASP
OWASP Top 10 for LLM
— главная уязвимость LLM-приложений (OWASP 2025)
#1 Prompt injection
компаний внедряют LLM, только 5% готовы к безопасности
90% 

Архитектура платформы

INPUT Guardrails
Prompt Injection
Denial of Service
Off-Policy
OUTPUT Guardrails
PIl & Sensitive Information
Content Moderation
Hallucination
Пользователь
Приложение
AI Provider
client = OpenAI(
base_url="https://ai.company.com/v1"
)
OpenAI SDK / LangChain / LiteLLM
OPENAI_API_BASE=https://ai.company.com/v1
Переменная окружения
Внутренний DNS компании направляет запросы к AI-провайдерам через Strazh. Для разработчиков и приложений это прозрачно — ноль изменений в коде.
Корпоративная маршрутизация DNS

Одна строчка — и ваше AI-приложение под защитой

Уязвимость CVE-2025-32711: без единого действия пользователя атакующий извлек данные из корпоративного Copilot. Ни клик, ни подтверждение — только  prompt injection в документе.
Strazh сканирует input и output, перехватывая эксфильтрацию на уровне proxy
EchoLeak — zero-click утечка из Microsoft 365 Copilot
Через скрытые инструкции в сообщениях атакующий получил доступ к данным из  приватных каналов Slack AI. Классический пример prompt injection в  корпоративном AI-приложении (2024).
Strazh обнаруживает и блокирует инъекции до модели
Slack AI — эксфильтрация через prompt injection
Уже случилось
Поддерживаемые провайдеры
OpenAI
Anthropic
Azure OpenAI
GigaChat
YandexGPT
DeepSeek
Ollama / vLLM