Ответы на частые вопросы от служб безопасности, разработки и закупок
Ключевые моменты для служб безопасности и руководителей разработки
Нет. По умолчанию всё разворачивается on-prem/VPC. Обработка — внутри вашего периметра.
Вы. Модули bug2lab, сценарии bug2regress и портал остаются у вас в полном объёме.
Короткий ответ: никуда. Все данные остаются внутри вашей инфраструктуры.
Важно: Мы не дообучаем LLM на вашем коде. AI-коуч использует RAG (Retrieval-Augmented Generation) по вашим данным (отчёты/метаданные) и генерирует персональные модули и проверки. Код и артефакты не покидают периметр.
Как это работает:
Что остаётся у вас:
Готовые CI-джобы под GitLab CI / GitHub Actions / Jenkins / TeamCity:
Возврат non-zero exit code блокирует релиз. Артефакты (JSON, HTML, скриншоты) доступны в CI.
Нет, можем работать полностью автономно. Загрузка моделей — из локального репозитория/образа.
Prod-минимум (требование):
Dev/POC (допускается):
Почему так?
Для локальной ≈30B coder-LLM (4-бит) нужны длинный контекст и минимум 1–2 параллельных задания без оффлоада → это стабильно даёт 24 GB VRAM+. На 16 GB модель работает, но с ограничениями: для авторинга/теста — ок, для enterprise-прода — нет.
Можно запустить на 16 GB? Да, в POC-режиме (1 поток, короткий контекст). Для прод-использования и обещанного качества мы требуем ≥24 GB VRAM.
NDA/DPA, перечень данных, ответственность сторон, SLA на сопровождение — по вашему шаблону или нашему.
Запишитесь на 20-минутную встречу, обсудим ваш кейс и ответим на все вопросы
Забронировать встречу →