Перейти к основному содержимому

Создание промпта

Интерфейс редактора

Редактор промпта состоит из трёх панелей, расположенных горизонтально:

ПанельРасположениеОписание
AI ArchitectЛевая (сворачиваемая)Чат для автоматической генерации промпта
Редактор кодаЦентральнаяТри вкладки: системный промпт, JSON-схема, UI-конфиг
Предпросмотр и тестированиеПраваяНастройки, выбор разговора, запуск анализа, результаты

Размеры панелей можно изменять перетаскиванием границ. Настройки размеров сохраняются между сессиями.


Редактор кода

Центральная панель содержит три вкладки:

Вкладка «Промпт»

Системный промпт — основная текстовая инструкция для LLM. Редактируется в формате Markdown. Опишите:

  • Роль анализатора (например, «Ты — эксперт по контролю качества в колл-центре»)
  • Критерии оценки
  • Какие метрики извлекать
  • На что обращать внимание в разговоре

Вкладка «Схема»

JSON-схема ожидаемого ответа LLM. Определяет структуру результата: поля, типы данных, допустимые значения. Подробнее:

JSON-схема и виджеты SDUI

Вкладка «UI-конфиг»

Конфигурация виджетов SDUI для визуализации результатов анализа. Связывает поля из схемы с виджетами отображения. Может быть пустой — в этом случае результаты отображаются как сырой JSON.

В верхней части вкладки расположен переключатель режимов редактирования:

РежимОписание
ВизуальныйВизуальный редактор виджетов: выбор типа виджета из списка и сопоставление полей схемы с параметрами виджета через формы
JSONПрямое редактирование UI-конфига в формате JSON — для тонкой настройки или когда визуального редактора недостаточно

Изменения в любом из режимов синхронизируются автоматически.

к сведению

При изменении схемы или UI-конфига после тестового запуска на вкладке появляется индикатор «изменено», сигнализируя, что результаты тестирования устарели.


Настройки промпта

Настройки расположены в правой панели:

Название промпта

Название версии промпта отображается в заголовке правой панели. Для редактирования кликните на текст названия.

Конфигурация провайдера

Нажмите иконку ⚙️ в правой панели, чтобы открыть всплывающее окно настроек:

ПолеОписание
ПровайдерLLM-провайдер: OpenAI, Anthropic, Yandex GPT, GigaChat, Gemma, DeepSeek
МодельКонкретная модель провайдера. Рядом с каждой моделью отображается множитель стоимости (×N)
Тип разговораГолосовые звонки или текстовые диалоги
ТемператураСтепень случайности генерации (0–2). Низкие значения дают более детерминированные ответы. По умолчанию используется рекомендованное значение модели (обычно 0.3)
Макс. токеновОграничение длины ответа LLM. По умолчанию — максимум модели
ТаймаутМаксимальное время ожидания ответа LLM в секундах. По умолчанию — 120
Включать метаданныеПереключатель: включать ли метаданные разговора в промпт (например, источник, длительность, атрибуты из CRM). Полезно, когда анализ должен учитывать контекст за пределами транскрипта

Пустые поля «Температура», «Макс. токенов» и «Таймаут» означают использование значений по умолчанию для выбранной модели.

Текущие настройки провайдера, модели и типа разговора отображаются тегами в заголовке правой панели.

Доступные модели

OpenAI

GPT-4o Mini, GPT-4o, GPT-4.1 Nano, GPT-4.1 Mini, GPT-4.1, GPT-5 Nano, GPT-5 Mini, GPT-5, GPT-5.1, GPT-5.2, GPT-5.4 Nano, GPT-5.4 Mini, GPT-5.4

Anthropic

Claude 3 Haiku, Claude 3.5 Haiku, Claude Haiku 4.5, Claude Sonnet 4.5, Claude Sonnet 4.6, Claude Opus 4.6

Yandex GPT

YandexGPT Pro 5, YandexGPT Pro 5.1, YandexGPT Lite, Alice AI LLM

GigaChat

Список моделей обновляется автоматически при выборе провайдера.

Gemma

Список моделей обновляется автоматически при выборе провайдера.

DeepSeek

Список моделей обновляется автоматически при выборе провайдера.

к сведению

Выбор модели влияет на стоимость анализа. Множитель стоимости (×N) рядом с названием модели показывает относительную стоимость по сравнению с базовой моделью. Для массовой обработки рекомендуются более лёгкие модели (GPT-4o Mini, GPT-4.1 Nano, GPT-5 Nano, YandexGPT Lite).


Стратегия выбора модели

Рекомендуемый подход — двухуровневый анализ:

  1. Массовый анализ дешёвой моделью. Настройте пайплайн с лёгкой моделью для автоматической обработки всех входящих разговоров. На этом этапе извлекайте общие метрики: тему, настроение, базовую оценку качества, теги, резюме. Это позволяет покрыть 100% трафика при минимальных затратах.

  2. Точечный анализ дорогой моделью. Используйте фильтры и результаты первого этапа, чтобы выделить интересующий сегмент (например, звонки с низким качеством или негативным настроением клиента). Запустите переанализ этого сегмента с более мощной моделью и детальным промптом — для глубокого разбора, развёрнутых рекомендаций и точных оценок.

Такой подход позволяет получить обзор по всем разговорам и при этом инвестировать в качество анализа только там, где это действительно нужно.


AI Architect

Левая панель редактора — чат-интерфейс AI Architect для автоматической генерации промпта из текстового описания.

Как использовать

  1. Выберите модель для генерации в выпадающем списке в верхней части чата
  2. Опишите на естественном языке, что должен анализировать промпт
  3. AI Architect сгенерирует:
    • Системный промпт
    • JSON-схему ожидаемого результата
    • UI-конфиг для виджетов

Сгенерированный результат автоматически загружается во вкладки редактора.

При ошибках валидации схемы или UI-конфига AI Architect автоматически перегенерирует результат, передавая модели описание ошибок для исправления.

Итеративная доработка

Вы можете продолжить диалог с AI Architect для доработки: описать, что изменить, добавить или убрать. Каждое новое сообщение учитывает текущее состояние промпта, схемы и UI-конфига.

к сведению

Автогенерация — хорошая отправная точка. Рекомендуется просмотреть и доработать результат вручную.


Предпросмотр и тестирование

Правая панель позволяет проверить промпт на реальных данных перед сохранением.

Выбор разговора

В выпадающем списке отображаются недавние разговоры проекта, сгруппированные по типу:

  • Звонки — с указанием даты и длительности
  • Диалоги — с указанием источника, даты и количества сообщений

Также можно ввести ID разговора вручную, выбрав тип (звонок или диалог) в нижней части выпадающего списка.

к сведению

При выборе разговора тип (voice/text) автоматически переключается в соответствии с типом выбранного разговора.

Оценка стоимости

После выбора разговора автоматически отображается:

  • Количество токенов — оценка входных и выходных токенов (input → output)
  • Стоимость — примерная стоимость запроса в рублях

Оценка пересчитывается автоматически при смене провайдера или модели.

Просмотр полного запроса

Кнопка «Показать запрос» (иконка кода) открывает модальное окно с полным содержимым запроса к LLM:

  • Содержимое запроса — JSON с системным промптом, транскриптом и JSON-схемой
  • Транскрипт — текст разговора, который получит LLM

Тестовый анализ

Кнопка «Анализировать» запускает реальный LLM-запрос на выбранном разговоре с текущими настройками (без сохранения). Результат отображается в трёх режимах:

РежимОписание
ВиджетыВизуализация результата через SDUI-виджеты
Сырой JSONJSON-ответ LLM без форматирования
МетаданныеМетаданные разговора

Дополнительно отображаются: время обработки (в секундах), количество использованных токенов (input/output) и фактическая стоимость запроса, рассчитанная по реальному расходу токенов (не оценка).

к сведению

При изменении UI-конфига после анализа виджеты перерисовываются автоматически — без повторного обращения к LLM и без расхода токенов. Это позволяет быстро подбирать визуальное представление, не запуская анализ заново.

История запусков

Последние 5 тестовых запусков сохраняются в истории в верхней части панели результатов. Можно переключаться между запусками для сравнения результатов.

warning

Тестовый анализ расходует токены LLM. Рекомендуется проверить на 3–5 разговорах разного качества перед активацией.


Сохранение и черновики

Автосохранение черновика

Состояние редактора автоматически сохраняется в черновик.

При повторном открытии страницы черновик восстанавливается автоматически. После успешного сохранения черновик очищается.

Сохранение

Кнопка «Сохранить» в нижней панели создаёт новую версию промпта или обновляет существующую.

Обнаружение новой версии

Если пока вы редактировали черновик, промпт был изменён другим пользователем (или в другой вкладке), при загрузке страницы появится уведомление с кнопкой «Обновить». Она подгрузит свежую версию из базы — ваш несохранённый черновик при этом будет заменён.

С чистого листа

Кнопка «С чистого листа» очищает редактор: системный промпт, JSON-схему, UI-конфиг и историю чата с AI Architect. Перед очисткой появится подтверждение, так как действие необратимо.

Клонирование

Существующий промпт можно клонировать — откроется редактор с копией всех настроек и суффиксом «(copy)» в названии.


Активация промпта

Для каждого типа разговоров (voice / text) в проекте может быть один активный промпт. Активация новой версии автоматически деактивирует предыдущую.

Активный промпт используется при:

  • Загрузке новых аудиофайлов
  • Импорте диалогов (с опцией автоанализа)
  • Массовом переанализе (если не указана конкретная версия)

Таблица версий промптов

Все версии промптов проекта отображаются в общей таблице со столбцами: название, провайдер, модель, тип разговора, автор, дата создания и статус активности. Из таблицы доступны действия: редактирование, клонирование, активация и удаление.