# Magic Query

**Magic Query** позволяет анализировать группу разговоров, задавая вопросы на естественном языке. LLM получает контекст выбранных разговоров и отвечает на ваш вопрос.

## Как использовать

### 1. Выберите разговоры

В списке разговоров отметьте чекбоксами те записи, которые хотите проанализировать. Затем нажмите **Magic Query**.

### 2. Оцените контекст

Перед отправкой запроса система покажет:

* Количество выбранных разговоров
* Примерный размер контекста в символах
* Оценку в токенах

{% hint style="warning" %}
Контекст LLM ограничен. Если выбрано слишком много разговоров, уменьшите выборку или выберите, какие данные включать в контекст.
{% endhint %}

### 3. Настройте включаемые данные

Вы можете выбрать, что именно передавать в LLM:

* **Транскрипт** — полный текст разговора
* **Последний анализ** — результаты последнего LLM-анализа
* **Все анализы** — результаты всех версий анализа

### 4. Задайте вопрос

Сформулируйте вопрос на естественном языке. Примеры:

* «Какие основные причины обращений клиентов?»
* «Оцени общее качество работы менеджеров»
* «Выдели ТОП-5 проблем, которые чаще всего упоминают клиенты»
* «Сравни качество обслуживания утром и вечером»

### 5. Получите ответ

LLM проанализирует контекст и вернёт развёрнутый ответ. Для каждого ответа отображается:

* Текст ответа
* Количество использованных токенов (input / output)

## Треды (потоки диалога)

Вопросы организованы в **треды** — последовательные диалоги с LLM. Вы можете:

* Задавать уточняющие вопросы в рамках одного треда
* Создавать новые треды для других тем
* Просматривать историю вопросов и ответов
* Удалять ненужные треды

## Выбор модели

Для каждого запроса можно выбрать провайдера и модель LLM. Более мощные модели дают более точные ответы, но стоят дороже.

{% hint style="info" %}
Максимальная длина вопроса — 1000 символов.
{% endhint %}
