Перейти к основному содержимому

Выбор LLM-модели

Каждый текстовый агент использует языковую модель (LLM) для генерации ответов. Платформа поддерживает несколько провайдеров и позволяет гибко настраивать параметры генерации.

Доступные провайдеры

ПровайдерОписание
OpenAIGPT-4o, GPT-4o-mini и другие модели OpenAI
AnthropicClaude Sonnet, Claude Opus и другие модели Anthropic
GroqБыстрый инференс с открытыми моделями (Llama, Mixtral)
YandexYandexGPT — модели для русскоязычных задач
GigaChatМодели от Сбера для русскоязычных задач
Примечание

Набор доступных моделей зависит от конфигурации платформы и может расширяться администратором. Модели могут быть привязаны к конкретным проектам.

Выбор модели

Модель выбирается в секции настроек агента. Селектор группирует модели по провайдерам:

  1. Откройте страницу редактирования агента.
  2. В правой панели найдите секцию Модель.
  3. Раскройте выпадающий список и выберите нужную модель.

Формат идентификатора модели: провайдер/модель (например, openai/gpt-4o-mini).

Модель по умолчанию для новых агентов — openai/gpt-4o-mini.

Биллинг-множитель

Рядом с некоторыми моделями отображается коэффициент (например, x2), указывающий на относительную стоимость использования модели. Модели с коэффициентом x1 имеют стандартную стоимость.

Параметры генерации

Температура

Контролирует «креативность» ответов модели.

  • Диапазон: от 0 до 2.
  • По умолчанию: 0.7.
  • Настраивается через слайдер или числовое поле с шагом 0.1.
ЗначениеПоведение
0 -- 0.3Детерминированные, предсказуемые ответы. Подходит для фактических вопросов, классификации, извлечения данных
0.4 -- 0.7Баланс между точностью и разнообразием. Подходит для большинства задач
0.8 -- 1.2Более творческие и разнообразные ответы. Подходит для генерации текстов, идей
1.3 -- 2.0Максимальная вариативность. Может снижать качество и связность ответов
Совет

Для агентов, работающих с инструментами (функциями, MCP, базой знаний), рекомендуется температура 0.3--0.5, чтобы модель более точно следовала инструкциям по вызову инструментов.

Макс. токенов

Максимальное количество токенов в одном ответе модели.

  • Диапазон: от 256 до 32 000.
  • По умолчанию: 2 048.
  • Настраивается через слайдер или числовое поле с шагом 256.
Важно

Этот параметр ограничивает только длину ответа, а не контекстное окно. Общий размер контекста (промпт + история + ответ) определяется самой моделью.

РекомендацияЗначение
Короткие ответы (чат-бот)512--1 024
Стандартные задачи2 048
Длинные тексты, анализ4 096--8 192
Генерация документов16 000--32 000

Настройка API-ключей

Для работы LLM-моделей необходимо настроить API-ключи соответствующих провайдеров.

Добавление API-ключа

  1. Перейдите в Настройки организации > API-ключи (или нажмите кнопку «Добавить API-ключи» в секции модели, если ключи не настроены).
  2. Выберите провайдера.
  3. Введите API-ключ.
  4. Сохраните.
Важно

Если API-ключи не настроены, секция выбора модели покажет предупреждение вместо списка моделей. Агент не сможет работать без активного ключа для выбранного провайдера.

Ключи на уровне проекта

API-ключи настраиваются на уровне организации и доступны всем проектам. Список доступных моделей может быть ограничен для конкретного проекта администратором.

Возможности моделей

Модели различаются по поддерживаемым функциям:

ВозможностьОписание
Function callingВызов инструментов (функции, MCP, память). Поддерживается большинством современных моделей
JSON modeСтруктурированный вывод в формате JSON
VisionОбработка изображений в сообщениях
MCPПрямая интеграция с MCP-серверами
Совет

При выборе модели учитывайте задачи агента. Для сложных мульти-агентных сценариев с множеством инструментов рекомендуются более мощные модели (GPT-4o, Claude Sonnet). Для простых задач подойдут более быстрые и дешёвые модели (GPT-4o-mini, Groq).