Перейти к основному содержимому

LLM

Нода LLM выполняет одиночный вызов языковой модели без цикла инструментов, памяти или подагентов. Это легковесная альтернатива ноде «Агент», подходящая для задач, где не нужна агентная логика.

Назначение

  • Генерация текста по промпту
  • Классификация и извлечение данных
  • Суммаризация и перефразирование
  • Трансформация данных из одного формата в другой

Настройки

Входная переменная

Определяет, откуда нода берет входные данные. По умолчанию -- input. Можно указать:

  • input -- данные из ноды Старт
  • lastOutput -- результат предыдущей ноды
  • node_3 -- результат конкретной ноды по ее ID

Кнопка справа от поля открывает интерактивный выбор переменных из списка доступных нод.

Системный промпт

Инструкции для модели, определяющие ее роль и поведение. Поддерживает подстановку переменных через {{переменная}}.

Пример:

Ты -- эксперт по анализу отзывов.
Проанализируй отзыв клиента и определи:
1. Общий тон (позитивный/нейтральный/негативный)
2. Ключевые темы
3. Оценку от 1 до 10

Пользовательский промпт

Шаблон для формирования сообщения пользователя. По умолчанию -- {{input}}, то есть входные данные подставляются целиком.

Можно создавать сложные шаблоны:

Отзыв клиента: {{input}}
Дата отзыва: {{input.date}}
Продукт: {{node_2}}

Модель

Выбор языковой модели из списка доступных. Модели указываются в формате провайдер/модель:

  • openai/gpt-4o
  • openai/gpt-4o-mini
  • anthropic/claude-sonnet-4-20250514
  • и другие

Temperature

Контролирует случайность ответов:

  • 0 -- детерминированные, точные ответы
  • 0.7 -- баланс между точностью и разнообразием (по умолчанию)
  • 2.0 -- максимально разнообразные ответы

Max Tokens

Максимальное количество токенов в ответе. По умолчанию 2048. Диапазон: 1 -- 128000.

Формат вывода

  • Текст -- стандартный текстовый ответ
  • JSON (авто-парсинг) -- модель генерирует JSON, который автоматически парсится в объект. Если парсинг не удался, возвращается исходный текст

Входные данные

Нода принимает данные от предыдущей ноды. Они подставляются в пользовательский промпт через переменные.

Выходные данные

Результат в формате:

{
"__success": true,
"__error": false,
"output": "текст ответа или JSON-объект",
"model": "openai/gpt-4o-mini"
}

Подключения

  • Вход: один вход (слева)
  • Выход: один выход output (справа)

Отличие от ноды Агент

ХарактеристикаLLMАгент
Вызов моделиОдиночныйМногократный (цикл инструментов)
ИнструментыНетФункции, MCP, RAG
ПамятьНетЕсть
ПодагентыНетЕсть
История чатаНетЕсть
СкоростьБыстрееМедленнее
СтоимостьНижеВыше
Когда использовать LLM вместо Агента

Используйте ноду LLM, когда задача решается одним вызовом модели: извлечение данных из текста, классификация, перевод, форматирование. Для задач, требующих инструментов, памяти или многоходового взаимодействия, используйте ноду Агент.

Примеры использования

  • Суммаризация -- системный промпт «Сократи текст до 3 предложений», пользовательский промпт {{input}}
  • Извлечение данных -- системный промпт с описанием схемы JSON, формат вывода JSON
  • Перевод -- системный промпт «Переведи на английский», пользовательский промпт {{lastOutput}}
  • Классификация -- системный промпт с описанием категорий, формат вывода JSON