LLM
Нода LLM выполняет одиночный вызов языковой модели без цикла инструментов, памяти или подагентов. Это легковесная альтернатива ноде «Агент», подходящая для задач, где не нужна агентная логика.
Назначение
- Генерация текста по промпту
- Классификация и извлечение данных
- Суммаризация и перефразирование
- Трансформация данных из одного формата в другой
Настройки
Входная переменная
Определяет, откуда нода берет входные данные. По умолчанию -- input. Можно указать:
input-- данные из ноды СтартlastOutput-- результат предыдущей нодыnode_3-- результат конкретной ноды по ее ID
Кнопка справа от поля открывает интерактивный выбор переменных из списка доступных нод.
Системный промпт
Инструкции для модели, определяющие ее роль и поведение. Поддерживает подстановку переменных через {{переменная}}.
Пример:
Ты -- эксперт по анализу отзывов.
Проанализируй отзыв клиента и определи:
1. Общий тон (позитивный/нейтральный/негативный)
2. Ключевые темы
3. Оценку от 1 до 10
Пользовательский промпт
Шаблон для формирования сообщения пользователя. По умолчанию -- {{input}}, то есть входные данные подставляются целиком.
Можно создавать сложные шаблоны:
Отзыв клиента: {{input}}
Дата отзыва: {{input.date}}
Продукт: {{node_2}}
Модель
Выбор языковой модели из списка доступных. Модели указываются в формате провайдер/модель:
openai/gpt-4oopenai/gpt-4o-minianthropic/claude-sonnet-4-20250514- и другие
Temperature
Контролирует случайность ответов:
- 0 -- детерминированные, точные ответы
- 0.7 -- баланс между точностью и разнообразием (по умолчанию)
- 2.0 -- максимально разнообразные ответы
Max Tokens
Максимальное количество токенов в ответе. По умолчанию 2048. Диапазон: 1 -- 128000.
Формат вывода
- Текст -- стандартный текстовый ответ
- JSON (авто-парсинг) -- модель генерирует JSON, который автоматически парсится в объект. Если парсинг не удался, возвращается исходный текст
Входные данные
Нода принимает данные от предыдущей ноды. Они подставляются в пользовательский промпт через переменные.
Выходные данные
Результат в формате:
{
"__success": true,
"__error": false,
"output": "текст ответа или JSON-объект",
"model": "openai/gpt-4o-mini"
}
Подключения
- Вход: один вход (слева)
- Выход: один выход
output(справа)
Отличие от ноды Агент
| Характеристика | LLM | Агент |
|---|---|---|
| Вызов модели | Одиночный | Многократный (цикл инструментов) |
| Инструменты | Нет | Функции, MCP, RAG |
| Память | Нет | Есть |
| Подагенты | Нет | Есть |
| История чата | Нет | Есть |
| Скорость | Быстрее | Медленнее |
| Стоимость | Ниже | Выше |
Используйте ноду LLM, когда задача решается одним вызовом модели: извлечение данных из текста, классификация, перевод, форматирование. Для задач, требующих инструментов, памяти или многоходового взаимодействия, используйте ноду Агент.
Примеры использования
- Суммаризация -- системный промпт «Сократи текст до 3 предложений», пользовательский промпт
{{input}} - Извлечение данных -- системный промпт с описанием схемы JSON, формат вывода JSON
- Перевод -- системный промпт «Переведи на английский», пользовательский промпт
{{lastOutput}} - Классификация -- системный промпт с описанием категорий, формат вывода JSON