Package Information
Documentation
n8n-nodes-rvf-llm
Комплексный пакет кастомных узлов n8n, интегрирующий RVF LLM — универсальный шлюз к AI, предоставляющий доступ к множеству языковых моделей и провайдеров (OpenAI, Anthropic Claude, Google Gemini, локальные модели и многие другие) прямо в ваши workflows n8n.
🚀 Идеально подходит для: инженеров по автоматизации, AI-интеграторов и всех, кто создаёт интеллектуальные workflows без переключения между платформами.
Оглавление
- Возможности
- Что включено
- Быстрый старт
- Установка
- Обзор узлов
- Конфигурация
- Примеры использования
- Расширенные возможности
- Решение проблем
- Документация API
- Участие в разработке
- Лицензия
- Поддержка
Возможности
✨ Единый AI-интерфейс: Доступ к 20+ AI моделям от 10+ провайдеров через единый стандартизированный интерфейс
🔄 Маршрутизация провайдеров: Автоматически направляйте запросы разным AI-провайдерам в зависимости от доступности
🤖 Совместимость с AI Agent: Полная поддержка n8n AI Agent с возможностью вызова инструментов
⚙️ Гибкий вывод: Генерируйте текст, изображения, аудио и видео из одного узла
🔐 Защищённые учётные данные: Аутентификация токеном Bearer с шифрованием
🎯 Умный выбор моделей: Динамическая загрузка провайдеров и моделей на основе вашего API-ключа
💾 Поддержка кеширования: Встроенное кеширование ответов для оптимальной производительности
📊 Ограничение частоты запросов: Настраиваемое ограничение запросов и управление timeout'ами
🌍 Многоязычная поддержка: Бесперебойная работа с prompts на любом языке
Что включено
Этот пакет содержит два готовых к production узла n8n:
| Узел | Назначение | Тип |
|---|---|---|
| RVF LLM | Генерация текста, изображений, аудио и видео от нескольких AI-провайдеров | Action Node |
| RVF LLM Chat Model | LangChain-совместимая chat-модель для workflows AI Agent | Model Node |
Плюс один тип учётных данных:
| Учётные данные | Описание |
|---|---|
| RVF LLM API | Аутентификация API с конфигурацией базового URL |
Быстрый старт
1. Добавьте ваш API-ключ
1. Откройте n8n Settings → Credentials
2. Нажмите "+ New"
3. Найдите "RVF LLM API"
4. Вставьте ваш API-ключ (формат: rvf_xxxxxxxxxxxxxxxx...)
5. Base URL по умолчанию: https://rvlautoai.ru/webhook
6. Сохраните
2. Добавьте узел в ваш workflow
1. Нажмите "+" в вашем workflow
2. Найдите "RVF LLM" или "RVF LLM Chat Model"
3. Перетащите на canvas
4. Выберите ваши учётные данные
5. Конфигурируйте узел (см. примеры ниже)
3. Запустите свой первый workflow
Начните с базового примера в разделе Примеры использования
Установка
Установка через GUI (Рекомендуется)
Для пользователей, предпочитающих графический интерфейс (без терминала):
- Откройте вашу n8n-инстанцию
- Перейдите в Settings → Community Nodes
- Нажмите Install
- Найдите
n8n-nodes-rvf-llm - Нажмите Install рядом с пакетом
- n8n автоматически скачает и установит узлы
- Перезагрузитесь или дождитесь автоматического перезапуска
- Готово! Узлы теперь доступны в ваших workflows
⏱️ Требуемое время: 2-5 минут
Ручная установка
Для self-hosted n8n или когда GUI-установка недоступна:
Перейдите в папку кастомных узлов n8n:
cd ~/.n8n/nodes # или если используете Docker: /root/.n8n/nodesКлонируйте репозиторий:
git clone https://github.com/Xrey995/n8n-nodes-rvf-llm.git cd n8n-nodes-rvf-llmУстановите зависимости:
npm installСоберите узлы:
npm run buildПерезагрузите n8n:
# Если запущено локально: npm restart # Если используете Docker: docker restart n8n
Установка через NPM
Для опытных пользователей, которые хотят установить через npm:
# В директории n8n:
npm install n8n-nodes-rvf-llm
# Затем перезагрузите n8n
Обзор узлов
Узел RVF LLM
Тип: Action Node
Назначение: Генерация контента (текст, изображения, аудио, видео) от AI-провайдеров
Ключевые возможности
- Мультиформатный вывод: Генерация текста, изображений, аудио, видео
- Выбор провайдера: Выбирайте из 10+ AI-провайдеров
- Гибкость моделей: 20+ доступных моделей
- Контроль параметров: Temperature, max tokens, top-p tuning
- Встроенные инструменты: Веб-поиск, интерпретатор кода, анализ файлов
- Поддержка потоковой передачи: Трансляция ответов в реальном времени
Конфигурация узла
| Поле | Тип | Описание | Пример |
|---|---|---|---|
| Provider | Dropdown | Выбор AI-провайдера | OpenAI, Anthropic, Google |
| Model | Dropdown | Выбор модели (фильтруется по провайдеру) | gpt-4, claude-3-opus, gemini-pro |
| Messages | Array | Сообщения диалога | [{role: "user", content: "..."}] |
| Temperature | Number | Случайность ответа (0-2) | 0.7 |
| Max Tokens | Number | Максимальная длина вывода | 2000 |
| Top P | Number | Параметр nucleus sampling (0-1) | 0.9 |
| Use Web Search | Boolean | Включить веб-поиск в ответах | true/false |
| Use Code Interpreter | Boolean | Включить выполнение кода | true/false |
Формат входа
{
"resource": "generate",
"provider": "openai",
"model": "gpt-4",
"messages": [
{
"role": "user",
"content": "Объясни квантовые вычисления простыми словами"
}
],
"temperature": 0.7,
"max_tokens": 1000
}
Формат вывода
{
"text": "Квантовые вычисления - это тип вычислений...",
"role": "assistant",
"finishReason": "stop",
"model": "gpt-4",
"usage": {
"prompt_tokens": 10,
"completion_tokens": 150,
"total_tokens": 160
}
}
Узел RVF LLM Chat Model
Тип: Model Node (для AI Chains)
Назначение: LangChain-совместимая chat-модель для AI Agents и chains
Ключевые возможности
- Поддержка вызова инструментов: Полная совместимость с n8n AI Agent
- Интеграция LangChain: Работает с любым LangChain workflow
- Вызов функций: Выполняйте инструменты на основе ответов модели
- История сообщений: Сохраняет контекст беседы
- Поддержка потоковой передачи: Трансляция ответов в реальном времени
Конфигурация узла
| Поле | Тип | Описание |
|---|---|---|
| Provider | Dropdown | AI-провайдер |
| Model | Dropdown | Выбор chat-модели |
| Temperature | Number | Случайность ответа |
| Max Tokens | Number | Максимальная длина вывода |
| Stream | Boolean | Включить потоковую передачу |
Интеграция с AI Agent
Входные данные пользователя
↓
AI Agent (используя RVF LLM Chat Model)
├─ Анализирует доступные инструменты
├─ Маршрутизирует к RVF LLM Chat Model
├─ Модель решает, какой инструмент вызвать
↓
Выполнение инструмента (веб-поиск, код, и т.д.)
↓
Ответ пользователю
Конфигурация
Настройка API-ключей
Шаг 1: Получите ваш API-ключ
- Посетите Бот Telegram @FreeApiLLMbot
- Воспользуйтесь клавиатурой бота. Можно получить тестовый ключ 1 раз на 1 час (30 запросов).
Либо купите ключ длительностью 1 месяц. Количество запросов и количество токенов не лимитировано.
Единственное ограничение ключа: не более 30 запросов в минуту. - Нажмите на кнопку "Купить полный доступ"
- Оплата производится при помощи сервию Юкасса. После оплаты в ваш чат с ботом придет сгенерированный ключ.
- Формат:
rvf_xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
Шаг 2: Добавьте учётные данные в n8n
- Settings → Credentials
- Нажмите + New
- Найдите "RVF LLM API"
- Заполните:
- API Key:
rvf_xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx - Base URL:
https://rvlautoai.ru/webhook(по умолчанию)
- API Key:
- Нажмите Create
Шаг 3: Используйте в ваших workflows
В любом узле RVF LLM:
- Нажмите dropdown Credentials
- Выберите созданные учётные данные
- Начните создавать!
*Доступные провайдеры и модели
(список доступных провайдеров и моделей обновляется ежедневно, в 02:00 по МСК и может отличаться от списка ниже)
| Провайдер | Популярные модели | Примечания |
|---|---|---|
| OpenAI | gpt-4, gpt-3.5-turbo | Отраслевой стандарт, лучший для общих задач |
| Anthropic | claude-3-opus, claude-3-sonnet | Отличные логические рассуждения, большой контекст |
| gemini-pro, palm-2 | Сильные в мультимодальных задачах | |
| Cohere | command-r, command | Отличные для настроенных ответов |
| Mistral | mistral-large, mistral-medium | Open-source дружелюбные, экономичные |
| Ollama | Любая локальная модель | Запускайте модели на вашем оборудовании |
| LLaMA | llama-2-7b, llama-2-13b | Open-source альтернативы |
Чтобы увидеть доступные провайдеры для вашего API-ключа:
1. Добавьте узел RVF LLM
2. Выберите ваши учётные данные
3. Нажмите dropdown "Provider"
4. Все доступные провайдеры загрузятся автоматически
Доступные модели
Модели загружаются динамически на основе:
- Разрешений вашего API-ключа
- Выбранного провайдера
- Уровня подписки
Чтобы увидеть доступные модели:
1. Выберите Provider (например, "OpenAI")
2. Нажмите dropdown "Model"
3. Все совместимые модели отобразятся автоматически
Примеры использования
Базовая генерация текста
Сценарий использования: Простой Q&A из workflow
{
"provider": "openai",
"model": "gpt-4",
"messages": [
{
"role": "system",
"content": "Ты полезный помощник."
},
{
"role": "user",
"content": "Какая столица Франции?"
}
],
"temperature": 0.7,
"max_tokens": 500
}
Ожидаемый вывод:
{
"text": "Столица Франции - Париж.",
"role": "assistant"
}
Генерация изображений
Сценарий использования: Генерация изображений продуктов или визуализаций
{
"provider": "openai",
"model": "dall-e-3",
"messages": [
{
"role": "user",
"content": "Создай изображение киберпанк города ночью"
}
]
}
Вывод: URL изображения в поле data (готово для отображения или сохранения)
Маршрутизация между провайдерами
Сценарий использования: Направляйте запросы в зависимости от стоимости и скорости
// В n8n Code node перед RVF LLM:
if ($input.first().json.urgency === "high") {
return { provider: "openai", model: "gpt-4" }; // Быстрее всего
} else {
return { provider: "mistral", model: "mistral-large" }; // Экономичнее
}
Интеграция с AI Agent
Структура workflow:
Trigger (Manual/Webhook)
↓
AI Agent node
├─ Использует RVF LLM Chat Model
├─ Подключённые инструменты (веб-поиск, исполнитель кода, и т.д.)
↓
RVF LLM Chat Model (как подключённая модель)
├─ Анализирует запрос пользователя
├─ Решает, какие инструменты использовать
↓
Выполнение инструмента
├─ Веб-поиск
├─ Выполнение кода
├─ Запрос БД
↓
Сборка ответа
↓
Вывод пользователю
Пример конфигурации workflow:
- Добавьте узел AI Agent
- В dropdown "Model" → выберите узел "RVF LLM Chat Model" (из canvas)
- Добавьте инструменты (веб-поиск, исполнитель кода)
- Конфигурируйте узел RVF LLM Chat Model со своими учётными данными
- Запустите!
Расширенные возможности
Потоковая передача ответов
Для трансляции в реальном времени в ваших workflows:
{
"provider": "openai",
"model": "gpt-4",
"stream": true,
"messages": [...],
"maxTokens": 2000
}
n8n будет транслировать ответы токен-за-токеном для live-обновлений.
Кеширование запросов
RVF LLM автоматически кеширует идентичные запросы:
Первый вызов: Полный API-запрос → 2-3 секунды
Кешированный вызов: Моментальный ответ → <100ms
Cache TTL: 1 час (конфигурируется через API)
Обработка ошибок
Встроенная логика повтора и fallback-механизмы:
{
"maxRetries": 3,
"retryDelay": 1000,
"fallbackProvider": "anthropic"
}
Ограничение частоты запросов
Автоматическое ограничение частоты для соблюдения API-квот:
{
"requestsPerMinute": 60,
"burstLimit": 10
}
Решение проблем
Проблема: "Credential not found"
Решение:
- Перейдите в Settings → Credentials
- Проверьте, что учётные данные RVF LLM API существуют
- Проверьте, что API-ключ начинается с
rvf_ - Пересоздайте, если необходимо
- Проверьте в Telegram боте @FreeApiLLMbot срок действия ключа (срок действия 1 месяц с момента первого использования)
Проблема: "No models available"
Возможные причины:
- Неверный или истёкший API-ключ
- Провайдер недоступен
- Модель недоступна
- Проблема с сетевым соединением
Решение:
- Используйте верный ключ с неистекшим сроком действия. Получить ключ https://t.me/FreeApiLLMbot.
- Проверьте, что выбранные провайдер и модель существуют
- Проверьте, что n8n может подключиться к
https://rvlautoai.ru/webhook
Проблема: "Rate limit exceeded"
Решение:
- Уменьшите параметр
requestsPerMinute - Увеличьте время ожидания между запросами
Проблема: "Node not appearing in node list"
Решение:
- Убедитесь, что установка завершена:
npm run build - Перезагрузите n8n:
docker restart n8n(или npm restart) - Жёсткое обновление браузера (Ctrl+Shift+R или Cmd+Shift+R)
- Проверьте консоль браузера на ошибки
Документация API
Полная документация API:
📚 Полный API-гайд: Бот Telegram @FreeApiLLMbot
Ключевые эндпойнты, используемые этими узлами:
POST /v1/chat/completions— Генерация текстаGET /v1/models— Список доступных моделейGET /v1/providers— Список доступных провайдеровGET /v1/models/list— Детальная информация о моделях
Установка для разработки:
git clone https://github.com/Xrey995/n8n-nodes-rvf-llm.git
cd n8n-nodes-rvf-llm
npm install
npm run dev
Лицензия
MIT License — См. файл LICENSE для деталей
🐛 Сообщить об ошибке
Журнал изменений
Версия 1.0.0 (Ноябрь 2025)
✅ Первый выпуск
- Узел RVF LLM для генерации контента
- Узел RVF LLM Chat Model для AI Agents
- Поддержка 50+ моделей от 10+ провайдеров
- Полная интеграция LangChain
- Комплексная обработка ошибок
- Production-ready код