rvf-llm

RVF LLM nodes for n8n: Universal AI Gateway integration

Package Information

Released: 11/20/2025
Downloads: 27 weekly / 640 monthly
Latest Version: 1.0.0
Author: Ruslan

Documentation

n8n-nodes-rvf-llm

N8N
License
Version
Status

Комплексный пакет кастомных узлов n8n, интегрирующий RVF LLM — универсальный шлюз к AI, предоставляющий доступ к множеству языковых моделей и провайдеров (OpenAI, Anthropic Claude, Google Gemini, локальные модели и многие другие) прямо в ваши workflows n8n.

🚀 Идеально подходит для: инженеров по автоматизации, AI-интеграторов и всех, кто создаёт интеллектуальные workflows без переключения между платформами.


Оглавление


Возможности

Единый AI-интерфейс: Доступ к 20+ AI моделям от 10+ провайдеров через единый стандартизированный интерфейс

🔄 Маршрутизация провайдеров: Автоматически направляйте запросы разным AI-провайдерам в зависимости от доступности

🤖 Совместимость с AI Agent: Полная поддержка n8n AI Agent с возможностью вызова инструментов

⚙️ Гибкий вывод: Генерируйте текст, изображения, аудио и видео из одного узла

🔐 Защищённые учётные данные: Аутентификация токеном Bearer с шифрованием

🎯 Умный выбор моделей: Динамическая загрузка провайдеров и моделей на основе вашего API-ключа

💾 Поддержка кеширования: Встроенное кеширование ответов для оптимальной производительности

📊 Ограничение частоты запросов: Настраиваемое ограничение запросов и управление timeout'ами

🌍 Многоязычная поддержка: Бесперебойная работа с prompts на любом языке


Что включено

Этот пакет содержит два готовых к production узла n8n:

Узел Назначение Тип
RVF LLM Генерация текста, изображений, аудио и видео от нескольких AI-провайдеров Action Node
RVF LLM Chat Model LangChain-совместимая chat-модель для workflows AI Agent Model Node

Плюс один тип учётных данных:

Учётные данные Описание
RVF LLM API Аутентификация API с конфигурацией базового URL

Быстрый старт

1. Добавьте ваш API-ключ

1. Откройте n8n Settings → Credentials
2. Нажмите "+ New"
3. Найдите "RVF LLM API"
4. Вставьте ваш API-ключ (формат: rvf_xxxxxxxxxxxxxxxx...)
5. Base URL по умолчанию: https://rvlautoai.ru/webhook
6. Сохраните

2. Добавьте узел в ваш workflow

1. Нажмите "+" в вашем workflow
2. Найдите "RVF LLM" или "RVF LLM Chat Model"
3. Перетащите на canvas
4. Выберите ваши учётные данные
5. Конфигурируйте узел (см. примеры ниже)

3. Запустите свой первый workflow

Начните с базового примера в разделе Примеры использования


Установка

Установка через GUI (Рекомендуется)

Для пользователей, предпочитающих графический интерфейс (без терминала):

  1. Откройте вашу n8n-инстанцию
  2. Перейдите в SettingsCommunity Nodes
  3. Нажмите Install
  4. Найдите n8n-nodes-rvf-llm
  5. Нажмите Install рядом с пакетом
  6. n8n автоматически скачает и установит узлы
  7. Перезагрузитесь или дождитесь автоматического перезапуска
  8. Готово! Узлы теперь доступны в ваших workflows

⏱️ Требуемое время: 2-5 минут


Ручная установка

Для self-hosted n8n или когда GUI-установка недоступна:

  1. Перейдите в папку кастомных узлов n8n:

    cd ~/.n8n/nodes
    # или если используете Docker: /root/.n8n/nodes
    
  2. Клонируйте репозиторий:

    git clone https://github.com/Xrey995/n8n-nodes-rvf-llm.git
    cd n8n-nodes-rvf-llm
    
  3. Установите зависимости:

    npm install
    
  4. Соберите узлы:

    npm run build
    
  5. Перезагрузите n8n:

    # Если запущено локально:
    npm restart
    
    # Если используете Docker:
    docker restart n8n
    

Установка через NPM

Для опытных пользователей, которые хотят установить через npm:

# В директории n8n:
npm install n8n-nodes-rvf-llm

# Затем перезагрузите n8n

Обзор узлов

Узел RVF LLM

Тип: Action Node
Назначение: Генерация контента (текст, изображения, аудио, видео) от AI-провайдеров

Ключевые возможности

  • Мультиформатный вывод: Генерация текста, изображений, аудио, видео
  • Выбор провайдера: Выбирайте из 10+ AI-провайдеров
  • Гибкость моделей: 20+ доступных моделей
  • Контроль параметров: Temperature, max tokens, top-p tuning
  • Встроенные инструменты: Веб-поиск, интерпретатор кода, анализ файлов
  • Поддержка потоковой передачи: Трансляция ответов в реальном времени

Конфигурация узла

Поле Тип Описание Пример
Provider Dropdown Выбор AI-провайдера OpenAI, Anthropic, Google
Model Dropdown Выбор модели (фильтруется по провайдеру) gpt-4, claude-3-opus, gemini-pro
Messages Array Сообщения диалога [{role: "user", content: "..."}]
Temperature Number Случайность ответа (0-2) 0.7
Max Tokens Number Максимальная длина вывода 2000
Top P Number Параметр nucleus sampling (0-1) 0.9
Use Web Search Boolean Включить веб-поиск в ответах true/false
Use Code Interpreter Boolean Включить выполнение кода true/false

Формат входа

{
  "resource": "generate",
  "provider": "openai",
  "model": "gpt-4",
  "messages": [
    {
      "role": "user",
      "content": "Объясни квантовые вычисления простыми словами"
    }
  ],
  "temperature": 0.7,
  "max_tokens": 1000
}

Формат вывода

{
  "text": "Квантовые вычисления - это тип вычислений...",
  "role": "assistant",
  "finishReason": "stop",
  "model": "gpt-4",
  "usage": {
    "prompt_tokens": 10,
    "completion_tokens": 150,
    "total_tokens": 160
  }
}

Узел RVF LLM Chat Model

Тип: Model Node (для AI Chains)
Назначение: LangChain-совместимая chat-модель для AI Agents и chains

Ключевые возможности

  • Поддержка вызова инструментов: Полная совместимость с n8n AI Agent
  • Интеграция LangChain: Работает с любым LangChain workflow
  • Вызов функций: Выполняйте инструменты на основе ответов модели
  • История сообщений: Сохраняет контекст беседы
  • Поддержка потоковой передачи: Трансляция ответов в реальном времени

Конфигурация узла

Поле Тип Описание
Provider Dropdown AI-провайдер
Model Dropdown Выбор chat-модели
Temperature Number Случайность ответа
Max Tokens Number Максимальная длина вывода
Stream Boolean Включить потоковую передачу

Интеграция с AI Agent

Входные данные пользователя
    ↓
AI Agent (используя RVF LLM Chat Model)
    ├─ Анализирует доступные инструменты
    ├─ Маршрутизирует к RVF LLM Chat Model
    ├─ Модель решает, какой инструмент вызвать
    ↓
Выполнение инструмента (веб-поиск, код, и т.д.)
    ↓
Ответ пользователю

Конфигурация

Настройка API-ключей

Шаг 1: Получите ваш API-ключ

  1. Посетите Бот Telegram @FreeApiLLMbot
  2. Воспользуйтесь клавиатурой бота. Можно получить тестовый ключ 1 раз на 1 час (30 запросов).
    Либо купите ключ длительностью 1 месяц. Количество запросов и количество токенов не лимитировано.
    Единственное ограничение ключа: не более 30 запросов в минуту.
  3. Нажмите на кнопку "Купить полный доступ"
  4. Оплата производится при помощи сервию Юкасса. После оплаты в ваш чат с ботом придет сгенерированный ключ.
  5. Формат: rvf_xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

Шаг 2: Добавьте учётные данные в n8n

  1. SettingsCredentials
  2. Нажмите + New
  3. Найдите "RVF LLM API"
  4. Заполните:
    • API Key: rvf_xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
    • Base URL: https://rvlautoai.ru/webhook (по умолчанию)
  5. Нажмите Create

Шаг 3: Используйте в ваших workflows

В любом узле RVF LLM:

  1. Нажмите dropdown Credentials
  2. Выберите созданные учётные данные
  3. Начните создавать!

*Доступные провайдеры и модели

(список доступных провайдеров и моделей обновляется ежедневно, в 02:00 по МСК и может отличаться от списка ниже)

Провайдер Популярные модели Примечания
OpenAI gpt-4, gpt-3.5-turbo Отраслевой стандарт, лучший для общих задач
Anthropic claude-3-opus, claude-3-sonnet Отличные логические рассуждения, большой контекст
Google gemini-pro, palm-2 Сильные в мультимодальных задачах
Cohere command-r, command Отличные для настроенных ответов
Mistral mistral-large, mistral-medium Open-source дружелюбные, экономичные
Ollama Любая локальная модель Запускайте модели на вашем оборудовании
LLaMA llama-2-7b, llama-2-13b Open-source альтернативы

Чтобы увидеть доступные провайдеры для вашего API-ключа:

1. Добавьте узел RVF LLM
2. Выберите ваши учётные данные
3. Нажмите dropdown "Provider"
4. Все доступные провайдеры загрузятся автоматически

Доступные модели

Модели загружаются динамически на основе:

  • Разрешений вашего API-ключа
  • Выбранного провайдера
  • Уровня подписки

Чтобы увидеть доступные модели:

1. Выберите Provider (например, "OpenAI")
2. Нажмите dropdown "Model"
3. Все совместимые модели отобразятся автоматически

Примеры использования

Базовая генерация текста

Сценарий использования: Простой Q&A из workflow

{
  "provider": "openai",
  "model": "gpt-4",
  "messages": [
    {
      "role": "system",
      "content": "Ты полезный помощник."
    },
    {
      "role": "user",
      "content": "Какая столица Франции?"
    }
  ],
  "temperature": 0.7,
  "max_tokens": 500
}

Ожидаемый вывод:

{
  "text": "Столица Франции - Париж.",
  "role": "assistant"
}

Генерация изображений

Сценарий использования: Генерация изображений продуктов или визуализаций

{
  "provider": "openai",
  "model": "dall-e-3",
  "messages": [
    {
      "role": "user",
      "content": "Создай изображение киберпанк города ночью"
    }
  ]
}

Вывод: URL изображения в поле data (готово для отображения или сохранения)


Маршрутизация между провайдерами

Сценарий использования: Направляйте запросы в зависимости от стоимости и скорости

// В n8n Code node перед RVF LLM:
if ($input.first().json.urgency === "high") {
  return { provider: "openai", model: "gpt-4" }; // Быстрее всего
} else {
  return { provider: "mistral", model: "mistral-large" }; // Экономичнее
}

Интеграция с AI Agent

Структура workflow:

Trigger (Manual/Webhook)
    ↓
AI Agent node
    ├─ Использует RVF LLM Chat Model
    ├─ Подключённые инструменты (веб-поиск, исполнитель кода, и т.д.)
    ↓
RVF LLM Chat Model (как подключённая модель)
    ├─ Анализирует запрос пользователя
    ├─ Решает, какие инструменты использовать
    ↓
Выполнение инструмента
    ├─ Веб-поиск
    ├─ Выполнение кода
    ├─ Запрос БД
    ↓
Сборка ответа
    ↓
Вывод пользователю

Пример конфигурации workflow:

  1. Добавьте узел AI Agent
  2. В dropdown "Model" → выберите узел "RVF LLM Chat Model" (из canvas)
  3. Добавьте инструменты (веб-поиск, исполнитель кода)
  4. Конфигурируйте узел RVF LLM Chat Model со своими учётными данными
  5. Запустите!

Расширенные возможности

Потоковая передача ответов

Для трансляции в реальном времени в ваших workflows:

{
  "provider": "openai",
  "model": "gpt-4",
  "stream": true,
  "messages": [...],
  "maxTokens": 2000
}

n8n будет транслировать ответы токен-за-токеном для live-обновлений.


Кеширование запросов

RVF LLM автоматически кеширует идентичные запросы:

Первый вызов: Полный API-запрос → 2-3 секунды
Кешированный вызов: Моментальный ответ → <100ms

Cache TTL: 1 час (конфигурируется через API)


Обработка ошибок

Встроенная логика повтора и fallback-механизмы:

{
  "maxRetries": 3,
  "retryDelay": 1000,
  "fallbackProvider": "anthropic"
}

Ограничение частоты запросов

Автоматическое ограничение частоты для соблюдения API-квот:

{
  "requestsPerMinute": 60,
  "burstLimit": 10
}

Решение проблем

Проблема: "Credential not found"

Решение:

  1. Перейдите в SettingsCredentials
  2. Проверьте, что учётные данные RVF LLM API существуют
  3. Проверьте, что API-ключ начинается с rvf_
  4. Пересоздайте, если необходимо
  5. Проверьте в Telegram боте @FreeApiLLMbot срок действия ключа (срок действия 1 месяц с момента первого использования)

Проблема: "No models available"

Возможные причины:

  • Неверный или истёкший API-ключ
  • Провайдер недоступен
  • Модель недоступна
  • Проблема с сетевым соединением

Решение:

  1. Используйте верный ключ с неистекшим сроком действия. Получить ключ https://t.me/FreeApiLLMbot.
  2. Проверьте, что выбранные провайдер и модель существуют
  3. Проверьте, что n8n может подключиться к https://rvlautoai.ru/webhook

Проблема: "Rate limit exceeded"

Решение:

  1. Уменьшите параметр requestsPerMinute
  2. Увеличьте время ожидания между запросами

Проблема: "Node not appearing in node list"

Решение:

  1. Убедитесь, что установка завершена: npm run build
  2. Перезагрузите n8n: docker restart n8n (или npm restart)
  3. Жёсткое обновление браузера (Ctrl+Shift+R или Cmd+Shift+R)
  4. Проверьте консоль браузера на ошибки

Документация API

Полная документация API:

📚 Полный API-гайд: Бот Telegram @FreeApiLLMbot

Ключевые эндпойнты, используемые этими узлами:

  • POST /v1/chat/completions — Генерация текста
  • GET /v1/models — Список доступных моделей
  • GET /v1/providers — Список доступных провайдеров
  • GET /v1/models/list — Детальная информация о моделях

Установка для разработки:

git clone https://github.com/Xrey995/n8n-nodes-rvf-llm.git
cd n8n-nodes-rvf-llm
npm install
npm run dev

Лицензия

MIT License — См. файл LICENSE для деталей


🐛 Сообщить об ошибке

GitHub Issues


Журнал изменений

Версия 1.0.0 (Ноябрь 2025)

Первый выпуск

  • Узел RVF LLM для генерации контента
  • Узел RVF LLM Chat Model для AI Agents
  • Поддержка 50+ моделей от 10+ провайдеров
  • Полная интеграция LangChain
  • Комплексная обработка ошибок
  • Production-ready код

Discussion