LiteLLM Proxy - это прокси-сервер между вашими приложениями (n8n) и OpenAI API. Он НЕ создает новые ключи OpenAI, но позволяет эффективно управлять уже существующими ключами.
1. Перейдите на https://platform.openai.com/api-keys 2. Нажмите "Create new secret key" 3. Дайте ключу понятное имя (например "Main-Key-1") 4. Скопируйте ключ и сохраните в надежном месте 5. Повторите для создания 2-3 ключей
<WRAP center round tip 60%> Совет: Создайте минимум 2-3 ключа для обеспечения отказоустойчивости. Дайте им понятные имена: «Main-Key-1», «Main-Key-2», «Project-A-Key» и т.д. </WRAP>
1. В OpenAI перейдите в Settings → Billing 2. Add payment method (добавьте карту) 3. Add credits (добавьте кредиты, минимум $10) 4. Установите usage limits для контроля расходов
URL: https://api.digitizepro.tech/ui Логин: admin Пароль: UI_Admin_7mK2qF9xR5tG8nP1wS4vY3bC6eZ0hL9jM
| Поле | Значение | Пример |
|---|---|---|
| Model Name | Логическое имя | gpt-3.5-turbo-main-1 |
| LiteLLM Model | Тип модели OpenAI | openai/gpt-3.5-turbo |
| API Key | Ваш OpenAI ключ | sk-proj-abc123… |
| API Base | Базовый URL | https://api.openai.com/v1 |
Повторите процесс для всех ваших ключей:
Модель 1: gpt-3.5-turbo-main-1 (первый ключ) Модель 2: gpt-3.5-turbo-main-2 (второй ключ) Модель 3: gpt-4-main-1 (первый ключ для GPT-4) Модель 4: gpt-3.5-turbo-project-a (отдельный ключ для проекта)
| Поле | Значение |
|---|---|
| Group Name | main-gpt35 |
| Models | Выберите gpt-3.5-turbo-main-1 и gpt-3.5-turbo-main-2 |
| Routing Strategy | least-busy |
Создайте отдельные группы:
Группа: "main-gpt4" ├── gpt-4-main-1 └── gpt-4-main-2 Группа: "project-a" ├── gpt-3.5-turbo-project-a └── gpt-4-project-a Группа: "client-work" ├── gpt-3.5-turbo-client └── gpt-4-client
Credential Name: LiteLLM Main - digitizepro.tech API Key: sk-litellm-E4j8mK9nP2qR5sT7vX0yZ3bC6eG9hL1oM4rU8wA5dF2gJ7k Base URL: https://api.digitizepro.tech/v1 Organization: [оставьте пустым]
Создайте отдельные креденшлы для разных проектов:
Креденшл 1: "LiteLLM Main" ├── Base URL: https://api.digitizepro.tech/v1 └── Для основных задач Креденшл 2: "LiteLLM AI Tasks" ├── Base URL: https://ai.digitizepro.tech/v1 └── Для AI-специфичных задач Креденшл 3: "LiteLLM Client Work" ├── Base URL: https://openai.digitizepro.tech/v1 └── Для клиентских проектов
| Параметр | Значение |
|---|---|
| Credentials | LiteLLM Main - digitizepro.tech |
| Model | main-gpt35 (имя группы) или gpt-3.5-turbo-main-1 (конкретная модель) |
| Temperature | 0.7 |
| Max Tokens | 1000 |
Webhook Trigger
↓
OpenAI Chat Model (креденшл: LiteLLM Main)
├── Model: main-gpt35
├── Prompt: "{{ $json.user_message }}"
└── Max Tokens: 500
↓
Response Node
В веб-интерфейсе LiteLLM:
| Параметр | Значение | Описание |
|---|---|---|
| Budget Name | Monthly Main | Название бюджета |
| Budget Limit | $50 | Месячный лимит |
| Time Window | 1mo | Период |
| Models | main-gpt35, main-gpt4 | Применяется к группам |
Для разграничения доступа:
Ситуация: Один из OpenAI ключей достиг лимита RPM
Что происходит:
1. n8n отправляет запрос → LiteLLM 2. LiteLLM пытается использовать gpt-3.5-turbo-main-1 3. OpenAI возвращает ошибку "Rate limit exceeded" 4. LiteLLM автоматически переключается на gpt-3.5-turbo-main-2 5. Запрос успешно выполняется 6. n8n получает ответ без ошибок
Преимущество: n8n работает без прерываний, вы видите переключения в логах LiteLLM
Настройка:
Проект A: использует группу "project-a" Проект B: использует группу "main-gpt35" Клиентская работа: использует группу "client-work"
Мониторинг:
Включение кеширования:
Как работает:
1. Первый запрос: "Переведи 'Hello' на французский" ├── LiteLLM → OpenAI API ├── Ответ: "Bonjour" └── Сохраняется в Redis 2. Повторный запрос: "Переведи 'Hello' на французский" ├── LiteLLM находит в кеше ├── Возвращает "Bonjour" └── OpenAI API НЕ вызывается (экономия)
Причины и решения:
Проблема: Ошибка аутентификации ├── Проверьте правильность Master Key в n8n ├── Убедитесь что OpenAI ключи валидны └── Проверьте баланс OpenAI аккаунта
Диагностика:
Решение:
Контроль расходов:
1. Установите бюджеты в LiteLLM 2. Включите кеширование 3. Оптимизируйте prompts в n8n 4. Используйте более дешевые модели для простых задач
Рекомендуемая структура: ├── Main Pool (2-3 ключа для основной работы) ├── Project Pools (отдельные ключи для крупных проектов) ├── Development Pool (дешевые ключи для разработки) └── Emergency Pool (резервные ключи)
Ежедневно проверяйте:
Еженедельно анализируйте:
✅ Используйте отдельные ключи для разных проектов ✅ Устанавливайте бюджетные лимиты ✅ Регулярно ротируйте ключи ✅ Мониторьте логи на подозрительную активность ❌ Не используйте один ключ для всех задач ❌ Не игнорируйте уведомления о превышении лимитов
LiteLLM Proxy предоставляет мощный инструмент для управления множественными OpenAI ключами. Основные преимущества:
Следуя этому руководству, вы сможете эффективно использовать систему для любых задач - от простых чат-ботов до сложных AI workflow в n8n.