Un Dock pour
OpenAI
Proxy API unifiée pour tous les modèles et outils IA. Sécurité entreprise, gouvernance des quotas et plugins extensibles via un seul endpoint.
Comment fonctionne Odock.ai
Conçu pour les équipes qui gèrent la complexité. Contrôle unifié avec une fiabilité de niveau entreprise.
Définir les fournisseurs et outils
Enregistrez des fournisseurs LLM, des bases vectorielles et des outils MCP. Tout devient instantanément accessible via un endpoint standardisé unique.
Émettre des clés API virtuelles
Créez des clés API isolées pour des organisations, équipes, utilisateurs ou projets avec des politiques de contrôles et des permissions par modèle.
Appliquer des garde-fous de sécurité
Odock applique automatiquement la protection contre les prompt injections, le filtrage jailbreak, les limites de débit, les contrôles de fuite de données et des règles de sortie sûres.
Définir budgets et quotas
Assignez des plafonds de dépenses, des quotas de tokens et des limites d'usage par clé API. Bénéficiez d'un suivi des coûts en temps réel et d'une application automatique.
Étendre avec plugins et workflows
Ajoutez des plugins personnalisés pour prétraiter, valider, transformer ou enrichir les requêtes et réponses, séquentiellement ou en parallèle.
Superviser, mettre en file et basculer automatiquement
Suivez les flux de requêtes, inspectez les files, contrôlez le batching et activez un failover fluide entre fournisseurs en cas de panne.
Pourquoi c'est différent
Contrairement aux passerelles API traditionnelles, Odock.ai est conçu spécifiquement pour les LLM avec une sécurité entreprise intégrée dès le premier jour.
Conception security-first avec garde-fous toujours actifs
Prévention automatique des fuites de données vers des API externes
Gestion unifiée des utilisateurs et quotas entre fournisseurs
Pipeline de plugins extensible pour des intégrations personnalisées
Open source, totalement transparent et auditable
Utilisation style OpenAI
Remplacez simplement l'URL et la clé API virtuelle.
from openai import OpenAI
client = OpenAI(
api_key="YOUR_VIRTUAL_API_KEY",
base_url="https://your-gateway-url", # ← replace with your URL
)
response = client.chat.completions.create(
model="any-model",
messages=[
{"role": "user", "content": "Say hello from your gateway."},
],
)
print(response.choices[0].message.content)Fonctionnalités clés
Conçu pour la performance, la fiabilité et le contrôle total de votre infrastructure LLM.
Proxy à latence ultra-faible
Construite en Go avec streaming, pooling de connexions et pipelines optimisés pour un surcoût sous la milliseconde à chaque requête.
Interface multimodèle unifiée
API standardisée sur OpenAI, Anthropic, Groq, Bedrock, Vertex, Fireworks, LM Studio et outils MCP, sans changement de SDK.
Clés API virtuelles hiérarchiques
Clés API isolées avec limites, permissions, scopes et journaux d'audit par équipe, utilisateur et projet.
Pare-feu IA et garde-fous Zero Trust
Défense contre les prompt injections, détection de jailbreak, masquage des PII et blocage sortant, exécutés dans le pipeline de requête à vitesse filaire.
Budgets et quotas en temps réel
Suivi des dépenses au niveau token avec budgets souples/stricts, throttling dynamique et détection d'anomalies pour les usages incontrôlés.
Routage adaptatif et failover
Choisissez automatiquement le fournisseur le plus rapide, le moins cher ou le plus sain. Bascule instantanée en cas de pics de latence ou de panne.
Moteur de plugins extensible
Middleware séquentiel ou parallèle pour validation, transformations, conformité, observabilité ou workflows définis par l'utilisateur.
Files haute capacité et batching
Mise en file intégrée des requêtes, backpressure, contrôles de concurrence et micro-batching pour les opérations lourdes ou longues.
Observabilité approfondie
Métriques par modèle, clé et tenant, détails de latence, traces de requêtes et logs rejouables pour le débogage.
Parfait pour
Des startups aux grandes entreprises, Odock.ai prend en charge votre infrastructure LLM.
SaaS propulsé par l'IA
Ajoutez des fonctionnalités IA à votre produit sans gérer plusieurs intégrations API.
Équipes entreprise
Contrôlez les dépenses IA, appliquez des politiques de sécurité et auditez chaque requête.
Startups en forte croissance
Faites évoluer l'usage derrière une API unique sans verrouillage fournisseur ni migrations complexes.
Workflows compatibles MCP
Construisez des workflows IA complexes avec des serveurs Model Context Protocol en toute fluidité.
Choisissez comment vous Dockez
Que vous débutiez ou montiez à des millions de requêtes, il y a une offre Odock.ai pour vous.
Open Source
Auto-hébergé
Parfait si vous aimez gérer votre propre stack.
Managed Odock
Hébergé par nous
Nous gérons le dock, vous livrez le produit.
Enterprise
Réseau privé
Conçu pour la sécurité, la conformité et la montée en charge.
Vous ne savez pas quelle offre vous convient ? Rejoignez la liste d'attente et nous vous aiderons à choisir.
Questions fréquentes
Tout ce que vous devez savoir sur Odock.ai.
Qu'est-ce qu'Odock.ai ?
Comment fonctionne l'API unifiée ?
Comment fonctionnent les garde-fous de sécurité ?
Quels fournisseurs sont pris en charge ?
Que sont les clés API virtuelles ?
Comment fonctionne le système de plugins ?
Odock.ai est-il open source ?
Comment fonctionne le routage de secours ?
Échangez avec notre équipe
Obtenez une présentation adaptée d'Odock.ai et voyez comment une proxy API unifiée peut simplifier le routage des modèles, la gouvernance et les contrôles entreprise pour votre organisation.
Support entreprise et SLA
Revues de sécurité et conformité
Routage et gouvernance agnostiques aux modèles
Options cloud privé et on-prem
Vous préférez l'e-mail ? Contactez-nous à hello@odock.ai et nous vous répondrons sous un jour ouvré.
Vous voulez contribuer à notre projet open source ? Rendez-vous sur notre GitHub : github.com/odock-ai.