Bientôt disponible • Open Source

Un Dock pour
OpenAI

Proxy API unifiée pour tous les modèles et outils IA. Sécurité entreprise, gouvernance des quotas et plugins extensibles via un seul endpoint.

Illustration hero

Comment fonctionne Odock.ai

Conçu pour les équipes qui gèrent la complexité. Contrôle unifié avec une fiabilité de niveau entreprise.

01

Définir les fournisseurs et outils

Enregistrez des fournisseurs LLM, des bases vectorielles et des outils MCP. Tout devient instantanément accessible via un endpoint standardisé unique.

02

Émettre des clés API virtuelles

Créez des clés API isolées pour des organisations, équipes, utilisateurs ou projets avec des politiques de contrôles et des permissions par modèle.

03

Appliquer des garde-fous de sécurité

Odock applique automatiquement la protection contre les prompt injections, le filtrage jailbreak, les limites de débit, les contrôles de fuite de données et des règles de sortie sûres.

04

Définir budgets et quotas

Assignez des plafonds de dépenses, des quotas de tokens et des limites d'usage par clé API. Bénéficiez d'un suivi des coûts en temps réel et d'une application automatique.

05

Étendre avec plugins et workflows

Ajoutez des plugins personnalisés pour prétraiter, valider, transformer ou enrichir les requêtes et réponses, séquentiellement ou en parallèle.

06

Superviser, mettre en file et basculer automatiquement

Suivez les flux de requêtes, inspectez les files, contrôlez le batching et activez un failover fluide entre fournisseurs en cas de panne.

Pourquoi c'est différent

Contrairement aux passerelles API traditionnelles, Odock.ai est conçu spécifiquement pour les LLM avec une sécurité entreprise intégrée dès le premier jour.

Conception security-first avec garde-fous toujours actifs

Prévention automatique des fuites de données vers des API externes

Gestion unifiée des utilisateurs et quotas entre fournisseurs

Pipeline de plugins extensible pour des intégrations personnalisées

Open source, totalement transparent et auditable

Utilisation style OpenAI

Compatible en remplacement direct

Remplacez simplement l'URL et la clé API virtuelle.

inference.py — nano
from openai import OpenAI

client = OpenAI(
    api_key="YOUR_VIRTUAL_API_KEY",
    base_url="https://your-gateway-url",  # ← replace with your URL
)

response = client.chat.completions.create(
    model="any-model",
    messages=[
        {"role": "user", "content": "Say hello from your gateway."},
    ],
)

print(response.choices[0].message.content)

Fonctionnalités clés

Conçu pour la performance, la fiabilité et le contrôle total de votre infrastructure LLM.

odock@server: ~/bash

Proxy à latence ultra-faible

Construite en Go avec streaming, pooling de connexions et pipelines optimisés pour un surcoût sous la milliseconde à chaque requête.

Interface multimodèle unifiée

API standardisée sur OpenAI, Anthropic, Groq, Bedrock, Vertex, Fireworks, LM Studio et outils MCP, sans changement de SDK.

Clés API virtuelles hiérarchiques

Clés API isolées avec limites, permissions, scopes et journaux d'audit par équipe, utilisateur et projet.

Pare-feu IA et garde-fous Zero Trust

Défense contre les prompt injections, détection de jailbreak, masquage des PII et blocage sortant, exécutés dans le pipeline de requête à vitesse filaire.

Budgets et quotas en temps réel

Suivi des dépenses au niveau token avec budgets souples/stricts, throttling dynamique et détection d'anomalies pour les usages incontrôlés.

Routage adaptatif et failover

Choisissez automatiquement le fournisseur le plus rapide, le moins cher ou le plus sain. Bascule instantanée en cas de pics de latence ou de panne.

Moteur de plugins extensible

Middleware séquentiel ou parallèle pour validation, transformations, conformité, observabilité ou workflows définis par l'utilisateur.

Files haute capacité et batching

Mise en file intégrée des requêtes, backpressure, contrôles de concurrence et micro-batching pour les opérations lourdes ou longues.

Observabilité approfondie

Métriques par modèle, clé et tenant, détails de latence, traces de requêtes et logs rejouables pour le débogage.

Parfait pour

Des startups aux grandes entreprises, Odock.ai prend en charge votre infrastructure LLM.

SaaS propulsé par l'IA

Ajoutez des fonctionnalités IA à votre produit sans gérer plusieurs intégrations API.

Équipes entreprise

Contrôlez les dépenses IA, appliquez des politiques de sécurité et auditez chaque requête.

Startups en forte croissance

Faites évoluer l'usage derrière une API unique sans verrouillage fournisseur ni migrations complexes.

Workflows compatibles MCP

Construisez des workflows IA complexes avec des serveurs Model Context Protocol en toute fluidité.

Choisissez comment vous Dockez

Que vous débutiez ou montiez à des millions de requêtes, il y a une offre Odock.ai pour vous.

Open Source

Auto-hébergé

Parfait si vous aimez gérer votre propre stack.

Gratuit et open source
Auto-hébergez sur votre infrastructure
Plugins pilotés par la communauté
Contrôle total et personnalisation
Communauté de développeurs active
MEILLEUR

Managed Odock

Hébergé par nous

Nous gérons le dock, vous livrez le produit.

Aucun hébergement ni infrastructure à gérer
Mise à l'échelle et mises à jour automatiques
Plugins communautaires + premium
Facturation et quotas unifiés
Garde-fous de sécurité niveau entreprise

Enterprise

Réseau privé

Conçu pour la sécurité, la conformité et la montée en charge.

Environnement dédié et isolé
Déploiement sur notre cloud ou le vôtre
Auth entreprise (SSO, SAML, OAuth)
Conformité avancée et SLA personnalisés
Plugins personnalisés et modèles privés

Vous ne savez pas quelle offre vous convient ? Rejoignez la liste d'attente et nous vous aiderons à choisir.

Questions fréquentes

Tout ce que vous devez savoir sur Odock.ai.

Qu'est-ce qu'Odock.ai ?

Comment fonctionne l'API unifiée ?

Comment fonctionnent les garde-fous de sécurité ?

Quels fournisseurs sont pris en charge ?

Que sont les clés API virtuelles ?

Comment fonctionne le système de plugins ?

Odock.ai est-il open source ?

Comment fonctionne le routage de secours ?

Contact

Échangez avec notre équipe

Obtenez une présentation adaptée d'Odock.ai et voyez comment une proxy API unifiée peut simplifier le routage des modèles, la gouvernance et les contrôles entreprise pour votre organisation.

Support entreprise et SLA

Revues de sécurité et conformité

Routage et gouvernance agnostiques aux modèles

Options cloud privé et on-prem

Vous préférez l'e-mail ? Contactez-nous à hello@odock.ai et nous vous répondrons sous un jour ouvré.

Vous voulez contribuer à notre projet open source ? Rendez-vous sur notre GitHub : github.com/odock-ai.

Contacter notre équipe
Partagez quelques informations pour que nous préparions la bonne démo et les bons conseils pour vous.

En soumettant ce formulaire, vous acceptez notre politique de confidentialité et nos conditions d'utilisation.