Un solo Dock per
OpenAI
Gateway API unificato per tutti i modelli e strumenti AI. Sicurezza enterprise, governance delle quote e plugin estendibili tramite un unico endpoint.
Come funziona Odock.ai
Pensato per team che gestiscono complessita. Controllo unificato con affidabilita di livello enterprise.
Definisci provider e strumenti
Registra provider LLM, database vettoriali e strumenti MCP. Tutto diventa subito accessibile tramite un unico endpoint standardizzato.
Emetti chiavi API virtuali
Crea chiavi API isolate per organizzazioni, team, utenti o progetti con controlli di policy granulari e permessi a livello modello.
Applica guardrail di sicurezza
Odock applica automaticamente protezione da prompt injection, filtro jailbreak, rate limit, controlli perdita dati e regole di output sicuro.
Definisci budget e quote
Assegna limiti di spesa, quote token e limiti d'uso per chiave API. Ottieni monitoraggio costi in tempo reale e applicazione automatica.
Estendi con plugin e workflow
Collega plugin personalizzati per pre-elaborare, validare, trasformare o arricchire richieste e risposte, in sequenza o in parallelo.
Monitora, accoda e failover automatico
Traccia i flussi richiesta, ispeziona le code, controlla il batching e abilita failover fluido tra provider quando si verificano outage.
Perche e diverso
A differenza dei gateway API tradizionali, Odock.ai e progettato specificamente per gli LLM con sicurezza enterprise integrata fin dal primo giorno.
Design security-first con guardrail sempre attivi
Previeni automaticamente la perdita di dati verso API esterne
Gestione unificata di utenti e quote tra provider
Pipeline plugin estendibile per integrazioni personalizzate
Open source: completamente trasparente e verificabile
Utilizzo stile OpenAI
Sostituisci solo URL e chiave API virtuale.
from openai import OpenAI
client = OpenAI(
api_key="YOUR_VIRTUAL_API_KEY",
base_url="https://your-gateway-url", # ← replace with your URL
)
response = client.chat.completions.create(
model="any-model",
messages=[
{"role": "user", "content": "Say hello from your gateway."},
],
)
print(response.choices[0].message.content)Funzionalita principali
Progettato per prestazioni, affidabilita e controllo completo della tua infrastruttura LLM.
Gateway a latenza ultra-bassa
Costruito in Go con streaming, connection pooling e pipeline ottimizzate per overhead sotto il millisecondo su ogni richiesta.
Interfaccia multimodello unificata
API standardizzata su OpenAI, Anthropic, Groq, Bedrock, Vertex, Fireworks, LM Studio e strumenti MCP, senza cambiare SDK.
Chiavi API virtuali gerarchiche
Chiavi API isolate con limiti, permessi, scope e audit log per team, utente e progetto.
Firewall AI e guardrail zero-trust
Difesa da prompt injection, rilevamento jailbreak, mascheramento PII e blocco outbound, eseguiti nella pipeline richiesta a velocita wire.
Budget e quote in tempo reale
Tracciamento spesa a livello token con budget hard/soft, throttling dinamico e rilevamento anomalie per uso fuori controllo.
Routing adattivo e failover
Scegli automaticamente il provider piu veloce, economico o sano. Failover immediato quando latenza cresce o ci sono outage.
Motore plugin estendibile
Middleware sequenziale o parallelo per validazione, trasformazioni, compliance, osservabilita o workflow definiti dall'utente.
Code ad alto throughput e batching
Accodamento richieste integrato, backpressure, controlli di concorrenza e micro-batching per operazioni pesanti o lunghe.
Osservabilita profonda
Metriche per modello, chiave e tenant, breakdown latenza, trace richieste e log riproducibili per il debugging.
Perfetto per
Dalle startup alle enterprise: Odock.ai gestisce la tua infrastruttura LLM.
SaaS con AI
Aggiungi funzionalita AI al tuo prodotto senza gestire molte integrazioni API.
Team enterprise
Controlla la spesa AI, applica policy di sicurezza e verifica ogni richiesta.
Startup in rapida crescita
Scala l'utilizzo dietro una singola API senza vendor lock-in o migrazioni complesse.
Workflow abilitati MCP
Crea workflow AI complessi con server Model Context Protocol in modo fluido.
Scegli come fare Dock
Che tu stia iniziando o scalando a milioni di richieste, c'e un piano Odock.ai per te.
Open Source
Self-hosted
Perfetto se ami gestire il tuo stack.
Managed Odock
Ospitato da noi
Noi gestiamo il dock, tu rilasci il prodotto.
Enterprise
Rete privata
Progettato per sicurezza, compliance e scala.
Non sai quale piano fa per te? Unisciti alla waitlist e ti aiutiamo a scegliere.
Domande frequenti
Tutto quello che devi sapere su Odock.ai.
Cos'e Odock.ai?
Come funziona l'API unificata?
Come funzionano i guardrail di sicurezza?
Quali provider sono supportati?
Cosa sono le chiavi API virtuali?
Come funziona il sistema plugin?
Odock.ai e open source?
Come funziona il routing con fallback?
Parla con il nostro team
Ottieni una demo su misura di Odock.ai e scopri come un gateway API unificato puo semplificare routing dei modelli, governance e controlli enterprise per la tua organizzazione.
Supporto enterprise e SLA
Revisioni di sicurezza e compliance
Routing e governance model-agnostic
Opzioni cloud privato e on-prem
Preferisci email? Scrivici a hello@odock.ai e risponderemo entro un giorno lavorativo.
Vuoi contribuire al nostro progetto open source? Visita il nostro GitHub su github.com/odock-ai.