In arrivo • Open source

Un solo Dock per
OpenAI

Gateway API unificato per tutti i modelli e strumenti AI. Sicurezza enterprise, governance delle quote e plugin estendibili tramite un unico endpoint.

Illustrazione hero

Come funziona Odock.ai

Pensato per team che gestiscono complessita. Controllo unificato con affidabilita di livello enterprise.

01

Definisci provider e strumenti

Registra provider LLM, database vettoriali e strumenti MCP. Tutto diventa subito accessibile tramite un unico endpoint standardizzato.

02

Emetti chiavi API virtuali

Crea chiavi API isolate per organizzazioni, team, utenti o progetti con controlli di policy granulari e permessi a livello modello.

03

Applica guardrail di sicurezza

Odock applica automaticamente protezione da prompt injection, filtro jailbreak, rate limit, controlli perdita dati e regole di output sicuro.

04

Definisci budget e quote

Assegna limiti di spesa, quote token e limiti d'uso per chiave API. Ottieni monitoraggio costi in tempo reale e applicazione automatica.

05

Estendi con plugin e workflow

Collega plugin personalizzati per pre-elaborare, validare, trasformare o arricchire richieste e risposte, in sequenza o in parallelo.

06

Monitora, accoda e failover automatico

Traccia i flussi richiesta, ispeziona le code, controlla il batching e abilita failover fluido tra provider quando si verificano outage.

Perche e diverso

A differenza dei gateway API tradizionali, Odock.ai e progettato specificamente per gli LLM con sicurezza enterprise integrata fin dal primo giorno.

Design security-first con guardrail sempre attivi

Previeni automaticamente la perdita di dati verso API esterne

Gestione unificata di utenti e quote tra provider

Pipeline plugin estendibile per integrazioni personalizzate

Open source: completamente trasparente e verificabile

Utilizzo stile OpenAI

Compatibile drop-in

Sostituisci solo URL e chiave API virtuale.

inference.py — nano
from openai import OpenAI

client = OpenAI(
    api_key="YOUR_VIRTUAL_API_KEY",
    base_url="https://your-gateway-url",  # ← replace with your URL
)

response = client.chat.completions.create(
    model="any-model",
    messages=[
        {"role": "user", "content": "Say hello from your gateway."},
    ],
)

print(response.choices[0].message.content)

Funzionalita principali

Progettato per prestazioni, affidabilita e controllo completo della tua infrastruttura LLM.

odock@server: ~/bash

Gateway a latenza ultra-bassa

Costruito in Go con streaming, connection pooling e pipeline ottimizzate per overhead sotto il millisecondo su ogni richiesta.

Interfaccia multimodello unificata

API standardizzata su OpenAI, Anthropic, Groq, Bedrock, Vertex, Fireworks, LM Studio e strumenti MCP, senza cambiare SDK.

Chiavi API virtuali gerarchiche

Chiavi API isolate con limiti, permessi, scope e audit log per team, utente e progetto.

Firewall AI e guardrail zero-trust

Difesa da prompt injection, rilevamento jailbreak, mascheramento PII e blocco outbound, eseguiti nella pipeline richiesta a velocita wire.

Budget e quote in tempo reale

Tracciamento spesa a livello token con budget hard/soft, throttling dinamico e rilevamento anomalie per uso fuori controllo.

Routing adattivo e failover

Scegli automaticamente il provider piu veloce, economico o sano. Failover immediato quando latenza cresce o ci sono outage.

Motore plugin estendibile

Middleware sequenziale o parallelo per validazione, trasformazioni, compliance, osservabilita o workflow definiti dall'utente.

Code ad alto throughput e batching

Accodamento richieste integrato, backpressure, controlli di concorrenza e micro-batching per operazioni pesanti o lunghe.

Osservabilita profonda

Metriche per modello, chiave e tenant, breakdown latenza, trace richieste e log riproducibili per il debugging.

Perfetto per

Dalle startup alle enterprise: Odock.ai gestisce la tua infrastruttura LLM.

SaaS con AI

Aggiungi funzionalita AI al tuo prodotto senza gestire molte integrazioni API.

Team enterprise

Controlla la spesa AI, applica policy di sicurezza e verifica ogni richiesta.

Startup in rapida crescita

Scala l'utilizzo dietro una singola API senza vendor lock-in o migrazioni complesse.

Workflow abilitati MCP

Crea workflow AI complessi con server Model Context Protocol in modo fluido.

Scegli come fare Dock

Che tu stia iniziando o scalando a milioni di richieste, c'e un piano Odock.ai per te.

Open Source

Self-hosted

Perfetto se ami gestire il tuo stack.

Gratuito e open source
Self-host sulla tua infrastruttura
Plugin guidati dalla community
Controllo e personalizzazione completi
Community sviluppatori attiva
MIGLIORE

Managed Odock

Ospitato da noi

Noi gestiamo il dock, tu rilasci il prodotto.

Nessun hosting o infrastruttura necessaria
Scalabilita e aggiornamenti automatici
Plugin community + premium
Billing e quote unificate
Guardrail di sicurezza livello enterprise

Enterprise

Rete privata

Progettato per sicurezza, compliance e scala.

Ambiente dedicato e isolato
Deploy sul nostro cloud o sul tuo
Auth enterprise (SSO, SAML, OAuth)
Compliance avanzata e SLA personalizzati
Plugin personalizzati e modelli privati

Non sai quale piano fa per te? Unisciti alla waitlist e ti aiutiamo a scegliere.

Domande frequenti

Tutto quello che devi sapere su Odock.ai.

Cos'e Odock.ai?

Come funziona l'API unificata?

Come funzionano i guardrail di sicurezza?

Quali provider sono supportati?

Cosa sono le chiavi API virtuali?

Come funziona il sistema plugin?

Odock.ai e open source?

Come funziona il routing con fallback?

Contatto

Parla con il nostro team

Ottieni una demo su misura di Odock.ai e scopri come un gateway API unificato puo semplificare routing dei modelli, governance e controlli enterprise per la tua organizzazione.

Supporto enterprise e SLA

Revisioni di sicurezza e compliance

Routing e governance model-agnostic

Opzioni cloud privato e on-prem

Preferisci email? Scrivici a hello@odock.ai e risponderemo entro un giorno lavorativo.

Vuoi contribuire al nostro progetto open source? Visita il nostro GitHub su github.com/odock-ai.

Contatta il nostro team
Condividi qualche dettaglio cosi possiamo preparare la demo e le indicazioni piu adatte a te.

Inviando questo modulo, accetti la nostra informativa sulla privacy e i termini di servizio.