Python
GateCtr + LlamaIndex
Add budget control and token optimization to LlamaIndex pipelines
1
Installer
Aucun package supplémentaire requis. Utilisez votre installation LlamaIndex existante.
2
Configurer
Avant
from llama_index.llms.openai import OpenAI llm = OpenAI(model="gpt-4o", api_key="sk-...")
Après GateCtr
from llama_index.llms.openai import OpenAI
llm = OpenAI(
model="gpt-4o",
api_key="sk-...",
api_base="https://api.gatectr.com/v1"
)3
Tester
Faites un appel test et vérifiez les économies de tokens dans le dashboard GateCtr.
Ce que GateCtr fait en coulisses pour LlamaIndex
Quand vous routez les appels LlamaIndex via GateCtr, chaque requête est automatiquement compressée (jusqu'à 40% de tokens en moins), scorée pour la complexité (pour sélectionner le modèle optimal) et vérifiée par rapport à votre budget cap avant d'atteindre le provider LLM. Vous obtenez une visibilité complète — tokens, coût, latence — dans le dashboard GateCtr.
Modèles compatibles
Économisez avec LlamaIndex — gratuit
Sans carte bancaire. Opérationnel en 5 minutes.
Démarrer gratuitement