Argy AI
Argy AI (LLM Gateway) : gouvernance multi-providers avec routage, quotas, filtres sécurité et audit.
Argy AI est la couche de gouvernance LLM multi-providers d’Argy (le LLM Gateway).
Elle se place entre vos utilisateurs/agents et vos providers pour appliquer quotas, filtres de sécurité, audit et routage sans changer vos intégrations clientes.
Providers supportés
Argy AI supporte plusieurs providers (par exemple : OpenAI, Anthropic, Mistral, xAI, Google, Azure OpenAI). Le choix du provider peut être piloté par routage et politiques.
Routage et fallback
Argy AI peut router selon :
- le type de tâche (chat, code, OCR, embeddings),
- des chaînes de fallback (bascule provider),
- des préférences de souveraineté (forcer un provider),
- un arbitrage coût/qualité.
Filtres de sécurité
Argy AI fournit des filtres intégrés, par exemple :
- redaction PII
- détection de secrets (clés API, mots de passe, tokens)
- défense contre la prompt injection
- filtrage de sujets interdits
- masking/blocage de sortie
Quotas, budgets et dashboards
Vous pouvez définir des allocations et quotas :
- par plan,
- par organisation/équipe,
- avec des seuils d’alerte (ex. warning/critique).
Le dashboard de facturation/usage peut afficher la consommation en temps réel, les requêtes bloquées et des signaux de coût (ex. coût / 1K tokens).
Auditabilité
Chaque requête peut être tracée (utilisateur, modèle, tenant), avec correlation IDs, rétention (minimum 90 jours) et exports CSV. Une option de chiffrement AES-256 peut être activée pour le contenu requêtes/réponses.
API compatible OpenAI
Argy AI expose des endpoints compatibles OpenAI :
POST /v1/chat/completionsPOST /v1/embeddingsPOST /v1/agent/stepsGET /v1/models(découverte dynamique)
Utilisez GET /v1/models pour découvrir les model ids disponibles au runtime. Évitez de figer des noms de modèles côté clients.
Note Studio : l’action Argy AI
Dans Module Studio, une des actions disponibles est Argy AI : une étape IA définie au niveau du module (prompts + outils) capable d’orchestrer des sous‑agents. C’est le mécanisme qui permet aux entreprises de créer leurs propres agents IA gouvernés au sein des modules.
Aller plus loin
- Vue d’ensemble : LLM Gateway
- Concevoir des modules : Concevoir des modules
- Contrôles de gouvernance : Policies & garde‑fous