Aller au contenu

Argy AI

Argy AI (LLM Gateway) : gouvernance multi-providers avec routage, quotas, filtres sécurité et audit.

Argy AI est la couche de gouvernance LLM multi-providers d’Argy (le LLM Gateway).

Elle se place entre vos utilisateurs/agents et vos providers pour appliquer quotas, filtres de sécurité, audit et routage sans changer vos intégrations clientes.

Providers supportés

Argy AI supporte plusieurs providers (par exemple : OpenAI, Anthropic, Mistral, xAI, Google, Azure OpenAI). Le choix du provider peut être piloté par routage et politiques.

Routage et fallback

Argy AI peut router selon :

  • le type de tâche (chat, code, OCR, embeddings),
  • des chaînes de fallback (bascule provider),
  • des préférences de souveraineté (forcer un provider),
  • un arbitrage coût/qualité.

Filtres de sécurité

Argy AI fournit des filtres intégrés, par exemple :

  • redaction PII
  • détection de secrets (clés API, mots de passe, tokens)
  • défense contre la prompt injection
  • filtrage de sujets interdits
  • masking/blocage de sortie

Quotas, budgets et dashboards

Vous pouvez définir des allocations et quotas :

  • par plan,
  • par organisation/équipe,
  • avec des seuils d’alerte (ex. warning/critique).

Le dashboard de facturation/usage peut afficher la consommation en temps réel, les requêtes bloquées et des signaux de coût (ex. coût / 1K tokens).

Auditabilité

Chaque requête peut être tracée (utilisateur, modèle, tenant), avec correlation IDs, rétention (minimum 90 jours) et exports CSV. Une option de chiffrement AES-256 peut être activée pour le contenu requêtes/réponses.

API compatible OpenAI

Argy AI expose des endpoints compatibles OpenAI :

  • POST /v1/chat/completions
  • POST /v1/embeddings
  • POST /v1/agent/steps
  • GET /v1/models (découverte dynamique)

Utilisez GET /v1/models pour découvrir les model ids disponibles au runtime. Évitez de figer des noms de modèles côté clients.

Note Studio : l’action Argy AI

Dans Module Studio, une des actions disponibles est Argy AI : une étape IA définie au niveau du module (prompts + outils) capable d’orchestrer des sous‑agents. C’est le mécanisme qui permet aux entreprises de créer leurs propres agents IA gouvernés au sein des modules.

Aller plus loin