Tarifs simples et transparents
Choisissez le plan adapté à vos besoins. Évoluez à votre rythme. Pas de frais cachés.
Tokens Virtuels Argy : transparence radicale sur les coûts IA
La règle : 1 crédit Argy = 1M tokens virtuels = 50 € HT. Pour chaque million de tokens virtuels, votre équipe accède en moyenne à 3,8M tokens réels providers (OpenAI, Anthropic, Mistral, Google, xAI…) grâce au routage intelligent. La console affiche en millions. Zéro crédit opaque, zéro marge cachée.
Free
Découvrez Argy gratuitement. Idéal pour tester la plateforme.
Quotas inclus
- Dans Argy, un projet représente une application ou un service et ses environnements (dev/staging/prod). C’est l’unité sur laquelle vous appliquez des modules, déploiements et politiques.
- 1 projet
- Un module Argy est un workflow versionné composé d’actions (nœuds) et de connexions, avec des schémas d’inputs/outputs. Il peut se comporter comme un agent doté d’outils via ses actions, dont l’action Argy AI (sous‑agent custom du module).
- 3 modules actifs
- Un pipeline correspond à une exécution (run) orchestrée : étapes, statut, logs temps réel, artefacts et outputs.
- 10 pipelines/mois
- Les tokens IA mesurent la consommation des modèles de langage. Argy les gouverne via le LLM Gateway (quotas, audit, filtrage), pour maîtriser coûts et risques.
- 0,01M tokens virtuels/mois≈ 0,038M tokens réels providers
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- 0 documents RAG
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- 0 tokens RAG indexés
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- 0 MB stockage RAG
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- 0 requêtes RAG/mois
Fonctionnalités
- Console Argy complète
- Catalogue de modules standard
- Intégrations Git (GitHub, GitLab)
- LLM Gateway SaaS inclus
- Argy Chat inclus
- Dashboard temps réel de consommation IA
- Support communautaire
- SLA 99.9% de disponibilité (SaaS)
- Pas de SSO
Starter
Pour les startups et petits projets qui veulent standardiser rapidement.
Quotas inclus
- Dans Argy, un projet représente une application ou un service et ses environnements (dev/staging/prod). C’est l’unité sur laquelle vous appliquez des modules, déploiements et politiques.
- 5 projets
- Un module Argy est un workflow versionné composé d’actions (nœuds) et de connexions, avec des schémas d’inputs/outputs. Il peut se comporter comme un agent doté d’outils via ses actions, dont l’action Argy AI (sous‑agent custom du module).
- 20 modules actifs
- Un pipeline correspond à une exécution (run) orchestrée : étapes, statut, logs temps réel, artefacts et outputs.
- 100 pipelines/mois
- Les tokens IA mesurent la consommation des modèles de langage. Argy les gouverne via le LLM Gateway (quotas, audit, filtrage), pour maîtriser coûts et risques.
- 0,1M tokens virtuels/mois≈ 0,38M tokens réels providers
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- 20 documents RAG
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- 1 000 000 tokens RAG indexés
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- 200 MB stockage RAG
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- 200 requêtes RAG/mois
Fonctionnalités
- Tout le plan Free +
- LLM Gateway SaaS multi-providers (OpenAI, Anthropic, Mistral…)
- Argy Code — agent CLI gouverné
- Argy Chat
- Module Studio
- Routage intelligent — modèle le moins cher adapté à la tâche
- Support par email
- Intégrations Cloud (AWS, Azure, GCP)
- SLA 99.9% de disponibilité (SaaS)
Growth
Pour les scale-ups et projets critiques qui passent à l'échelle.
Quotas inclus
- Dans Argy, un projet représente une application ou un service et ses environnements (dev/staging/prod). C’est l’unité sur laquelle vous appliquez des modules, déploiements et politiques.
- 25 projets
- Un module Argy est un workflow versionné composé d’actions (nœuds) et de connexions, avec des schémas d’inputs/outputs. Il peut se comporter comme un agent doté d’outils via ses actions, dont l’action Argy AI (sous‑agent custom du module).
- 100 modules actifs
- Un pipeline correspond à une exécution (run) orchestrée : étapes, statut, logs temps réel, artefacts et outputs.
- 1 000 pipelines/mois
- Les tokens IA mesurent la consommation des modèles de langage. Argy les gouverne via le LLM Gateway (quotas, audit, filtrage), pour maîtriser coûts et risques.
- 0,5M tokens virtuels/mois≈ 1,9M tokens réels providers
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- 100 documents RAG
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- 10 000 000 tokens RAG indexés
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- 2 000 MB stockage RAG
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- 1 000 requêtes RAG/mois
Fonctionnalités
- Tout le plan Starter +
- Argy Code — accès illimité, tous modèles
- Argy Chat inclus
- Agents d'exécution self-hosted (option)
- Module Studio — Golden Paths réutilisables
- RAG (Retrieval-Augmented Generation) tenant-aware
- RBAC avancé + Audit logs (conformité AI Act)
- Workflows d'approbation
- Détection Shadow AI — centralise les usages non gouvernés
- Support prioritaire
- SLA 99.9% de disponibilité (SaaS)
Enterprise
Pour les grandes entreprises avec des exigences de conformité et de souveraineté.
Quotas inclus
- Dans Argy, un projet représente une application ou un service et ses environnements (dev/staging/prod). C’est l’unité sur laquelle vous appliquez des modules, déploiements et politiques.
- Illimité
- Un module Argy est un workflow versionné composé d’actions (nœuds) et de connexions, avec des schémas d’inputs/outputs. Il peut se comporter comme un agent doté d’outils via ses actions, dont l’action Argy AI (sous‑agent custom du module).
- Illimité
- Un pipeline correspond à une exécution (run) orchestrée : étapes, statut, logs temps réel, artefacts et outputs.
- Illimité
- Les tokens IA mesurent la consommation des modèles de langage. Argy les gouverne via le LLM Gateway (quotas, audit, filtrage), pour maîtriser coûts et risques.
- Tokens virtuels négociés~3,8M tokens réels par million de tokens virtuels
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- Illimité
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- Illimité
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- Illimité
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- Négocié
Fonctionnalités
- Tout le plan Growth +
- LLM Gateway on-premises — données IA dans votre périmètre
- Argy Chat inclus
- Agents d'exécution self-hosted
- RAG sur données internes
- SSO (OIDC/SAML) + SCIM
- Intégration ITSM
- Conformité AI Act native — audit logs, traçabilité PII
- Déploiement Cloud Souverain UE ou on-premises
- SLA 99.9% garanti
- Support dédié 24/7
Enterprise propose des déploiements SaaS, dédiés et on-premises. Obtenez un devis personnalisé adapté aux besoins de votre organisation.
Comparez les plans en un coup d'œil
Tous les détails pour vous aider à choisir le bon plan pour votre équipe.
| Fonctionnalité | Free | Starter | Growth | Enterprise |
|---|---|---|---|---|
| Dans Argy, un projet représente une application ou un service et ses environnements (dev/staging/prod). C’est l’unité sur laquelle vous appliquez des modules, déploiements et politiques. | 1 projet | 5 projets | 25 projets | Illimité |
| Un module Argy est un workflow versionné composé d’actions (nœuds) et de connexions, avec des schémas d’inputs/outputs. Il peut se comporter comme un agent doté d’outils via ses actions, dont l’action Argy AI (sous‑agent custom du module). | 3 modules actifs | 20 modules actifs | 100 modules actifs | Illimité |
| Un pipeline correspond à une exécution (run) orchestrée : étapes, statut, logs temps réel, artefacts et outputs. | 10 pipelines/mois | 100 pipelines/mois | 1 000 pipelines/mois | Illimité |
| Les tokens IA mesurent la consommation des modèles de langage. Argy les gouverne via le LLM Gateway (quotas, audit, filtrage), pour maîtriser coûts et risques. | 0,01M tokens virtuels/mois | 0,1M tokens virtuels/mois | 0,5M tokens virtuels/mois | Tokens virtuels négociés |
| Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées. | 0 documents RAG | 20 documents RAG | 100 documents RAG | Illimité |
| Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées. | 0 tokens RAG indexés | 1 000 000 tokens RAG indexés | 10 000 000 tokens RAG indexés | Illimité |
| Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées. | 0 MB stockage RAG | 200 MB stockage RAG | 2 000 MB stockage RAG | Illimité |
| Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées. | 0 requêtes RAG/mois | 200 requêtes RAG/mois | 1 000 requêtes RAG/mois | Négocié |
| Le LLM Gateway centralise et sécurise les appels IA (providers, quotas, audit, filtres) et expose une API compatible OpenAI.LLM Gateway | ||||
| Argy Code est un agent IA en terminal pour les développeurs. Il supporte un mode interactif (TUI) et un mode autonome (argy run) pour l’automatisation, avec des outils intégrés (Bash, fichiers, Git, MCP).Argy Code | ||||
| Argy Chat est l’assistant conversationnel gouverné. Workspace projets/dossiers/conversations, upload et indexation de documents (RAG), intégration MCP, partage des conversations (privé ou tenant) et streaming en temps réel.Argy Chat | ||||
| Module Studio est l’éditeur visuel (drag-and-drop) pour concevoir des modules : actions, connexions, simulation, publication et versioning. Un assistant IA peut générer et configurer des workflows à partir du langage naturel.Module Studio | ||||
| RAG | ||||
| RBAC avancé | ||||
| SSO + SCIM | Option | Option | ||
| Agents self-hosted | Option | |||
| LLM Gateway on-premises | Option | |||
| SLA | 99.9% | 99.9% | 99.9% | — |
| Support | Communauté | Prioritaire | Dédié 24/7 |
Options & Capacité additionnelle
Complétez Argy avec des options — gardez des coûts prévisibles tout en évoluant.
+1M tokens virtuels Argy (1 crédit)
1 crédit = 1M tokens virtuels = ~3,8M tokens réels providers en moyenne. Augmentez votre quota pour le LLM Gateway, Argy Code et RAG. Achetez autant de crédits que nécessaire.
Disponible pour : Free, Starter, Growth, Enterprise
+100 pipelines/mois
Exécutez plus de pipelines de déploiement chaque mois.
Disponible pour : Starter, Growth, Enterprise
Agents d'exécution self-hosted (hybride)
Activez un agent self-hosted pour exécuter les actions sensibles dans votre réseau.
Disponible pour : Growth
LLM Gateway on-premises
Déployez le LLM Gateway dans votre infrastructure pour garder les données IA en interne.
Disponible pour : Growth
SSO (OIDC/SAML)
Authentification unique via votre fournisseur d'identité.
Disponible pour : Starter, Growth (inclus dans Enterprise)
SCIM / Provisionnement annuaire
Synchronisation automatique des utilisateurs et groupes.
Disponible pour : Growth, Enterprise
Formation onboarding
Session de formation personnalisée pour vos équipes.
Disponible pour : Tous les plans
Support dédié
Accès prioritaire à un ingénieur support dédié.
Disponible pour : Starter, Growth (inclus dans Enterprise)
Questions fréquentes
Y a-t-il une limite sur le nombre d'utilisateurs ?
Non ! Tous les plans Argy incluent un nombre illimité d'utilisateurs. Vous payez pour les capacités (projets, modules, pipelines, tokens), pas pour les sièges.
Qu'est-ce qu'un token virtuel Argy ?
Les tokens affichés dans vos quotas Argy sont des Tokens Virtuels Argy — une unité normalisée et transparente. La règle est simple et transparente : 1 crédit Argy = 1 million de tokens virtuels = 50 € HT. Pour chaque million de tokens virtuels, le LLM Gateway d'Argy vous donne accès en moyenne à 3,8 millions de tokens réels auprès des providers (OpenAI, Anthropic, Mistral, Google, xAI…), grâce au routage intelligent qui sélectionne le modèle le plus efficace pour chaque tâche. Zéro marge cachée : le dashboard affiche en temps réel la consommation en millions de tokens virtuels et l'équivalent réel par provider.
Comment fonctionne la facturation des tokens IA ?
1 crédit Argy = 1 million de tokens virtuels = 50 € HT. Les tokens sont consommés lors de chaque appel au LLM Gateway (Argy Code, assistant IA, RAG). La console affiche la consommation en millions (ex : 0,84M virtuels → ~3,2M réels ce mois-ci). Le routage intelligent oriente chaque requête vers le modèle le plus rentable, maximisant l'équivalent réel que vous obtenez pour chaque token virtuel consommé.
Puis-je changer de plan à tout moment ?
Oui, vous pouvez upgrader à tout moment. Le changement est effectif immédiatement et la facturation est proratisée. Pour un downgrade, contactez notre équipe.
Qu'est-ce que le LLM Gateway on-premises ?
Le LLM Gateway on-premises vous permet de déployer la passerelle IA dans votre infrastructure. Vos données et clés API LLM restent dans votre périmètre, idéal pour les entreprises avec des contraintes de souveraineté et de conformité AI Act.
Les agents self-hosted sont-ils sécurisés ?
Oui. Les agents établissent uniquement des connexions sortantes (HTTPS) vers Argy. Aucun port entrant n'est exposé. Les credentials restent dans votre infrastructure.
Proposez-vous des réductions pour les engagements annuels ?
Oui, nous offrons une réduction de 15% pour les engagements annuels. Contactez notre équipe commerciale pour en savoir plus.
Comment Argy se compare-t-il à GitHub Copilot ou Claude Code ?
GitHub Copilot et Claude Code sont des outils excellents mais mono-provider et sans gouvernance d'entreprise. Argy Code offre la même puissance de génération de code tout en étant agnostique au provider : passez de Claude Sonnet à GPT-5 ou Mistral sans changer votre workflow. Ajoutez la conformité AI Act, la détection Shadow AI, et des coûts transparents via les tokens virtuels — c'est l'avantage Argy.
Prêt à transformer votre DevSecOps ?
Commencez avec le plan Free pour tester Argy en self-service. Demandez une démo si vous souhaitez un onboarding guidé ou des conseils de déploiement enterprise.
Pas de carte bancaire requise • -15% sur les plans annuels • Résiliable à tout moment
Visibilité totale sur chaque requête IA
1 crédit Argy = 1M tokens virtuels = 50 € HT. Pour chaque million de tokens virtuels, votre équipe obtient ~3,8M tokens réels providers en moyenne. La console affiche toujours la consommation en millions — zéro boîte noire, zéro facture surprise.
0.84 M
Tokens virtuels consommés
ce mois · 1 crédit = 1M = 50 € HT
~3.2 M
Tokens réels providers
équivalent effectif (~3.8× en moy.)
−67 %
Économie vs tarif direct
grâce au routage intelligent
100 %
Conformité AI Act
requêtes auditées et traçables
Consommation tokens — Mars 2026
Répartition par modèle · en millions (M) · tokens virtuels → tokens réels providers
| Modèle | Virtuels (M) | Réels providers (M) | Ratio | Part d'usage |
|---|---|---|---|---|
claude-sonnet-4-6 | 0.32 M | 0.96 M | ×3.0 | 38% |
gpt-5.4 | 0.22 M | 0.55 M | ×2.5 | 26% |
gemini-3.1-pro | 0.14 M | 0.57 M | ×4.0 | 17% |
devstral | 0.09 M | 0.47 M | ×5.0 | 11% |
grok-code | 0.06 M | 0.24 M | ×4.0 | 8% |
| Ratio moyen total | 0.83 M | ~3.2 M | ~×3.8 |
Construire le business case en 60 secondes
Estimez les gains potentiels à partir de vos hypothèses (temps récupéré, overhead opérationnel). Indicatif.
Indicatif. Évitez le double comptage et calibrez les entrées selon votre baseline.
Commencer gratuitementGains annuels estimés
0 €
Payback
n/a
Payback = investissement mensuel / gains mensuels estimés.
Ce que ce modèle ne capture pas
- • Temps gagné sur audit et conformité
- • Incidents évités via la standardisation
- • Onboarding accéléré et risque attrition réduit
- • Pilotage des coûts IA via quotas et routage
Architecture & déploiement
Une vue claire des modèles SaaS, hybride et on‑premises, alignée avec les options produit.
Hébergement SaaS (UE)
- - Azure Kubernetes Service (AKS) — région UE : France Centrale.
- - Données hébergées en UE (RGPD by design).
- - SLA 99.9% (SaaS).
Modèles de déploiement
- - SaaS (Cloud‑Managed) : control plane managé sur Azure (UE).
- - Hybride : control plane SaaS + agents d’exécution sur votre infrastructure.
- - On‑premises : déploiement Kubernetes chez vous + LLM Gateway local (Enterprise + add-on).
- - Charts Helm disponibles (configuration centralisée via values.yaml).
Les contraintes de souveraineté et de réseau peuvent orienter le modèle recommandé.
FAQ
Les questions qu’on nous pose le plus souvent.
Argy remplace‑t‑il vos outils existants ?⌃
Non. Argy s’interface avec votre stack (Git, CI/CD, cloud, Kubernetes, observabilité, identité). Le rôle d’Argy est de standardiser, automatiser et gouverner via des modules versionnés (golden paths).
Qu’est‑ce qu’un ‘module’ Argy ?⌃
Un module Argy est un workflow versionné composé d’actions (nœuds) et de connexions (DAG), avec des schémas d’inputs/outputs. Il peut se comporter comme un agent doté d’outils via ses actions, y compris l’action Argy AI (sous‑agent custom du module).
Qu’est‑ce qu’un Golden Path ?⌃
Un Golden Path est un module versionné, validé et approuvé par l’organisation. Il capture les meilleures pratiques et permet un self‑service sans compromis sur la gouvernance.
Comment Argy gouverne l’usage des LLM ?⌃
Via le LLM Gateway : routage multi‑providers, chaînes de fallback, quotas, filtres (PII/secrets/prompt injection/sujets interdits) et audit complet des requêtes.
Quels sont les mécanismes de conformité et de traçabilité ?⌃
Politiques d’approbation, journaux d’audit exportables (CSV), rétention minimale 90 jours, IDs de corrélation, et isolation multi‑tenant (RLS PostgreSQL, prefixes Redis, headers x-tenant-id/x-org-id validés).
Argy est-il adapté aux grandes entreprises ?⌃
Oui. Argy est conçu pour des environnements exigeants : IAM passwordless-first, RBAC, workflows d’approbation, audit complet, options SaaS/hybride/on‑prem, et souveraineté UE (hébergement UE).
SaaS Européen
Conforme RGPD & hébergé en UE
Pas de Lock-in
Basé sur des standards ouverts
API-First
Tout est automatisable
Prêt à démarrer avec Argy ?
Commencez gratuitement avec le plan Free. Vous pourrez upgrader ensuite, ou nous contacter pour un déploiement enterprise.