Architecture & déploiement
Une vue claire des modèles SaaS, hybride et on‑premises, alignée avec les options produit.
Hébergement SaaS (UE)
- - Azure Kubernetes Service (AKS) — région UE : West Europe.
- - Données hébergées en UE (RGPD by design).
- - SLA 99.9% (SaaS).
Modèles de déploiement
- - SaaS (Cloud‑Managed) : control plane managé sur Azure (UE).
- - Hybride : control plane SaaS + agents d’exécution sur votre infrastructure.
- - On‑premises : déploiement Kubernetes chez vous + LLM Gateway local (Enterprise + add-on).
- - Charts Helm disponibles (configuration centralisée via values.yaml).
Les contraintes de souveraineté et de réseau peuvent orienter le modèle recommandé.
Construire le business case en 60 secondes
Estimez les gains potentiels à partir de vos hypothèses (temps récupéré, overhead opérationnel). Indicatif.
Indicatif. Évitez le double comptage et calibrez les entrées selon votre baseline.
Commencer gratuitementGains annuels estimés
0 €
Payback
n/a
Payback = investissement mensuel / gains mensuels estimés.
Ce que ce modèle ne capture pas
- • Temps gagné sur audit et conformité
- • Incidents évités via la standardisation
- • Onboarding accéléré et risque attrition réduit
- • Pilotage des coûts IA via quotas et routage
Tarifs simples et transparents
Choisissez le plan adapté à vos besoins. Évoluez à votre rythme. Pas de frais cachés.
Free
Découvrez Argy gratuitement. Idéal pour tester la plateforme.
Quotas inclus
- Dans Argy, un projet représente une application ou un service et ses environnements (dev/staging/prod). C’est l’unité sur laquelle vous appliquez des modules, déploiements et politiques.
- 1 projet
- Un module Argy est un workflow versionné composé d’actions (nœuds) et de connexions, avec des schémas d’inputs/outputs. Il peut se comporter comme un agent doté d’outils via ses actions, dont l’action Argy AI (sous‑agent custom du module).
- 3 modules actifs
- Un pipeline correspond à une exécution (run) orchestrée : étapes, statut, logs temps réel, artefacts et outputs.
- 10 pipelines/mois
- Les tokens IA mesurent la consommation des modèles de langage. Argy les gouverne via le LLM Gateway (quotas, audit, filtrage), pour maîtriser coûts et risques.
- 10 000 tokens IA/mois
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- 0 documents RAG
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- 0 tokens RAG indexés
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- 0 MB stockage RAG
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- 0 requêtes RAG/mois
Fonctionnalités
- Console Argy complète
- Catalogue de modules standard
- Intégrations Git (GitHub, GitLab)
- LLM Gateway SaaS inclus
- Argy Chat inclus
- Support communautaire
- SLA 99.9% de disponibilité (SaaS)
- Pas de SSO
Starter
Pour les startups et petits projets qui veulent standardiser rapidement.
Quotas inclus
- Dans Argy, un projet représente une application ou un service et ses environnements (dev/staging/prod). C’est l’unité sur laquelle vous appliquez des modules, déploiements et politiques.
- 5 projets
- Un module Argy est un workflow versionné composé d’actions (nœuds) et de connexions, avec des schémas d’inputs/outputs. Il peut se comporter comme un agent doté d’outils via ses actions, dont l’action Argy AI (sous‑agent custom du module).
- 20 modules actifs
- Un pipeline correspond à une exécution (run) orchestrée : étapes, statut, logs temps réel, artefacts et outputs.
- 100 pipelines/mois
- Les tokens IA mesurent la consommation des modèles de langage. Argy les gouverne via le LLM Gateway (quotas, audit, filtrage), pour maîtriser coûts et risques.
- 100 000 tokens IA/mois
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- 20 documents RAG
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- 1 000 000 tokens RAG indexés
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- 200 MB stockage RAG
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- 200 requêtes RAG/mois
Fonctionnalités
- Tout le plan Free +
- LLM Gateway SaaS inclus
- Argy Code
- Argy Chat
- Module Studio
- Support par email
- Intégrations Cloud (AWS, Azure, GCP)
- SLA 99.9% de disponibilité (SaaS)
Growth
Pour les scale-ups et projets critiques qui passent à l'échelle.
Quotas inclus
- Dans Argy, un projet représente une application ou un service et ses environnements (dev/staging/prod). C’est l’unité sur laquelle vous appliquez des modules, déploiements et politiques.
- 25 projets
- Un module Argy est un workflow versionné composé d’actions (nœuds) et de connexions, avec des schémas d’inputs/outputs. Il peut se comporter comme un agent doté d’outils via ses actions, dont l’action Argy AI (sous‑agent custom du module).
- 100 modules actifs
- Un pipeline correspond à une exécution (run) orchestrée : étapes, statut, logs temps réel, artefacts et outputs.
- 1 000 pipelines/mois
- Les tokens IA mesurent la consommation des modèles de langage. Argy les gouverne via le LLM Gateway (quotas, audit, filtrage), pour maîtriser coûts et risques.
- 500 000 tokens IA/mois
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- 100 documents RAG
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- 10 000 000 tokens RAG indexés
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- 2 000 MB stockage RAG
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- 1 000 requêtes RAG/mois
Fonctionnalités
- Tout le plan Starter +
- Argy Code
- Argy Chat inclus
- Agents d'exécution self-hosted (option)
- Module Studio
- RAG (Retrieval-Augmented Generation)
- RBAC avancé + Audit logs
- Workflows d'approbation
- Support prioritaire
- SLA 99.9% de disponibilité (SaaS)
Enterprise
Pour les grandes entreprises avec des exigences de conformité et de souveraineté.
Quotas inclus
- Dans Argy, un projet représente une application ou un service et ses environnements (dev/staging/prod). C’est l’unité sur laquelle vous appliquez des modules, déploiements et politiques.
- Illimité
- Un module Argy est un workflow versionné composé d’actions (nœuds) et de connexions, avec des schémas d’inputs/outputs. Il peut se comporter comme un agent doté d’outils via ses actions, dont l’action Argy AI (sous‑agent custom du module).
- Illimité
- Un pipeline correspond à une exécution (run) orchestrée : étapes, statut, logs temps réel, artefacts et outputs.
- Illimité
- Les tokens IA mesurent la consommation des modèles de langage. Argy les gouverne via le LLM Gateway (quotas, audit, filtrage), pour maîtriser coûts et risques.
- Négocié
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- Illimité
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- Illimité
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- Illimité
- Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées.
- Négocié
Fonctionnalités
- Tout le plan Growth +
- LLM Gateway on-premises
- Argy Chat inclus
- Agents d'exécution self-hosted
- RAG sur données internes
- SSO (OIDC/SAML) + SCIM
- Intégration ITSM
- SLA 99.9% garanti
- Support dédié 24/7
- Déploiement dédié ou on-premises
Enterprise propose des déploiements SaaS, dédiés et on-premises. Obtenez un devis personnalisé adapté aux besoins de votre organisation.
Comparez les plans en un coup d'œil
Tous les détails pour vous aider à choisir le bon plan pour votre équipe.
| Fonctionnalité | Free | Starter | Growth | Enterprise |
|---|---|---|---|---|
| Dans Argy, un projet représente une application ou un service et ses environnements (dev/staging/prod). C’est l’unité sur laquelle vous appliquez des modules, déploiements et politiques. | 1 projet | 5 projets | 25 projets | Illimité |
| Un module Argy est un workflow versionné composé d’actions (nœuds) et de connexions, avec des schémas d’inputs/outputs. Il peut se comporter comme un agent doté d’outils via ses actions, dont l’action Argy AI (sous‑agent custom du module). | 3 modules actifs | 20 modules actifs | 100 modules actifs | Illimité |
| Un pipeline correspond à une exécution (run) orchestrée : étapes, statut, logs temps réel, artefacts et outputs. | 10 pipelines/mois | 100 pipelines/mois | 1 000 pipelines/mois | Illimité |
| Les tokens IA mesurent la consommation des modèles de langage. Argy les gouverne via le LLM Gateway (quotas, audit, filtrage), pour maîtriser coûts et risques. | 10 000 tokens IA/mois | 100 000 tokens IA/mois | 500 000 tokens IA/mois | Négocié |
| Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées. | 0 documents RAG | 20 documents RAG | 100 documents RAG | Illimité |
| Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées. | 0 tokens RAG indexés | 1 000 000 tokens RAG indexés | 10 000 000 tokens RAG indexés | Illimité |
| Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées. | 0 MB stockage RAG | 200 MB stockage RAG | 2 000 MB stockage RAG | Illimité |
| Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées. | 0 requêtes RAG/mois | 200 requêtes RAG/mois | 1 000 requêtes RAG/mois | Négocié |
| Le LLM Gateway centralise et sécurise les appels IA (providers, quotas, audit, filtres) et expose une API compatible OpenAI.LLM Gateway | ||||
| Argy Code est un agent IA en terminal pour les développeurs. Il supporte un mode interactif (TUI) et un mode autonome (argy run) pour l’automatisation, avec des outils intégrés (Bash, fichiers, Git, MCP).Argy Code | ||||
| Argy Chat est l’assistant conversationnel gouverné. Workspace projets/dossiers/conversations, upload et indexation de documents (RAG), intégration MCP, partage des conversations (privé ou tenant) et streaming en temps réel.Argy Chat | ||||
| Module Studio est l’éditeur visuel (drag-and-drop) pour concevoir des modules : actions, connexions, simulation, publication et versioning. Un assistant IA peut générer et configurer des workflows à partir du langage naturel.Module Studio | ||||
| RAG | ||||
| RBAC avancé | ||||
| SSO + SCIM | Option | Option | ||
| Agents self-hosted | Option | |||
| LLM Gateway on-premises | Option | |||
| SLA | 99.9% | 99.9% | 99.9% | — |
| Support | Communauté | Prioritaire | Dédié 24/7 |
Options & Capacité additionnelle
Complétez Argy avec des options — gardez des coûts prévisibles tout en évoluant.
+100 000 tokens IA
Augmentez votre quota de tokens pour l'indexation RAG et le LLM Gateway.
Disponible pour : Free, Starter, Growth, Enterprise
+100 pipelines/mois
Exécutez plus de pipelines de déploiement chaque mois.
Disponible pour : Starter, Growth, Enterprise
Agents d'exécution self-hosted (hybride)
Activez un agent self-hosted pour exécuter les actions sensibles dans votre réseau.
Disponible pour : Growth
LLM Gateway on-premises
Déployez le LLM Gateway dans votre infrastructure pour garder les données IA en interne.
Disponible pour : Growth
SSO (OIDC/SAML)
Authentification unique via votre fournisseur d'identité.
Disponible pour : Starter, Growth (inclus dans Enterprise)
SCIM / Provisionnement annuaire
Synchronisation automatique des utilisateurs et groupes.
Disponible pour : Growth, Enterprise
Formation onboarding
Session de formation personnalisée pour vos équipes.
Disponible pour : Tous les plans
Support dédié
Accès prioritaire à un ingénieur support dédié.
Disponible pour : Starter, Growth (inclus dans Enterprise)
Questions fréquentes
Y a-t-il une limite sur le nombre d'utilisateurs ?
Non ! Tous les plans Argy incluent un nombre illimité d'utilisateurs. Vous payez pour les capacités (projets, modules, pipelines, tokens IA), pas pour les sièges.
Comment fonctionne la facturation des tokens IA ?
1 crédit Argy = 1 000 000 tokens. Les tokens sont consommés lors des appels au LLM Gateway (Argy Code, assistant IA, RAG). Vous pouvez suivre votre consommation en temps réel dans la console.
Puis-je changer de plan à tout moment ?
Oui, vous pouvez upgrader à tout moment. Le changement est effectif immédiatement et la facturation est proratisée. Pour un downgrade, contactez notre équipe.
Qu'est-ce que le LLM Gateway on-premises ?
Le LLM Gateway on-premises vous permet de déployer la passerelle IA dans votre infrastructure. Vos données et clés API LLM restent dans votre périmètre, idéal pour les entreprises avec des contraintes de souveraineté.
Les agents self-hosted sont-ils sécurisés ?
Oui. Les agents établissent uniquement des connexions sortantes (HTTPS) vers Argy. Aucun port entrant n'est exposé. Les credentials restent dans votre infrastructure.
Proposez-vous des réductions pour les engagements annuels ?
Oui, nous offrons une réduction de 15% pour les engagements annuels. Contactez notre équipe commerciale pour en savoir plus.
Prêt à transformer votre DevSecOps ?
Commencez avec le plan Free pour tester Argy en self-service. Demandez une démo si vous souhaitez un onboarding guidé ou des conseils de déploiement enterprise.
Pas de carte bancaire requise • -15% sur les plans annuels • Résiliable à tout moment
FAQ
Les questions qu’on nous pose le plus souvent.
Argy remplace‑t‑il vos outils existants ?⌃
Non. Argy s’interface avec votre stack (Git, CI/CD, cloud, Kubernetes, observabilité, identité). Le rôle d’Argy est de standardiser, automatiser et gouverner via des modules versionnés (golden paths).
Qu’est‑ce qu’un ‘module’ Argy ?⌃
Un module Argy est un workflow versionné composé d’actions (nœuds) et de connexions (DAG), avec des schémas d’inputs/outputs. Il peut se comporter comme un agent doté d’outils via ses actions, y compris l’action Argy AI (sous‑agent custom du module).
Qu’est‑ce qu’un Golden Path ?⌃
Un Golden Path est un module versionné, validé et approuvé par l’organisation. Il capture les meilleures pratiques et permet un self‑service sans compromis sur la gouvernance.
Comment Argy gouverne l’usage des LLM ?⌃
Via le LLM Gateway : routage multi‑providers, chaînes de fallback, quotas, filtres (PII/secrets/prompt injection/sujets interdits) et audit complet des requêtes.
Quels sont les mécanismes de conformité et de traçabilité ?⌃
Politiques d’approbation, journaux d’audit exportables (CSV), rétention minimale 90 jours, IDs de corrélation, et isolation multi‑tenant (RLS PostgreSQL, prefixes Redis, headers x-tenant-id/x-org-id validés).
Argy est-il adapté aux grandes entreprises ?⌃
Oui. Argy est conçu pour des environnements exigeants : IAM passwordless-first, RBAC, workflows d’approbation, audit complet, options SaaS/hybride/on‑prem, et souveraineté UE (hébergement UE).
SaaS Européen
Conforme RGPD & hébergé en UE
Pas de Lock-in
Basé sur des standards ouverts
API-First
Tout est automatisable
Prêt à démarrer avec Argy ?
Commencez gratuitement avec le plan Free. Vous pourrez upgrader ensuite, ou nous contacter pour un déploiement enterprise.