Constructeur de flux de travail d'agents d'IA open source, offrant une interface visuelle légère pour construire et déployer rapidement des applications LLM connectant divers outils.
Sim Studio - Constructeur de flux de travail d'agents IA open-source
Aperçu du projet
Sim Studio est une plateforme puissante et conviviale qui permet aux développeurs de construire, tester et optimiser des flux de travail d'agents intelligents. C'est un constructeur de flux de travail d'agents IA open-source, offrant une interface légère et intuitive pour construire et déployer rapidement des LLM connectés à divers outils.
Caractéristiques principales
🎨 Conception visuelle de flux de travail
- Interface glisser-déposer: Offre un environnement similaire à Figma pour construire et tester des agents IA, permettant aux utilisateurs de créer visuellement des flux de travail complexes.
- Toile intuitive: Les utilisateurs peuvent concevoir des tâches automatisées comme s'ils dessinaient un organigramme.
- WYSIWYG (Ce que vous voyez est ce que vous obtenez): Aperçu en temps réel de l'exécution du flux de travail.
🔧 Intégration riche d'outils
La plateforme peut facilement connecter des agents à divers services tels que Gmail, Slack, Pinecone, Supabase, etc. Les outils pris en charge incluent :
- Outils de communication: Gmail, Slack, Microsoft Teams, Telegram, WhatsApp
- Stockage de données: Supabase, Pinecone, Qdrant, S3
- Outils de productivité: Notion, Google Docs, Google Sheets, Airtable
- Outils de développement: GitHub, Jira, Linear
- Services IA: Hugging Face, ElevenLabs, Image Generator
- Outils de recherche: Google Search, Perplexity, Tavily, Exa
🤖 Prise en charge multi-modèles
Prend en charge plusieurs fournisseurs de LLM :
- Modèles OpenAI: GPT-4o, o1, o3, o4-mini, gpt-4.1
- Modèles Anthropic: Claude 3.7 Sonnet
- Modèles Google: Gemini 2.5 Pro, Gemini 2.0 Flash
- Autres fournisseurs: Groq, Cerebras, xAI, DeepSeek
- Déploiement local: Prend en charge les modèles locaux via Ollama
🚀 Options de déploiement flexibles
Les flux de travail d'agents terminés peuvent être déployés en tant qu'API ou interface de chat :
- Déclenchement manuel: Exécution manuelle du flux de travail.
- Déploiement API: Déploiement du flux de travail en tant qu'API RESTful.
- Exécution planifiée: Configuration de l'agent pour qu'il s'exécute automatiquement à des heures ou intervalles spécifiques.
- Déclenchement par Webhook: Déclenchement via un webhook entrant (par exemple, un message Slack).
- Instance de chat: Déploiement en tant qu'application de chat autonome.
📊 Surveillance des performances
Surveillance des coûts du flux de travail et du temps d'exécution de chaque étape à l'aide de journaux :
- Suivi des performances en temps réel
- Analyse des coûts
- Statistiques de temps d'exécution
- Journalisation des erreurs
Architecture technique
Pile technologique front-end
- Framework: Next.js (App Router)
- Runtime: Bun
- Composants UI: Shadcn, Tailwind CSS
- Gestion d'état: Zustand
- Éditeur de flux: ReactFlow
- Communication en temps réel: Socket.io
Pile technologique back-end
- Base de données: PostgreSQL avec Drizzle ORM
- Extension vectorielle: pgvector (pour les embeddings IA et la recherche sémantique)
- Authentification: Better Auth
- Tâches en arrière-plan: Trigger.dev
- Système de documentation: Fumadocs
- Gestion de projet: Turborepo (monorepo)
Fonctionnalités IA
Sim utilise des embeddings vectoriels pour implémenter des fonctionnalités IA telles que les bases de connaissances et la recherche sémantique, ce qui nécessite l'extension PostgreSQL pgvector.
Installation et utilisation
Démarrage rapide (méthode NPM)
npx simstudio
Après le démarrage, accédez à http://localhost:3000/
Méthode Docker
# Cloner le dépôt
git clone https://github.com/simstudioai/sim.git
cd sim
# Démarrer Sim
docker compose -f docker-compose.prod.yml up -d
Prise en charge des modèles locaux
# Prise en charge GPU
docker compose --profile local-gpu -f docker-compose.ollama.yml up -d
# Prise en charge CPU
docker compose --profile local-cpu -f docker-compose.ollama.yml up -d
Configuration de l'environnement de développement
# Installer les dépendances
git clone https://github.com/simstudioai/sim.git
cd sim
bun install
# Configurer la base de données PostgreSQL
docker run --name simstudio-db \
-e POSTGRES_PASSWORD=your_password \
-e POSTGRES_DB=simstudio \
-p 5432:5432 -d \
pgvector/pgvector:pg17
# Configurer les variables d'environnement
cd apps/sim
cp .env.example .env
# Migrations de base de données
bunx drizzle-kit migrate
# Démarrer le serveur de développement
bun run dev:full
Modules fonctionnels clés
Bloc d'agent
Le bloc d'agent sert d'interface entre le flux de travail et le grand modèle linguistique (LLM). Il exécute des requêtes d'inférence auprès de divers fournisseurs d'IA, traite les entrées en langage naturel selon des instructions définies et génère des sorties structurées ou non structurées pour une utilisation en aval.
Système d'outils
Les outils étendent les capacités de l'agent grâce à l'intégration d'API externes et de services. Le système d'outils prend en charge l'appel de fonctions, permettant à l'agent d'effectuer des opérations au-delà de la génération de texte.
Sortie structurée
Le paramètre de format de réponse impose la génération de sortie structurée via la validation de schéma JSON.
Cas d'utilisation
Automatisation des processus métier
- Automatisation du service client
- Analyse de données et génération de rapports
- Traitement des e-mails et des messages
- Création et gestion de contenu
Recherche et développement
- Collecte et organisation d'informations
- Révision et gestion de code
- Automatisation de la gestion de projet
- Construction de bases de connaissances
Applications intégrées
- Intégration de systèmes CRM
- Gestion des médias sociaux
- Automatisation des plateformes e-commerce
- Automatisation des opérations de base de données
Avantages distinctifs
- Low-code/No-code: L'approche glisser-déposer élimine certains obstacles courants au développement d'agents, tels que la connexion aux sources de données, nécessitant moins de travail manuel.
- Open-source: Entièrement open-source, développement piloté par la communauté.
- Prise en charge multi-modèles: Prend en charge les principaux fournisseurs d'IA et les modèles locaux.
- Niveau entreprise: Prend en charge l'auto-hébergement, avec une sécurité des données contrôlable.
- Écosystème riche: Intégration avec un grand nombre de services tiers.
- Surveillance des performances: Analyse des performances et suivi des coûts intégrés.
Équipe du projet
Sim Studio a été fondé en 2025 par Emir Karabeg et Waleed Latif. L'équipe compte 2 employés et est basée à San Francisco, Californie, États-Unis.
- Emir Karabeg (Co-fondateur et PDG): A étudié la science des données et les sciences cognitives à l'UC Berkeley, a mené des recherches en traduction automatique NLP et a précédemment construit la plateforme d'apprentissage WorkNinja AI.
- Waleed Latif (Co-fondateur et CTO): A étudié l'informatique et les sciences cognitives à l'UC Berkeley, a construit l'infrastructure back-end principale chez Amazon Ring.
Licence open-source
Ce projet est sous licence Apache License 2.0. Les contributions de la communauté sont les bienvenues.
Liens pertinents
- Dépôt GitHub: https://github.com/simstudioai/sim
- Site officiel: https://sim.ai
- Documentation: https://docs.simstudio.ai/introduction
- Vidéo de démonstration: https://www.youtube.com/watch?v=JlCktXTY8sE&ab_channel=WaleedLatif
- Paquet NPM: https://www.npmjs.com/package/simstudio