Home
Login

Assistant IA léger et rapide, prend en charge le déploiement multiplateforme, intégrant plusieurs modèles d'IA tels que ChatGPT, Claude, Gemini, etc.

MITTypeScript 83.9kChatGPTNextWeb Last Updated: 2025-06-19

Présentation détaillée du projet NextChat

Aperçu du projet

NextChat est une application d'assistant IA open source, légère et rapide, anciennement connue sous le nom de ChatGPT-Next-Web. Le projet se concentre sur la fourniture d'une expérience de conversation IA simple et efficace aux utilisateurs, prenant en charge l'intégration de plusieurs modèles d'IA courants.

Caractéristiques principales

🚀 Prise en charge de plusieurs modèles

  • Série OpenAI: GPT-3.5, GPT-4, GPT-4 Vision, etc.
  • Anthropic: Modèles de la série Claude 3
  • Google: Gemini Pro
  • Modèles nationaux (chinois): DeepSeek, Baidu Wenxin Yiyan, ByteDance Doubao, Alibaba Tongyi Qianwen, iFlytek Xinghuo, etc.
  • Modèles open source: Entièrement compatible avec les modèles auto-déployés tels que RWKV-Runner et LocalAI

💫 Couverture de la plateforme

  • Web: Conception réactive, prise en charge de PWA
  • Mobile: Prise en charge des applications iOS et Android
  • Bureau: Clients Windows, macOS, Linux
  • Déploiement en un clic: Prise en charge de diverses méthodes de déploiement telles que Vercel, Docker, etc.

🔒 Protection de la vie privée

  • Stockage local: Toutes les données sont stockées localement dans le navigateur
  • Auto-hébergement: Prise en charge du déploiement entièrement privé
  • Contrôle d'accès: Possibilité de définir un mot de passe d'accès pour la protection
  • Clés API: Les utilisateurs gèrent eux-mêmes les clés API, facturation transparente

🎨 Expérience utilisateur

  • Conception légère: Client d'environ 5 Mo seulement
  • Chargement rapide: Vitesse de chargement de la première page d'environ 100 kb
  • Mode sombre: Prise en charge de la commutation de thème clair/foncé
  • Réactif: Adapté à différentes tailles d'écran
  • Multilingue: Prise en charge de 12 langues, dont le chinois, l'anglais, le japonais et le coréen

📝 Fonctionnalités de contenu

  • Prise en charge de Markdown: Prise en charge complète de LaTeX, des diagrammes Mermaid et de la coloration syntaxique du code
  • Réponse en flux: Prise en charge du flux de conversation en temps réel
  • Compression de conversation: Compression automatique de l'historique des conversations, économie de tokens
  • Fonction de partage: Prise en charge du partage d'images, du partage ShareGPT
  • Système de modèles: Modèles d'invites intégrés riches

🔧 Fonctionnalités avancées

  • Artifacts: Aperçu, copie et partage du contenu généré dans une fenêtre indépendante
  • Système de plugins: Prise en charge des extensions de plugins telles que la recherche sur le Web, la calculatrice, etc.
  • Conversation en temps réel: Prise en charge de l'interaction vocale en temps réel
  • Base de connaissances locale: Intégration de la gestion des connaissances locales
  • Protocole MCP: Prise en charge du protocole de contexte de modèle (Model Context Protocol)

Architecture technique

Pile technologique frontale

  • Framework: Next.js + React
  • Langue: TypeScript
  • Style: CSS Modules + conception réactive
  • Construction: Webpack + chaîne d'outils de construction moderne

Solutions de déploiement

  • Déploiement dans le cloud: Déploiement en un clic Vercel, prise en charge de Cloudflare Pages
  • Déploiement de conteneur: Image Docker, prise en charge de diverses plateformes de conteneurs
  • Application de bureau: Client de bureau multiplateforme basé sur Tauri
  • Privatisation: Prise en charge du déploiement sur le réseau interne de l'entreprise

Intégration API

  • Interface unifiée: Interface d'appel de modèle d'IA standardisée
  • Prise en charge du proxy: Fonction de proxy intégrée, résolution des problèmes d'accès au réseau
  • Équilibrage de charge: Prise en charge de l'utilisation rotative de plusieurs clés API
  • Gestion des erreurs: Gestion des exceptions et mécanisme de nouvelle tentative améliorés

Scénarios d'utilisation

Utilisateurs individuels

  • Conversation quotidienne: Assistant IA pour divers conseils et conversations
  • Création de contenu: Rédaction, génération de code, traduction, etc.
  • Aide à l'apprentissage: Questions et réponses sur les connaissances, explication des concepts, conseils d'apprentissage
  • Outils de productivité: Planification des tâches, organisation des informations, aide à la décision

Utilisateurs professionnels

  • Personnalisation de la marque: VI/UI personnalisée, conforme à l'image de marque de l'entreprise
  • Gestion des autorisations: Autorisations des membres, autorisations des ressources, contrôle des autorisations de la base de connaissances
  • Intégration des connaissances: Combinaison de la base de connaissances interne de l'entreprise et des capacités de l'IA
  • Audit de sécurité: Interception des demandes sensibles, suivi de l'historique des conversations
  • Déploiement privé: Déploiement de cloud privé de niveau entreprise, garantissant la sécurité des données

Développeurs

  • Intégration API: Intégration rapide de diverses API de modèles d'IA
  • Développement secondaire: Développement personnalisé basé sur le code open source
  • Développement de plugins: Développement de plugins personnalisés pour étendre les fonctionnalités
  • Test de modèles: Test et comparaison des effets de différents modèles d'IA

Installation et déploiement

Déploiement en un clic (recommandé)

  1. Visitez la page GitHub du projet
  2. Cliquez sur le bouton Deploy
  3. Connectez-vous à votre compte Vercel
  4. Définissez les variables d'environnement (clés API, etc.)
  5. Terminez le déploiement et obtenez le lien d'accès

Déploiement Docker

docker pull yidadaa/chatgpt-next-web
docker run -d -p 3000:3000 \
  -e OPENAI_API_KEY=sk-xxxx \
  -e CODE=your-password \
  yidadaa/chatgpt-next-web

Développement local

# Installer les dépendances
yarn install

# Configurer les variables d'environnement
echo "OPENAI_API_KEY=your-api-key" > .env.local

# Démarrer le serveur de développement
yarn dev

Options de configuration

Variables d'environnement

  • CODE: Mot de passe d'accès
  • OPENAI_API_KEY: Clé API OpenAI
  • BASE_URL: Adresse du proxy API
  • CUSTOM_MODELS: Liste des modèles personnalisés
  • HIDE_USER_API_KEY: Masquer la saisie de la clé API utilisateur
  • DISABLE_GPT4: Désactiver le modèle GPT-4

Configuration avancée

  • Prise en charge de la configuration de clés API de plusieurs fournisseurs
  • Nom d'affichage du modèle personnalisé
  • Configuration du modèle de capacité visuelle
  • Configuration de la synchronisation WebDAV
  • Configuration du serveur proxy

Écosystème du projet

Projets connexes

  • NextChat-Awesome-Plugins: Collection de plugins officiels
  • NextChat-MCP-Awesome: Ressources liées au protocole MCP
  • docs: Dépôt de documentation du projet

Conclusion

NextChat, en tant que projet d'assistant IA open source mature, a trouvé un bon équilibre entre simplicité, fonctionnalité et extensibilité. Il offre non seulement une expérience de conversation IA pratique aux utilisateurs individuels, mais fournit également une solution de privatisation complète aux utilisateurs professionnels. Grâce à son support communautaire actif et à son innovation technologique continue, NextChat est devenu un projet de référence important dans le domaine du développement d'applications d'IA.