Open-Source-ChatGPT-Alternative, ein KI-Assistent, der zu 100 % offline auf Ihrem Computer läuft
Detaillierte Beschreibung des Jan AI Projekts
Projektübersicht
Jan ist eine quelloffene ChatGPT-Alternative, die zu 100 % offline auf Ihrem Computer läuft. Es wird von Menlo Research in Singapur entwickelt und gewartet und zielt darauf ab, Benutzern eine vollständig private, selbstkontrollierte KI-Assistenten-Lösung zu bieten.
Kernfunktionen
🏠 Lokaler Betrieb
- 100 % Offline-Betrieb: KI-Modelle können ohne Internetverbindung ausgeführt werden, was die Privatsphäre und Sicherheit gewährleistet.
- Lokale Datenspeicherung: Alle Gespräche und Dateien werden lokal gespeichert, sodass Benutzer die volle Kontrolle über ihre Daten haben.
- Keine Abonnementgebühren: Vermeidet wiederkehrende Zahlungen für Cloud-Dienste; einmal herunterladen, dauerhaft nutzen.
🤖 Modellunterstützung
- Lokale LLM-Modelle: Unterstützt das Herunterladen und Ausführen von Modellen wie Llama, Gemma, Qwen von HuggingFace.
- Cloud-Integration: Kann mit Cloud-Diensten wie OpenAI, Anthropic, Mistral, Groq verbunden werden.
- Modellverwaltung: Bietet Funktionen zum Durchsuchen, Herunterladen, Importieren und Konfigurieren von Modellen.
🛠 Technische Merkmale
- OpenAI-kompatible API: Der lokale Server läuft auf localhost:1337 und ist vollständig mit der OpenAI API kompatibel.
- MCP-Integration: Unterstützt das Model Context Protocol zur Verbesserung der KI-Fähigkeiten.
- Multiplattform-Unterstützung: Unterstützt Windows-, macOS- und Linux-Systeme.
- GPU-Beschleunigung: Unterstützt NVIDIA CUDA, AMD Vulkan und Intel Arc GPUs.
🎯 Erweiterte Funktionen
- Benutzerdefinierte Assistenten: Erstellen Sie spezialisierte KI-Assistenten zur Ausführung spezifischer Aufgaben.
- Dokumenten-Chat: Ermöglicht direkte Interaktion mit Dokumenten wie PDFs und Notizen, um Zusammenfassungen und Erkenntnisse zu erhalten.
- Erweiterungssystem: Unterstützt die Anpassung von Funktionen durch Plugins/Erweiterungen.
- Multi-Engine-Unterstützung: Kompatibel mit verschiedenen Inferenz-Engines wie llama.cpp, TensorRT-LLM.
Systemanforderungen
Mindestanforderungen
- macOS: 13.6+ (8 GB RAM für 3B-Modelle, 16 GB für 7B-Modelle, 32 GB für 13B-Modelle)
- Windows: 10+, unterstützt NVIDIA/AMD/Intel Arc GPUs.
- Linux: Die meisten Distributionen, optionale GPU-Beschleunigung.
Anforderungen an die Entwicklungsumgebung
- Node.js ≥ 20.0.0
- Yarn ≥ 1.22.0
- Make ≥ 3.81
- Rust (für das Tauri-Framework)
Installationsmethoden
Methode 1: Herunterladen der vorkompilierten Version
Laden Sie die Installationspakete für die entsprechende Plattform von jan.ai oder GitHub Releases herunter:
Plattform | Stabile Version | Beta-Version |
---|---|---|
Windows | jan.exe | jan.exe (nightly) |
macOS | jan.dmg | jan.dmg (nightly) |
Linux | jan.deb / jan.AppImage | jan.deb / jan.AppImage (nightly) |
Methode 2: Kompilierung aus dem Quellcode
Build mit Make
git clone https://github.com/menloresearch/jan
cd jan
make dev
Verwendung der mise-Toolchain
git clone https://github.com/menloresearch/jan
cd jan
# mise installieren (falls noch nicht geschehen)
curl https://mise.run | sh
# Tools installieren und Entwicklung starten
mise install # Installiert Tools wie Node.js, Rust
mise dev # Führt die vollständige Entwicklungsumgebung aus
Manueller Build
yarn install
yarn build:core
yarn build:extensions
yarn dev
Hauptanwendungsfälle
1. Szenarien mit Datenschutz
- Verarbeitung sensibler Dokumente und vertraulicher Informationen.
- Umgebungen, die Compliance-Anforderungen erfüllen müssen.
- Vermeidung von Datenlecks an Drittanbieter-Server.
2. Offline-Arbeitsumgebungen
- Umgebungen mit eingeschränkter oder instabiler Netzwerkverbindung.
- Air-Gapped-Systeme (Luftspalt-Systeme).
- Feldeinsätze oder Remote-Arbeit.
3. Kostenkontrolle
- Teams, die KI-Funktionen häufig nutzen.
- Vermeidung von nutzungsbasierten Cloud-Diensten.
- Einzelnutzer oder kleine Teams mit begrenztem Budget.
4. Anpassungsbedürfnisse
- Szenarien, die eine spezifische Modellfeinabstimmung erfordern.
- Benutzerdefinierte KI-Assistenten und Workflows.
- Integration in bestehende Anwendungen.
Technische Architektur
Kernkomponenten
- Jan Desktop: Eine plattformübergreifende Desktop-Anwendung basierend auf Tauri.
- Jan Core: Die zentrale Inferenz-Engine und Modellverwaltung.
- Jan Extensions: Das Erweiterungssystem, das verschiedene KI-Konnektoren und Tools unterstützt.
- Jan API Server: Ein OpenAI-kompatibler lokaler API-Server.
Erweiterungs-Ökosystem
- Cloud-KI-Konnektoren: OpenAI, Anthropic, Mistral usw.
- Tool-Integration: Browser-Automatisierung, Jupyter Notebooks, Code-Ausführung usw.
- Datenkonnektoren: Unterstützt verschiedene Datenquellen und Formate.
Open-Source-Lizenz und Community
- Lizenz: Apache 2.0 Open-Source-Lizenz.
- Code-Hosting: Offene Entwicklung auf GitHub.
- Community-Support: Aktive Discord-Community und GitHub-Diskussionsbereiche.
- Beitragsrichtlinien: Community-Beiträge sind willkommen, siehe CONTRIBUTING.md.
Relevante Links
- Offizielle Website: https://jan.ai/
- GitHub-Repository: https://github.com/menloresearch/jan
- Dokumentationszentrum: https://jan.ai/docs
- API-Referenz: https://jan.ai/api-reference
- Discord-Community: https://discord.gg/AsJ8krTT3N
- Änderungsprotokoll: https://jan.ai/changelog
Zusammenfassung
Jan AI ist eine leistungsstarke, datenschutzorientierte Open-Source-KI-Assistentenplattform, die Benutzern eine vollständige Lösung zum lokalen Ausführen großer Sprachmodelle bietet. Sowohl Einzelnutzer als auch Unternehmensteams können mit Jan eine hochgradig kontrollierbare, sichere und private KI-Erfahrung genießen und gleichzeitig die Kosten und Datenschutzbedenken von Cloud-Diensten vermeiden.