Open-Source-ChatGPT-Alternative, ein KI-Assistent, der zu 100 % offline auf Ihrem Computer läuft

Apache-2.0TypeScriptjanmenloresearch 37.1k Last Updated: August 17, 2025

Detaillierte Beschreibung des Jan AI Projekts

Projektübersicht

Jan ist eine quelloffene ChatGPT-Alternative, die zu 100 % offline auf Ihrem Computer läuft. Es wird von Menlo Research in Singapur entwickelt und gewartet und zielt darauf ab, Benutzern eine vollständig private, selbstkontrollierte KI-Assistenten-Lösung zu bieten.

Kernfunktionen

🏠 Lokaler Betrieb

  • 100 % Offline-Betrieb: KI-Modelle können ohne Internetverbindung ausgeführt werden, was die Privatsphäre und Sicherheit gewährleistet.
  • Lokale Datenspeicherung: Alle Gespräche und Dateien werden lokal gespeichert, sodass Benutzer die volle Kontrolle über ihre Daten haben.
  • Keine Abonnementgebühren: Vermeidet wiederkehrende Zahlungen für Cloud-Dienste; einmal herunterladen, dauerhaft nutzen.

🤖 Modellunterstützung

  • Lokale LLM-Modelle: Unterstützt das Herunterladen und Ausführen von Modellen wie Llama, Gemma, Qwen von HuggingFace.
  • Cloud-Integration: Kann mit Cloud-Diensten wie OpenAI, Anthropic, Mistral, Groq verbunden werden.
  • Modellverwaltung: Bietet Funktionen zum Durchsuchen, Herunterladen, Importieren und Konfigurieren von Modellen.

🛠 Technische Merkmale

  • OpenAI-kompatible API: Der lokale Server läuft auf localhost:1337 und ist vollständig mit der OpenAI API kompatibel.
  • MCP-Integration: Unterstützt das Model Context Protocol zur Verbesserung der KI-Fähigkeiten.
  • Multiplattform-Unterstützung: Unterstützt Windows-, macOS- und Linux-Systeme.
  • GPU-Beschleunigung: Unterstützt NVIDIA CUDA, AMD Vulkan und Intel Arc GPUs.

🎯 Erweiterte Funktionen

  • Benutzerdefinierte Assistenten: Erstellen Sie spezialisierte KI-Assistenten zur Ausführung spezifischer Aufgaben.
  • Dokumenten-Chat: Ermöglicht direkte Interaktion mit Dokumenten wie PDFs und Notizen, um Zusammenfassungen und Erkenntnisse zu erhalten.
  • Erweiterungssystem: Unterstützt die Anpassung von Funktionen durch Plugins/Erweiterungen.
  • Multi-Engine-Unterstützung: Kompatibel mit verschiedenen Inferenz-Engines wie llama.cpp, TensorRT-LLM.

Systemanforderungen

Mindestanforderungen

  • macOS: 13.6+ (8 GB RAM für 3B-Modelle, 16 GB für 7B-Modelle, 32 GB für 13B-Modelle)
  • Windows: 10+, unterstützt NVIDIA/AMD/Intel Arc GPUs.
  • Linux: Die meisten Distributionen, optionale GPU-Beschleunigung.

Anforderungen an die Entwicklungsumgebung

  • Node.js ≥ 20.0.0
  • Yarn ≥ 1.22.0
  • Make ≥ 3.81
  • Rust (für das Tauri-Framework)

Installationsmethoden

Methode 1: Herunterladen der vorkompilierten Version

Laden Sie die Installationspakete für die entsprechende Plattform von jan.ai oder GitHub Releases herunter:

Plattform Stabile Version Beta-Version
Windows jan.exe jan.exe (nightly)
macOS jan.dmg jan.dmg (nightly)
Linux jan.deb / jan.AppImage jan.deb / jan.AppImage (nightly)

Methode 2: Kompilierung aus dem Quellcode

Build mit Make

git clone https://github.com/menloresearch/jan
cd jan
make dev

Verwendung der mise-Toolchain

git clone https://github.com/menloresearch/jan
cd jan
# mise installieren (falls noch nicht geschehen)
curl https://mise.run | sh
# Tools installieren und Entwicklung starten
mise install  # Installiert Tools wie Node.js, Rust
mise dev      # Führt die vollständige Entwicklungsumgebung aus

Manueller Build

yarn install
yarn build:core
yarn build:extensions
yarn dev

Hauptanwendungsfälle

1. Szenarien mit Datenschutz

  • Verarbeitung sensibler Dokumente und vertraulicher Informationen.
  • Umgebungen, die Compliance-Anforderungen erfüllen müssen.
  • Vermeidung von Datenlecks an Drittanbieter-Server.

2. Offline-Arbeitsumgebungen

  • Umgebungen mit eingeschränkter oder instabiler Netzwerkverbindung.
  • Air-Gapped-Systeme (Luftspalt-Systeme).
  • Feldeinsätze oder Remote-Arbeit.

3. Kostenkontrolle

  • Teams, die KI-Funktionen häufig nutzen.
  • Vermeidung von nutzungsbasierten Cloud-Diensten.
  • Einzelnutzer oder kleine Teams mit begrenztem Budget.

4. Anpassungsbedürfnisse

  • Szenarien, die eine spezifische Modellfeinabstimmung erfordern.
  • Benutzerdefinierte KI-Assistenten und Workflows.
  • Integration in bestehende Anwendungen.

Technische Architektur

Kernkomponenten

  • Jan Desktop: Eine plattformübergreifende Desktop-Anwendung basierend auf Tauri.
  • Jan Core: Die zentrale Inferenz-Engine und Modellverwaltung.
  • Jan Extensions: Das Erweiterungssystem, das verschiedene KI-Konnektoren und Tools unterstützt.
  • Jan API Server: Ein OpenAI-kompatibler lokaler API-Server.

Erweiterungs-Ökosystem

  • Cloud-KI-Konnektoren: OpenAI, Anthropic, Mistral usw.
  • Tool-Integration: Browser-Automatisierung, Jupyter Notebooks, Code-Ausführung usw.
  • Datenkonnektoren: Unterstützt verschiedene Datenquellen und Formate.

Open-Source-Lizenz und Community

  • Lizenz: Apache 2.0 Open-Source-Lizenz.
  • Code-Hosting: Offene Entwicklung auf GitHub.
  • Community-Support: Aktive Discord-Community und GitHub-Diskussionsbereiche.
  • Beitragsrichtlinien: Community-Beiträge sind willkommen, siehe CONTRIBUTING.md.

Relevante Links

Zusammenfassung

Jan AI ist eine leistungsstarke, datenschutzorientierte Open-Source-KI-Assistentenplattform, die Benutzern eine vollständige Lösung zum lokalen Ausführen großer Sprachmodelle bietet. Sowohl Einzelnutzer als auch Unternehmensteams können mit Jan eine hochgradig kontrollierbare, sichere und private KI-Erfahrung genießen und gleichzeitig die Kosten und Datenschutzbedenken von Cloud-Diensten vermeiden.

Star History Chart