Home
Login

Ein vollständig lokaler KI-gestützter Assistent, der keine API-Aufrufe benötigt und über autonome Webbrowser-, Code-Schreib- und Aufgabenplanungsfunktionen verfügt.

GPL-3.0Python 19.2kFosowlagenticSeek Last Updated: 2025-06-22

AgenticSeek Projekt – Detaillierte Beschreibung

Projektübersicht

AgenticSeek ist ein vollständig lokalisierter KI-gestützter Assistent, der als Open-Source-Alternative zu Manus AI dient. Er benötigt keine API-Aufrufe und hohen monatlichen Gebühren, sondern ermöglicht autonome intelligente Agentendienste zu reinen Stromkosten. Dieses Projekt ist speziell für lokale Inferenzmodelle konzipiert und läuft vollständig auf der Hardware des Benutzers, wodurch vollständige Privatsphäre und Null-Cloud-Abhängigkeit gewährleistet werden.

Kernfunktionen

🔒 Vollständige Lokalisierung und Datenschutz

  • 100% lokaler Betrieb: Alle Funktionen werden auf dem Gerät des Benutzers ausgeführt, ohne Cloud-Abhängigkeit.
  • Datenschutz: Dateien, Konversationen und Suchverläufe werden vollständig auf dem lokalen Gerät gespeichert.
  • Keine Datenweitergabe: Es werden keine persönlichen Daten an externe Dienste übertragen.

🌐 Intelligentes Web-Browsing

AgenticSeek kann selbstständig im Internet surfen – suchen, lesen, Informationen extrahieren, Webformulare ausfüllen – völlig ohne menschliches Zutun. Unterstützt:

  • Automatische Suche und Informationsextraktion
  • Automatisches Ausfüllen von Webformularen
  • Intelligente Inhaltsanalyse und Zusammenfassung

💻 Autonomer Programmierassistent

Kann Programme in verschiedenen Sprachen wie Python, C, Go, Java usw. schreiben, debuggen und ausführen – ohne Aufsicht oder externe Abhängigkeiten. Funktionen umfassen:

  • Mehrsprachige Code-Generierung
  • Automatisches Debugging und Fehlerbehebung
  • Code-Ausführung und -Test

🧠 Intelligente Agentenauswahl

Bestimmt automatisch den besten KI-Agenten für jede Aufgabe, als ob ein Team von Fachexperten jederzeit bereitstünde, um zu helfen. Systemmerkmale:

  • Automatische Aufgabenweiterleitung
  • Spezialisierte Agentenaufteilung
  • Intelligente Entscheidungsmechanismen

📋 Komplexe Aufgabenplanung und -ausführung

Von der Reiseplanung bis hin zu komplexen Projekten – zerlegt große Aufgaben in überschaubare Schritte und führt sie mit mehreren KI-Agenten aus. Fähigkeiten umfassen:

  • Automatische Aufgabenzerlegung
  • Multi-Agenten-Zusammenarbeit
  • Fortschrittsverfolgung und -verwaltung

🎙️ Sprachinteraktion

Klare, schnelle und futuristische Sprach- und Spracherkennungsfunktionen ermöglichen eine natürliche Interaktion mit dem KI-Assistenten. Eigenschaften:

  • Sprachaktivierungsfunktion
  • Echtzeit-Spracherkennung
  • Natürliche Sprachinteraktion

Technische Architektur

Unterstützte lokale LLM-Anbieter

Anbieter Lokal Beschreibung
ollama Ja Einfaches lokales Ausführen von LLMs mit ollama
lm-studio Ja Lokales Ausführen von LLMs mit LM Studio
server Ja Hosting von Modellen auf anderen Maschinen
openai Abhängig von der Konfiguration Verwendung der ChatGPT API oder einer kompatiblen API

Empfohlene Modellkonfiguration

Das Projekt wird hauptsächlich auf einer RTX 3060 mit dem Deepseek R1 14b Modell entwickelt und optimiert.

Modellgröße GPU-Anforderungen Leistungsbewertung
7B 8GB VRAM Grundlegende Funktionen
14B 12GB VRAM (z.B. RTX 3060) ✅ Für einfache Aufgaben geeignet, Web-Browsing und Planungsaufgaben können schwierig sein
32B 24+GB VRAM (z.B. RTX 4090) 🚀 Die meisten Aufgaben erfolgreich, Aufgabenplanung kann immer noch schwierig sein
70B+ 48+GB VRAM (z.B. Mac Studio) 💪 Ausgezeichnet, empfohlen für fortgeschrittene Anwendungsfälle

Installation und Konfiguration

Systemanforderungen

  • Python 3.10 oder neuer
  • Chrome Browser und ChromeDriver
  • Docker und Docker Compose

Schnelle Installation

git clone https://github.com/Fosowl/agenticSeek.git
cd agenticSeek
mv .env.example .env
python3 -m venv agentic_seek_env
source agentic_seek_env/bin/activate

Automatische Installation (empfohlen)

# Linux/macOS
./install.sh

# Windows
./install.bat

Manuelle Installation

pip3 install -r requirements.txt
# Oder
python3 setup.py install

Konfigurationsbeispiel

[MAIN]
is_local = True
provider_name = ollama
provider_model = deepseek-r1:32b
provider_server_address = 127.0.0.1:11434
agent_name = Friday
recover_last_session = False
save_session = False
speak = False
listen = False
work_dir = /Users/mlg/Documents/ai_folder
jarvis_personality = False
languages = en zh

[BROWSER]
headless_browser = False
stealth_mode = False

Beschreibung der Konfigurationsparameter

  • is_local: Lokaler Betrieb (True) oder Remote-Server (False)
  • provider_name: Name des Anbieters (ollama, server, lm-studio usw.)
  • provider_model: Verwendetes Modell, z.B. deepseek-r1:32b
  • agent_name: Agentenname, der als Sprachauslöser verwendet wird
  • work_dir: Pfad zum Ordner, auf den die KI zugreifen kann
  • jarvis_personality: JARVIS-ähnliche Persönlichkeit aktivieren
  • languages: Liste der unterstützten Sprachen

Ausführung

Dienst starten

# Python-Umgebung aktivieren
source agentic_seek_env/bin/activate

# Erforderliche Dienste starten
sudo ./start_services.sh  # macOS/Linux
start ./start_services.cmd  # Windows

Ausführungsoptionen

Option 1: CLI-Schnittstelle

python3 cli.py

Option 2: Web-Schnittstelle

# Backend starten
python3 api.py

# Zugriff auf http://localhost:3000/

Anwendungsbeispiele

Hier sind einige typische Anwendungsfälle:

  • Make a snake game in python - Erstelle ein Snake-Spiel in Python
  • Show me how to multiply matrice in C - Zeige mir, wie man Matrizen in C multipliziert
  • Make a blackjack in golang - Erstelle ein Blackjack-Spiel in Go
  • Do a web search to find cool tech startup in Japan working on cutting edge AI research - Führe eine Websuche durch, um coole Tech-Startups in Japan zu finden, die an hochmoderner KI-Forschung arbeiten
  • Can you find on the internet who created AgenticSeek? - Kannst du im Internet finden, wer AgenticSeek erstellt hat?
  • Can you use a fuel calculator online to estimate the cost of a Nice - Milan trip - Kannst du einen Online-Kraftstoffrechner verwenden, um die Kosten für eine Reise von Nizza nach Mailand zu schätzen?

Sprachfunktionen

Konfiguration der Spracherkennung

In config.ini aktivieren:

listen = True

Verwendung

  1. Sprechen Sie den Agentennamen zur Aktivierung (z.B. "Friday")
  2. Sprechen Sie die Anfrage deutlich aus
  3. Beenden Sie die Anfrage mit einer Bestätigungsphrase, z.B. "do it", "go ahead", "execute" usw.

Remote-Bereitstellung

Das Projekt unterstützt die Ausführung des LLM auf einem Remote-Server:

Serverseite

git clone --depth 1 https://github.com/Fosowl/agenticSeek.git
cd agenticSeek/server/
pip3 install -r requirements.txt
python3 app.py --provider ollama --port 3333

Client-Konfiguration

[MAIN]
is_local = False
provider_name = server
provider_model = deepseek-r1:70b
provider_server_address = x.x.x.x:3333

Häufig gestellte Fragen

F: Welche Hardwarekonfiguration wird benötigt?

Beachten Sie die obige Modellkonfigurationstabelle. Es werden mindestens 12 GB VRAM für grundlegende Funktionen empfohlen.

F: Warum Deepseek R1?

Deepseek R1 zeichnet sich durch Inferenz und Tool-Nutzung aus und ist die ideale Wahl für die Projektanforderungen.

F: Kann es wirklich zu 100% lokal betrieben werden?

Ja, bei Verwendung von Ollama, LM Studio oder Server als Anbieter werden alle Spracherkennungs-, LLM- und Sprachsynthesemodelle lokal ausgeführt.

F: Welche Vorteile bietet es gegenüber Manus?

AgenticSeek priorisiert die Unabhängigkeit von externen Systemen, bietet Benutzern mehr Kontrolle, Datenschutz und vermeidet API-Kosten.

Projektlinks

Star History Chart