AgenticSeek ist ein vollständig lokalisierter KI-gestützter Assistent, der als Open-Source-Alternative zu Manus AI dient. Er benötigt keine API-Aufrufe und hohen monatlichen Gebühren, sondern ermöglicht autonome intelligente Agentendienste zu reinen Stromkosten. Dieses Projekt ist speziell für lokale Inferenzmodelle konzipiert und läuft vollständig auf der Hardware des Benutzers, wodurch vollständige Privatsphäre und Null-Cloud-Abhängigkeit gewährleistet werden.
AgenticSeek kann selbstständig im Internet surfen – suchen, lesen, Informationen extrahieren, Webformulare ausfüllen – völlig ohne menschliches Zutun. Unterstützt:
Kann Programme in verschiedenen Sprachen wie Python, C, Go, Java usw. schreiben, debuggen und ausführen – ohne Aufsicht oder externe Abhängigkeiten. Funktionen umfassen:
Bestimmt automatisch den besten KI-Agenten für jede Aufgabe, als ob ein Team von Fachexperten jederzeit bereitstünde, um zu helfen. Systemmerkmale:
Von der Reiseplanung bis hin zu komplexen Projekten – zerlegt große Aufgaben in überschaubare Schritte und führt sie mit mehreren KI-Agenten aus. Fähigkeiten umfassen:
Klare, schnelle und futuristische Sprach- und Spracherkennungsfunktionen ermöglichen eine natürliche Interaktion mit dem KI-Assistenten. Eigenschaften:
Anbieter | Lokal | Beschreibung |
---|---|---|
ollama | Ja | Einfaches lokales Ausführen von LLMs mit ollama |
lm-studio | Ja | Lokales Ausführen von LLMs mit LM Studio |
server | Ja | Hosting von Modellen auf anderen Maschinen |
openai | Abhängig von der Konfiguration | Verwendung der ChatGPT API oder einer kompatiblen API |
Das Projekt wird hauptsächlich auf einer RTX 3060 mit dem Deepseek R1 14b Modell entwickelt und optimiert.
Modellgröße | GPU-Anforderungen | Leistungsbewertung |
---|---|---|
7B | 8GB VRAM | Grundlegende Funktionen |
14B | 12GB VRAM (z.B. RTX 3060) | ✅ Für einfache Aufgaben geeignet, Web-Browsing und Planungsaufgaben können schwierig sein |
32B | 24+GB VRAM (z.B. RTX 4090) | 🚀 Die meisten Aufgaben erfolgreich, Aufgabenplanung kann immer noch schwierig sein |
70B+ | 48+GB VRAM (z.B. Mac Studio) | 💪 Ausgezeichnet, empfohlen für fortgeschrittene Anwendungsfälle |
git clone https://github.com/Fosowl/agenticSeek.git
cd agenticSeek
mv .env.example .env
python3 -m venv agentic_seek_env
source agentic_seek_env/bin/activate
# Linux/macOS
./install.sh
# Windows
./install.bat
pip3 install -r requirements.txt
# Oder
python3 setup.py install
[MAIN]
is_local = True
provider_name = ollama
provider_model = deepseek-r1:32b
provider_server_address = 127.0.0.1:11434
agent_name = Friday
recover_last_session = False
save_session = False
speak = False
listen = False
work_dir = /Users/mlg/Documents/ai_folder
jarvis_personality = False
languages = en zh
[BROWSER]
headless_browser = False
stealth_mode = False
# Python-Umgebung aktivieren
source agentic_seek_env/bin/activate
# Erforderliche Dienste starten
sudo ./start_services.sh # macOS/Linux
start ./start_services.cmd # Windows
python3 cli.py
# Backend starten
python3 api.py
# Zugriff auf http://localhost:3000/
Hier sind einige typische Anwendungsfälle:
Make a snake game in python
- Erstelle ein Snake-Spiel in PythonShow me how to multiply matrice in C
- Zeige mir, wie man Matrizen in C multipliziertMake a blackjack in golang
- Erstelle ein Blackjack-Spiel in GoDo a web search to find cool tech startup in Japan working on cutting edge AI research
- Führe eine Websuche durch, um coole Tech-Startups in Japan zu finden, die an hochmoderner KI-Forschung arbeitenCan you find on the internet who created AgenticSeek?
- Kannst du im Internet finden, wer AgenticSeek erstellt hat?Can you use a fuel calculator online to estimate the cost of a Nice - Milan trip
- Kannst du einen Online-Kraftstoffrechner verwenden, um die Kosten für eine Reise von Nizza nach Mailand zu schätzen?In config.ini
aktivieren:
listen = True
Das Projekt unterstützt die Ausführung des LLM auf einem Remote-Server:
git clone --depth 1 https://github.com/Fosowl/agenticSeek.git
cd agenticSeek/server/
pip3 install -r requirements.txt
python3 app.py --provider ollama --port 3333
[MAIN]
is_local = False
provider_name = server
provider_model = deepseek-r1:70b
provider_server_address = x.x.x.x:3333
Beachten Sie die obige Modellkonfigurationstabelle. Es werden mindestens 12 GB VRAM für grundlegende Funktionen empfohlen.
Deepseek R1 zeichnet sich durch Inferenz und Tool-Nutzung aus und ist die ideale Wahl für die Projektanforderungen.
Ja, bei Verwendung von Ollama, LM Studio oder Server als Anbieter werden alle Spracherkennungs-, LLM- und Sprachsynthesemodelle lokal ausgeführt.
AgenticSeek priorisiert die Unabhängigkeit von externen Systemen, bietet Benutzern mehr Kontrolle, Datenschutz und vermeidet API-Kosten.