Home
Login

完全本地化的AI智能助手,無需API調用,具備自主網頁瀏覽、代碼編寫和任務規劃能力

GPL-3.0Python 19.2kFosowlagenticSeek Last Updated: 2025-06-22

AgenticSeek 項目詳細介紹

項目概述

AgenticSeek 是一個完全本地化的 AI 智能助手,作為 Manus AI 的開源替代方案,無需 API 調用和高額月費,僅需電力成本即可享受自主智能代理服務。這個項目專為本地推理模型設計,完全在用戶硬體上運行,確保完全隱私和零雲端依賴。

核心特性

🔒 完全本地化與隱私保護

  • 100% 本地運行:所有功能都在用戶設備上執行,無雲端依賴
  • 數據隱私:文件、對話和搜索記錄完全保留在本地設備
  • 零數據共享:不向外部服務傳輸任何個人數據

🌐 智能網頁瀏覽

AgenticSeek 可以獨立瀏覽互聯網——搜索、閱讀、提取信息、填寫網頁表單——完全免人工干預。支持:

  • 自動搜索和信息提取
  • 網頁表單自動填寫
  • 智能內容分析和總結

💻 自主編程助手

能夠編寫、調試和運行 Python、C、Go、Java 等多種語言的程序——無需監督或外部依賴。功能包括:

  • 多語言代碼生成
  • 自動調試和錯誤修復
  • 代碼執行和測試

🧠 智能代理選擇

自動確定每個任務的最佳 AI 代理,就像擁有一個專業專家團隊隨時準備提供幫助。系統特點:

  • 任務自動路由
  • 專業化代理分工
  • 智能決策機制

📋 複雜任務規劃與執行

從旅行規劃到複雜項目——將大型任務分解為可管理的步驟,並使用多個 AI 代理執行。能力包括:

  • 任務自動分解
  • 多代理協作
  • 進度跟踪和管理

🎙️ 語音交互

清晰、快速的未來感語音和語音轉文本功能,讓您能夠自然地與 AI 助手交互。特性:

  • 語音喚醒功能
  • 實時語音識別
  • 自然語言交互

技術架構

支持的本地 LLM 提供商

提供商 是否本地 描述
ollama 使用 ollama 輕鬆本地運行 LLM
lm-studio 使用 LM Studio 本地運行 LLM
server 在其他機器上託管模型
openai 取決於配置 使用 ChatGPT API 或兼容 API

推薦模型配置

項目主要在 RTX 3060 上使用 deepseek r1 14b 模型進行開發優化。

模型大小 GPU 要求 性能評價
7B 8GB 顯存 基礎功能
14B 12GB 顯存 (如 RTX 3060) ✅ 可用於簡單任務,網頁瀏覽和規劃任務可能有困難
32B 24+GB 顯存 (如 RTX 4090) 🚀 大多數任務成功,任務規劃可能仍有困難
70B+ 48+GB 顯存 (如 Mac Studio) 💪 優秀,推薦用於高級用例

安裝與配置

系統要求

  • Python 3.10 或更新版本
  • Chrome 瀏覽器和 ChromeDriver
  • Docker 和 Docker Compose

快速安裝

git clone https://github.com/Fosowl/agenticSeek.git
cd agenticSeek
mv .env.example .env
python3 -m venv agentic_seek_env
source agentic_seek_env/bin/activate

自動安裝(推薦)

# Linux/macOS
./install.sh

# Windows
./install.bat

手動安裝

pip3 install -r requirements.txt
# 或
python3 setup.py install

配置示例

[MAIN]
is_local = True
provider_name = ollama
provider_model = deepseek-r1:32b
provider_server_address = 127.0.0.1:11434
agent_name = Friday
recover_last_session = False
save_session = False
speak = False
listen = False
work_dir = /Users/mlg/Documents/ai_folder
jarvis_personality = False
languages = en zh

[BROWSER]
headless_browser = False
stealth_mode = False

配置參數說明

  • is_local: 本地運行(True)或遠程服務器(False)
  • provider_name: 提供商名稱(ollama、server、lm-studio 等)
  • provider_model: 使用的模型,如 deepseek-r1:32b
  • agent_name: 代理名稱,用作語音觸發詞
  • work_dir: AI 可訪問的資料夾路徑
  • jarvis_personality: 啟用 JARVIS 式個性
  • languages: 支持的語言列表

運行方式

啟動服務

# 激活 Python 環境
source agentic_seek_env/bin/activate

# 啟動必需服務
sudo ./start_services.sh  # macOS/Linux
start ./start_services.cmd  # Windows

運行選項

選項 1:CLI 界面

python3 cli.py

選項 2:Web 界面

# 啟動後端
python3 api.py

# 訪問 http://localhost:3000/

使用示例

以下是一些典型的使用場景:

  • Make a snake game in python - 用 Python 製作貪吃蛇遊戲
  • Show me how to multiply matrice in C - 展示如何在 C 語言中進行矩陣乘法
  • Make a blackjack in golang - 用 Go 語言製作 21 點遊戲
  • Do a web search to find cool tech startup in Japan working on cutting edge AI research - 網頁搜索日本從事前沿 AI 研究的科技初創公司
  • Can you find on the internet who created AgenticSeek? - 在網上查找 AgenticSeek 的創建者
  • Can you use a fuel calculator online to estimate the cost of a Nice - Milan trip - 使用在線燃料計算器估算尼斯到米蘭的旅行成本

語音功能

語音轉文本配置

config.ini 中啟用:

listen = True

使用流程

  1. 說出代理名稱進行喚醒(如 "Friday")
  2. 清晰地說出查詢內容
  3. 以確認短語結束請求,如:"do it"、"go ahead"、"execute" 等

遠程部署

項目支持將 LLM 運行在遠程服務器上:

服務器端

git clone --depth 1 https://github.com/Fosowl/agenticSeek.git
cd agenticSeek/server/
pip3 install -r requirements.txt
python3 app.py --provider ollama --port 3333

客戶端配置

[MAIN]
is_local = False
provider_name = server
provider_model = deepseek-r1:70b
provider_server_address = x.x.x.x:3333

常見問題

Q: 需要什麼硬體配置?

參考上述模型配置表,推薦至少 12GB 顯存用於基本功能。

Q: 為什麼選擇 Deepseek R1?

Deepseek R1 在推理和工具使用方面表現優異,是項目需求的理想選擇。

Q: 能否真正 100% 本地運行?

是的,使用 Ollama、LM Studio 或 server 提供商時,所有語音轉文本、LLM 和文本轉語音模型都在本地運行。

Q: 與 Manus 相比有什麼優勢?

AgenticSeek 優先考慮獨立於外部系統,為用戶提供更多控制、隱私保護並避免 API 成本。

項目鏈接

Star History Chart