Home
Login

完全本地化的AI智能助手,无需API调用,具备自主网页浏览、代码编写和任务规划能力

GPL-3.0Python 19.2kFosowlagenticSeek Last Updated: 2025-06-22

AgenticSeek 项目详细介绍

项目概述

AgenticSeek是一个完全本地化的AI智能助手,作为Manus AI的开源替代方案,无需API调用和高额月费,仅需电力成本即可享受自主智能代理服务。这个项目专为本地推理模型设计,完全在用户硬件上运行,确保完全隐私和零云依赖。

核心特性

🔒 完全本地化与隐私保护

  • 100%本地运行:所有功能都在用户设备上执行,无云端依赖
  • 数据隐私:文件、对话和搜索记录完全保留在本地设备
  • 零数据共享:不向外部服务传输任何个人数据

🌐 智能网页浏览

AgenticSeek可以独立浏览互联网——搜索、阅读、提取信息、填写网页表单——完全免人工干预。支持:

  • 自动搜索和信息提取
  • 网页表单自动填写
  • 智能内容分析和总结

💻 自主编程助手

能够编写、调试和运行Python、C、Go、Java等多种语言的程序——无需监督或外部依赖。功能包括:

  • 多语言代码生成
  • 自动调试和错误修复
  • 代码执行和测试

🧠 智能代理选择

自动确定每个任务的最佳AI代理,就像拥有一个专业专家团队随时准备提供帮助。系统特点:

  • 任务自动路由
  • 专业化代理分工
  • 智能决策机制

📋 复杂任务规划与执行

从旅行规划到复杂项目——将大型任务分解为可管理的步骤,并使用多个AI代理执行。能力包括:

  • 任务自动分解
  • 多代理协作
  • 进度跟踪和管理

🎙️ 语音交互

清晰、快速的未来感语音和语音转文本功能,让您能够自然地与AI助手交互。特性:

  • 语音唤醒功能
  • 实时语音识别
  • 自然语言交互

技术架构

支持的本地LLM提供商

提供商 是否本地 描述
ollama 使用ollama轻松本地运行LLM
lm-studio 使用LM Studio本地运行LLM
server 在其他机器上托管模型
openai 取决于配置 使用ChatGPT API或兼容API

推荐模型配置

项目主要在RTX 3060上使用deepseek r1 14b模型进行开发优化。

模型大小 GPU要求 性能评价
7B 8GB显存 基础功能
14B 12GB显存 (如RTX 3060) ✅ 可用于简单任务,网页浏览和规划任务可能有困难
32B 24+GB显存 (如RTX 4090) 🚀 大多数任务成功,任务规划可能仍有困难
70B+ 48+GB显存 (如Mac Studio) 💪 优秀,推荐用于高级用例

安装与配置

系统要求

  • Python 3.10或更新版本
  • Chrome浏览器和ChromeDriver
  • Docker和Docker Compose

快速安装

git clone https://github.com/Fosowl/agenticSeek.git
cd agenticSeek
mv .env.example .env
python3 -m venv agentic_seek_env
source agentic_seek_env/bin/activate

自动安装(推荐)

# Linux/macOS
./install.sh

# Windows
./install.bat

手动安装

pip3 install -r requirements.txt
# 或
python3 setup.py install

配置示例

[MAIN]
is_local = True
provider_name = ollama
provider_model = deepseek-r1:32b
provider_server_address = 127.0.0.1:11434
agent_name = Friday
recover_last_session = False
save_session = False
speak = False
listen = False
work_dir = /Users/mlg/Documents/ai_folder
jarvis_personality = False
languages = en zh

[BROWSER]
headless_browser = False
stealth_mode = False

配置参数说明

  • is_local: 本地运行(True)或远程服务器(False)
  • provider_name: 提供商名称(ollama、server、lm-studio等)
  • provider_model: 使用的模型,如deepseek-r1:32b
  • agent_name: 代理名称,用作语音触发词
  • work_dir: AI可访问的文件夹路径
  • jarvis_personality: 启用JARVIS式个性
  • languages: 支持的语言列表

运行方式

启动服务

# 激活Python环境
source agentic_seek_env/bin/activate

# 启动必需服务
sudo ./start_services.sh  # macOS/Linux
start ./start_services.cmd  # Windows

运行选项

选项1:CLI界面

python3 cli.py

选项2:Web界面

# 启动后端
python3 api.py

# 访问 http://localhost:3000/

使用示例

以下是一些典型的使用场景:

  • Make a snake game in python - 用Python制作贪吃蛇游戏
  • Show me how to multiply matrice in C - 展示如何在C语言中进行矩阵乘法
  • Make a blackjack in golang - 用Go语言制作21点游戏
  • Do a web search to find cool tech startup in Japan working on cutting edge AI research - 网页搜索日本从事前沿AI研究的科技初创公司
  • Can you find on the internet who created AgenticSeek? - 在网上查找AgenticSeek的创建者
  • Can you use a fuel calculator online to estimate the cost of a Nice - Milan trip - 使用在线燃料计算器估算尼斯到米兰的旅行成本

语音功能

语音转文本配置

config.ini中启用:

listen = True

使用流程

  1. 说出代理名称进行唤醒(如"Friday")
  2. 清晰地说出查询内容
  3. 以确认短语结束请求,如:"do it"、"go ahead"、"execute"等

远程部署

项目支持将LLM运行在远程服务器上:

服务器端

git clone --depth 1 https://github.com/Fosowl/agenticSeek.git
cd agenticSeek/server/
pip3 install -r requirements.txt
python3 app.py --provider ollama --port 3333

客户端配置

[MAIN]
is_local = False
provider_name = server
provider_model = deepseek-r1:70b
provider_server_address = x.x.x.x:3333

常见问题

Q: 需要什么硬件配置?

参考上述模型配置表,推荐至少12GB显存用于基本功能。

Q: 为什么选择Deepseek R1?

Deepseek R1在推理和工具使用方面表现优异,是项目需求的理想选择。

Q: 能否真正100%本地运行?

是的,使用Ollama、LM Studio或server提供商时,所有语音转文本、LLM和文本转语音模型都在本地运行。

Q: 与Manus相比有什么优势?

AgenticSeek优先考虑独立于外部系统,为用户提供更多控制、隐私保护并避免API成本。

项目链接

Star History Chart