AgenticSeek是一个完全本地化的AI智能助手,作为Manus AI的开源替代方案,无需API调用和高额月费,仅需电力成本即可享受自主智能代理服务。这个项目专为本地推理模型设计,完全在用户硬件上运行,确保完全隐私和零云依赖。
AgenticSeek可以独立浏览互联网——搜索、阅读、提取信息、填写网页表单——完全免人工干预。支持:
能够编写、调试和运行Python、C、Go、Java等多种语言的程序——无需监督或外部依赖。功能包括:
自动确定每个任务的最佳AI代理,就像拥有一个专业专家团队随时准备提供帮助。系统特点:
从旅行规划到复杂项目——将大型任务分解为可管理的步骤,并使用多个AI代理执行。能力包括:
清晰、快速的未来感语音和语音转文本功能,让您能够自然地与AI助手交互。特性:
提供商 | 是否本地 | 描述 |
---|---|---|
ollama | 是 | 使用ollama轻松本地运行LLM |
lm-studio | 是 | 使用LM Studio本地运行LLM |
server | 是 | 在其他机器上托管模型 |
openai | 取决于配置 | 使用ChatGPT API或兼容API |
项目主要在RTX 3060上使用deepseek r1 14b模型进行开发优化。
模型大小 | GPU要求 | 性能评价 |
---|---|---|
7B | 8GB显存 | 基础功能 |
14B | 12GB显存 (如RTX 3060) | ✅ 可用于简单任务,网页浏览和规划任务可能有困难 |
32B | 24+GB显存 (如RTX 4090) | 🚀 大多数任务成功,任务规划可能仍有困难 |
70B+ | 48+GB显存 (如Mac Studio) | 💪 优秀,推荐用于高级用例 |
git clone https://github.com/Fosowl/agenticSeek.git
cd agenticSeek
mv .env.example .env
python3 -m venv agentic_seek_env
source agentic_seek_env/bin/activate
# Linux/macOS
./install.sh
# Windows
./install.bat
pip3 install -r requirements.txt
# 或
python3 setup.py install
[MAIN]
is_local = True
provider_name = ollama
provider_model = deepseek-r1:32b
provider_server_address = 127.0.0.1:11434
agent_name = Friday
recover_last_session = False
save_session = False
speak = False
listen = False
work_dir = /Users/mlg/Documents/ai_folder
jarvis_personality = False
languages = en zh
[BROWSER]
headless_browser = False
stealth_mode = False
# 激活Python环境
source agentic_seek_env/bin/activate
# 启动必需服务
sudo ./start_services.sh # macOS/Linux
start ./start_services.cmd # Windows
python3 cli.py
# 启动后端
python3 api.py
# 访问 http://localhost:3000/
以下是一些典型的使用场景:
Make a snake game in python
- 用Python制作贪吃蛇游戏Show me how to multiply matrice in C
- 展示如何在C语言中进行矩阵乘法Make a blackjack in golang
- 用Go语言制作21点游戏Do a web search to find cool tech startup in Japan working on cutting edge AI research
- 网页搜索日本从事前沿AI研究的科技初创公司Can you find on the internet who created AgenticSeek?
- 在网上查找AgenticSeek的创建者Can you use a fuel calculator online to estimate the cost of a Nice - Milan trip
- 使用在线燃料计算器估算尼斯到米兰的旅行成本在config.ini
中启用:
listen = True
项目支持将LLM运行在远程服务器上:
git clone --depth 1 https://github.com/Fosowl/agenticSeek.git
cd agenticSeek/server/
pip3 install -r requirements.txt
python3 app.py --provider ollama --port 3333
[MAIN]
is_local = False
provider_name = server
provider_model = deepseek-r1:70b
provider_server_address = x.x.x.x:3333
参考上述模型配置表,推荐至少12GB显存用于基本功能。
Deepseek R1在推理和工具使用方面表现优异,是项目需求的理想选择。
是的,使用Ollama、LM Studio或server提供商时,所有语音转文本、LLM和文本转语音模型都在本地运行。
AgenticSeek优先考虑独立于外部系统,为用户提供更多控制、隐私保护并避免API成本。