AgenticSeek는 완전 로컬화된 AI 스마트 어시스턴트로서, Manus AI의 오픈소스 대체 솔루션입니다. API 호출이나 높은 월 사용료 없이, 오직 전기 요금만으로 자율적인 스마트 에이전트 서비스를 누릴 수 있습니다. 이 프로젝트는 로컬 추론 모델을 위해 설계되었으며, 사용자 하드웨어에서 완전히 실행되어 완전한 개인 정보 보호와 클라우드 의존성 제로를 보장합니다.
AgenticSeek는 독립적으로 인터넷을 탐색할 수 있습니다. 검색, 읽기, 정보 추출, 웹 양식 작성 등을 인공 개입 없이 완벽하게 수행합니다. 지원 기능:
감독이나 외부 의존성 없이 Python, C, Go, Java 등 다양한 언어로 프로그램을 작성, 디버깅 및 실행할 수 있습니다. 기능 포함:
각 작업에 가장 적합한 AI 에이전트를 자동으로 결정하여, 언제든지 도움을 줄 준비가 된 전문 전문가 팀을 보유한 것과 같습니다. 시스템 특징:
여행 계획부터 복잡한 프로젝트까지, 대규모 작업을 관리 가능한 단계로 분해하고 여러 AI 에이전트를 사용하여 실행합니다. 능력 포함:
명확하고 빠른 미래 지향적인 음성 및 음성-텍스트 변환 기능을 통해 AI 어시스턴트와 자연스럽게 상호 작용할 수 있습니다. 특징:
제공업체 | 로컬 여부 | 설명 |
---|---|---|
ollama | 예 | ollama를 사용하여 LLM을 쉽게 로컬에서 실행 |
lm-studio | 예 | LM Studio를 사용하여 LLM을 로컬에서 실행 |
server | 예 | 다른 머신에서 모델 호스팅 |
openai | 구성에 따라 다름 | ChatGPT API 또는 호환 API 사용 |
프로젝트는 주로 RTX 3060에서 deepseek r1 14b 모델을 사용하여 개발 및 최적화되었습니다.
모델 크기 | GPU 요구 사항 | 성능 평가 |
---|---|---|
7B | 8GB VRAM | 기본 기능 |
14B | 12GB VRAM (예: RTX 3060) | ✅ 간단한 작업에 사용 가능, 웹 브라우징 및 계획 작업은 어려울 수 있음 |
32B | 24+GB VRAM (예: RTX 4090) | 🚀 대부분의 작업 성공, 작업 계획은 여전히 어려울 수 있음 |
70B+ | 48+GB VRAM (예: Mac Studio) | 💪 우수, 고급 사용 사례에 권장 |
git clone https://github.com/Fosowl/agenticSeek.git
cd agenticSeek
mv .env.example .env
python3 -m venv agentic_seek_env
source agentic_seek_env/bin/activate
# Linux/macOS
./install.sh
# Windows
./install.bat
pip3 install -r requirements.txt
# 또는
python3 setup.py install
[MAIN]
is_local = True
provider_name = ollama
provider_model = deepseek-r1:32b
provider_server_address = 127.0.0.1:11434
agent_name = Friday
recover_last_session = False
save_session = False
speak = False
listen = False
work_dir = /Users/mlg/Documents/ai_folder
jarvis_personality = False
languages = en zh
[BROWSER]
headless_browser = False
stealth_mode = False
# Python 환경 활성화
source agentic_seek_env/bin/activate
# 필수 서비스 시작
sudo ./start_services.sh # macOS/Linux
start ./start_services.cmd # Windows
python3 cli.py
# 백엔드 시작
python3 api.py
# http://localhost:3000/ 접속
다음은 일반적인 사용 시나리오입니다.
Make a snake game in python
- Python으로 뱀 게임 만들기Show me how to multiply matrice in C
- C 언어로 행렬 곱셈하는 방법 보여주기Make a blackjack in golang
- Go 언어로 블랙잭 게임 만들기Do a web search to find cool tech startup in Japan working on cutting edge AI research
- 일본에서 최첨단 AI 연구를 하는 멋진 기술 스타트업 웹 검색하기Can you find on the internet who created AgenticSeek?
- 인터넷에서 AgenticSeek를 만든 사람 찾기Can you use a fuel calculator online to estimate the cost of a Nice - Milan trip
- 온라인 연료 계산기를 사용하여 니스 - 밀라노 여행 비용 추정하기config.ini
에서 활성화:
listen = True
프로젝트는 LLM을 원격 서버에서 실행하는 것을 지원합니다.
git clone --depth 1 https://github.com/Fosowl/agenticSeek.git
cd agenticSeek/server/
pip3 install -r requirements.txt
python3 app.py --provider ollama --port 3333
[MAIN]
is_local = False
provider_name = server
provider_model = deepseek-r1:70b
provider_server_address = x.x.x.x:3333
위의 모델 구성 표를 참조하십시오. 기본 기능을 위해 최소 12GB VRAM을 권장합니다.
Deepseek R1은 추론 및 도구 사용 측면에서 뛰어난 성능을 보여 프로젝트 요구 사항에 이상적인 선택입니다.
예, Ollama, LM Studio 또는 server 제공업체를 사용하는 경우 모든 음성-텍스트 변환, LLM 및 텍스트-음성 변환 모델이 로컬에서 실행됩니다.
AgenticSeek는 외부 시스템으로부터의 독립성을 우선시하여 사용자에게 더 많은 제어, 개인 정보 보호 및 API 비용 절감을 제공합니다.