Home
Login

API 호출 없이 완전 로컬에서 실행되는 AI 지능형 비서로, 자체 웹 브라우징, 코드 작성 및 작업 계획 능력을 갖추고 있습니다.

GPL-3.0Python 19.2kFosowlagenticSeek Last Updated: 2025-06-22

AgenticSeek 프로젝트 상세 소개

프로젝트 개요

AgenticSeek는 완전 로컬화된 AI 스마트 어시스턴트로서, Manus AI의 오픈소스 대체 솔루션입니다. API 호출이나 높은 월 사용료 없이, 오직 전기 요금만으로 자율적인 스마트 에이전트 서비스를 누릴 수 있습니다. 이 프로젝트는 로컬 추론 모델을 위해 설계되었으며, 사용자 하드웨어에서 완전히 실행되어 완전한 개인 정보 보호와 클라우드 의존성 제로를 보장합니다.

핵심 기능

🔒 완전 로컬화 및 개인 정보 보호

  • 100% 로컬 실행: 모든 기능이 사용자 장치에서 실행되며, 클라우드 의존성이 없습니다.
  • 데이터 프라이버시: 파일, 대화 및 검색 기록이 로컬 장치에 완전히 보관됩니다.
  • 데이터 공유 제로: 외부 서비스로 개인 데이터를 전송하지 않습니다.

🌐 스마트 웹 브라우징

AgenticSeek는 독립적으로 인터넷을 탐색할 수 있습니다. 검색, 읽기, 정보 추출, 웹 양식 작성 등을 인공 개입 없이 완벽하게 수행합니다. 지원 기능:

  • 자동 검색 및 정보 추출
  • 웹 양식 자동 작성
  • 스마트 콘텐츠 분석 및 요약

💻 자율 프로그래밍 어시스턴트

감독이나 외부 의존성 없이 Python, C, Go, Java 등 다양한 언어로 프로그램을 작성, 디버깅 및 실행할 수 있습니다. 기능 포함:

  • 다국어 코드 생성
  • 자동 디버깅 및 오류 수정
  • 코드 실행 및 테스트

🧠 스마트 에이전트 선택

각 작업에 가장 적합한 AI 에이전트를 자동으로 결정하여, 언제든지 도움을 줄 준비가 된 전문 전문가 팀을 보유한 것과 같습니다. 시스템 특징:

  • 작업 자동 라우팅
  • 전문화된 에이전트 분업
  • 스마트 의사 결정 메커니즘

📋 복잡한 작업 계획 및 실행

여행 계획부터 복잡한 프로젝트까지, 대규모 작업을 관리 가능한 단계로 분해하고 여러 AI 에이전트를 사용하여 실행합니다. 능력 포함:

  • 작업 자동 분해
  • 다중 에이전트 협업
  • 진행 상황 추적 및 관리

🎙️ 음성 상호 작용

명확하고 빠른 미래 지향적인 음성 및 음성-텍스트 변환 기능을 통해 AI 어시스턴트와 자연스럽게 상호 작용할 수 있습니다. 특징:

  • 음성 깨우기 기능
  • 실시간 음성 인식
  • 자연어 상호 작용

기술 아키텍처

지원되는 로컬 LLM 제공업체

제공업체 로컬 여부 설명
ollama ollama를 사용하여 LLM을 쉽게 로컬에서 실행
lm-studio LM Studio를 사용하여 LLM을 로컬에서 실행
server 다른 머신에서 모델 호스팅
openai 구성에 따라 다름 ChatGPT API 또는 호환 API 사용

추천 모델 구성

프로젝트는 주로 RTX 3060에서 deepseek r1 14b 모델을 사용하여 개발 및 최적화되었습니다.

모델 크기 GPU 요구 사항 성능 평가
7B 8GB VRAM 기본 기능
14B 12GB VRAM (예: RTX 3060) ✅ 간단한 작업에 사용 가능, 웹 브라우징 및 계획 작업은 어려울 수 있음
32B 24+GB VRAM (예: RTX 4090) 🚀 대부분의 작업 성공, 작업 계획은 여전히 어려울 수 있음
70B+ 48+GB VRAM (예: Mac Studio) 💪 우수, 고급 사용 사례에 권장

설치 및 구성

시스템 요구 사항

  • Python 3.10 이상
  • Chrome 브라우저 및 ChromeDriver
  • Docker 및 Docker Compose

빠른 설치

git clone https://github.com/Fosowl/agenticSeek.git
cd agenticSeek
mv .env.example .env
python3 -m venv agentic_seek_env
source agentic_seek_env/bin/activate

자동 설치 (권장)

# Linux/macOS
./install.sh

# Windows
./install.bat

수동 설치

pip3 install -r requirements.txt
# 또는
python3 setup.py install

구성 예시

[MAIN]
is_local = True
provider_name = ollama
provider_model = deepseek-r1:32b
provider_server_address = 127.0.0.1:11434
agent_name = Friday
recover_last_session = False
save_session = False
speak = False
listen = False
work_dir = /Users/mlg/Documents/ai_folder
jarvis_personality = False
languages = en zh

[BROWSER]
headless_browser = False
stealth_mode = False

구성 매개변수 설명

  • is_local: 로컬 실행(True) 또는 원격 서버(False)
  • provider_name: 제공업체 이름 (ollama, server, lm-studio 등)
  • provider_model: 사용할 모델 (예: deepseek-r1:32b)
  • agent_name: 에이전트 이름, 음성 트리거 단어로 사용
  • work_dir: AI가 액세스할 수 있는 폴더 경로
  • jarvis_personality: JARVIS 스타일 개성 활성화
  • languages: 지원되는 언어 목록

실행 방법

서비스 시작

# Python 환경 활성화
source agentic_seek_env/bin/activate

# 필수 서비스 시작
sudo ./start_services.sh  # macOS/Linux
start ./start_services.cmd  # Windows

실행 옵션

옵션 1: CLI 인터페이스

python3 cli.py

옵션 2: 웹 인터페이스

# 백엔드 시작
python3 api.py

# http://localhost:3000/ 접속

사용 예시

다음은 일반적인 사용 시나리오입니다.

  • Make a snake game in python - Python으로 뱀 게임 만들기
  • Show me how to multiply matrice in C - C 언어로 행렬 곱셈하는 방법 보여주기
  • Make a blackjack in golang - Go 언어로 블랙잭 게임 만들기
  • Do a web search to find cool tech startup in Japan working on cutting edge AI research - 일본에서 최첨단 AI 연구를 하는 멋진 기술 스타트업 웹 검색하기
  • Can you find on the internet who created AgenticSeek? - 인터넷에서 AgenticSeek를 만든 사람 찾기
  • Can you use a fuel calculator online to estimate the cost of a Nice - Milan trip - 온라인 연료 계산기를 사용하여 니스 - 밀라노 여행 비용 추정하기

음성 기능

음성-텍스트 변환 구성

config.ini에서 활성화:

listen = True

사용 절차

  1. 에이전트 이름을 말하여 깨우기 (예: "Friday")
  2. 명확하게 쿼리 내용 말하기
  3. "do it", "go ahead", "execute" 등과 같은 확인 구문으로 요청 마무리

원격 배포

프로젝트는 LLM을 원격 서버에서 실행하는 것을 지원합니다.

서버 측

git clone --depth 1 https://github.com/Fosowl/agenticSeek.git
cd agenticSeek/server/
pip3 install -r requirements.txt
python3 app.py --provider ollama --port 3333

클라이언트 구성

[MAIN]
is_local = False
provider_name = server
provider_model = deepseek-r1:70b
provider_server_address = x.x.x.x:3333

자주 묻는 질문

Q: 필요한 하드웨어 구성은 무엇입니까?

위의 모델 구성 표를 참조하십시오. 기본 기능을 위해 최소 12GB VRAM을 권장합니다.

Q: Deepseek R1을 선택한 이유는 무엇입니까?

Deepseek R1은 추론 및 도구 사용 측면에서 뛰어난 성능을 보여 프로젝트 요구 사항에 이상적인 선택입니다.

Q: 정말 100% 로컬에서 실행할 수 있습니까?

예, Ollama, LM Studio 또는 server 제공업체를 사용하는 경우 모든 음성-텍스트 변환, LLM 및 텍스트-음성 변환 모델이 로컬에서 실행됩니다.

Q: Manus와 비교하여 어떤 장점이 있습니까?

AgenticSeek는 외부 시스템으로부터의 독립성을 우선시하여 사용자에게 더 많은 제어, 개인 정보 보호 및 API 비용 절감을 제공합니다.

프로젝트 링크

Star History Chart