AgenticSeek é um assistente inteligente de IA totalmente localizado, uma alternativa de código aberto ao Manus AI, que elimina a necessidade de chamadas de API e altas taxas mensais, permitindo que você desfrute de serviços de agente inteligente autônomo com apenas o custo da eletricidade. Este projeto foi projetado para modelos de inferência local, executando-se completamente no hardware do usuário, garantindo total privacidade e zero dependência da nuvem.
AgenticSeek pode navegar na internet de forma independente – pesquisar, ler, extrair informações, preencher formulários da web – completamente livre de intervenção manual. Suporta:
Capaz de escrever, depurar e executar programas em várias linguagens, como Python, C, Go, Java – sem supervisão ou dependência externa. As funcionalidades incluem:
Determina automaticamente o melhor agente de IA para cada tarefa, como ter uma equipe de especialistas profissionais pronta para ajudar. Características do sistema:
Desde planejamento de viagens até projetos complexos – divide grandes tarefas em etapas gerenciáveis e usa vários agentes de IA para executar. As capacidades incluem:
Voz futurista clara e rápida e funcionalidades de voz para texto, permitindo que você interaja naturalmente com o assistente de IA. Características:
Provedor | Local? | Descrição |
---|---|---|
ollama | Sim | Execute LLMs localmente com facilidade usando ollama |
lm-studio | Sim | Execute LLMs localmente usando LM Studio |
server | Sim | Hospede modelos em outras máquinas |
openai | Depende da configuração | Use a API ChatGPT ou API compatível |
O projeto é desenvolvido e otimizado principalmente usando o modelo deepseek r1 14b em uma RTX 3060.
Tamanho do Modelo | Requisitos de GPU | Avaliação de Desempenho |
---|---|---|
7B | 8GB VRAM | Funcionalidade básica |
14B | 12GB VRAM (ex: RTX 3060) | ✅ Utilizável para tarefas simples, navegação na web e tarefas de planejamento podem ter dificuldades |
32B | 24+GB VRAM (ex: RTX 4090) | 🚀 A maioria das tarefas bem-sucedida, o planejamento de tarefas ainda pode ter dificuldades |
70B+ | 48+GB VRAM (ex: Mac Studio) | 💪 Excelente, recomendado para casos de uso avançados |
git clone https://github.com/Fosowl/agenticSeek.git
cd agenticSeek
mv .env.example .env
python3 -m venv agentic_seek_env
source agentic_seek_env/bin/activate
# Linux/macOS
./install.sh
# Windows
./install.bat
pip3 install -r requirements.txt
# Ou
python3 setup.py install
[MAIN]
is_local = True
provider_name = ollama
provider_model = deepseek-r1:32b
provider_server_address = 127.0.0.1:11434
agent_name = Friday
recover_last_session = False
save_session = False
speak = False
listen = False
work_dir = /Users/mlg/Documents/ai_folder
jarvis_personality = False
languages = en zh
[BROWSER]
headless_browser = False
stealth_mode = False
# Ativar o ambiente Python
source agentic_seek_env/bin/activate
# Iniciar os serviços necessários
sudo ./start_services.sh # macOS/Linux
start ./start_services.cmd # Windows
python3 cli.py
# Iniciar o backend
python3 api.py
# Acessar http://localhost:3000/
A seguir, alguns cenários de uso típicos:
Make a snake game in python
- Faça um jogo da cobrinha em PythonShow me how to multiply matrice in C
- Mostre-me como multiplicar matrizes em CMake a blackjack in golang
- Faça um jogo de blackjack em GoDo a web search to find cool tech startup in Japan working on cutting edge AI research
- Faça uma pesquisa na web para encontrar startups de tecnologia legais no Japão trabalhando em pesquisa de IA de pontaCan you find on the internet who created AgenticSeek?
- Você pode encontrar na internet quem criou o AgenticSeek?Can you use a fuel calculator online to estimate the cost of a Nice - Milan trip
- Você pode usar uma calculadora de combustível online para estimar o custo de uma viagem de Nice a Milão?Ative em config.ini
:
listen = True
O projeto suporta a execução do LLM em um servidor remoto:
git clone --depth 1 https://github.com/Fosowl/agenticSeek.git
cd agenticSeek/server/
pip3 install -r requirements.txt
python3 app.py --provider ollama --port 3333
[MAIN]
is_local = False
provider_name = server
provider_model = deepseek-r1:70b
provider_server_address = x.x.x.x:3333
Consulte a tabela de configuração do modelo acima, recomenda-se pelo menos 12 GB de VRAM para funcionalidade básica.
Deepseek R1 tem excelente desempenho em inferência e uso de ferramentas, sendo uma escolha ideal para as necessidades do projeto.
Sim, ao usar os provedores Ollama, LM Studio ou server, todos os modelos de voz para texto, LLM e texto para voz são executados localmente.
AgenticSeek prioriza a independência de sistemas externos, oferecendo aos usuários mais controle, proteção de privacidade e evitando custos de API.