AgenticSeekは、完全にローカルで動作するAIスマートアシスタントです。Manus AIのオープンソース代替として、API呼び出しや高額な月額料金は不要で、電力コストのみで自律的なインテリジェントエージェントサービスを利用できます。このプロジェクトは、ローカル推論モデル専用に設計されており、ユーザーのハードウェア上で完全に動作し、完全なプライバシーとクラウドへの依存ゼロを保証します。
AgenticSeekは、インターネットを独立して閲覧できます。検索、読み取り、情報抽出、ウェブフォームへの入力など、すべて手作業なしで行えます。サポート内容:
監督や外部依存なしに、Python、C、Go、Javaなど、さまざまな言語のプログラムを作成、デバッグ、実行できます。機能:
各タスクに最適なAIエージェントを自動的に決定します。まるで、いつでも支援できる専門家チームがいるかのようです。システムの特徴:
旅行計画から複雑なプロジェクトまで、大規模なタスクを管理可能なステップに分解し、複数のAIエージェントを使用して実行します。能力:
クリアで高速な未来的な音声と音声テキスト変換機能により、AIアシスタントと自然にやり取りできます。特性:
プロバイダー | ローカル | 説明 |
---|---|---|
ollama | はい | ollamaを使用してLLMを簡単にローカルで実行 |
lm-studio | はい | LM Studioを使用してLLMをローカルで実行 |
server | はい | 他のマシンでモデルをホスト |
openai | 構成による | ChatGPT APIまたは互換性のあるAPIを使用 |
プロジェクトは主にRTX 3060上でdeepseek r1 14bモデルを使用して開発および最適化されています。
モデルサイズ | GPU要件 | パフォーマンス評価 |
---|---|---|
7B | 8GB VRAM | 基本機能 |
14B | 12GB VRAM (例: RTX 3060) | ✅ 簡単なタスクに使用可能。ウェブブラウジングや計画タスクは困難な場合あり |
32B | 24+GB VRAM (例: RTX 4090) | 🚀 ほとんどのタスクで成功。タスク計画は依然として困難な場合あり |
70B+ | 48+GB VRAM (例: Mac Studio) | 💪 優秀。高度なユースケースに推奨 |
git clone https://github.com/Fosowl/agenticSeek.git
cd agenticSeek
mv .env.example .env
python3 -m venv agentic_seek_env
source agentic_seek_env/bin/activate
# Linux/macOS
./install.sh
# Windows
./install.bat
pip3 install -r requirements.txt
# または
python3 setup.py install
[MAIN]
is_local = True
provider_name = ollama
provider_model = deepseek-r1:32b
provider_server_address = 127.0.0.1:11434
agent_name = Friday
recover_last_session = False
save_session = False
speak = False
listen = False
work_dir = /Users/mlg/Documents/ai_folder
jarvis_personality = False
languages = en zh
[BROWSER]
headless_browser = False
stealth_mode = False
# Python環境をアクティブ化
source agentic_seek_env/bin/activate
# 必要なサービスを起動
sudo ./start_services.sh # macOS/Linux
start ./start_services.cmd # Windows
python3 cli.py
# バックエンドを起動
python3 api.py
# http://localhost:3000/ にアクセス
以下は、典型的な使用シナリオのいくつかです。
Make a snake game in python
- Pythonでスネークゲームを作成するShow me how to multiply matrice in C
- C言語で行列を乗算する方法を示すMake a blackjack in golang
- Go言語でブラックジャックゲームを作成するDo a web search to find cool tech startup in Japan working on cutting edge AI research
- 最先端のAI研究に取り組んでいる日本のクールなテックスタートアップをウェブ検索するCan you find on the internet who created AgenticSeek?
- インターネットでAgenticSeekの作成者を見つけるCan you use a fuel calculator online to estimate the cost of a Nice - Milan trip
- オンライン燃料計算機を使用して、ニースからミラノへの旅行費用を見積もるconfig.ini
で有効にする:
listen = True
プロジェクトは、LLMをリモートサーバー上で実行することをサポートしています。
git clone --depth 1 https://github.com/Fosowl/agenticSeek.git
cd agenticSeek/server/
pip3 install -r requirements.txt
python3 app.py --provider ollama --port 3333
[MAIN]
is_local = False
provider_name = server
provider_model = deepseek-r1:70b
provider_server_address = x.x.x.x:3333
上記のモデル構成表を参照してください。基本機能には少なくとも12GBのVRAMを推奨します。
Deepseek R1は、推論とツール使用において優れたパフォーマンスを発揮し、プロジェクトのニーズに最適です。
はい、Ollama、LM Studio、またはserverプロバイダーを使用する場合、すべての音声テキスト変換、LLM、およびテキスト音声変換モデルはローカルで実行されます。
AgenticSeekは、外部システムからの独立性を優先し、ユーザーにより多くの制御、プライバシー保護を提供し、APIコストを回避します。