AgenticSeek هو مساعد ذكي يعمل بالذكاء الاصطناعي ومحلي بالكامل، كبديل مفتوح المصدر لـ Manus AI، لا يتطلب استدعاءات API ورسوم شهرية باهظة، بل يكفي تكلفة الكهرباء للاستمتاع بخدمات الوكيل الذكي المستقل. تم تصميم هذا المشروع خصيصًا لنماذج الاستدلال المحلية، ويعمل بالكامل على أجهزة المستخدم، مما يضمن الخصوصية الكاملة وعدم الاعتماد على السحابة.
يمكن لـ AgenticSeek تصفح الإنترنت بشكل مستقل - البحث والقراءة واستخراج المعلومات وملء نماذج الويب - دون تدخل بشري. يدعم:
قادر على كتابة وتصحيح وتشغيل برامج بلغات متعددة مثل Python و C و Go و Java - دون إشراف أو تبعيات خارجية. تشمل الميزات:
يحدد تلقائيًا أفضل وكيل ذكاء اصطناعي لكل مهمة، تمامًا مثل وجود فريق من الخبراء المحترفين على استعداد دائم لتقديم المساعدة. ميزات النظام:
من تخطيط السفر إلى المشاريع المعقدة - يقسم المهام الكبيرة إلى خطوات يمكن التحكم فيها، ويستخدم العديد من وكلاء الذكاء الاصطناعي لتنفيذها. تشمل القدرات:
تتيح لك وظائف الصوت إلى نص والصوت الواضحة والسريعة والمستقبلية التفاعل بشكل طبيعي مع مساعد الذكاء الاصطناعي. الخصائص:
مزود | محلي | الوصف |
---|---|---|
ollama | نعم | قم بتشغيل LLM محليًا بسهولة باستخدام ollama |
lm-studio | نعم | قم بتشغيل LLM محليًا باستخدام LM Studio |
server | نعم | استضافة النموذج على جهاز آخر |
openai | يعتمد على التكوين | استخدم ChatGPT API أو API متوافق |
تم تطوير المشروع وتحسينه بشكل أساسي باستخدام نموذج deepseek r1 14b على RTX 3060.
حجم النموذج | متطلبات GPU | تقييم الأداء |
---|---|---|
7B | ذاكرة فيديو 8 جيجابايت | وظائف أساسية |
14B | ذاكرة فيديو 12 جيجابايت (مثل RTX 3060) | ✅ يمكن استخدامه للمهام البسيطة، وقد تكون هناك صعوبات في تصفح الويب وتخطيط المهام |
32B | ذاكرة فيديو 24+ جيجابايت (مثل RTX 4090) | 🚀 معظم المهام ناجحة، وقد يظل تخطيط المهام صعبًا |
70B+ | ذاكرة فيديو 48+ جيجابايت (مثل Mac Studio) | 💪 ممتاز، يوصى به لحالات الاستخدام المتقدمة |
git clone https://github.com/Fosowl/agenticSeek.git
cd agenticSeek
mv .env.example .env
python3 -m venv agentic_seek_env
source agentic_seek_env/bin/activate
# Linux/macOS
./install.sh
# Windows
./install.bat
pip3 install -r requirements.txt
# أو
python3 setup.py install
[MAIN]
is_local = True
provider_name = ollama
provider_model = deepseek-r1:32b
provider_server_address = 127.0.0.1:11434
agent_name = Friday
recover_last_session = False
save_session = False
speak = False
listen = False
work_dir = /Users/mlg/Documents/ai_folder
jarvis_personality = False
languages = en zh
[BROWSER]
headless_browser = False
stealth_mode = False
# تفعيل بيئة Python
source agentic_seek_env/bin/activate
# بدء الخدمات المطلوبة
sudo ./start_services.sh # macOS/Linux
start ./start_services.cmd # Windows
python3 cli.py
# بدء الواجهة الخلفية
python3 api.py
# قم بزيارة http://localhost:3000/
فيما يلي بعض سيناريوهات الاستخدام النموذجية:
Make a snake game in python
- اصنع لعبة الثعبان في بايثونShow me how to multiply matrice in C
- أرني كيفية ضرب المصفوفات في لغة CMake a blackjack in golang
- اصنع لعبة البلاك جاك في GoDo a web search to find cool tech startup in Japan working on cutting edge AI research
- قم بإجراء بحث على الويب للعثور على شركة تقنية ناشئة رائعة في اليابان تعمل على أبحاث الذكاء الاصطناعي المتطورةCan you find on the internet who created AgenticSeek?
- هل يمكنك أن تجد على الإنترنت من قام بإنشاء AgenticSeek؟Can you use a fuel calculator online to estimate the cost of a Nice - Milan trip
- هل يمكنك استخدام حاسبة وقود عبر الإنترنت لتقدير تكلفة رحلة نيس - ميلانقم بتمكين في config.ini
:
listen = True
يدعم المشروع تشغيل LLM على خادم بعيد:
git clone --depth 1 https://github.com/Fosowl/agenticSeek.git
cd agenticSeek/server/
pip3 install -r requirements.txt
python3 app.py --provider ollama --port 3333
[MAIN]
is_local = False
provider_name = server
provider_model = deepseek-r1:70b
provider_server_address = x.x.x.x:3333
راجع جدول تكوين النموذج أعلاه، يوصى بذاكرة فيديو لا تقل عن 12 جيجابايت للوظائف الأساسية.
يتفوق Deepseek R1 في الاستدلال واستخدام الأدوات، مما يجعله خيارًا مثاليًا لمتطلبات المشروع.
نعم، عند استخدام موفري Ollama أو LM Studio أو server، يتم تشغيل جميع نماذج تحويل الصوت إلى نص و LLM وتحويل النص إلى كلام محليًا.
يعطي AgenticSeek الأولوية للاستقلالية عن الأنظمة الخارجية، مما يمنح المستخدمين مزيدًا من التحكم وحماية الخصوصية وتجنب تكاليف API.