Home
Login

بديل مفتوح المصدر ومجاني لـ OpenAI، يدعم النشر والاستدلال المحلي، ويمكن تشغيل نماذج لغوية كبيرة دون الحاجة إلى وحدة معالجة الرسومات (GPU)

MITGo 33.4kmudlerLocalAI Last Updated: 2025-06-22

مشروع LocalAI: نظرة عامة مفصلة

نظرة عامة على المشروع

LocalAI عبارة عن منصة استدلال ذكاء اصطناعي مجانية ومفتوحة المصدر، وهي بديل مباشر لواجهة برمجة تطبيقات OpenAI، ومتوافقة تمامًا مع مواصفات واجهة برمجة تطبيقات OpenAI (وكذلك Elevenlabs و Anthropic وما إلى ذلك) للاستدلال المحلي للذكاء الاصطناعي. تتمثل الفكرة الأساسية للمشروع في توفير حل مستضاف ذاتيًا وذو أولوية محلية، مما يسمح للمستخدمين بتشغيل مجموعة متنوعة من نماذج الذكاء الاصطناعي على أجهزة المستهلكين، دون الاعتماد على الخدمات السحابية.

الميزات الأساسية

🚀 دعم الذكاء الاصطناعي متعدد الوسائط

  • توليد النصوص: دعم نماذج اللغة الكبيرة (LLM) للحوار وتوليد النصوص والإجابة على الأسئلة
  • توليد الصور: دعم استخدام Stable Diffusion لتوليد الصور، ويمكن تشغيلها على وحدة المعالجة المركزية (CPU)
  • معالجة الصوت: دعم تركيب الكلام (TTS) وتوليد الصوت
  • توليد الفيديو: دعم توليد محتوى الفيديو
  • استنساخ الصوت: توفير وظيفة استنساخ الصوت

🔧 مزايا البنية التقنية

  • لا توجد متطلبات لوحدة معالجة الرسومات (GPU): يمكن تشغيلها على أجهزة المستهلكين، ولا تتطلب وحدة معالجة الرسومات
  • دعم بنية نماذج متعددة: دعم gguf و transformers و diffusers وغيرها من بنى النماذج المتعددة
  • الاستدلال الموزع: مصمم كنظام استدلال LLM لامركزي، يعتمد على نظام نظير إلى نظير libp2p
  • الوضع الفيدرالي: دعم الوضع الفيدرالي أو تقسيم أوزان النموذج

🛡️ الخصوصية والأمان

  • الأولوية المحلية: تتم معالجة جميع البيانات محليًا، ولا يتم تسريبها إلى السحابة
  • الاستضافة الذاتية: تحكم كامل في البنية التحتية للذكاء الاصطناعي الخاصة بك
  • مدفوعة بالمجتمع: مشروع مفتوح المصدر، شفافية عالية

تنسيقات النماذج المدعومة

تنسيق GGUF

يدعم LocalAI تثبيت النماذج بعدة طرق:

  • تصفح وتثبيت النماذج من معرض النماذج في واجهة الويب
  • تحديد نموذج من معرض LocalAI عند بدء التشغيل
  • استخدام URI لتحديد ملف النموذج (مثل huggingface:// و oci:// و ollama://)
  • تحديد ملف تكوين النموذج عبر عنوان URL

تكامل Transformers

يحتوي LocalAI على تكامل Transformers مدمج، والذي يمكن استخدامه لتشغيل النماذج. هذه خلفية إضافية، تتضمن بالفعل تبعيات Python المطلوبة لـ Transformers في صورة الحاوية.

خلفية Diffusers

حصلت خلفية Diffusers على العديد من التحسينات، بما في ذلك دعم توليد الصور من الصور، والمطالبات الأطول، ودعم المزيد من جدولة النواة.

التثبيت والاستخدام

بداية سريعة

# التشغيل باستخدام Docker
docker run -p 8080:8080 --name local-ai -ti localai/localai:latest

# التشغيل باستخدام نموذج معين
local-ai run huggingface://TheBloke/phi-2-GGUF/phi-2.Q8_0.gguf

# التشغيل باستخدام ملف تكوين
local-ai run https://gist.githubusercontent.com/.../phi-2.yaml

توافق واجهة برمجة التطبيقات (API)

يوفر LocalAI واجهة REST API متوافقة تمامًا مع OpenAI API، مما يعني أنه يمكنك:

  • استبدال استدعاءات OpenAI API الحالية مباشرةً
  • استخدام نفس مكتبات وأدوات العميل
  • التبديل إلى الاستدلال المحلي دون تعديل التعليمات البرمجية الحالية

مثال للاستخدام

# استخدام عميل OpenAI Python للاتصال بـ LocalAI
import openai

client = openai.OpenAI(
    base_url="http://localhost:8080/v1",
    api_key="not-needed"
)

# توليد النصوص
response = client.chat.completions.create(
    model="gpt-3.5-turbo",
    messages=[{"role": "user", "content": "Hello!"}]
)

# توليد الصور
image_response = client.images.generate(
    model="stable-diffusion",
    prompt="A beautiful sunset over mountains",
    size="512x512"
)

خصائص الأداء

متطلبات الأجهزة

  • وحدة المعالجة المركزية (CPU): دعم بنية وحدة المعالجة المركزية الحديثة
  • الذاكرة (RAM): تعتمد على حجم النموذج، عادةً 4-16 جيجابايت من ذاكرة الوصول العشوائي
  • التخزين: مساحة كافية لتخزين ملفات النموذج
  • وحدة معالجة الرسومات (GPU): اختيارية، تدعم تسريع وحدة معالجة الرسومات ولكنها ليست ضرورية

تحسين الأداء

  • محرك استدلال عالي الأداء تم تنفيذه باستخدام C++
  • دعم النماذج الكمية لتقليل استخدام الذاكرة
  • معالجة متوازية متعددة الخيوط
  • إدارة محسنة للذاكرة

المجتمع والنظام البيئي

مجتمع مفتوح المصدر

  • مجتمع مطورين نشط على GitHub
  • إصدار تحديثات وميزات جديدة بانتظام
  • وثائق وأمثلة غنية

قابلية التوسع

  • دعم المكونات الإضافية والملحقات
  • يمكن دمجها مع سلاسل أدوات الذكاء الاصطناعي الحالية
  • خيارات تكوين مرنة

حالات الاستخدام

تطبيقات المؤسسات

  • نشر خاص، حماية البيانات الحساسة
  • تقليل تكاليف استدعاء واجهة برمجة التطبيقات
  • تقليل الاعتماد على الخدمات الخارجية

أدوات المطورين

  • التطوير والاختبار المحلي
  • النماذج الأولية والتجارب
  • أغراض التعليم والتعلم

الحوسبة المتطورة

  • تكامل أجهزة إنترنت الأشياء
  • تطبيقات الذكاء الاصطناعي غير المتصلة بالإنترنت
  • متطلبات الاستدلال منخفضة الكمون

خاتمة

يوفر LocalAI بديلاً قويًا لـ OpenAI للمستخدمين الذين يرغبون في الحصول على تحكم كامل وحماية خصوصية البيانات وخفض التكاليف. من خلال دعم العديد من بنى النماذج وتوفير توافق كامل مع واجهة برمجة التطبيقات، يجعل LocalAI الاستدلال المحلي للذكاء الاصطناعي أمرًا بسيطًا وسهل الاستخدام، مع الحفاظ على أداء وموثوقية على مستوى المؤسسات.

Star History Chart