محرك ذاكرة أصلي مفتوح المصدر SQL لـ LLM ووكيل الذكاء الاصطناعي وأنظمة متعددة الوكلاء، سطر واحد من التعليمات البرمجية يحقق وظيفة ذاكرة الذكاء الاصطناعي المستمرة والقابلة للاستعلام.

NOASSERTIONPythonMemoriGibsonAI 8.5k Last Updated: November 24, 2025

Memori - نظرة عامة مفصلة على محرك ذاكرة الذكاء الاصطناعي مفتوح المصدر

نظرة عامة على المشروع

Memori هو محرك ذاكرة أصيل لـ SQL ومفتوح المصدر، مصمم خصيصًا لنماذج اللغة الكبيرة (LLM)، ووكلاء الذكاء الاصطناعي، وأنظمة متعددة الوكلاء. يمكنه تمكين أي LLM من امتلاك قدرة ذاكرة دائمة وقابلة للاستعلام بسطر واحد من التعليمات البرمجية، باستخدام قواعد بيانات SQL القياسية لتخزين بيانات الذاكرة.

الميزات الأساسية:

  • التكامل بسطر واحد من التعليمات البرمجية عبر memori.enable()
  • تخزين بيانات الذاكرة في قواعد بيانات SQL القياسية (SQLite، PostgreSQL، MySQL)، مع امتلاك المستخدم وتحكمه الكامل
  • يمكن للذكاء الاصطناعي تذكر المحادثات، والتعلم من التفاعلات، والحفاظ على السياق عبر جلسات متعددة

لماذا تختار Memori؟

1. التكامل بسطر واحد

يدعم OpenAI، Anthropic، LiteLLM، LangChain، وأي إطار عمل LLM، مما يجعل التكامل بسيطًا للغاية.

2. تخزين أصيل لـ SQL

  • بيانات ذاكرة قابلة للنقل، قابلة للاستعلام، وقابلة للتدقيق
  • مخزنة في قاعدة بيانات تتحكم بها بالكامل
  • لا حاجة لقواعد بيانات متجهات معقدة

3. توفير في التكاليف بنسبة 80-90%

لا يتطلب قواعد بيانات متجهات باهظة الثمن، مما يقلل بشكل كبير من تكاليف التشغيل.

4. عدم الارتباط بمورد واحد

يمكن تصدير الذاكرة بتنسيق SQLite، والانتقال بها إلى أي مكان في أي وقت.

5. إدارة ذكية للذاكرة

  • استخراج الكيانات تلقائيًا
  • رسم خرائط العلاقات
  • تحديد أولويات السياق

البدء السريع

التثبيت

pip install memorisdk

الاستخدام الأساسي

from memori import Memori
from openai import OpenAI

# التهيئة
memori = Memori(conscious_ingest=True)
memori.enable()
client = OpenAI()

# المحادثة الأولى
response = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[{"role": "user", "content": "I'm building a FastAPI project"}]
)

# المحادثة اللاحقة - Memori يوفر السياق تلقائيًا
response = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[{"role": "user", "content": "Help me add authentication"}]
)
# سيعرف LLM تلقائيًا معلومات مشروع FastAPI الخاص بك

قواعد البيانات المدعومة

يدعم Memori أي قاعدة بيانات SQL قياسية:

قاعدة البيانات مثال على سلسلة الاتصال
SQLite sqlite:///my_memory.db
PostgreSQL postgresql://user:pass@localhost/memori
MySQL mysql://user:pass@localhost/memori
Neon postgresql://user:pass@ep-*.neon.tech/memori
Supabase postgresql://postgres:pass@db.*.supabase.co/postgres

أطر عمل LLM المدعومة

من خلال نظام رد الاتصال الأصيل لـ LiteLLM، يدعم Memori جميع الأطر الرئيسية:

الإطار الحالة طريقة الاستخدام
OpenAI ✓ دعم أصيل from openai import OpenAI
Anthropic ✓ دعم أصيل from anthropic import Anthropic
LiteLLM ✓ دعم أصيل from litellm import completion
LangChain ✓ مدعوم التكامل عبر LiteLLM
Azure OpenAI ✓ مدعوم استخدم ProviderConfig.from_azure() للتكوين
100+ نموذج ✓ مدعوم أي مزود متوافق مع LiteLLM

خيارات التكوين

تكوين قاعدة البيانات

from memori import Memori

memori = Memori(
    database_connect="postgresql://user:pass@localhost/memori",
    conscious_ingest=True,  # ذاكرة عمل قصيرة المدى
    auto_ingest=True,       # بحث ديناميكي مع كل استعلام
    openai_api_key="sk-..."
)
memori.enable()

أوضاع الذاكرة

وضع الوعي (Conscious) - حقن ذاكرة العمل لمرة واحدة

memori = Memori(conscious_ingest=True)

وضع التلقائي (Auto) - بحث ديناميكي مع كل استعلام

memori = Memori(auto_ingest=True)

الوضع المدمج - يجمع بين الاثنين

memori = Memori(conscious_ingest=True, auto_ingest=True)

تكوين متغيرات البيئة

from memori import Memori, ConfigManager

config = ConfigManager()
config.auto_load()  # التحميل من متغيرات البيئة أو ملفات التكوين
memori = Memori()
memori.enable()

إعداد متغيرات البيئة:

export MEMORI_DATABASE__CONNECTION_STRING="postgresql://..."
export MEMORI_AGENTS__OPENAI_API_KEY="sk-..."
export MEMORI_MEMORY__NAMESPACE="production"

كيف يعمل

يعمل Memori عن طريق اعتراض استدعاءات LLM - حقن السياق قبل الاستدعاء، وتسجيل المعلومات بعد الاستدعاء:

قبل الاستدعاء (حقن السياق)

  1. تطبيقك يستدعي client.chat.completions.create(messages=[...])
  2. Memori يعترض هذا الاستدعاء بشفافية
  3. وكيل الاسترجاع (وضع التلقائي) أو وكيل الوعي (وضع الوعي) يسترجع الذكريات ذات الصلة
  4. يتم حقن السياق في الرسائل قبل إرسالها إلى مزود LLM

بعد الاستدعاء (التسجيل)

  1. مزود LLM يعيد الاستجابة
  2. وكيل الذاكرة يستخرج الكيانات، ويصنفها (حقائق، تفضيلات، مهارات، قواعد، سياق)
  3. يتم تخزين المحادثات في قاعدة بيانات SQL، مع فهارس بحث نصية كاملة
  4. يتم إرجاع الاستجابة الأصلية إلى تطبيقك

المعالجة في الخلفية (كل 6 ساعات)

  • وكيل الوعي يحلل الأنماط، ويرفع الذكريات المهمة من التخزين طويل الأمد إلى التخزين قصير الأمد

أمثلة على سيناريوهات التطبيق

أمثلة أساسية

  • الاستخدام الأساسي - إعداد ذاكرة بسيط
  • مساعد شخصي - مساعد ذكاء اصطناعي بذاكرة
  • استرجاع الذاكرة - استدعاء الوظائف
  • تكوين متقدم - إعدادات بيئة الإنتاج

سيناريوهات متعددة المستخدمين

  • متعدد المستخدمين بسيط - عزل ذاكرة المستخدم
  • تطبيق FastAPI متعدد المستخدمين - واجهة برمجة تطبيقات REST مع Swagger

أمثلة على تكامل الأطر

يوفر Memori أمثلة على التكامل مع العديد من أطر عمل الذكاء الاصطناعي الشائعة:

  • Agno
  • AWS Strands
  • Azure AI Foundry
  • AutoGen
  • CamelAI
  • CrewAI
  • Digital Ocean AI
  • LangChain
  • OpenAI Agent
  • Swarms

عروض توضيحية عبر الإنترنت

  • مساعد يوميات شخصي - تطبيق Streamlit يمكن تجربته عبر الإنترنت
  • وكيل مساعد للبحث - أداة بحث يمكن تجربتها عبر الإنترنت

البنية التقنية

يعتمد Memori تصميمًا معماريًا متعدد الطبقات:

  1. طبقة الاعتراض - اعتراض شفاف لاستدعاءات واجهة برمجة تطبيقات LLM
  2. طبقة الاسترجاع - استرجاع ذكي لسياق الذاكرة ذي الصلة
  3. طبقة التخزين - تخزين دائم في قاعدة بيانات SQL
  4. طبقة التحليل - تحليل وتحسين الذاكرة في الخلفية

يرجى الرجوع إلى architecture.md في الوثائق الرسمية للحصول على وثائق البنية التفصيلية.

إصدار المؤسسات (Memori v3)

يفتح Memori حاليًا مجموعة اختبار خاصة صغيرة لإصدار v3. إذا كنت ترغب في معرفة المزيد والوصول المبكر إلى بنية الذاكرة الجديدة للذكاء الاصطناعي للمؤسسات، يمكنك الانضمام إلى خطة الاختبار الخاصة بهم.

المجتمع والدعم

دليل المساهمة

يرحب Memori بمساهمات المجتمع! يوفر المشروع دليل مساهمة مفصلًا، بما في ذلك:

  • إعداد بيئة التطوير
  • نمط ومعايير التعليمات البرمجية
  • إرسال طلب سحب (Pull Request)
  • الإبلاغ عن المشاكل

ترخيص مفتوح المصدر

ترخيص Apache 2.0

ملخص

Memori هو حل ذاكرة ذكاء اصطناعي قوي وسهل الاستخدام، ومناسب بشكل خاص لـ:

  • المطورين الذين يحتاجون إلى إضافة وظيفة الذاكرة لتطبيقات LLM
  • الفرق التي تبني مساعدين ذكاء اصطناعي متعددي الجلسات
  • المشاريع التي تحتاج إلى خفض تكاليف قواعد بيانات المتجهات
  • الشركات التي ترغب في التحكم الكامل في بيانات ذاكرة الذكاء الاصطناعي

من خلال التخزين الأصيل لـ SQL وفلسفة التصميم التي تعتمد على التكامل بسطر واحد من التعليمات البرمجية، خفض Memori بشكل كبير من عتبة وتكلفة إضافة وظيفة الذاكرة لتطبيقات الذكاء الاصطناعي.

Star History Chart