Home
Login

إطار عمل تطوير تطبيقات البيانات الأصلية للذكاء الاصطناعي، يعتمد على AWEL ووكلاء متعددين لبناء تطبيقات ذكاء البيانات.

MITPython 16.8keosphoros-ai Last Updated: 2025-06-20

DB-GPT: إطار عمل تطوير تطبيقات البيانات الأصلية للذكاء الاصطناعي

نظرة عامة على المشروع

DB-GPT هو إطار عمل مفتوح المصدر لتطوير تطبيقات البيانات الأصلية للذكاء الاصطناعي، يدمج AWEL (لغة التعبير عن سير العمل الوكيلي) ونظام متعدد الوكلاء. يهدف المشروع إلى بناء بنية تحتية في مجال النماذج الكبيرة من خلال تطوير قدرات تقنية متنوعة، مثل إدارة النماذج المتعددة (SMMF)، وتحسين تأثير Text2SQL، وإطار عمل RAG والتحسين، والتعاون في إطار عمل متعدد الوكلاء، و AWEL (تنظيم سير عمل الوكيل)، مما يجعل تطبيقات النماذج الكبيرة القائمة على البيانات أبسط وأكثر ملاءمة.

في عصر البيانات 3.0، يمكن للشركات والمطورين بناء تطبيقاتهم المخصصة بأقل قدر ممكن من التعليمات البرمجية، بناءً على النماذج وقواعد البيانات.

الهيكل الأساسي والقدرات

وحدات الوظائف الرئيسية

1. RAG (الجيل المعزز بالاسترجاع)

RAG هو المجال الأكثر عملية وإلحاحًا في الوقت الحالي. لقد حقق DB-GPT بالفعل إطار عمل قائم على RAG، مما يسمح للمستخدمين باستخدام وظيفة RAG الخاصة بـ DB-GPT لإنشاء تطبيقات قاعدة المعرفة.

2. GBI (الذكاء التجاري التوليدي)

الذكاء التجاري التوليدي هو إحدى القدرات الأساسية لمشروع DB-GPT، حيث يوفر تقنية ذكاء البيانات الأساسية لبناء تحليل تقارير المؤسسات ورؤى الأعمال.

3. إطار الضبط الدقيق

يعد الضبط الدقيق للنموذج قدرة لا غنى عنها لأي مؤسسة لتنفيذها في المجالات الرأسية والمجزأة. يوفر DB-GPT إطار عمل كامل للضبط الدقيق، مدمج بسلاسة مع مشروع DB-GPT. في أعمال الضبط الدقيق الأخيرة، تم تحقيق دقة 82.5٪ بناءً على مجموعة بيانات Spider.

4. إطار عمل متعدد الوكلاء مدفوع بالبيانات

يوفر DB-GPT إطار عمل متعدد الوكلاء ذاتي التطور مدفوع بالبيانات، مصمم لاتخاذ القرارات وتنفيذها باستمرار بناءً على البيانات.

5. مصنع البيانات

مصنع البيانات مسؤول بشكل أساسي عن تنظيف ومعالجة المعرفة والبيانات الموثوقة في عصر النماذج الكبيرة.

6. تكامل مصدر البيانات

دمج مصادر بيانات مختلفة، وربط بيانات الأعمال الإنتاجية بسلاسة بالوظائف الأساسية لـ DB-GPT.

المشاريع ذات الصلة

DB-GPT-Hub

يركز DB-GPT-Hub على تحقيق سير عمل Text-to-SQL عالي الأداء من خلال تطبيق الضبط الدقيق الخاضع للإشراف (SFT) على نماذج اللغة الكبيرة (LLMs).

dbgpts

dbgpts هو المستودع الرسمي، الذي يحتوي على بعض تطبيقات البيانات وعوامل تشغيل AWEL وقوالب سير عمل AWEL والوكلاء الأذكياء المبنية على DB-GPT.

DB-GPT-Plugins

ملحقات DB-GPT، يمكنها تشغيل ملحقات Auto-GPT مباشرة.

نماذج اللغة المدعومة

يدعم DB-GPT مجموعة واسعة من نماذج اللغة الكبيرة، بما في ذلك:

  • نماذج مفتوحة المصدر:

    • LLaMA / LLaMA-2 / LLaMA-3 / LLaMA-3.1
    • BLOOM / BLOOMZ
    • Falcon
    • Baichuan / Baichuan2
    • InternLM
    • سلسلة Qwen (Qwen2.5, Qwen3، إلخ)
    • XVERSE
    • ChatGLM2 / GLM-4
    • سلسلة DeepSeek
    • سلسلة Yi
    • سلسلة Gemma
    • Phi-3
    • CodeQwen
    • Mixtral
    • SOLAR
  • نماذج API:

    • 文心一言 (Wenxin Yiyan)
    • 通义千问 (Tongyi Qianwen)
    • 智谱AI (Zhipu AI)
    • خدمات API أخرى

السمات الرئيسية

1. الأسئلة والأجوبة الخاصة ومعالجة البيانات

يوفر مشروع DB-GPT سلسلة من الوظائف المصممة لتحسين بناء قاعدة المعرفة، وتحقيق تخزين واسترجاع فعال للبيانات المنظمة وغير المنظمة. تتضمن هذه الوظائف:

  • دعم مدمج لتحميل تنسيقات ملفات متعددة
  • القدرة على دمج ملحقات استخراج البيانات المخصصة
  • وظائف موحدة لتخزين واسترجاع المتجهات

2. مصادر بيانات متعددة و GBI

يسهل المشروع التفاعل السلس باللغة الطبيعية مع مصادر بيانات متنوعة، بما في ذلك Excel وقواعد البيانات ومستودعات البيانات. إنه يبسط عملية الاستعلام عن المعلومات واسترجاعها من هذه المصادر، مما يمكّن المستخدمين من إجراء محادثات بديهية واكتساب رؤى. بالإضافة إلى ذلك، يدعم DB-GPT إنشاء تقارير تحليلية.

3. وكلاء متعددون ومكونات إضافية

يوفر دعمًا للمكونات الإضافية المخصصة لتنفيذ مهام مختلفة، ويتكامل أصلاً مع نموذج المكونات الإضافية Auto-GPT. يتبع بروتوكول الوكيل معيار بروتوكول الوكيل.

4. الضبط الدقيق التلقائي لـ Text2SQL

لقد قمنا أيضًا بتطوير إطار عمل خفيف الوزن للضبط الدقيق التلقائي يركز على نماذج اللغة الكبيرة (LLMs) ومجموعات بيانات Text2SQL و LoRA/QLoRA/Pturning وطرق الضبط الدقيق الأخرى. يبسط هذا الإطار الضبط الدقيق لـ Text-to-SQL، مما يجعله بسيطًا مثل عملية خط التجميع.

5. SMMF (إطار إدارة نماذج متعددة موجه نحو الخدمة)

نحن نقدم دعمًا واسعًا للنماذج، بما في ذلك عشرات نماذج اللغة الكبيرة (LLMs) من مصادر مفتوحة ووكلاء API، مثل LLaMA/LLaMA2 و Baichuan و ChatGLM و 文心 (Wenxin) و 通义 (Tongyi) و 智谱 (Zhipu) وما إلى ذلك.

الخصوصية والأمان

نحن نضمن خصوصية وأمان البيانات من خلال تنفيذ تقنيات مختلفة، بما في ذلك النماذج الكبيرة الخاصة وإزالة حساسية الوكيل.

مصادر البيانات المدعومة

في ملف تكوين .env، قم بتعديل معلمة LANGUAGE للتبديل إلى لغة مختلفة. الافتراضي هو اللغة الإنجليزية (الصينية: zh، الإنجليزية: en، سيتم إضافة لغات أخرى لاحقًا).

الهيكل التقني

يعتمد DB-GPT تصميمًا معياريًا، والذي يتضمن بشكل أساسي:

  • طبقة تنظيم سير عمل AWEL: توفير القدرة على التعبير عن سير عمل الوكيل وتنظيمه
  • طبقة إدارة النماذج المتعددة: إدارة وتوزيع موحد لنماذج اللغة الكبيرة المختلفة
  • طبقة الوصول إلى البيانات: دعم الوصول إلى مصادر بيانات متعددة ومعالجتها
  • طبقة تعاون الوكلاء الأذكياء: تحقيق التعاون بين وكلاء الذكاء الاصطناعي المتعددين
  • طبقة خدمة التطبيقات: توفير خدمات التطبيقات الموجهة للمستخدمين النهائيين