ChatGLM3 は、智譜AIと清華大学 KEG ラボが共同で発表した対話型事前学習モデルです。ChatGLM3-6B は ChatGLM3 シリーズのオープンソースモデルであり、前世代モデルの対話の滑らかさ、低い導入ハードルなどの多くの優れた特性を維持した上で、ChatGLM3-6B は多くの重要な新機能と改善を導入しました。
プロジェクトアドレス: https://github.com/THUDM/ChatGLM3
ChatGLM3-6B の基礎モデル ChatGLM3-6B-Base は、より多様なトレーニングデータ、より十分なトレーニングステップ数、より合理的なトレーニング戦略を採用しています。セマンティクス、数学、推論、コード、知識など、さまざまな角度のデータセットでの評価では、ChatGLM3-6B-Base は 10B 以下の基礎モデルの中で最も強力な性能を備えていることが示されています。
さまざまなニーズを満たすために、複数のバージョンを提供します。
8つの中英典型的なデータセットでのテスト結果:
モデル | GSM8K | MATH | BBH | MMLU | C-Eval | CMMLU | MBPP | AGIEval |
---|---|---|---|---|---|---|---|---|
ChatGLM2-6B-Base | 32.4 | 6.5 | 33.7 | 47.9 | 51.7 | 50.0 | - | - |
ChatGLM3-6B-Base | 72.3 | 25.7 | 66.1 | 61.4 | 69.0 | 67.5 | 52.4 | 53.7 |
複数の長文アプリケーションシナリオで ChatGLM3-6B-32K の人工評価テストを実施しました。2世代モデルと比較して、効果は平均で50%以上向上しました。論文の読解、ドキュメントの要約、財務報告書の分析などのアプリケーションで特に顕著な改善が見られます。
git clone https://github.com/THUDM/ChatGLM3
cd ChatGLM3
pip install -r requirements.txt
from transformers import AutoTokenizer, AutoModel
# モデルのロード
tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm3-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/chatglm3-6b", trust_remote_code=True, device='cuda')
model = model.eval()
# 対話インタラクション
response, history = model.chat(tokenizer, "こんにちは", history=[])
print(response)
# Gradioバージョン
python web_demo_gradio.py
# Streamlitバージョン
streamlit run web_demo_streamlit.py
python cli_demo.py
cd openai_api_demo
python api_server.py
OpenAI互換のAPIインターフェースを提供し、以下をサポートします。
プロジェクトは完全なファインチューニングスイートを提供し、以下をサポートします。
複数の優れたオープンソースプロジェクトをサポートします。
推論加速:
ファインチューニングフレームワーク:
アプリケーションフレームワーク:
プロジェクトは、3つのモードを統合した総合Demoを提供します。
プロジェクトは積極的にオープンソースコミュニティを受け入れ、複数の優れたプロジェクトと深く協力し、完全なエコシステムを形成しています。開発者は ChatGLM3 に基づいて、さまざまな革新的なアプリケーションを開発できます。