Home
Login

Les Projets Open Source d'IA les Plus Prometteurs en 2025

Explorez les Projets Open Source d'IA sur GitHub

Name
Description
License
Language
Category
Starred
StarredRate
Last Updated
Collection efficace de noyaux Triton développée par LinkedIn, optimisée pour l'entraînement de grands modèles de langage, capable d'améliorer la vitesse d'entraînement de 20 % et de réduire l'utilisation de la mémoire de 60 %.
BSD-2-Clause
Python
Fine Tuning
5.3k
+21
2025-06-25
Bibliothèque PyTorch légère qui rend les grands modèles de langage plus accessibles grâce à la quantification k-bit
MIT
Python
Fine Tuning
7.2k
+8
2025-06-24
Modèle pré-entraîné BERT en chinois basé sur la technique de masquage de mots entiers, fournissant divers modèles pré-entraînés de traitement du langage naturel en chinois.
Apache-2.0
Python
Fine Tuning
10.0k
+3
2023-07-31
Boîte à outils de modèles de langage de grande taille haute performance, prenant en charge le pré-entraînement, le réglage fin et le déploiement de plus de 20 modèles.
Apache-2.0
Python
Fine Tuning
12.3k
+16
2025-06-23
Boîte à outils d'affinage de grands modèles de langage efficace, flexible et complète, prenant en charge divers modèles et algorithmes d'entraînement.
Apache-2.0
Python
Fine Tuning
4.6k
+10
2025-05-29
Une boîte à outils extensible, pratique et efficace pour le réglage fin et l'inférence de grands modèles de base, conçue pour être conviviale, rapide et fiable, et ouverte à toute la communauté.
Apache-2.0
Python
Fine Tuning
8.4k
+2
2025-05-15
Utiliser la technique d'adaptation de faible rang LoRA pour affiner les modèles LLaMA sur du matériel grand public, afin de créer rapidement un assistant IA de suivi d'instructions similaire à ChatGPT.
Apache-2.0
Jupyter Notebook
Fine Tuning
18.9k
+2
2024-07-29
Bibliothèque d'entraînement de grands modèles de langage basée sur l'apprentissage par renforcement, prenant en charge les techniques de post-entraînement avancées telles que SFT, PPO, DPO, etc.
Apache-2.0
Python
Fine Tuning
14.3k
+53
2025-06-26
Un framework de fine-tuning et de déploiement de grands modèles de langage (LLM) à code zéro et à faible code, prenant en charge le fine-tuning unifié et efficace de plus de 100 LLM/VLM.
Apache-2.0
Python
Fine Tuning
53.0k
+241
2025-06-26
Un outil open source pour le post-entraînement de modèles d'IA, prenant en charge diverses méthodes d'entraînement telles que le fine-tuning, LoRA, QLoRA, etc.
Apache-2.0
Python
Fine Tuning
9.7k
+27
2025-06-26
QLoRA : un framework de fine-tuning efficace et quantifié pour les grands modèles de langage, permettant de fine-tuner des modèles de 65 milliards de paramètres sur un seul GPU.
MIT
Jupyter Notebook
Fine Tuning
10.5k
+3
2024-06-10
Bibliothèque LoRA open source de Microsoft, implémentant la technique d'adaptation de rang faible pour les grands modèles de langage, réduisant considérablement les paramètres d'entraînement lors du fine-tuning du modèle.
MIT
Python
Fine Tuning
12.1k
+19
2024-12-17
🤗 PEFT est une bibliothèque de fine-tuning efficace en termes de paramètres, développée par Hugging Face. Elle permet un fine-tuning à faible coût des grands modèles grâce à des techniques telles que LoRA et AdaLoRA.
Apache-2.0
Python
Fine Tuning
18.9k
+22
2025-06-26
Unsloth : outil de fine-tuning et d'apprentissage par renforcement efficace pour les grands modèles de langage - Vitesse d'entraînement multipliée par 2, utilisation de la mémoire réduite de 70 %
Apache-2.0
Python
Fine Tuning
41.1k
+182
2025-06-26