Les Projets Open Source d'IA les Plus Prometteurs en 2025
Explorez les Projets Open Source d'IA sur GitHub
SiteGoogle
Name
Description
License
Language
Category
Starred
StarredRate
Last Updated
Un outil puissant conçu spécifiquement pour la création d'ensembles de données de fine-tuning pour les grands modèles de langage, prenant en charge le traitement intelligent des documents, la génération de questions et l'exportation multi-formats.
NOASSERTION
JavaScript
Fine Tuning
9.3k
+179
2025-07-08
Framework léger pour l'entraînement de GPT, permettant d'entraîner complètement un petit modèle de langage de 26M de paramètres à partir de zéro en 2 heures.
Apache-2.0
Python
Fine Tuning
22.9k
+172
2025-04-30
Modèle de langage unifié pré-entraîné à grande échelle et auto-supervisé de Microsoft, prenant en charge la recherche sur les modèles de base inter-tâches, inter-langues et inter-modalités.
MIT
Python
Fine Tuning
21.5k
+23
2025-07-03
Dépôt officiel Hugging Face pour un démarrage rapide avec le modèle Gemma, offrant divers scripts et notebooks pratiques pour l'inférence, le fine-tuning, etc.
MIT
Jupyter Notebook
Fine Tuning
223
+19
2025-07-04
Collection efficace de noyaux Triton développée par LinkedIn, optimisée pour l'entraînement de grands modèles de langage, capable d'améliorer la vitesse d'entraînement de 20 % et de réduire l'utilisation de la mémoire de 60 %.
BSD-2-Clause
Python
Fine Tuning
5.3k
+28
2025-07-09
Bibliothèque PyTorch légère qui rend les grands modèles de langage plus accessibles grâce à la quantification k-bit
MIT
Python
Fine Tuning
7.2k
+10
2025-07-08
Modèle pré-entraîné BERT en chinois basé sur la technique de masquage de mots entiers, fournissant divers modèles pré-entraînés de traitement du langage naturel en chinois.
Apache-2.0
Python
Fine Tuning
10.0k
+5
2023-07-31
Boîte à outils de modèles de langage de grande taille haute performance, prenant en charge le pré-entraînement, le réglage fin et le déploiement de plus de 20 modèles.
Apache-2.0
Python
Fine Tuning
12.5k
+29
2025-07-09
Boîte à outils d'affinage de grands modèles de langage efficace, flexible et complète, prenant en charge divers modèles et algorithmes d'entraînement.
Apache-2.0
Python
Fine Tuning
4.6k
+6
2025-07-08
Une boîte à outils extensible, pratique et efficace pour le réglage fin et l'inférence de grands modèles de base, conçue pour être conviviale, rapide et fiable, et ouverte à toute la communauté.
Apache-2.0
Python
Fine Tuning
8.4k
+3
2025-07-09
Utiliser la technique d'adaptation de faible rang LoRA pour affiner les modèles LLaMA sur du matériel grand public, afin de créer rapidement un assistant IA de suivi d'instructions similaire à ChatGPT.
Apache-2.0
Jupyter Notebook
Fine Tuning
18.9k
+0
2024-07-29
Bibliothèque d'entraînement de grands modèles de langage basée sur l'apprentissage par renforcement, prenant en charge les techniques de post-entraînement avancées telles que SFT, PPO, DPO, etc.
Apache-2.0
Python
Fine Tuning
14.5k
+61
2025-07-09
Un framework de fine-tuning et de déploiement de grands modèles de langage (LLM) à code zéro et à faible code, prenant en charge le fine-tuning unifié et efficace de plus de 100 LLM/VLM.
Apache-2.0
Python
Fine Tuning
54.0k
+264
2025-07-08
Un outil open source pour le post-entraînement de modèles d'IA, prenant en charge diverses méthodes d'entraînement telles que le fine-tuning, LoRA, QLoRA, etc.
Apache-2.0
Python
Fine Tuning
9.9k
+32
2025-07-10
QLoRA : un framework de fine-tuning efficace et quantifié pour les grands modèles de langage, permettant de fine-tuner des modèles de 65 milliards de paramètres sur un seul GPU.
MIT
Jupyter Notebook
Fine Tuning
10.5k
+8
2024-06-10
Bibliothèque LoRA open source de Microsoft, implémentant la technique d'adaptation de rang faible pour les grands modèles de langage, réduisant considérablement les paramètres d'entraînement lors du fine-tuning du modèle.
MIT
Python
Fine Tuning
12.2k
+19
2024-12-17
🤗 PEFT est une bibliothèque de fine-tuning efficace en termes de paramètres, développée par Hugging Face. Elle permet un fine-tuning à faible coût des grands modèles grâce à des techniques telles que LoRA et AdaLoRA.
Apache-2.0
Python
Fine Tuning
19.0k
+32
2025-07-08
Unsloth : outil de fine-tuning et d'apprentissage par renforcement efficace pour les grands modèles de langage - Vitesse d'entraînement multipliée par 2, utilisation de la mémoire réduite de 70 %
Apache-2.0
Python
Fine Tuning
41.8k
+171
2025-07-10