Home
Login

Les Projets Open Source d'IA les Plus Prometteurs en 2025

Explorez les Projets Open Source d'IA sur GitHub

Name
Description
License
Language
Category
Starred
StarredRate
Last Updated
YOLOv5, un modèle de détection d'objets en temps réel de pointe basé sur PyTorch, prend en charge la détection d'objets, la segmentation d'images et les tâches de classification d'images.
AGPL-3.0
Python
Deploy& Inference
42.5k
+117
2025-06-30
YOLOv5, le modèle de détection d'objets en temps réel le plus avancé basé sur PyTorch, prend en charge la détection d'objets, la segmentation d'images et les tâches de classification d'images.
AGPL-3.0
Python
Deploy& Inference
54.4k
+40
2025-06-21
Bibliothèque d'inférence et d'entraînement accélérés avec des outils d'optimisation matérielle pour Transformers, Diffusers, TIMM et Sentence Transformers
Apache-2.0
Python
Deploy& Inference
3.0k
+3
2025-06-27
Plateforme de déploiement de modèles d'apprentissage automatique à grande échelle basée sur Kubernetes, utilisée pour empaqueter, déployer, surveiller et gérer des milliers de modèles d'apprentissage automatique de niveau production.
NOASSERTION
Go
Deploy& Inference
4.6k
+2
2025-06-30
Une boîte à outils de déploiement de modèles d'apprentissage profond et de grands modèles de langage rapide et facile à utiliser, prenant en charge le déploiement dans le cloud, sur mobile et en périphérie. Comprend plus de 20 scénarios courants et plus de 150 modèles SOTA dans les domaines de l'image, de la vidéo, du texte et de l'audio, avec une optimisation de bout en bout, une prise en charge multiplateforme et multiframework.
Apache-2.0
C++
Deploy& Inference
3.3k
+64
2025-06-30
Runtime d'inférence d'apprentissage profond sensible à la parcimonie, conçu spécifiquement pour les CPU
NOASSERTION
Python
Deploy& Inference
3.2k
+0
2025-06-02
Logiciel de service d'inférence open source offrant des solutions d'inférence optimisées dans le cloud et en périphérie.
BSD-3-Clause
Python
Deploy& Inference
9.4k
+10
2025-06-29
LMDeploy est une boîte à outils pour la compression, le déploiement et le service de grands modèles de langage.
Apache-2.0
Python
Deploy& Inference
6.6k
+15
2025-06-30
NVIDIA® TensorRT™ est un SDK pour l'inférence de deep learning haute performance sur les GPU NVIDIA. Ce dépôt contient les composants open source de TensorRT.
Apache-2.0
C++
Deploy& Inference
11.8k
+14
2025-06-26
ncnn est un framework d'inférence de réseau neuronal haute performance optimisé pour les plateformes mobiles.
NOASSERTION
C++
Deploy& Inference
21.7k
+21
2025-06-27
Portage C/C++ haute performance du modèle de reconnaissance vocale OpenAI Whisper, prenant en charge l'inférence CPU pure et le déploiement multiplateforme.
MIT
C++
Deploy& Inference
41.2k
+118
2025-06-27
Bibliothèque d'inférence officielle du modèle Mistral, contenant l'implémentation de code minimal pour exécuter les modèles Mistral AI.
Apache-2.0
Jupyter Notebook
Deploy& Inference
10.3k
+9
2025-03-20
OpenVINO™ est une boîte à outils open source pour optimiser et déployer l'inférence IA, prenant en charge les applications d'apprentissage profond telles que la vision par ordinateur, la reconnaissance vocale automatique, l'IA générative et le traitement du langage naturel.
Apache-2.0
C++
Deploy& Inference
8.5k
+19
2025-06-30
PowerInfer est un moteur d'inférence de modèles de langage de grande taille à haute vitesse, conçu pour un déploiement local. Il utilise l'activation parcimonieuse et une architecture hybride CPU/GPU pour réaliser une inférence LLM rapide sur du matériel grand public.
MIT
C++
Deploy& Inference
8.2k
+0
2025-02-19
La manière la plus simple de déployer des applications et des services de modèles d'IA - Construire des API d'inférence de modèles, des files d'attente de tâches, des applications LLM, des pipelines multi-modèles, etc.
Apache-2.0
Python
Deploy& Inference
7.8k
+9
2025-06-30
GPT4All : Application de chatbot IA open source pour exécuter des grands modèles de langage localement sur n'importe quel appareil
MIT
C++
Deploy& Inference
73.7k
+23
2025-05-27
ONNX Runtime : un accélérateur d'inférence et d'entraînement de machine learning multiplateforme et haute performance.
MIT
C++
Deploy& Inference
17.0k
+30
2025-06-30
MLC LLM : Compiler, optimiser et déployer localement n'importe quel LLM sur divers appareils.
Apache-2.0
Python
Deploy& Inference
20.9k
+21
2025-06-25
MindSpore est un framework d'apprentissage profond multi-scènes conçu pour offrir aux développeurs une conception conviviale, une exécution efficace et une expérience de déploiement flexible. Il prend en charge le déploiement dans le cloud, en périphérie et côté terminal, et fournit une riche bibliothèque de modèles et d'outils pour faciliter le développement d'applications d'IA.
Apache-2.0
C++
Deploy& Inference
4.5k
+3
2024-07-29
DeepSpeed-MII : Déployez et exécutez facilement de grands modèles d'IA avec le moteur d'optimisation DeepSpeed, pour une faible latence et un débit élevé.
Apache-2.0
Python
Deploy& Inference
2.0k
+3
2025-03-26
OpenLLM : une plateforme ouverte pour construire, exécuter et déployer des grands modèles de langage en production.
Apache-2.0
Python
Deploy& Inference
11.4k
+14
2025-06-23
Text Generation Inference (TGI) est une bibliothèque Rust pour le déploiement à grande échelle de modèles de génération de texte. Elle est conçue pour des performances élevées, une faible latence et une utilisation efficace des ressources, particulièrement adaptée aux environnements de production.
Apache-2.0
Python
Deploy& Inference
10.3k
+12
2025-06-27
FastChat est une plateforme ouverte pour l'entraînement, le service et l'évaluation de grands modèles de langage.
Apache-2.0
Python
Deploy& Inference
38.8k
+10
2025-06-02
Exo : exécutez votre propre cluster d'IA à la maison à l'aide d'appareils du quotidien
GPL-3.0
Python
Deploy& Inference
28.8k
+98
2025-03-21
llama.cpp est un moteur d'inférence de modèles LLaMA écrit en C/C++ pur, conçu pour des performances élevées et une faible empreinte de ressources.
MIT
C++
Deploy& Inference
82.4k
+166
2025-06-30
  • 1
  • 2