NVIDIA® TensorRT™ est un kit de développement logiciel (SDK) développé par NVIDIA, spécialement conçu pour l'inférence de deep learning haute performance. Il s'agit d'un optimiseur d'inférence et d'une bibliothèque d'exécution conçus pour les GPU NVIDIA, capables d'améliorer considérablement les performances d'inférence des modèles de deep learning dans les environnements de production.
# Utiliser pip pour installer le package Python
pip install tensorrt
# Ou construire à partir du code source
git clone -b main https://github.com/nvidia/TensorRT TensorRT
cd TensorRT
git submodule update --init --recursive
# Construire l'image Docker
./docker/build.sh --file docker/ubuntu-20.04.Dockerfile --tag tensorrt-ubuntu20.04-cuda12.9
# Lancer le conteneur de construction
./docker/launch.sh --tag tensorrt-ubuntu20.04-cuda12.9 --gpus all
Ce référentiel contient les composants open source de TensorRT, notamment :
NVIDIA TensorRT est une plateforme d'optimisation d'inférence de deep learning mature et haute performance, offrant aux développeurs une solution complète de l'optimisation du modèle au déploiement. Sa puissante capacité d'optimisation, ses riches fonctionnalités et son support d'écosystème complet en font l'un des outils de choix pour le déploiement d'applications AI. Que ce soit pour l'informatique de pointe ou le déploiement de centres de données, TensorRT peut aider les développeurs à obtenir les meilleures performances et efficacité d'inférence.