NVIDIA® TensorRT™ ist ein von NVIDIA entwickeltes Software Development Kit (SDK), das speziell für hochperformantes Deep-Learning-Inferencing entwickelt wurde. Es ist ein Inferencing-Optimierer und eine Laufzeitbibliothek, die speziell für NVIDIA-GPUs entwickelt wurden und die Inferencing-Leistung von Deep-Learning-Modellen in Produktionsumgebungen erheblich verbessern kann.
# Installation des Python-Pakets mit pip
pip install tensorrt
# Oder aus dem Quellcode erstellen
git clone -b main https://github.com/nvidia/TensorRT TensorRT
cd TensorRT
git submodule update --init --recursive
# Erstellen des Docker-Images
./docker/build.sh --file docker/ubuntu-20.04.Dockerfile --tag tensorrt-ubuntu20.04-cuda12.9
# Starten des Build-Containers
./docker/launch.sh --tag tensorrt-ubuntu20.04-cuda12.9 --gpus all
Dieses Repository enthält die Open-Source-Komponenten von TensorRT, darunter hauptsächlich:
NVIDIA TensorRT ist eine ausgereifte, hochleistungsfähige Deep-Learning-Inferencing-Optimierungsplattform, die Entwicklern eine vollständige Lösung von der Modelloptimierung bis zur Bereitstellung bietet. Seine leistungsstarken Optimierungsfunktionen, umfangreichen Funktionen und die umfassende Ökosystemunterstützung machen es zu einem der bevorzugten Tools für die Bereitstellung von AI-Anwendungen. Ob Edge Computing oder Rechenzentrums-Bereitstellung, TensorRT kann Entwicklern helfen, die beste Inferencing-Leistung und -Effizienz zu erzielen.