NVIDIA® TensorRT™ es un kit de desarrollo de software (SDK) desarrollado por NVIDIA, especializado en inferencia de aprendizaje profundo de alto rendimiento. Es un optimizador de inferencia y una biblioteca de tiempo de ejecución diseñados específicamente para GPU NVIDIA, capaces de mejorar significativamente el rendimiento de inferencia de modelos de aprendizaje profundo en entornos de producción.
# Instalar el paquete de Python usando pip
pip install tensorrt
# O construir desde el código fuente
git clone -b main https://github.com/nvidia/TensorRT TensorRT
cd TensorRT
git submodule update --init --recursive
# Construir la imagen de Docker
./docker/build.sh --file docker/ubuntu-20.04.Dockerfile --tag tensorrt-ubuntu20.04-cuda12.9
# Iniciar el contenedor de construcción
./docker/launch.sh --tag tensorrt-ubuntu20.04-cuda12.9 --gpus all
Este repositorio contiene componentes de código abierto de TensorRT, que incluyen principalmente:
NVIDIA TensorRT es una plataforma de optimización de inferencia de aprendizaje profundo madura y de alto rendimiento, que proporciona a los desarrolladores una solución completa desde la optimización del modelo hasta el despliegue. Su poderosa capacidad de optimización, sus ricas características funcionales y su completo soporte de ecosistema lo convierten en una de las herramientas preferidas para el despliegue de aplicaciones de IA. Ya sea en la computación en el borde o en el despliegue en el centro de datos, TensorRT puede ayudar a los desarrolladores a lograr el mejor rendimiento y eficiencia de inferencia.