NVIDIA® TensorRT™ é um kit de desenvolvimento de software (SDK) desenvolvido pela NVIDIA, especializado em inferência de aprendizado profundo de alto desempenho. É um otimizador de inferência e biblioteca de tempo de execução projetado especificamente para GPUs NVIDIA, capaz de melhorar significativamente o desempenho de inferência de modelos de aprendizado profundo em ambientes de produção.
# Instale o pacote Python usando pip
pip install tensorrt
# Ou construa a partir do código fonte
git clone -b main https://github.com/nvidia/TensorRT TensorRT
cd TensorRT
git submodule update --init --recursive
# Construa a imagem Docker
./docker/build.sh --file docker/ubuntu-20.04.Dockerfile --tag tensorrt-ubuntu20.04-cuda12.9
# Inicie o contêiner de construção
./docker/launch.sh --tag tensorrt-ubuntu20.04-cuda12.9 --gpus all
Este repositório contém componentes de código aberto do TensorRT, incluindo principalmente:
NVIDIA TensorRT é uma plataforma de otimização de inferência de aprendizado profundo madura e de alto desempenho, fornecendo aos desenvolvedores uma solução completa desde a otimização do modelo até a implantação. Suas poderosas capacidades de otimização, ricas características funcionais e suporte abrangente ao ecossistema o tornam uma das ferramentas preferidas para a implantação de aplicações de IA. Seja computação de borda ou implantação de data center, o TensorRT pode ajudar os desenvolvedores a alcançar o melhor desempenho e eficiência de inferência.