ONNX Runtime (ORT) 是一個跨平台的機器學習推論加速器,旨在加速 ONNX (Open Neural Network Exchange) 模型的推論過程。它由微軟開發並開源,支援多種硬體平台和作業系統,並提供了高效能的推論能力。
核心目標:
ONNX Runtime 的架構主要包括以下幾個部分:
pip install onnxruntime
(CPU 版本) 或 pip install onnxruntime-gpu
(GPU 版本)。onnxruntime.InferenceSession
載入 ONNX 模型。InferenceSession.run()
方法執行推論,並獲取輸出結果。示例代碼 (Python):
import onnxruntime
import numpy as np
# 載入 ONNX 模型
session = onnxruntime.InferenceSession("model.onnx")
# 獲取輸入和輸出資訊
input_name = session.get_inputs()[0].name
output_name = session.get_outputs()[0].name
# 準備輸入資料
input_data = np.random.randn(1, 3, 224, 224).astype(np.float32)
# 執行推論
output_data = session.run([output_name], {input_name: input_data})
# 列印輸出結果
print(output_data)
ONNX Runtime 是一個強大的機器學習推論加速器,可以幫助使用者加速 ONNX 模型的推論過程,提高應用效能。它具有高效能、跨平台、易於整合、靈活可擴展等優點,適用於各種機器學習任務。