Home
Login
openvinotoolkit/openvino

OpenVINO™ 是一个开源工具包,用于优化和部署AI推理,支持计算机视觉、自动语音识别、生成式AI和自然语言处理等深度学习应用

Apache-2.0C++ 8.4kopenvinotoolkit Last Updated: 2025-06-14
https://github.com/openvinotoolkit/openvino

OpenVINO™ 项目详细介绍

概述

OpenVINO™(Open Visual Inference and Neural Network Optimization)是由Intel开发的开源深度学习推理优化工具包。该项目专注于提升AI模型在各种硬件平台上的推理性能,特别是在计算机视觉、自动语音识别、生成式AI和自然语言处理等领域。

OpenVINO™ 的核心理念是让开发者能够轻松地将训练好的深度学习模型部署到生产环境中,无论是边缘设备还是云端服务器,都能获得最佳的推理性能。

核心功能与特性

1. 推理优化

  • 深度学习性能提升:专门针对计算机视觉、自动语音识别、生成式AI、自然语言处理等任务进行优化
  • 大语言模型支持:支持大型和小型语言模型的高效推理
  • 多任务优化:涵盖各种常见的AI应用场景

2. 灵活的模型支持

  • 多框架兼容:支持PyTorch、TensorFlow、ONNX、Keras、PaddlePaddle、JAX/Flax等主流深度学习框架
  • Hugging Face集成:通过Optimum Intel直接集成Hugging Face Hub上的transformers和diffusers模型
  • 无需原框架:可以在没有原始训练框架的环境中转换和部署模型

3. 广泛的平台兼容性

  • CPU支持:x86和ARM架构的CPU优化
  • GPU支持:Intel集成显卡和独立显卡
  • AI加速器:Intel NPU(神经网络处理单元)
  • 边缘到云:从边缘设备到云端服务器的全方位部署支持

4. 丰富的API和工具

  • 多语言API:提供C++、Python、C、NodeJS等多种编程语言接口
  • GenAI API:专门为生成式AI优化的API接口
  • 模型转换工具:便捷的模型格式转换和优化工具

主要组件和生态系统

核心工具和库

  • Neural Network Compression Framework (NNCF):高级模型优化技术,包括量化、滤波器剪枝、二值化和稀疏化
  • OpenVINO GenAI:专门针对生成式AI应用的资源和工具
  • OpenVINO Tokenizers:用于开发和优化生成式AI应用的分词工具

服务和平台

  • OpenVINO™ Model Server (OVMS):可扩展的高性能模型服务解决方案
  • Intel® Geti™:交互式视频和图像标注工具

集成和合作伙伴

  • 🤗Optimum Intel:与Hugging Face API的深度集成
  • Torch.compile:支持PyTorch原生应用的JIT编译优化
  • vLLM集成:增强vLLM的快速模型服务能力
  • ONNX Runtime:作为ONNX Runtime的执行提供程序
  • LlamaIndex和LangChain:与主流AI框架的深度集成
  • Keras 3:支持Keras 3多后端深度学习框架

快速开始示例

PyTorch模型推理

import openvino as ov
import torch
import torchvision

# 加载PyTorch模型到内存
model = torch.hub.load("pytorch/vision", "shufflenet_v2_x1_0", weights="DEFAULT")

# 将模型转换为OpenVINO模型
example = torch.randn(1, 3, 224, 224)
ov_model = ov.convert_model(model, example_input=(example,))

# 为CPU设备编译模型
core = ov.Core()
compiled_model = core.compile_model(ov_model, 'CPU')

# 在随机数据上推理模型
output = compiled_model({0: example.numpy()})

TensorFlow模型推理

import numpy as np
import openvino as ov
import tensorflow as tf

# 加载TensorFlow模型到内存
model = tf.keras.applications.MobileNetV2(weights='imagenet')

# 将模型转换为OpenVINO模型
ov_model = ov.convert_model(model)

# 为CPU设备编译模型
core = ov.Core()
compiled_model = core.compile_model(ov_model, 'CPU')

# 在随机数据上推理模型
data = np.random.rand(1, 224, 224, 3)
output = compiled_model({0: data})

学习资源

官方文档和教程

实践示例

  • OpenVINO Notebooks:丰富的Jupyter笔记本教程
    • LLM聊天机器人创建
    • YOLOv11优化
    • 文本到图像生成
    • 多模态助手开发
    • 语音识别应用

社区资源

技术优势

性能优化

  • 专门针对Intel硬件架构进行深度优化
  • 支持多种硬件加速技术
  • 提供详细的性能基准测试数据

易用性

  • 简单的安装过程:pip install -U openvino
  • 丰富的代码示例和教程
  • 完善的文档和社区支持

灵活性

  • 支持多种深度学习框架
  • 跨平台部署能力
  • 可扩展的架构设计

安装和系统要求

快速安装

pip install -U openvino

系统要求

社区和支持

获取帮助

贡献指南

许可证和隐私

许可证

OpenVINO™ 工具包采用Apache License Version 2.0开源许可证。

数据收集

OpenVINO™ 会收集软件性能和使用数据以改进工具,可通过以下命令选择退出:

opt_in_out --opt_out

总结

OpenVINO™ 是一个功能强大、易于使用的开源AI推理优化工具包,它为开发者提供了从模型训练到生产部署的完整解决方案。其主要优势包括:

  1. 全面的框架支持:兼容所有主流深度学习框架
  2. 优异的性能:针对Intel硬件深度优化,提供卓越的推理性能
  3. 广泛的应用场景:覆盖计算机视觉、NLP、生成式AI等多个领域
  4. 丰富的生态系统:与Hugging Face、PyTorch、TensorFlow等主流平台深度集成
  5. 活跃的社区:完善的文档、教程和社区支持