Home
Login
openvinotoolkit/openvino

OpenVINO™ é um kit de ferramentas de código aberto para otimizar e implantar inferência de IA, com suporte para aplicações de aprendizado profundo, como visão computacional, reconhecimento automático de fala, IA generativa e processamento de linguagem natural.

Apache-2.0C++ 8.4kopenvinotoolkit Last Updated: 2025-06-14
https://github.com/openvinotoolkit/openvino

Detalhes do Projeto OpenVINO™

Visão Geral

OpenVINO™ (Open Visual Inference and Neural Network Optimization) é um kit de ferramentas de otimização de inferência de aprendizado profundo de código aberto desenvolvido pela Intel. O projeto se concentra em melhorar o desempenho de inferência de modelos de IA em várias plataformas de hardware, especialmente em áreas como visão computacional, reconhecimento automático de fala, IA generativa e processamento de linguagem natural.

A principal filosofia do OpenVINO™ é permitir que os desenvolvedores implantem facilmente modelos de aprendizado profundo treinados em ambientes de produção, obtendo o melhor desempenho de inferência possível, seja em dispositivos de borda ou servidores em nuvem.

Principais Funções e Características

1. Otimização de Inferência

  • Melhoria do Desempenho de Aprendizado Profundo: Otimizado especificamente para tarefas de visão computacional, reconhecimento automático de fala, IA generativa, processamento de linguagem natural, etc.
  • Suporte a Grandes Modelos de Linguagem: Suporte para inferência eficiente de modelos de linguagem grandes e pequenos.
  • Otimização Multitarefa: Abrange vários cenários de aplicação de IA comuns.

2. Suporte Flexível a Modelos

  • Compatibilidade Multi-Framework: Suporta os principais frameworks de aprendizado profundo, como PyTorch, TensorFlow, ONNX, Keras, PaddlePaddle, JAX/Flax, etc.
  • Integração com Hugging Face: Integração direta de modelos transformers e diffusers do Hugging Face Hub através do Optimum Intel.
  • Sem Necessidade do Framework Original: Pode converter e implantar modelos em ambientes sem o framework de treinamento original.

3. Ampla Compatibilidade de Plataforma

  • Suporte a CPU: Otimização para CPUs de arquitetura x86 e ARM.
  • Suporte a GPU: Placas gráficas integradas e dedicadas da Intel.
  • Aceleradores de IA: Intel NPU (Unidade de Processamento Neural).
  • Da Borda à Nuvem: Suporte abrangente de implantação de dispositivos de borda a servidores em nuvem.

4. APIs e Ferramentas Ricas

  • APIs Multi-Linguagem: Fornece interfaces de programação em várias linguagens, como C++, Python, C, NodeJS, etc.
  • API GenAI: Interface de API otimizada especificamente para IA generativa.
  • Ferramentas de Conversão de Modelo: Ferramentas convenientes de conversão e otimização de formato de modelo.

Principais Componentes e Ecossistema

Ferramentas e Bibliotecas Principais

  • Neural Network Compression Framework (NNCF): Técnicas avançadas de otimização de modelo, incluindo quantização, poda de filtro, binarização e esparsificação.
  • OpenVINO GenAI: Recursos e ferramentas especificamente para aplicações de IA generativa.
  • OpenVINO Tokenizers: Ferramentas de tokenização para desenvolver e otimizar aplicações de IA generativa.

Serviços e Plataformas

  • OpenVINO™ Model Server (OVMS): Solução de serviço de modelo escalável e de alto desempenho.
  • Intel® Geti™: Ferramenta interativa de anotação de vídeo e imagem.

Integrações e Parceiros

  • 🤗Optimum Intel: Integração profunda com a API Hugging Face.
  • Torch.compile: Suporte para otimização de compilação JIT para aplicações nativas do PyTorch.
  • Integração com vLLM: Aprimora a capacidade de serviço de modelo rápido do vLLM.
  • ONNX Runtime: Fornece como um provedor de execução do ONNX Runtime.
  • LlamaIndex e LangChain: Integração profunda com os principais frameworks de IA.
  • Keras 3: Suporta o framework de aprendizado profundo multi-backend Keras 3.

Exemplos de Início Rápido

Inferência de Modelo PyTorch

import openvino as ov
import torch
import torchvision

# Carrega o modelo PyTorch na memória
model = torch.hub.load("pytorch/vision", "shufflenet_v2_x1_0", weights="DEFAULT")

# Converte o modelo para o modelo OpenVINO
example = torch.randn(1, 3, 224, 224)
ov_model = ov.convert_model(model, example_input=(example,))

# Compila o modelo para o dispositivo CPU
core = ov.Core()
compiled_model = core.compile_model(ov_model, 'CPU')

# Inferencia o modelo em dados aleatórios
output = compiled_model({0: example.numpy()})

Inferência de Modelo TensorFlow

import numpy as np
import openvino as ov
import tensorflow as tf

# Carrega o modelo TensorFlow na memória
model = tf.keras.applications.MobileNetV2(weights='imagenet')

# Converte o modelo para o modelo OpenVINO
ov_model = ov.convert_model(model)

# Compila o modelo para o dispositivo CPU
core = ov.Core()
compiled_model = core.compile_model(ov_model, 'CPU')

# Inferencia o modelo em dados aleatórios
data = np.random.rand(1, 224, 224, 3)
output = compiled_model({0: data})

Recursos de Aprendizagem

Documentação e Tutoriais Oficiais

Exemplos Práticos

  • OpenVINO Notebooks: Ricos tutoriais em Jupyter Notebook.
    • Criação de Chatbot LLM
    • Otimização YOLOv11
    • Geração de Texto para Imagem
    • Desenvolvimento de Assistente Multimodal
    • Aplicação de Reconhecimento de Fala

Recursos da Comunidade

Vantagens Técnicas

Otimização de Desempenho

  • Otimizado profundamente para a arquitetura de hardware Intel.
  • Suporta várias tecnologias de aceleração de hardware.
  • Fornece dados detalhados de benchmarks de desempenho.

Facilidade de Uso

  • Processo de instalação simples: pip install -U openvino
  • Ricos exemplos de código e tutoriais.
  • Documentação abrangente e suporte da comunidade.

Flexibilidade

  • Suporta vários frameworks de aprendizado profundo.
  • Capacidade de implantação multiplataforma.
  • Design de arquitetura extensível.

Instalação e Requisitos de Sistema

Instalação Rápida

pip install -U openvino

Requisitos de Sistema

Comunidade e Suporte

Obtenha Ajuda

Guia de Contribuição

Licença e Privacidade

Licença

O kit de ferramentas OpenVINO™ usa a licença de código aberto Apache License Version 2.0.

Coleta de Dados

O OpenVINO™ coleta dados de desempenho e uso do software para melhorar as ferramentas, e você pode optar por sair usando o seguinte comando:

opt_in_out --opt_out

Resumo

OpenVINO™ é um kit de ferramentas de otimização de inferência de IA de código aberto poderoso e fácil de usar, que fornece aos desenvolvedores uma solução completa desde o treinamento do modelo até a implantação em produção. Suas principais vantagens incluem:

  1. Suporte Abrangente a Frameworks: Compatível com todos os principais frameworks de aprendizado profundo.
  2. Excelente Desempenho: Otimizado profundamente para hardware Intel, fornecendo desempenho de inferência excepcional.
  3. Ampla Gama de Cenários de Aplicação: Abrange visão computacional, NLP, IA generativa e outros campos.
  4. Rico Ecossistema: Integração profunda com as principais plataformas como Hugging Face, PyTorch, TensorFlow, etc.
  5. Comunidade Ativa: Documentação abrangente, tutoriais e suporte da comunidade.