Home
Login
openvinotoolkit/openvino

OpenVINO™は、AI推論を最適化およびデプロイするためのオープンソースツールキットであり、コンピュータビジョン、自動音声認識、生成AI、自然言語処理などの深層学習アプリケーションをサポートします。

Apache-2.0C++ 8.4kopenvinotoolkit Last Updated: 2025-06-14
https://github.com/openvinotoolkit/openvino

OpenVINO™ プロジェクト詳細

概要

OpenVINO™(Open Visual Inference and Neural Network Optimization)は、Intelが開発したオープンソースのディープラーニング推論最適化ツールキットです。このプロジェクトは、特にコンピュータビジョン、自動音声認識、生成AI、自然言語処理などの分野において、さまざまなハードウェアプラットフォーム上でのAIモデルの推論性能を向上させることに重点を置いています。

OpenVINO™ の中心的な理念は、開発者がトレーニング済みのディープラーニングモデルを、エッジデバイスであろうとクラウドサーバーであろうと、生産環境に簡単にデプロイし、最高の推論性能を得られるようにすることです。

主な機能と特徴

1. 推論最適化

  • ディープラーニング性能の向上: コンピュータビジョン、自動音声認識、生成AI、自然言語処理などのタスクに特化した最適化
  • 大規模言語モデルのサポート: 大規模および小規模言語モデルの効率的な推論をサポート
  • マルチタスク最適化: さまざまな一般的なAIアプリケーションシナリオを網羅

2. 柔軟なモデルサポート

  • マルチフレームワーク互換性: PyTorch、TensorFlow、ONNX、Keras、PaddlePaddle、JAX/Flaxなどの主要なディープラーニングフレームワークをサポート
  • Hugging Face統合: Optimum Intelを通じて、Hugging Face Hub上のtransformersおよびdiffusersモデルを直接統合
  • 元のフレームワーク不要: 元のトレーニングフレームワークがない環境でも、モデルを変換およびデプロイ可能

3. 幅広いプラットフォーム互換性

  • CPUサポート: x86およびARMアーキテクチャのCPU最適化
  • GPUサポート: Intel内蔵グラフィックスおよび独立型グラフィックス
  • AIアクセラレータ: Intel NPU(ニューラルネットワーク処理ユニット)
  • エッジからクラウドまで: エッジデバイスからクラウドサーバーまでの包括的なデプロイメントサポート

4. 豊富なAPIとツール

  • 多言語API: C++、Python、C、NodeJSなどのさまざまなプログラミング言語インターフェースを提供
  • GenAI API: 生成AIに特化した最適化されたAPIインターフェース
  • モデル変換ツール: 簡単なモデル形式変換および最適化ツール

主要なコンポーネントとエコシステム

コアツールとライブラリ

  • Neural Network Compression Framework (NNCF): 量子化、フィルタ剪定、二値化、およびスパース化を含む高度なモデル最適化技術
  • OpenVINO GenAI: 生成AIアプリケーションに特化したリソースとツール
  • OpenVINO Tokenizers: 生成AIアプリケーションの開発と最適化のためのトークン化ツール

サービスとプラットフォーム

  • OpenVINO™ Model Server (OVMS): 拡張可能な高性能モデルサービスソリューション
  • Intel® Geti™: インタラクティブなビデオおよび画像アノテーションツール

統合とパートナーシップ

  • 🤗Optimum Intel: Hugging Face APIとの深い統合
  • Torch.compile: PyTorchネイティブアプリケーションのJITコンパイル最適化をサポート
  • vLLM統合: vLLMの高速モデルサービス能力を強化
  • ONNX Runtime: ONNX Runtimeの実行プロバイダとして機能
  • LlamaIndexとLangChain: 主要なAIフレームワークとの深い統合
  • Keras 3: Keras 3マルチバックエンドディープラーニングフレームワークをサポート

クイックスタートの例

PyTorchモデル推論

import openvino as ov
import torch
import torchvision

# PyTorchモデルをメモリにロード
model = torch.hub.load("pytorch/vision", "shufflenet_v2_x1_0", weights="DEFAULT")

# モデルをOpenVINOモデルに変換
example = torch.randn(1, 3, 224, 224)
ov_model = ov.convert_model(model, example_input=(example,))

# CPUデバイス用にモデルをコンパイル
core = ov.Core()
compiled_model = core.compile_model(ov_model, 'CPU')

# ランダムデータでモデルを推論
output = compiled_model({0: example.numpy()})

TensorFlowモデル推論

import numpy as np
import openvino as ov
import tensorflow as tf

# TensorFlowモデルをメモリにロード
model = tf.keras.applications.MobileNetV2(weights='imagenet')

# モデルをOpenVINOモデルに変換
ov_model = ov.convert_model(model)

# CPUデバイス用にモデルをコンパイル
core = ov.Core()
compiled_model = core.compile_model(ov_model, 'CPU')

# ランダムデータでモデルを推論
data = np.random.rand(1, 224, 224, 3)
output = compiled_model({0: data})

学習リソース

公式ドキュメントとチュートリアル

実践的な例

  • OpenVINO Notebooks: 豊富なJupyterノートブックチュートリアル
    • LLMチャットボットの作成
    • YOLOv11の最適化
    • テキストから画像への生成
    • マルチモーダルアシスタントの開発
    • 音声認識アプリケーション

コミュニティリソース

技術的な利点

性能最適化

  • Intelハードウェアアーキテクチャに特化した深い最適化
  • さまざまなハードウェアアクセラレーション技術のサポート
  • 詳細な性能ベンチマークデータの提供

使いやすさ

  • 簡単なインストールプロセス:pip install -U openvino
  • 豊富なコード例とチュートリアル
  • 充実したドキュメントとコミュニティサポート

柔軟性

  • さまざまなディープラーニングフレームワークのサポート
  • クロスプラットフォームデプロイメント機能
  • 拡張可能なアーキテクチャ設計

インストールとシステム要件

クイックインストール

pip install -U openvino

システム要件

コミュニティとサポート

ヘルプの入手

貢献ガイド

  • 貢献ガイドを参照して、プロジェクトへの参加方法を確認してください。
  • Good First Issuesは、新しい貢献者に入門の機会を提供します。

ライセンスとプライバシー

ライセンス

OpenVINO™ ツールキットは、Apache License Version 2.0オープンソースライセンスを採用しています。

データ収集

OpenVINO™ は、ツールの改善のためにソフトウェアの性能と使用状況に関するデータを収集します。次のコマンドでオプトアウトできます。

opt_in_out --opt_out

まとめ

OpenVINO™ は、強力で使いやすいオープンソースのAI推論最適化ツールキットであり、開発者にモデルトレーニングから本番環境へのデプロイメントまでの完全なソリューションを提供します。その主な利点は次のとおりです。

  1. 包括的なフレームワークサポート: すべての主要なディープラーニングフレームワークとの互換性
  2. 優れた性能: Intelハードウェアに特化した深い最適化により、卓越した推論性能を提供
  3. 幅広いアプリケーションシナリオ: コンピュータビジョン、NLP、生成AIなどの複数の分野をカバー
  4. 豊富なエコシステム: Hugging Face、PyTorch、TensorFlowなどの主要なプラットフォームとの深い統合
  5. 活発なコミュニティ: 充実したドキュメント、チュートリアル、およびコミュニティサポート