Home
Login
openvinotoolkit/openvino

OpenVINO™는 AI 추론을 최적화하고 배포하기 위한 오픈 소스 툴킷으로, 컴퓨터 비전, 자동 음성 인식, 생성형 AI 및 자연어 처리와 같은 딥 러닝 애플리케이션을 지원합니다.

Apache-2.0C++ 8.4kopenvinotoolkit Last Updated: 2025-06-14
https://github.com/openvinotoolkit/openvino

OpenVINO™ 프로젝트 상세 소개

개요

OpenVINO™ (Open Visual Inference and Neural Network Optimization)는 Intel에서 개발한 오픈 소스 딥러닝 추론 최적화 툴킷입니다. 이 프로젝트는 다양한 하드웨어 플랫폼에서 AI 모델의 추론 성능을 향상시키는 데 중점을 두고 있으며, 특히 컴퓨터 비전, 자동 음성 인식, 생성형 AI 및 자연어 처리 등의 분야에 집중합니다.

OpenVINO™의 핵심 이념은 개발자가 훈련된 딥러닝 모델을 엣지 장치든 클라우드 서버든 생산 환경에 쉽게 배포하여 최적의 추론 성능을 얻을 수 있도록 하는 것입니다.

핵심 기능 및 특징

1. 추론 최적화

  • 딥러닝 성능 향상: 컴퓨터 비전, 자동 음성 인식, 생성형 AI, 자연어 처리 등의 작업을 위해 특별히 최적화
  • 대규모 언어 모델 지원: 대형 및 소형 언어 모델의 효율적인 추론 지원
  • 다중 작업 최적화: 다양한 일반적인 AI 응용 시나리오 포괄

2. 유연한 모델 지원

  • 다중 프레임워크 호환: PyTorch, TensorFlow, ONNX, Keras, PaddlePaddle, JAX/Flax 등 주요 딥러닝 프레임워크 지원
  • Hugging Face 통합: Optimum Intel을 통해 Hugging Face Hub의 transformers 및 diffusers 모델 직접 통합
  • 원래 프레임워크 불필요: 원래 훈련 프레임워크가 없는 환경에서 모델 변환 및 배포 가능

3. 광범위한 플랫폼 호환성

  • CPU 지원: x86 및 ARM 아키텍처의 CPU 최적화
  • GPU 지원: Intel 통합 그래픽 및 독립형 그래픽 카드
  • AI 가속기: Intel NPU (신경망 처리 장치)
  • 엣지-투-클라우드: 엣지 장치에서 클라우드 서버까지 전방위 배포 지원

4. 풍부한 API 및 도구

  • 다국어 API: C++, Python, C, NodeJS 등 다양한 프로그래밍 언어 인터페이스 제공
  • GenAI API: 생성형 AI에 최적화된 API 인터페이스
  • 모델 변환 도구: 편리한 모델 형식 변환 및 최적화 도구

주요 구성 요소 및 생태계

핵심 도구 및 라이브러리

  • Neural Network Compression Framework (NNCF): 양자화, 필터 가지치기, 이진화 및 희소화를 포함한 고급 모델 최적화 기술
  • OpenVINO GenAI: 생성형 AI 응용 프로그램을 위한 리소스 및 도구
  • OpenVINO Tokenizers: 생성형 AI 응용 프로그램 개발 및 최적화를 위한 토큰화 도구

서비스 및 플랫폼

  • OpenVINO™ Model Server (OVMS): 확장 가능한 고성능 모델 서비스 솔루션
  • Intel® Geti™: 대화형 비디오 및 이미지 주석 도구

통합 및 파트너

  • 🤗Optimum Intel: Hugging Face API와의 긴밀한 통합
  • Torch.compile: PyTorch 기본 응용 프로그램의 JIT 컴파일 최적화 지원
  • vLLM 통합: vLLM의 빠른 모델 서비스 기능 강화
  • ONNX Runtime: ONNX Runtime의 실행 제공자로 기능
  • LlamaIndex 및 LangChain: 주요 AI 프레임워크와의 긴밀한 통합
  • Keras 3: Keras 3 다중 백엔드 딥러닝 프레임워크 지원

빠른 시작 예제

PyTorch 모델 추론

import openvino as ov
import torch
import torchvision

# PyTorch 모델을 메모리에 로드
model = torch.hub.load("pytorch/vision", "shufflenet_v2_x1_0", weights="DEFAULT")

# 모델을 OpenVINO 모델로 변환
example = torch.randn(1, 3, 224, 224)
ov_model = ov.convert_model(model, example_input=(example,))

# CPU 장치용 모델 컴파일
core = ov.Core()
compiled_model = core.compile_model(ov_model, 'CPU')

# 임의의 데이터에서 모델 추론
output = compiled_model({0: example.numpy()})

TensorFlow 모델 추론

import numpy as np
import openvino as ov
import tensorflow as tf

# TensorFlow 모델을 메모리에 로드
model = tf.keras.applications.MobileNetV2(weights='imagenet')

# 모델을 OpenVINO 모델로 변환
ov_model = ov.convert_model(model)

# CPU 장치용 모델 컴파일
core = ov.Core()
compiled_model = core.compile_model(ov_model, 'CPU')

# 임의의 데이터에서 모델 추론
data = np.random.rand(1, 224, 224, 3)
output = compiled_model({0: data})

학습 자료

공식 문서 및 튜토리얼

실습 예제

  • OpenVINO Notebooks: 풍부한 Jupyter 노트북 튜토리얼
    • LLM 챗봇 생성
    • YOLOv11 최적화
    • 텍스트-이미지 생성
    • 다중 모달 어시스턴트 개발
    • 음성 인식 응용 프로그램

커뮤니티 자료

기술적 장점

성능 최적화

  • Intel 하드웨어 아키텍처에 대한 심층 최적화
  • 다양한 하드웨어 가속 기술 지원
  • 자세한 성능 벤치마크 데이터 제공

사용 편의성

  • 간단한 설치 과정: pip install -U openvino
  • 풍부한 코드 예제 및 튜토리얼
  • 완벽한 문서 및 커뮤니티 지원

유연성

  • 다양한 딥러닝 프레임워크 지원
  • 플랫폼 간 배포 기능
  • 확장 가능한 아키텍처 설계

설치 및 시스템 요구 사항

빠른 설치

pip install -U openvino

시스템 요구 사항

커뮤니티 및 지원

도움 받기

기여 가이드

라이선스 및 개인 정보 보호

라이선스

OpenVINO™ 툴킷은 Apache License Version 2.0 오픈 소스 라이선스를 채택합니다.

데이터 수집

OpenVINO™는 도구 개선을 위해 소프트웨어 성능 및 사용 데이터를 수집하며, 다음 명령을 통해 옵트아웃할 수 있습니다.

opt_in_out --opt_out

요약

OpenVINO™는 강력하고 사용하기 쉬운 오픈 소스 AI 추론 최적화 툴킷으로, 개발자에게 모델 훈련에서 생산 배포까지 완벽한 솔루션을 제공합니다. 주요 장점은 다음과 같습니다.

  1. 포괄적인 프레임워크 지원: 모든 주요 딥러닝 프레임워크와 호환
  2. 뛰어난 성능: Intel 하드웨어에 대한 심층 최적화로 탁월한 추론 성능 제공
  3. 광범위한 응용 시나리오: 컴퓨터 비전, NLP, 생성형 AI 등 다양한 분야 포괄
  4. 풍부한 생태계: Hugging Face, PyTorch, TensorFlow 등 주요 플랫폼과 긴밀하게 통합
  5. 활발한 커뮤니티: 완벽한 문서, 튜토리얼 및 커뮤니티 지원