ModelScope는 알리바바 다모원에서 개발한 오픈 소스 통합 머신러닝 프레임워크로, "모델 즉 서비스"(Model-as-a-Service, MaaS)의 개념을 기반으로 구축되었습니다. 이 프로젝트는 AI 커뮤니티에서 가장 발전된 머신러닝 모델을 통합하여 실제 응용 프로그램에서 AI 모델을 활용하는 과정을 간소화하는 것을 목표로 합니다.
프로젝트 주소: https://github.com/modelscope/modelscope
ModelScope는 "모델 즉 서비스"(MaaS)의 핵심 이념을 바탕으로 다음을 목표로 합니다.
공식 Docker 이미지 제공:
pip install modelscope
# 멀티모달 모델
pip install modelscope[multi-modal]
# 자연어 처리
pip install modelscope[nlp]
# 컴퓨터 비전
pip install modelscope[cv]
# 음성 처리
pip install modelscope[audio]
# 과학 계산
pip install modelscope[science]
# 중국어 형태소 분석
from modelscope.pipelines import pipeline
word_segmentation = pipeline('word-segmentation',
model='damo/nlp_structbert_word-segmentation_chinese-base')
result = word_segmentation('今天天气不错,适合出去游玩')
print(result) # {'output': '今天 天气 不错 , 适合 出去 游玩'}
# 인물 누끼
import cv2
from modelscope.pipelines import pipeline
portrait_matting = pipeline('portrait-matting')
result = portrait_matting('image_url')
cv2.imwrite('result.png', result['output_img'])
from modelscope.metainfo import Trainers
from modelscope.msdatasets import MsDataset
from modelscope.trainers import build_trainer
# 데이터 세트 로드
train_dataset = MsDataset.load('chinese-poetry-collection', split='train')
eval_dataset = MsDataset.load('chinese-poetry-collection', split='test')
# 훈련 매개변수 구성
kwargs = dict(
model='damo/nlp_gpt3_text-generation_1.3B',
train_dataset=train_dataset,
eval_dataset=eval_dataset,
max_epochs=10,
work_dir='./gpt3_poetry'
)
# 훈련기 구축 및 훈련 시작
trainer = build_trainer(name=Trainers.gpt3_trainer, default_args=kwargs)
trainer.train()
ModelScope는 강력하고 사용하기 쉬운 통합 머신러닝 프레임워크로, "모델 즉 서비스"의 이념을 통해 개발자에게 완벽한 AI 모델 생태계를 제공합니다. 초보자든 전문 개발자든 ModelScope를 통해 AI 응용 프로그램을 신속하게 구축하고 배포하여 AI 기술의 보급과 응용을 촉진할 수 있습니다.