Home
Login

Eine auf Kubernetes basierende Plattform für die Bereitstellung von Machine-Learning-Modellen im großen Maßstab, die zum Verpacken, Bereitstellen, Überwachen und Verwalten von Tausenden von Machine-Learning-Modellen in der Produktion verwendet wird.

NOASSERTIONGo 4.6kSeldonIOseldon-core Last Updated: 2025-06-26

Seldon Core - Enterprise-Klasse Plattform für die Bereitstellung von Machine-Learning-Modellen

Projektübersicht

Seldon Core ist ein Open-Source-MLOps-Framework (Machine Learning Operations), das speziell für die großflächige Bereitstellung, Überwachung und Verwaltung von Machine-Learning-Modellen auf Kubernetes entwickelt wurde. Das Projekt wird vom SeldonIO-Team entwickelt und gewartet und hat sich zu einer der branchenführenden Lösungen für die Bereitstellung von Machine-Learning-Modellen entwickelt.

Projektadresse: https://github.com/SeldonIO/seldon-core

Kernfunktionen

1. Unterstützung mehrerer Frameworks

  • Deep-Learning-Frameworks: TensorFlow, PyTorch, H2O usw.
  • Programmiersprachen: Python, Java, R, NodeJS, Go usw.
  • Modellformate: Unterstützung für verschiedene vortrainierte Modelle und benutzerdefinierte Modelle

2. Containerisierte Bereitstellung

  • Automatische Umwandlung von Machine-Learning-Modellen in produktionsreife REST/GRPC-Microservices
  • Bereitstellung vorgefertigter Inferenzserver, ohne manuelle Containerisierung
  • Unterstützung für benutzerdefinierte Container und Sprach-Wrapper

3. Cloud-native Architektur

  • Kubernetes-nativ: Vollständig auf Kubernetes aufgebaut
  • Cloud-Plattform-Kompatibilität: Unterstützung für AWS EKS, Azure AKS, Google GKE, Alibaba Cloud, Digital Ocean, OpenShift
  • Hohe Verfügbarkeit: Integrierte Lastverteilungs- und Failover-Mechanismen

4. Erweiterte ML-Funktionen

  • A/B-Tests: Unterstützung für Vergleichstests mehrerer Modellversionen
  • Canary-Releases: Inkrementelle Modellaktualisierung
  • Modellkombination: Prädiktoren, Transformatoren, Router, Kombinatoren usw. für komplexe Inferenzgraphen
  • Anomalieerkennung: Integrierter Ausreißerdetektor
  • Modellinterpretation: Bereitstellung von Werkzeugen zur Erklärbarkeit von Modellen

Technische Architektur

Kernkomponenten

  1. Seldon Core Operator
  • Kubernetes-Controller, der den Lebenszyklus der Modellbereitstellung verwaltet
  • Verarbeitung von SeldonDeployment-Custom-Resources
  1. Vorgefertigte Inferenzserver
  • MLServer (unterstützt verschiedene ML-Frameworks)
  • TensorFlow Serving
  • TorchServe
  • Triton Inference Server
  1. Sprach-Wrapper
  • Python-Wrapper (am weitesten entwickelt)
  • Java-Wrapper (in der Entwicklung)
  • R-, NodeJS-, Go-Wrapper (Alpha-Version)
  1. Service-Orchestrator
  • Verarbeitung komplexer Inferenzgraphen
  • Verwaltung der Kommunikation zwischen Microservices

Überwachung und Beobachtbarkeit

  1. Metriküberwachung
  • Integration mit Prometheus
  • Grafana-Dashboard-Unterstützung
  • Sammlung benutzerdefinierter Metriken
  1. Protokollierung
  • Vollständige Protokolle für Anfragen/Antworten
  • Integration mit Elasticsearch
  • Unterstützung verschiedener Protokollebenen
  1. Verteilte Verfolgung
  • Integration mit Jaeger
  • Verfolgung von Microservice-Aufrufketten
  • Latenzanalyse
  1. Metadaten-Herkunft
  • Modellversionsverfolgung
  • Zuordnung von Trainingsdaten
  • Aufzeichnung von Leistungsmetriken

Bereitstellungsmethoden

1. Schnelle Installation

Verwenden Sie Helm 3 für eine Ein-Klick-Installation:

kubectl create namespace seldon-system
helm install seldon-core seldon-core-operator \
--repo https://storage.googleapis.com/seldon-charts \
--set usageMetrics.enabled=true \
--namespace seldon-system \
--set istio.enabled=true

2. Bereitstellung vorgefertigter Modelle

Für Standard-Machine-Learning-Frameworks muss nur der Speicherort des Modells angegeben werden:

apiVersion: machinelearning.seldon.io/v1
kind: SeldonDeployment
metadata:
  name: iris-model
  namespace: seldon
spec:
  name: iris
  predictors:
  - graph:
      implementation: SKLEARN_SERVER
      modelUri: gs://seldon-models/v1.19.0-dev/sklearn/iris
      name: classifier
    name: default
    replicas: 1

3. Benutzerdefinierte Modellbereitstellung

Verwenden Sie für komplexe benutzerdefinierte Modelle Sprach-Wrapper:

# Model.py
import pickle

class Model:
    def __init__(self):
        self._model = pickle.loads(open("model.pickle", "rb"))
    
    def predict(self, X):
        output = self._model(X)
        return output

Anwendungsfälle

1. ML-Bereitstellung in Unternehmen

  • Große Modellbereitstellung (Unterstützung von Tausenden von Modellen)
  • Verarbeitung von Inferenzanfragen mit hoher Parallelität
  • Unternehmenssicherheit und Compliance-Anforderungen

2. MLOps-Pipeline

  • CI/CD-Integration
  • Modellversionsverwaltung
  • Automatisierte Bereitstellung und Rollback

3. Experimente und Tests

  • A/B-Testinfrastruktur
  • Modellleistungsvergleich
  • Strategien für die inkrementelle Bereitstellung

4. Zusammenarbeit mehrerer Teams

  • Einheitliche Modellbereitstellungsplattform
  • Ressourcenisolierung und Quotenverwaltung
  • Zugriffskontrolle und Auditing

Ökosystem

Integrierte Werkzeuge

  • Kubeflow: Integration mit Kubeflow ML-Pipelines
  • Istio: Unterstützung für Service Mesh
  • Ambassador: API-Gateway-Integration
  • Fluentd: Protokollsammlung
  • InfluxDB: Speicherung von Zeitreihendaten

Überwachungsstack

  • Prometheus + Grafana: Metriküberwachung
  • ELK Stack: Protokollanalyse
  • Jaeger: Verteilte Verfolgung
  • Kafka Streams: Echtzeit-Datenverarbeitung

Vorteile und Merkmale

1. Technische Vorteile

  • Standardisierte Schnittstellen: Einheitliche REST/GRPC-API
  • Hohe Leistung: Optimierte Inferenzleistung
  • Elastische Skalierung: Unterstützung für automatische Skalierung
  • Fehlerbehebung: Integrierte Fehlerbehandlungsmechanismen

2. Betriebliche Vorteile

  • Vereinfachte Bereitstellung: Ein-Klick-Bereitstellung komplexer ML-Systeme
  • Vollständige Überwachung: End-to-End-Beobachtbarkeit
  • Sicher und zuverlässig: Sicherheitsfunktionen der Enterprise-Klasse
  • Community-Unterstützung: Aktive Open-Source-Community

3. Entwicklungserfahrung

  • Mehrsprachige Unterstützung: Flexible Entwicklungsauswahl
  • Umfangreiche Dokumentation: Vollständige Dokumentation und Beispiele
  • Werkzeug-Ökosystem: Vollständige Toolchain
  • Einfache Fehlersuche: Umfassende Werkzeuge zur Fehlersuche und -behebung

Anwendungsbeispiele

Seldon Core wird von vielen innovativen Organisationen weltweit eingesetzt, von Start-ups bis hin zu großen Unternehmen, die die Plattform für die Produktionsbereitstellung von Machine-Learning-Modellen nutzen. Seine flexible Architektur ermöglicht es, Anforderungen unterschiedlicher Größe und Komplexität zu erfüllen.

Zusammenfassung

Seldon Core ist eine führende Open-Source-MLOps-Plattform, die eine vollständige Lösung für die Produktionsbereitstellung von Machine-Learning-Modellen bietet. Seine Cloud-native Architektur, die umfangreichen Funktionen und die aktive Community-Unterstützung machen es zur idealen Wahl für die Bereitstellung von Machine Learning in Unternehmen. Ob einfache Modelldienste oder komplexe ML-Pipelines, Seldon Core bietet zuverlässige und effiziente Lösungen.

Star History Chart