MLOps-Automatisierung beginnt bei Data Ingestion und schließt den Aufbau eines Featurestore ein, geht über das Model Training und Tracking, die Pipeline-Automatisierung bis hin zum erfolgreichen Deployment, Monitoring und regelmäßigen Retraining von Modellen auf Containerplattformen.
Bei d-fine haben wir uns in den vergangenen Jahren intensiv mit dem Thema MLOps auseinandergesetzt. Die Lösungen, die wir umgesetzt haben, reichen von Plattformen auf Basis der MLOps PaaS-Services der großen Cloud-Provider bis hin zu Cloud-agnostischen Lösungen basierend auf Managed-Kubernetes und Kubeflow.
Welche Lösung die richtige ist, hängt von vielen Faktoren ab. So geht es neben den Kostenaspekten auch um die generelle IT-Strategie und die Präferenzen zwischen Eigenverwaltung und Auslagerung. Insbesondere geht der Nutzen und die Anwendbarkeit einer Containerplattform weit über KI hinaus, sodass mithin die unternehmensweite Anwendungsentwicklung und -bereitstellung damit abgedeckt werden kann – und vielfach ist Kubernetes ohnehin schon Standard.
Stark getrieben durch die Erfahrungen, die wir auf unseren KI-Projekten gesammelt haben, konnten wir einen rein open-source-basierten MLOps-Stack entwickeln, der neuste Frameworks mit bewährten Technologien und Best Practices vereint. Dadurch konnten wir End-to-End MLOps-Prozesse als integralen Aspekt eines ressourcenschonenden und agilen Geschäfts bei unseren Kunden etablieren.
Unseren Flyer zum Thema MLOps finden Sie hier zum Download.