Insbesondere wenn es darum geht, neue KI-Modelle für einen prototypischen Anwendungsfall bereitzustellen, bietet sich der Einsatz von Machine-Learning-as-a-Service-Plattformen an. Dabei wird der überwiegende Teil der programmiertechnischen Arbeit durch vorgefertigte visuelle Bausteine mit Einstellmöglichkeiten abstrahiert, die strukturiert verknüpft werden und logische Arbeitsschritte darstellen.
Problematisch bei der klassischen Realisierung von PoCs (Proof of Concepts) – ohne die Zuhilfenahme von abstrakten teilautomatisierten Tools - ist der Zeitaufwand bei der softwaretechnischen Realisierung. Wird z.B. eine Vielzahl von Modellen trainiert, bewertet und in den operativen Prozess überführt, so entsteht nicht nur an dieser Stelle ein Overhead, sondern ebenfalls bei einem neuen Trainings- und Tuningprozess bei der Einspeisung neuer Trainingsdaten.
MLaaS Plattformen bieten hier Abhilfe. Die visuellen Bausteine bilden dabei weite Teile des Lebenszyklus des maschinellen Lernens wie Datenaufbereitung, Merkmalsentwicklung, Merkmalsauswahl, Modelltraining, Modelleinsatz und Modellüberwachung als einen Prozess ab. Diese Form der Darstellung und Interaktion erspart den Expert:innen das mühsame Schreiben von Code Zeile für Zeile. Durch die Zeitersparnis wird das Expertenteam in die Lage versetzt, mehr Zeit in die Lösung komplexer Probleme zu investieren.
Microsoft bietet über Azure Machine Learning (Azure ML, AML) Unternehmen eine Sammlung von Cloud-Diensten und -Tools, mit denen Modelle für maschinelles Lernen trainiert, bereitgestellt, automatisiert und verwaltet werden können. Das zentrale Element bildet dabei das Azure Machine Learning Studio (AMLS), eine webbasierte Entwicklungsumgebung mit allen erforderlichen Funktionen für die Erstellung und Verwaltung von KI-Modellen. Trainierte Azure-ML-Modelle lassen sich zudem schnell und effektiv in PoCs intelligenter Produkte und KI-gestützte Dienste überführen, wie zum Beispiel in Power BI, Synapse Analytics, Data Factory oder Databricks.
Für die Realisierung eines KI PoCs wird ein AML-Arbeitsbereich benötigt, dessen Aufgabe die Organisation von gemeinsamen Computerressourcen, Daten, Pipelines, registrierte Modelle, veröffentlichte Pipelines und Echtzeitendpunkte ist. Grundbaustein des Modelltrainings ist eine Pipeline, bestehend aus Datenressourcen und analytischen Komponenten – visuelle Blöcke, die auf einer Bühne verknüpft werden. Zu den analytischen Komponenten zählen u.a. Dateneingabefunktionen, Trainings-, Scoring-, Tuning- und Validierungsprozesse, wie auch aktuelle KI-Modelle nebst der Möglichkeit, direkt mit Python / Code Anpassungen vorzunehmen.
Pipelines haben mehrere Eigenschaften, die über reine Projektorganisation und Wiederverwendbarkeit hinaus gehen. Es können spezifische Pipelines zur Datenbereinigung im Rahmen der Datenqualität erstellt oder Pipelines für Echtzeit-Vorhersagen aufbereitet werden. Im Rahmen der Überwachung und Problembehandlung dürfen Anwendende in gespeicherte Pipelineaufträge zurückkehren, in denen Konfiguration und Ergebnisse dargelegt sind. Mit wenig Aufwand lässt sich ein Pipelineauftrag klonen, um eine neue Pipeline ausführen zu lassen. Eine weitere Erleichterung ist die Gruppierung von Pipelineaufträgen in Experimente, um den Auftragsverlauf nachvollziehbar zu gestalten.
Um Echtzeitvorhersagen durchführen zu können, lässt sich per Knopfdruck eine Pipeline als Onlineendpunkt in einem Azure Kubernetes Service-Cluster bereitstellen.
Aus unserer Sicht macht der Einsatz von ML-Designer Sinn, wenn Modelle mit moderater Komplexität für PoCs realisiert werden sollen. Für spezifische Anwendungstests in sicherheitskritischen Bereichen empfiehlt sich der Einsatz von reinen Code Lösungen über z.B. Notebooks in AMLS.
Möchten Sie mehr über Ihre Einsatzmöglichkeiten sowie Stärken und Schwächen von AML erfahren, so melden Sie sich gerne bei unserem Expertenteam.