Praxiserprobte Architektur zur Echtzeitversorgung einer AI-Pipeline
Mitschnitt des Online-Vortrags von Fabian Hardt und Tobias Liepold, OPITZ CONSULTING bei der Digital Xchange 2020
Ihr Data Scientist hat erste Erkenntnisse aus Ihren Unternehmensdaten gewonnen und erste Modelle trainiert. Typischerweise hat er dabei in einer Data Lab Umgebung gearbeitet, da er hier deutlich mehr Freiheiten hat und beliebige Tools zur Datenanalyse einsetzen kann. Wie kann nun dieses Modell in die Data Factory eingebunden werden, um automatisiert dauerhaft produktiven Mehrwert zu generieren?
In diesem Vortrag zeigen wir Ihnen eine praxiserprobte Architektur zur Echtzeitversorgung einer AI-Pipeline. Hier werden eingehende Daten der Analytics Plattform mit Hilfe von Data Pipelines vollautomatisiert und in Echtzeit, mittels eines Publish & Subscribe Modells, in die entsprechende Empfänger AI-Pipeline geroutet.
Neben dieser konkreten Beispielarchitektur zählen wir Ihnen die größten Fallstricke beim Aufbau einer solchen Architektur auf und geben Ihnen Tipps, um diese zu vermeiden.
Nehmen Sie jetzt Kontakt auf