Die M3 – die Konferenz zu Machine Learning und KI – ist seit 2018 die Fachkonferenz für Data Scientists, Data Engineers und Developer, die Machine-Learning-Projekte in die Realität umsetzen. Im Fokus steht der gesamte Lebenszyklus vom Training über den Weg in den produktiven Einsatz mittels MLOps bis zum Validieren der Modelle in Produktion.
MLOps beschäftigt sich mit der Herausforderung, ein Machine-Learning-Modell in Produktion zu bringen und es dort erfolgreich zu betreiben.
Dementsprechend besteht der Workshop aus drei Teilen:
Dieser Workshop mit Oliver Zeigermann, Tobias Kurzydym und Yannick Habecker hat den Schwerpunkt auf den späteren Phasen eines ML-Projekts, also der Professionalisierung und dem Betrieb.
Als ML-Werkzeug werden wir TensorFlow nutzen, allerdings ist dies nur ein Beispiel, und alles Gezeigte gilt auch für alle anderen Frameworks. Es wird lediglich Erfahrung mit Python und ein Verständnis für ein Machine-Learning-Projekt vorausgesetzt. Alles andere wird soweit nötig im Workshop eingeführt.
Teilnehmer:innen sollen anhand eines in sich stimmigen Satzes von Werkzeugen die Konzepte und Ansätze im Bereich MLOps kennenlernen und diskutieren können.
ChatGPT und andere Large-Language-Modelle haben in den letzten 12 Monaten atemberaubende Fortschritte gemacht. ChatGPT kann mühelos Fragen beantworten, Hinweise verarbeiten und Antworten in Formaten wie Gedichten, Bibelversen oder Rapsongs wiedergeben. Da stellt sich die Frage:
Ist AGI (artifical general intelligence) jetzt gelöst? Oder wartet da nur nächste Welle der Ernüchterung?
In diesem Talk mit Oliver Zeigermann und Mikio Braun werden die letzten Fortschritte beleuchtet und im Detail untersucht:
Kein Vorkenntnisse für die Einordnung und Abschätzungen. Für die technischen Details hilft es, wenn man grundsätzlich weiß, wie neuronale Netze funktionieren.
Besseres Verständnis der Chancen und Beschränkungen aktueller Modelle. Hilfe bei der Entscheidung, für welche Fragestellungen die aktuelle Technologie in Frage kommt und was noch fehlt. Und vor allem: Wie lange noch, bis AI die Welt übernimmt?
Resilienz ist die Fähigkeit der Anpassung an schwierige oder unerwartete Situationen. Im Bereich des Machine Learning müssen wir uns dabei mit Phänomenen wie Adversarial Attacks, Out-of-Distribution Robustness und Drift auseinandersetzen. Die Stabilität des Modells muss hier bei Neutraining und Nachtraining gewährleistet werden.
Maßnahmen umfassen das Monitoring von Machine-Learning-Modellen, die Erkennung von Ausreißern und den Betrieb mit Fallbacks und/oder mehreren Modellen als Ensemble. Auch eine geschickte Auswahl des Modells für die Produktion kann schon viel bewirken.
In diesem Talk erläutert Oliver Zeigermann die genannten Phänomene und gehe auf die jeweils passenden Maßnahmen ein.
Grundverständnis vom Training von ML-Modellen
Ein Einblick in die Welt des Machine Learning in Produktion und was man beachten muss, um nachts gut schlafen zu können.
Künstliche Intelligenz gewinnt in wichtigen Geschäftsprozessen mehr und mehr an Bedeutung. Entsprechend müssen Unternehmen lernen, wie sie eine potenzielle "Voreingenommenheit" der eigenen KI-Lösung verhindern können. Einfacher gesagt als getan, denn unerwünschter Bias kann sich an verschiedenen Stellen und in unterschiedlichsten Formen innerhalb des KI/ML-Lifecycles einschleichen – vom initialen Design bis zum produktiven Einsatz des Modells. Diese Stellen gilt es zu identifizieren und im Detail zu verstehen.
Die Session von Lars Röwekamp beschreibt fünf goldene Regeln, die jedes Team bei der Umsetzung einer KI-basierten Lösung zur Vermeidung von unerwünschter Voreingenommenheit berücksichtigen sollte.
Mithilfe von fünf einfachen Regeln sollen die Teilnehmer:innen in die Lage versetzt werden, potenziellen Bias im eigenen AI/ML-Lifecycle zu identifizieren und zu vermeiden.