M3: Minds Mastering Machines 2024

Die M3 – die Konferenz zu Machine Learning und KI – ist seit 2018 die Fachkonferenz für Data Scientists, Data Engineers und Developer, die Machine-Learning-Projekte in die Realität umsetzen. Im Fokus steht der gesamte Lebenszyklus vom Training über den Weg in den produktiven Einsatz mittels MLOps bis zum Validieren der Modelle in Produktion.

KOMED
Im Mediapark 5
50670 Köln
24
.
04
.
2024
-
25
.
04
.
2024

Spagat zwischen Bias und Fairness

Session mit Lars Röwekamp

KI soll fair sein. Da sind wir uns alle einig. Entsprechend gilt es, eine „Voreingenommenheit“ der eigenen KI-Lösung zu vermeiden.

Leichter gesagt als getan, denn Bias kann sich an verschiedenen Stellen innerhalb des AI/ML-Lifecycles einschleichen – vom initialen Design bis hin zum produktiven Einsatz des Modells. Diese Stellen gilt es zu identifizieren und im Detail zu verstehen. Denn nicht jede Art von Voreingenommenheit ist automatisch auch böse bzw. unfair.

Die Session zeigt, wie potenzielles Auftreten von unerwünschtem Bias in der eigenen KI-Lösung aufgedeckt und vermieden werden kann.

Vorkenntnisse

Grundlegendes Verständnis für den AI-Project-Lifecycle (von der Ideation bis zum produktiven Einsatz).

Lernziele

Es soll ein Verständnis für die Abgrenzung von Bias und Fairness sowie eine Methodik zur Vermeidung von Unfairness im eigenen AI-Project-Lifecycle vermittelt werden.


Fehlende Daten? (K)ein Problem!

Session mit Lars Röwekamp

Leider sind die in der Praxis zur Verfügung stehenden Daten für das Training von Modellen bei weitem nicht so gut und vollständig, wie in den Lehrbüchern. Was also tun? Unvollständige Datensätze ignorieren und damit die zum Training notwendigen Daten deutlich reduzieren? Oder die Lücken besser mit sinnvollen Näherungswerten auffüllen.

Die Session zeigt, ob und wann es sinnvoll ist, fehlende Datensätze aufzufüllen und demonstriert an Real-Life Szenarien verschiedene Verfahren zur sinnvollen Ergänzung fehlender Daten. Neben einfachen Verfahren wie Mean/Median, Random Sample, Mulitple Imputation oder der Interpolationen zeitbezogenen Werte werden auch ML-basierte Imputation-Verfahren wie Regression oder Classification sowie deren potenzielle Einsatzgebiete beleuchtet. Dass fehlende Datensätze im Training auch einen positiven Effekt auf die Qualität des resultierenden Modells haben können, wird ebenfalls gezeigt.

Vorkenntnisse

Grundlegende Kenntnisse in Exploratory Data Analysis (EDA).

Lernziele

Die Teilnehmer:innen lernen, die Relevanz von konkreten Datenlücken zu bewerten und auf dieser Basis zu entscheiden, ob die Lücken generisch gefüllt werden können und wenn ja, mit welchem Verfahren.

Warum der Computer "Nein" sagt - Mehr Nachvollziehbarkeit dank Explainable AI

Session mit Tim Wüllner

Häufig stellt die Entwicklung einer ML-Lösung die Optimierung von Performanz-Metriken wie der "Accuracy" unter Verwendung sehr komplexer Modelle in den Fokus. Fälschlicherweise wird sich damit abgefunden, dass aufgrund der höheren Komplexität die Explainability, also die Frage nach dem "Warum verhält sich mein Modell so und nicht anders?" leiden muss. Die Folgen können schwerwiegend sein und reichen vom unwissentlich gelernten Bias aus tabellarischen Daten bis zu einer hohen Anfälligkeit gegenüber Adversarial-Attacks in Bilddaten des autonomen Fahrens.

Warum meiner Meinung nach die Explainability auch bei komplexen Modellen nicht leiden muss, möchte ich in diesem Vortrag verdeutlichen.

Hierfür werde ich verschiedene XAI-Methoden, wie z.B. die Permutation-Importance und LIME, anhand eines konkreten Anwendungsfalles vorstellen, bewerten und vergleichen. Mein Ziel ist es, für XAI zu sensibilisieren und euch einen Methoden-Kasten an die Hand zu geben, der dazu befähigt, den Blick in die Black-Box zu wagen.

Vorkenntnisse

Ein grundlegendes Verständnis für Machine Learning reicht aus.

Lernziele

  • Wichtigkeit von Nachvollziehbarkeit erkennen
  • Gängige XAI-Methoden verstehen und anwenden können
    <\ul>

Jetzt Ticket buchen

Zum Ticketverkauf auf der Veranstaltungswebsite.