Software Architecture Alliance 2024

„Architektur ohne Tellerrand“: Am 22. und 23. Oktober 2024 findet die von uns mitorganisierte Konferenz Software Architecture Alliance in München statt. Du möchtest zu Gleichgesinnten Kontakt aufnehmen und dich auf Augenhöhe mit Referenten und interessanten Teilnehmer:innen austauschen? Du willst als Entwickler:in Systeme bauen, Trends mitbekommen und Legacy-Probleme in Zukunft umgehen? Dann bist du auf der Software Architecture Alliance (SAA) genau richtig.

NH München Ost Conference Center
Einsteinring 20
85609 Aschheim bei München
22
.
10
.
2024
-
23
.
10
.
2024

Die SAA ist eine moderne Konferenz für Software-Architektur. Hier werden aktuelle Trendthemen mit Praxiserfahrung an zwei Konferenztagen zusammengebracht.

Deine Gastgeber Stefan Toth, Nicole Rauch und Lars Röwekamp freuen sich darauf, dich auf der Konferenz begrüßen zu dürfen. Sie kümmern sich um alles, was die Veranstaltung zur „Architekturkonferenz ohne Tellerrand“ macht. Die drei haben eine Konferenz gebaut, auf die sich selbst auch gerne gehen würden und haben die Themenschwerpunkte, die angebotenen Formate sowie das passende Rahmenprogramm für dich gestaltet.

Dabei lag der Fokus immer auf dem Leitsatz: „Aus der Praxis für die Praxis“. Daraus ist eine Veranstaltung entstanden, die Mehrwerte und Platz zum Austausch zwischen Architekten, Entscheidern und Entwicklern bietet.

Und das ist unser Angebot für dich:

Shared Data in verteilten Architekturen


Eine auf (Micro-)Services basierende Architektur umzusetzen bedeutet, dass auch die Datenhaltung auf die verschiedenen Services verteilt werden muss. Was aber bedeutet das in der Praxis? Was ist, wenn Daten einer Entität – vollständig oder in Teilen – in mehreren Services benötigt werden? Wie wird referenzielle Integrität über mehrere Services hinweg realisiert? Wie lassen sich serviceübergreifende Transaktionen realisieren? Dies sind nur einige von vielen Fragen, die im Rahmen dieser Session beantwortet werden. So viel vorab: Umdenken ist gefragt!

Im Rahmen der Session beschäftigen wir uns mit den Auswirkungen des Datasource-per-Service Pattern und wie man diesen sinnvoll begegnet. Die aufgezeigten Lösungsansätze sind das Resultat aus mehr als fünf Jahren praktischer Erfahrung in Microservices-Projekten.

Legacy-Migration – aber bitte getestet

Migration von lange gewachsener Legacy-Softwareentwicklung birgt von vornherein viele Risiken. Häufig ist das Detailwissen zu großen Teilen der Fachlichkeit verloren gegangen. Der Code ist komplex und Tests gibt es sowieso nicht. Da liegt es in der Natur der Sache, dass der Aufwand für ein Migrationsprojekt schwer geschätzt werden kann. Das Ergebnis sind häufig Zeit- oder Budget-Überschreitungen. Nicht selten werden solche Projekte abgebrochen und als gescheitert erklärt.

Was kann man dagegen tun? Ein Schlüssel zu einer erfolgreichen Legacy-Migration ist ausreichendes Testen. Dabei geht es zunächst darum, die bestehende Applikation mit automatisierten Tests zu versehen, um einerseits ein Gefühl für die Funktionalität und den Umfang zu bekommen und andererseits eine deutlich höhere Sicherheit bei der Migration selbst.

In der Session zeige ich, wie das gelingen kann und wie wir es dadurch geschafft haben, Migrationsprojekte, die vorher bereits als gescheitert oder unmöglich erschienen, erfolgreich zu Ende zu führen.

Die Architektur für Sprachmodelle in der Praxis – Retrieval Augmented Generation

Die Veröffentlichung von ChatGPT jährt sich nun bald zum zweiten Mal. Ein Ende des Hypes ist noch lange nicht abzusehen. Zu groß sind die Mehrwerte dieser Technologie, zu intuitiv ist der Umgang in Form eines Chats. Für das Jahr 2024 wurde erwartet, dass der Sprung vom explorativen Herumspielen mit Large Language Models (LLMs) zum produktiven Einsatz gewagt wird. Diese Prognose bewahrheitete sich und viele Unternehmen lagerten beispielsweise den Customer Support auf LLM-powered ChatBots aus. Dass dies nicht immer eine gute Entscheidung war, zeigten Fälle wie der des DPD-ChatBots, welcher anstelle nützlicher Antworten lieber Gedichte über den schlechten Service des eigenen Unternehmens verfasste. Auch die sogenannten Halluzinationen von LLMs führten immer wieder zu Versprechungen oder Preisnachlässen, welche es in dieser Form nie gab.

Eine Lösung, derartige Probleme zu mitigieren, bietet die RAG-Architektur (Retrieval Augmented Generation). Durch ein vorgeschaltetes Retrieval, um relevante Informationen aus einer eigenen dynamischen Datenbasis hinzuziehen, können fundierte Antworten geliefert werden. Halluzinationen können vermieden und toxische Sprache durch weitere Mechanismen abgefangen werden. Anhand eines konkreten Praxis-Beispiels möchte ich zeigen, wie ein RAG-System funktioniert und welche Vorteile es bietet. Zudem werde ich auch auf noch ungelöste Herausforderungen eingehen.

Zur offiziellen Event-Website.

Titelfoto Credits: Software Architecture Summit