06
.
February
2023
·
6
Minuten Lesezeit

Revolution der KI: Beerbt ChatGPT 2023 die Suchmaschine?

Das Internet ist voller aufgeregter Posts darüber, dass Sprachassistenten wie ChatGPT alles verändern werden. Das fängt damit an, dass Entwickler angeblich bald nicht mehr gebraucht werden, und hört damit auf, dass Künstliche Intelligenz (KI) uns demnächst möglicherweise auslöscht. In diesem Artikel wollen wir darüber aufklären, wie solche Sprachassistenten funktionieren und was wir realistisch von ihnen erwarten dürfen oder fürchten müssen.

English version.

KI-Systeme wie ChatGPT genießen Anfang 2023 eine hohe Aufmerksamkeit und sind in den Medien präsent. Sogar die deutsche Tagesschau meldet sich zu Wort und beklagt, dass Deutschland bei der Entwicklung derartiger Systeme wieder einmal hinterherhinkt. Auch das US-Satiremagazin The Onion betrachtet das Thema als relevant genug, um darüber zu scherzen. Mütter empfehlen ihren programmierenden Töchtern entsprechende Hilfssysteme. Doch eins nach dem anderen. Was macht so ein System überhaupt? 

ChatGPT ist ein Sprachassistent, der auf Anfragen in menschlichen, geschriebenen Sprachen reagiert. Ein gutes Beispiel ist in Abbildung 1 zu sehen. Wir fragen nach dem Lendbreen Gletscher in Norwegen und ChatGPT antwortet in einem kurzen Text.

Abb. 1: ChatGPT antwortet auf die Frage “Welche Bedeutung hat der Lendbreen Gletscher in Norwegen?”
Abb. 1: ChatGPT antwortet auf die Frage „Welche Bedeutung hat der Lendbreen Gletscher in Norwegen?” 

Wie in einer guten Unterhaltung üblich, hält sich ChatGPT möglichst kurz – weitere Nachfragen sind aber möglich. Dabei können wir uns gleichermaßen auf das bisher Gefragte und die Antworten beziehen. In Abbildung 2 fragen wir nach der Attraktivität für Touristen und beziehen uns auf den Lendbreen Gletscher nur noch als „Gletscher”. Wie einem menschlichen Gesprächspartner ist ChatGPT klar, dass wir mit großer Wahrscheinlichkeit diesen speziellen Gletscher meinen, von dem wir ja gerade sprachen.

ChatGPT wird in diesem Artikel als Platzhalter für Sprachassistenten benutzt, auf die ähnliche Aussagen zutreffen. Große Sprachmodelle (Large Language Models: LLMs) sind die Technische Grundlage dieser Systeme. Diese LLMs sind KI-Systeme, die in menschlichen Sprachen kommunizieren, dabei aber so groß und komplex sind, dass sie nur noch auf speziellen Computersystemen hergestellt und betrieben werden können. Diese Computersysteme sind aus einer großen Menge von Spezialhardware aufgebaut, die den Grafikkarten von Gaming-PCs ähnlich sind. Solche Systeme sind extrem kostspielig und auch nur von wenigen Betreibern erhältlich. Zudem ist allein ihr Bedarf an Strom immens.

Abb. 2: Wir können die Unterhaltung fortsetzen und weitere Fragen stellen. Dabei hat ChatGPT das bereits Besprochene nach wie vor als Kontext.
Abb. 2: Wir können die Unterhaltung fortsetzen und weitere Fragen stellen. Dabei hat ChatGPT das bereits Besprochene nach wie vor als Kontext.

ChatGPT als Google Killer

ChatGPT wird manchmal als Alternative zur Google-Suche bezeichnet, dabei ist ChatGPT keine Suchmaschine. Es wird nicht anhand von Schlagwörtern oder ganzen Fragen nach möglichen Quellen im Internet gesucht und diese dann angezeigt. Vielmehr generiert ChatGPT alle Antworten aus sich selbst. 

ChatGPT ist in der Lage, selbst über diesen Unterschied zwischen einer Suchmaschine und einem Sprachassistenten Auskunft zu erteilen, wie in Abbildung 3 zu sehen. So ein Sprachassistent erscheint tatsächlich natürlicher als eine Suchmaschine. In diesem Tweet wird als gutes Beispiel von einer älteren Dame berichtet, die eine Suchmaschine eher wie einen Sprachassistenten benutzt.

Sprachassistenten wie ChatGPT werden wegen der Unterstellung, sie plappern Dinge nur nach, manchmal abwertend als stochastische Papageien bezeichnet. Ihre Antworten basieren nämlich nicht auf einem Denkprozess im menschlichen Sinne. Stattdessen werden anhand eines komplexen neuronalen Netzes Wahrscheinlichkeiten für das geeignetste nächste Wort berechnet und dieses dann als Teil der Antwort gegeben. Dabei werden die zuvor gestellten Fragen und Antworten in die Berechnung einbezogen. Es ist fast so wie ein Spielchen mit der Handy-Tastatur: Man beginnt einen Satz und nimmt in der automatischen Vorschlagsliste immer das mittlere, wahrscheinlichste Wort. Dabei kommt selten etwas Sinnvolles, sondern meistens nur etwas absurd Lustiges heraus. 

Das ist bei ChatGPT anders. Die generierten Ergebnisse sind meist von beeindruckender Qualität. Diese Qualität entsteht durch die Komplexität und die schiere Größe des Systems. Frühere, kleinere Systeme ähnlicher Bauweise lieferten noch deutlich weniger eindrucksvolle Ergebnisse. Hier scheint tatsächlich viel auch viel zu helfen. 

Abb. 3: ChatGPT kann auch über sich selbst Auskunft erteilen und sich mit anderen Ansätzen vergleichen. Es ist zudem in der Lage, solche Unterhaltungen mit einem zusammenfassenden Titel zu versehen und darunter abzuspeichern.
Abb. 3: ChatGPT kann auch über sich selbst Auskunft erteilen und sich mit anderen Ansätzen vergleichen. Es ist zudem in der Lage, solche Unterhaltungen mit einem zusammenfassenden Titel zu versehen und darunter abzuspeichern.

Was kann man mit ChatGPT machen?

Das zuvor erwähnte neuronale Netzwerk ist zu allgemeinen Sprachaufgaben fähig. Was genau gemacht werden soll, wird in der Anfrage selbst beschrieben. Damit unterscheidet sich ChatGPT auch von Systemen wie DeepL, die nur eine spezielle Aufgabe erlauben, in diesem Fall Übersetzungen.

Es ist auch möglich, sich über Links auf Texte im Internet zu beziehen. Dies kann dazu genutzt werden, um Texte zusammenzufassen oder spezielle Fragen dazu zu stellen. Eine Anfrage wie 

Kannst du mir bitte diesen Text zusammenfassen: https://de.wikipedia.org/wiki/Angela_Merkel 

liefert gute Ergebnisse und auch dabei sind Nachfragen zu dem Text oder zur Zusammenfassung möglich. 

Auch beim Lernen von Themen kann ChatGPT helfen. Zu einem gegebenen Link kann man sich die wichtigsten zehn Fragen und gleich die passenden Antworten generieren lassen. Da schlägt nicht nur das Schüler-, sondern auch das Lehrerherz höher. Und was genau gemacht werden soll, ist nicht von vornherein festgelegt. 

Mit ChatGPT sind auch Gespräche über viele Themen möglich. Helena Sarin, eine der bekanntesten Künstlerinnen der KI-Welt, beschreibt eine Unterhaltung mit ChatGPT als intelligent und erfrischend. Man könne jede noch so dumme Frage stellen und müsse nicht um das eigene Ansehen fürchten oder Angst haben, belächelt zu werden. 


Es gibt aber derzeit noch entscheidende technische Einschränkungen: Systeme wie diese werden auf absehbare Zeit nicht vor Ort, sondern nur in fremden Rechenzentren laufen. Und diese sind derzeit in den USA, da die Technik dort entsteht. Das bedeutet, dass wir keine vertraulichen Daten in solche System laden oder verlinken können. Weitere Einsatzmöglichkeiten kommen also erst hinzu, wenn solche Systeme auch in deutschen Rechenzentren verfügbar sein werden. 


Hinzu kommt, dass die Berücksichtigung von Kontext sehr begrenzt ist. Sehr lange Texte oder viele Dokumente können nicht sinnvoll zusammengefasst oder gar einer Befragung unterzogen werden. Mutmaßungen über eine bevorstehende ganz neue Dimension der Kapazität dieser Modelle kursieren, sind aber leider nicht glaubwürdig.


In Kombination bedeuten diese beiden Einschränkungen, dass viele nützliche und spannende Anwendungsfälle vorerst aufgeschoben werden müssen. Dazu gehören unter anderem Einsätze im juristischen Kontext (beide Einschränkungen treffen zu) oder die Auswertung, Befragung und Zusammenfassung wissenschaftlicher Artikel (hier schränkt zumindest die mangelnde Kapazität ein).

Ist das jetzt richtige Künstliche Intelligenz oder kann das weg?

Bisher galt der Turing-Test als Kriterium für ein intelligentes System. Salopp gesagt, ob man in einem WhatsApp-Chat nicht merkt, dass eine Maschine der Gesprächspartner ist, und man überrascht ist, wenn diese plötzlich irgendwann sagt: Ätsch, reingelegt.

Legt man diese Definition zugrunde, kann man tatsächlich argumentieren, dass ein System wie ChatGPT dies in vielen Fällen erfüllt. Experimente besagen sogar, dass sein IQ nur leicht unter dem menschlichen Durchschnitt liegt. Inwiefern das für die Intelligenz von ChatGPT oder gegen den IQ-Test spricht, sei dahingestellt.

Abb. 4: Kann eine Maschine uns vortäuschen, ein Mensch zu sein?
Abb. 4: Kann eine Maschine uns vortäuschen, ein Mensch zu sein? 

Allerdings kommen zunehmend Zweifel an der Sinnhaftigkeit des Turing-Tests auf. Was soll er aussagen? Eine typische Kritik klingt wie “wake me up when all these AGI systems demonstrate critical thinking and curiosity” (sag Bescheid, wenn diese ganzen KI-Systeme kritisches Denken und Neugier zeigen). Es fehlt an diesen Eigenschaften und generell auch an der Motivation, überhaupt etwas zu tun oder zu hinterfragen. Woher diese Eigenschaften kommen sollen, sind ungeklärte Fragen. 

Oft zielt eine solche Frage aber in eine ganz andere Richtung: Werden solche Systeme die Menschheit auslöschen oder zumindest unseren Arbeitsplatz übernehmen? Tatsächlich ist es nicht absehbar, dass ein solches System unsere Existenz als Menschheit gefährden könnte. Allerdings wird durch den Einsatz eines solchen Systems klarer, was genau menschliche Fähigkeiten sind und was auch Maschinen erledigen könnten. Ein KI-System kann Vorschläge machen, die Entscheidung liegt aber in menschlicher Hand.

Selbst die Arbeit von Künstlern und Schriftstellern kann hauptsächlich darin bestehen, aus Möglichkeiten auszuwählen. Ob diese Vorschläge von Menschen oder Maschinen gemacht wurden, ist dabei zweitrangig. William S. Burroughs beschreibt seine Arbeit hauptsächlich als Auswahl: “Out of hundreds of possible sentences that I might have used, I chose one” (Aus Hunderten von möglichen Sätzen, die ich hätte verwenden können, habe ich einen ausgewählt). 

Das trifft auch auf die Programmierung zu. Es ist zwar möglich, die nächste Zeile eines Programms vorzuschlagen oder sogar ganze Programmteile anhand einer Beschreibung zu erzeugen. Was aber programmiert werden soll und welcher Vorschlag warum angenommen wird, bleibt weiterhin in der Verantwortung der Programmierer. Eine KI kann unterstützen, aber den Menschen nicht ersetzen.

Also alles nur ein Hype?

Das bringt uns zu der entscheidenden Frage des Artikels: Haben wir es mit einem Umbruch zu tun, der das Internet verändert oder ist das alles ein Hype? 

Yann LeCun, ein Star der Szene, zeigt sich unbeeindruckt und nörgelt, dass das ja alles nichts Neues, sondern nur ganz gut gemacht sei. Und das ist genau der Punkt. Die großen Firmen wie Facebook, Amazon, Apple, Microsoft und Google haben es bisher versäumt, ihre durchaus vorhandenen Forschungsergebnisse in ein Produkt umzusetzen, das für ein breites Publikum verfügbar wäre. Dies ist zwar eine erhebliche Leistung, da ein solches System nennenswerte Ressourcen verschlingt, allerdings für die genannten Firmen sowohl finanziell als auch technisch ohne weiteres machbar. Bisher konnten sie sich aber noch nicht dazu durchringen. 

Da in den Laboren der großen Firmen also noch leistungsfähigere Systeme warten, dürfen wir im Jahr 2023 mit Innovationen und Weiterentwicklungen rechnen, die auch für uns verfügbar werden. Google holt die Gründer aus dem Ruhestand zurück, um der gefühlten Bedrohung durch ChatGPT entgegen zu wirken. Der Riese Microsoft geht mit dem Zwerg OpenAI eine strategische Partnerschaft ein, um deren Systeme auf Microsofts Azure Cloud Plattform anzubieten. Das scheint Microsoft eine zweistellige Milliardensumme wert zu sein. Vielleicht sehen wir schon bald solche Systeme in deutschen oder zumindest europäischen Rechenzentren.

Also alles nur aufregend und toll?

Die Herstellung solcher Sprachassistenten wie ChatGPT erfordert zur Zeit noch eine riesige Menge an Texten, die bisher nur das Internet zur Verfügung stellen kann. Somit erbt ein solches System auch die Schwächen des Internets: Es reproduziert, was im Internet steht. Aber nicht alles, was im Internet steht, stimmt. Und so ist auch nicht jede Antwort des Systems korrekt. Schlimmer noch: Es hat gar keine Ahnung, ob es gerade dummes Zeug faselt. Selbst bei einfachen Rechenaufgaben und logischen Zusammenhängen scheitert das System häufig noch. 

Das Internet enthält neben schlicht falschen Dingen aber auch Inhalte, die man den Benutzern eines Sprachassistenten nicht zumuten möchte. Dazu gehören z.B. Gewalt oder pornografische Inhalte. Ein Lösungsansatz besteht darin, jede Antwort des Systems auf Angemessenheit zu überprüfen. Die Arbeitsweise einer solchen Überprüfung ist in Abbildung 5 dargestellt. OpenAI, der Hersteller von ChatGPT, bietet eine solche Funktionalität bereits an.

Abb. 5: Ein Moderationssystem filtert unerwünschte Kategorien heraus
Abb. 5: Ein Moderationssystem filtert unerwünschte Kategorien heraus

Und gerade wenn ein System jemanden darüber täuschen kann, ob man es mit einem Menschen oder einer Maschine zu tun hat, möchte man gern darüber informiert werden, mit wem man gerade kommuniziert. Derartige Überprüfungen werden mit unterschiedlichen Einschränkungen angeboten. OpenAI selbst bietet ein System an, das anhand eines gegebenen Textes bestimmt, ob dieser wahrscheinlich von einem Menschen stammt oder von einem KI-System generiert wurde. 

Fazit

2023 ist das Jahr der großen Sprachmodelle wie ChatGPT. Schon jetzt werden ganz neue Arten der Kommunikation mit dem Computer und dem Internet offensichtlich. Das ist nicht beschränkt auf die Nutzung durch besonders technikorientierte Menschen, sondern steht jedem Internet-Nutzer zur Verfügung. Es gibt bereits Anleitungen dafür, wie man solche Systeme effizient nutzt, ähnlich wie „richtig googeln”-Tutorials aus den 2000ern. 

Neben OpenAI, dem Hersteller von ChatGPT, werden zumindest Microsoft, Google, Amazon und Apple 2023 ähnliche Systeme auf den Markt bringen und die Konkurrenz und die Entwicklung ankurbeln. Deswegen ist es absehbar, dass sich die bestehenden Einschränkungen wie mangelnder Datenschutz und geringer Umfang des Kontexts im Laufe des Jahres verbessern werden. Was Ende des Jahres 2023 in diesem Bereich genau zu erwarten ist, ist für niemanden abzusehen.

No items found.

English version.

KI-Systeme wie ChatGPT genießen Anfang 2023 eine hohe Aufmerksamkeit und sind in den Medien präsent. Sogar die deutsche Tagesschau meldet sich zu Wort und beklagt, dass Deutschland bei der Entwicklung derartiger Systeme wieder einmal hinterherhinkt. Auch das US-Satiremagazin The Onion betrachtet das Thema als relevant genug, um darüber zu scherzen. Mütter empfehlen ihren programmierenden Töchtern entsprechende Hilfssysteme. Doch eins nach dem anderen. Was macht so ein System überhaupt? 

ChatGPT ist ein Sprachassistent, der auf Anfragen in menschlichen, geschriebenen Sprachen reagiert. Ein gutes Beispiel ist in Abbildung 1 zu sehen. Wir fragen nach dem Lendbreen Gletscher in Norwegen und ChatGPT antwortet in einem kurzen Text.

Abb. 1: ChatGPT antwortet auf die Frage “Welche Bedeutung hat der Lendbreen Gletscher in Norwegen?”
Abb. 1: ChatGPT antwortet auf die Frage „Welche Bedeutung hat der Lendbreen Gletscher in Norwegen?” 

Wie in einer guten Unterhaltung üblich, hält sich ChatGPT möglichst kurz – weitere Nachfragen sind aber möglich. Dabei können wir uns gleichermaßen auf das bisher Gefragte und die Antworten beziehen. In Abbildung 2 fragen wir nach der Attraktivität für Touristen und beziehen uns auf den Lendbreen Gletscher nur noch als „Gletscher”. Wie einem menschlichen Gesprächspartner ist ChatGPT klar, dass wir mit großer Wahrscheinlichkeit diesen speziellen Gletscher meinen, von dem wir ja gerade sprachen.

ChatGPT wird in diesem Artikel als Platzhalter für Sprachassistenten benutzt, auf die ähnliche Aussagen zutreffen. Große Sprachmodelle (Large Language Models: LLMs) sind die Technische Grundlage dieser Systeme. Diese LLMs sind KI-Systeme, die in menschlichen Sprachen kommunizieren, dabei aber so groß und komplex sind, dass sie nur noch auf speziellen Computersystemen hergestellt und betrieben werden können. Diese Computersysteme sind aus einer großen Menge von Spezialhardware aufgebaut, die den Grafikkarten von Gaming-PCs ähnlich sind. Solche Systeme sind extrem kostspielig und auch nur von wenigen Betreibern erhältlich. Zudem ist allein ihr Bedarf an Strom immens.

Abb. 2: Wir können die Unterhaltung fortsetzen und weitere Fragen stellen. Dabei hat ChatGPT das bereits Besprochene nach wie vor als Kontext.
Abb. 2: Wir können die Unterhaltung fortsetzen und weitere Fragen stellen. Dabei hat ChatGPT das bereits Besprochene nach wie vor als Kontext.

ChatGPT als Google Killer

ChatGPT wird manchmal als Alternative zur Google-Suche bezeichnet, dabei ist ChatGPT keine Suchmaschine. Es wird nicht anhand von Schlagwörtern oder ganzen Fragen nach möglichen Quellen im Internet gesucht und diese dann angezeigt. Vielmehr generiert ChatGPT alle Antworten aus sich selbst. 

ChatGPT ist in der Lage, selbst über diesen Unterschied zwischen einer Suchmaschine und einem Sprachassistenten Auskunft zu erteilen, wie in Abbildung 3 zu sehen. So ein Sprachassistent erscheint tatsächlich natürlicher als eine Suchmaschine. In diesem Tweet wird als gutes Beispiel von einer älteren Dame berichtet, die eine Suchmaschine eher wie einen Sprachassistenten benutzt.

Sprachassistenten wie ChatGPT werden wegen der Unterstellung, sie plappern Dinge nur nach, manchmal abwertend als stochastische Papageien bezeichnet. Ihre Antworten basieren nämlich nicht auf einem Denkprozess im menschlichen Sinne. Stattdessen werden anhand eines komplexen neuronalen Netzes Wahrscheinlichkeiten für das geeignetste nächste Wort berechnet und dieses dann als Teil der Antwort gegeben. Dabei werden die zuvor gestellten Fragen und Antworten in die Berechnung einbezogen. Es ist fast so wie ein Spielchen mit der Handy-Tastatur: Man beginnt einen Satz und nimmt in der automatischen Vorschlagsliste immer das mittlere, wahrscheinlichste Wort. Dabei kommt selten etwas Sinnvolles, sondern meistens nur etwas absurd Lustiges heraus. 

Das ist bei ChatGPT anders. Die generierten Ergebnisse sind meist von beeindruckender Qualität. Diese Qualität entsteht durch die Komplexität und die schiere Größe des Systems. Frühere, kleinere Systeme ähnlicher Bauweise lieferten noch deutlich weniger eindrucksvolle Ergebnisse. Hier scheint tatsächlich viel auch viel zu helfen. 

Abb. 3: ChatGPT kann auch über sich selbst Auskunft erteilen und sich mit anderen Ansätzen vergleichen. Es ist zudem in der Lage, solche Unterhaltungen mit einem zusammenfassenden Titel zu versehen und darunter abzuspeichern.
Abb. 3: ChatGPT kann auch über sich selbst Auskunft erteilen und sich mit anderen Ansätzen vergleichen. Es ist zudem in der Lage, solche Unterhaltungen mit einem zusammenfassenden Titel zu versehen und darunter abzuspeichern.

Was kann man mit ChatGPT machen?

Das zuvor erwähnte neuronale Netzwerk ist zu allgemeinen Sprachaufgaben fähig. Was genau gemacht werden soll, wird in der Anfrage selbst beschrieben. Damit unterscheidet sich ChatGPT auch von Systemen wie DeepL, die nur eine spezielle Aufgabe erlauben, in diesem Fall Übersetzungen.

Es ist auch möglich, sich über Links auf Texte im Internet zu beziehen. Dies kann dazu genutzt werden, um Texte zusammenzufassen oder spezielle Fragen dazu zu stellen. Eine Anfrage wie 

Kannst du mir bitte diesen Text zusammenfassen: https://de.wikipedia.org/wiki/Angela_Merkel 

liefert gute Ergebnisse und auch dabei sind Nachfragen zu dem Text oder zur Zusammenfassung möglich. 

Auch beim Lernen von Themen kann ChatGPT helfen. Zu einem gegebenen Link kann man sich die wichtigsten zehn Fragen und gleich die passenden Antworten generieren lassen. Da schlägt nicht nur das Schüler-, sondern auch das Lehrerherz höher. Und was genau gemacht werden soll, ist nicht von vornherein festgelegt. 

Mit ChatGPT sind auch Gespräche über viele Themen möglich. Helena Sarin, eine der bekanntesten Künstlerinnen der KI-Welt, beschreibt eine Unterhaltung mit ChatGPT als intelligent und erfrischend. Man könne jede noch so dumme Frage stellen und müsse nicht um das eigene Ansehen fürchten oder Angst haben, belächelt zu werden. 


Es gibt aber derzeit noch entscheidende technische Einschränkungen: Systeme wie diese werden auf absehbare Zeit nicht vor Ort, sondern nur in fremden Rechenzentren laufen. Und diese sind derzeit in den USA, da die Technik dort entsteht. Das bedeutet, dass wir keine vertraulichen Daten in solche System laden oder verlinken können. Weitere Einsatzmöglichkeiten kommen also erst hinzu, wenn solche Systeme auch in deutschen Rechenzentren verfügbar sein werden. 


Hinzu kommt, dass die Berücksichtigung von Kontext sehr begrenzt ist. Sehr lange Texte oder viele Dokumente können nicht sinnvoll zusammengefasst oder gar einer Befragung unterzogen werden. Mutmaßungen über eine bevorstehende ganz neue Dimension der Kapazität dieser Modelle kursieren, sind aber leider nicht glaubwürdig.


In Kombination bedeuten diese beiden Einschränkungen, dass viele nützliche und spannende Anwendungsfälle vorerst aufgeschoben werden müssen. Dazu gehören unter anderem Einsätze im juristischen Kontext (beide Einschränkungen treffen zu) oder die Auswertung, Befragung und Zusammenfassung wissenschaftlicher Artikel (hier schränkt zumindest die mangelnde Kapazität ein).

Ist das jetzt richtige Künstliche Intelligenz oder kann das weg?

Bisher galt der Turing-Test als Kriterium für ein intelligentes System. Salopp gesagt, ob man in einem WhatsApp-Chat nicht merkt, dass eine Maschine der Gesprächspartner ist, und man überrascht ist, wenn diese plötzlich irgendwann sagt: Ätsch, reingelegt.

Legt man diese Definition zugrunde, kann man tatsächlich argumentieren, dass ein System wie ChatGPT dies in vielen Fällen erfüllt. Experimente besagen sogar, dass sein IQ nur leicht unter dem menschlichen Durchschnitt liegt. Inwiefern das für die Intelligenz von ChatGPT oder gegen den IQ-Test spricht, sei dahingestellt.

Abb. 4: Kann eine Maschine uns vortäuschen, ein Mensch zu sein?
Abb. 4: Kann eine Maschine uns vortäuschen, ein Mensch zu sein? 

Allerdings kommen zunehmend Zweifel an der Sinnhaftigkeit des Turing-Tests auf. Was soll er aussagen? Eine typische Kritik klingt wie “wake me up when all these AGI systems demonstrate critical thinking and curiosity” (sag Bescheid, wenn diese ganzen KI-Systeme kritisches Denken und Neugier zeigen). Es fehlt an diesen Eigenschaften und generell auch an der Motivation, überhaupt etwas zu tun oder zu hinterfragen. Woher diese Eigenschaften kommen sollen, sind ungeklärte Fragen. 

Oft zielt eine solche Frage aber in eine ganz andere Richtung: Werden solche Systeme die Menschheit auslöschen oder zumindest unseren Arbeitsplatz übernehmen? Tatsächlich ist es nicht absehbar, dass ein solches System unsere Existenz als Menschheit gefährden könnte. Allerdings wird durch den Einsatz eines solchen Systems klarer, was genau menschliche Fähigkeiten sind und was auch Maschinen erledigen könnten. Ein KI-System kann Vorschläge machen, die Entscheidung liegt aber in menschlicher Hand.

Selbst die Arbeit von Künstlern und Schriftstellern kann hauptsächlich darin bestehen, aus Möglichkeiten auszuwählen. Ob diese Vorschläge von Menschen oder Maschinen gemacht wurden, ist dabei zweitrangig. William S. Burroughs beschreibt seine Arbeit hauptsächlich als Auswahl: “Out of hundreds of possible sentences that I might have used, I chose one” (Aus Hunderten von möglichen Sätzen, die ich hätte verwenden können, habe ich einen ausgewählt). 

Das trifft auch auf die Programmierung zu. Es ist zwar möglich, die nächste Zeile eines Programms vorzuschlagen oder sogar ganze Programmteile anhand einer Beschreibung zu erzeugen. Was aber programmiert werden soll und welcher Vorschlag warum angenommen wird, bleibt weiterhin in der Verantwortung der Programmierer. Eine KI kann unterstützen, aber den Menschen nicht ersetzen.

Also alles nur ein Hype?

Das bringt uns zu der entscheidenden Frage des Artikels: Haben wir es mit einem Umbruch zu tun, der das Internet verändert oder ist das alles ein Hype? 

Yann LeCun, ein Star der Szene, zeigt sich unbeeindruckt und nörgelt, dass das ja alles nichts Neues, sondern nur ganz gut gemacht sei. Und das ist genau der Punkt. Die großen Firmen wie Facebook, Amazon, Apple, Microsoft und Google haben es bisher versäumt, ihre durchaus vorhandenen Forschungsergebnisse in ein Produkt umzusetzen, das für ein breites Publikum verfügbar wäre. Dies ist zwar eine erhebliche Leistung, da ein solches System nennenswerte Ressourcen verschlingt, allerdings für die genannten Firmen sowohl finanziell als auch technisch ohne weiteres machbar. Bisher konnten sie sich aber noch nicht dazu durchringen. 

Da in den Laboren der großen Firmen also noch leistungsfähigere Systeme warten, dürfen wir im Jahr 2023 mit Innovationen und Weiterentwicklungen rechnen, die auch für uns verfügbar werden. Google holt die Gründer aus dem Ruhestand zurück, um der gefühlten Bedrohung durch ChatGPT entgegen zu wirken. Der Riese Microsoft geht mit dem Zwerg OpenAI eine strategische Partnerschaft ein, um deren Systeme auf Microsofts Azure Cloud Plattform anzubieten. Das scheint Microsoft eine zweistellige Milliardensumme wert zu sein. Vielleicht sehen wir schon bald solche Systeme in deutschen oder zumindest europäischen Rechenzentren.

Also alles nur aufregend und toll?

Die Herstellung solcher Sprachassistenten wie ChatGPT erfordert zur Zeit noch eine riesige Menge an Texten, die bisher nur das Internet zur Verfügung stellen kann. Somit erbt ein solches System auch die Schwächen des Internets: Es reproduziert, was im Internet steht. Aber nicht alles, was im Internet steht, stimmt. Und so ist auch nicht jede Antwort des Systems korrekt. Schlimmer noch: Es hat gar keine Ahnung, ob es gerade dummes Zeug faselt. Selbst bei einfachen Rechenaufgaben und logischen Zusammenhängen scheitert das System häufig noch. 

Das Internet enthält neben schlicht falschen Dingen aber auch Inhalte, die man den Benutzern eines Sprachassistenten nicht zumuten möchte. Dazu gehören z.B. Gewalt oder pornografische Inhalte. Ein Lösungsansatz besteht darin, jede Antwort des Systems auf Angemessenheit zu überprüfen. Die Arbeitsweise einer solchen Überprüfung ist in Abbildung 5 dargestellt. OpenAI, der Hersteller von ChatGPT, bietet eine solche Funktionalität bereits an.

Abb. 5: Ein Moderationssystem filtert unerwünschte Kategorien heraus
Abb. 5: Ein Moderationssystem filtert unerwünschte Kategorien heraus

Und gerade wenn ein System jemanden darüber täuschen kann, ob man es mit einem Menschen oder einer Maschine zu tun hat, möchte man gern darüber informiert werden, mit wem man gerade kommuniziert. Derartige Überprüfungen werden mit unterschiedlichen Einschränkungen angeboten. OpenAI selbst bietet ein System an, das anhand eines gegebenen Textes bestimmt, ob dieser wahrscheinlich von einem Menschen stammt oder von einem KI-System generiert wurde. 

Fazit

2023 ist das Jahr der großen Sprachmodelle wie ChatGPT. Schon jetzt werden ganz neue Arten der Kommunikation mit dem Computer und dem Internet offensichtlich. Das ist nicht beschränkt auf die Nutzung durch besonders technikorientierte Menschen, sondern steht jedem Internet-Nutzer zur Verfügung. Es gibt bereits Anleitungen dafür, wie man solche Systeme effizient nutzt, ähnlich wie „richtig googeln”-Tutorials aus den 2000ern. 

Neben OpenAI, dem Hersteller von ChatGPT, werden zumindest Microsoft, Google, Amazon und Apple 2023 ähnliche Systeme auf den Markt bringen und die Konkurrenz und die Entwicklung ankurbeln. Deswegen ist es absehbar, dass sich die bestehenden Einschränkungen wie mangelnder Datenschutz und geringer Umfang des Kontexts im Laufe des Jahres verbessern werden. Was Ende des Jahres 2023 in diesem Bereich genau zu erwarten ist, ist für niemanden abzusehen.

No items found.

Weitere Artikel aus unserem Blog