Hype um ChatGPT

Der Sprachbot „ChatGPT“ des US-Start-ups OpenAI sorgt seit Anfang des Jahres für Furore um die Möglichkeiten von KI.(2) Hochkomplexe Deep-Learning-Algorithmen, sogenannte generative Modelle, stehen für alle Internetnutzerinnen und -nutzer zur Verfügung und beeindrucken durch die Qualität ihrer Erzeugnisse.

Nutzerinnen und Nutzer können den Sprachbot beispielsweise mit natursprachlichen Anweisungen bitten, einen Textbeitrag zu einem bestimmten Thema zu verfassen. ChatGPT stellt den Text in wenigen Sekunden fertig und liefert einen Fließtext für eine spezifische Fragestellung, in etwa vergleichbar mit einem Wikipedia-Eintrag zu einem bestimmten Thema. Grundlage dieser Lösung ist die maschinelle Verarbeitung natürlicher Sprache (Natural Language Processing, NLP).

Funktionsweise generativer Sprachmodelle

Die erzeugten Texte von generativen Modellen beruhen immer auf Wahrscheinlichkeiten. Ein generatives Sprachmodell liefert als Ergebnis die Fortsetzung des zuvor eingegebenen Textes (des sog. Prompts). Die Art der Fortsetzung, also das jeweils nächste Zeichen (Token), hängt von einer Wahrscheinlichkeit ab, welche das Modell errechnet. Vereinfacht gesagt, beruht diese Wahrscheinlichkeit auf den Parametern des Modells, welche wiederum aus dem vorangegangenen Training gewonnen werden. Aufgrund der schieren Masse an verwendeten Trainingsdaten kann das Modell daher für beliebige Eingabetexte Fortsetzungen berechnen, welche für uns Menschen eine hohe Wahrscheinlichkeit für korrekte Syntax und Semantik aufweisen. So entstehen, verbunden mit einem nahezu grenzenlosen Zugang zu Wissensquellen, plausible und fachliche überzeugende Texte, die jedoch inhaltlich in keiner Weise faktisch richtig sein müssen. Aufgrund des prediktiven Charakters können keine harten Quellenverweise angegeben werden. In den Texten können zudem Verzerrungen und Diskriminierungen (sog. Algorithmische Voreingenommenheit oder algorithmic bias) auftreten, die auf der Auswahl der Trainingsdaten basieren, die letztlich von Menschen stammt.

Sprachmodelle für den Geschäftseinsatz

Aufgrund der Algorithmischen Voreingenommenheit sind für den Einsatz in der Praxis häufig nicht generative Ansätze die erste Wahl. Es existieren eine Vielzahl an Algorithmen und Technologien für unterschiedliche Anwendungsfälle. Bei der Auswahl ist es entscheidend, den Anwendungsfall und die gewünschten Mehrwerte genau zu definieren, um die Stärken und Schwächen der jeweiligen Modelle zu berücksichtigen.

Drei typische Anwendungsfälle sind: Dokumentenklassifizierung, Informationsextraktion sowie Datenaufbereitung. Diese Anwendungen basieren stets auf einem definierten Corpus, beispielsweise einer Sammlung bestimmter Schriftsätze (z. B. Texte über Fluggastrechte innerhalb des Zivilrechts) in der elektronischen Akte. Jedes Anwendungsgebiet kann eine große Erleichterung in der täglichen juristischen Arbeit darstellen. So können Dokumente auf Basis einer inhaltlichen Analyse vorsortiert oder in bekannte, wiederkehrende Fallkategorien einsortiert werden. Für diese Sortierung sind keine hochkomplexen Deep-Learning-Modelle, welche auf riesigen Dokumentenmengen trainiert werden müssen, notwendig.

Sehr gute Ergebnisse lassen sich bereits durch die Kombination verschiedener klassischer Machine-Learning-Techniken wie dem Erkennen bestimmter Schlagworte (Named-Entity-Recognition) oder der Strukturerkennung von Abschnitten im Dokument (Document-Understanding) erreichen. Auch für die Informationsextraktion existieren unterschiedliche Ansätze, durch die Einzelinformationen zur manuellen oder automatisierten Weiterverarbeitung aus den Schriftsätzen extrahiert werden können.

Durch den Einsatz von großen Sprachmodellen (Large-Language-Models) kann die Inhaltsextraktion auch ohne viel Aufwand für neue Dokumententypen eingesetzt werden. Diese vortrainierten Modelle verfügen über ein Grundverständnis sprachlicher Strukturen und können beispielsweise Fragen zu vorliegenden Dokumenten und Texten beantworten. Wenn in einem komplexen Fall zum Mietrecht ein hundertseitiges Dokument vorliegt und etwa die Frage aufgeworfen wird, „Wann hat der Nachmieter das erste Mal die Wohnung betreten?“, dann kann ein solches Sprachmodell anhand des antrainierten Sprachverständnisses zielgerichtet das richtige Datum nennen und auf die entsprechende Textstelle im Dokument verweisen. Texte können so mit Hilfe von gezielten Fragen durchdrungen werden. Die Einsatzmöglichkeiten sind dementsprechend vielfältig – doch es kommt auf die Anwendungsfälle an: Wo und wann kann auf Lesen und Suchen nach Textstellen verzichtet werden und wo nicht?

Verlässlichkeit der KI

Der große Vorteil im Vergleich zu generativen Modellen liegt darin, dass die vorhandene Wissensbasis das Corpus darstellt. Es werden keine Texte durch das Modell extrapoliert, sondern nur die tatsächlich vorhandenen, gewünschten Informationen zu Tage gefördert. Vor diesem Hintergrund ist auch ein Quellennachweis durch das Hervorheben der Fundstellen stets möglich. Nachvollziehbarkeit und Transparenz sind die notwendigen Voraussetzungen, um solche Systeme überhaupt in der Rechtsprechung zum Einsatz bringen zu können. Nur durch die hundertprozentige Nachvollziehbarkeit kann auch eine echte Entlastung von manuellen Tätigkeiten, beispielsweise bei der Bearbeitung von Massenverfahren, erfolgen.


2 Der Chatbot von OpenAI kann unter https://openai.com/blog/chatgpt getestet werden.

Zurück zu Seite 1 | Seite 2 | weiter zu Seite 3