KI als digitaler Partner unseres Verstandes

AWV-Interview mit Prof. Dr. Prof. h.c. Andreas Dengel

Künstliche Intelligenz eröffnet neue Möglichkeiten in der Zusammenarbeit zwischen Mensch und Maschine. So übernehmen KI-Systeme zunehmend auch Aufgaben, für die „Verstehen“ und „Denken“ nötig sind. Welche Potenziale hiermit verbunden sind, erklärt Professor Dengel, Standortleiter am Deutschen Forschungszentrum für Künstliche Intelligenz in Kaiserslautern, im Interview. Darüber hinaus sprachen wir mit ihm über Deep Learning, die Nachwuchssituation im Forschungsfeld KI und den Einsatz von KI-Technologien rund um die elektronische Rechnung.

Herr Professor Dengel, Sie sind vielfach ausgezeichnet, sowohl für Ihre wissenschaftlichen Leistungen als auch für Ihr erfolgreiches Engagement im Bereich Start-ups. Zunächst ganz allgemein: Wie unterscheidet sich Künstliche Intelligenz (KI) von menschlicher Intelligenz? Können KI-Systeme besser „denken“?
Ich würde es weniger als „besser“ oder „schlechter“ bezeichnen wollen, sondern als „anders“. Um das zu verstehen, muss man sich mit dem Begriff der Intelligenz befassen: Man kann festhalten, dass es keine einheitliche Definition gibt, aber Intelligenz auf jeden Fall mehr ist als eine algorithmische Vorschrift, die Rechenschritte in einer bestimmten Reihenfolge durchführt oder Muster in großen Datenmengen erkennen kann. Menschen handeln meist rational, entscheiden aber nicht selten auch nach Bauchgefühl. Aspekte wie z. B. das Zurückgreifen auf den eigenen Erfahrungsschatz in Entscheidungssituationen, das Reflektieren oder das Verstehen und Abschätzen von Folgen des eigenen Handelns sind Konzepte, die in menschlicher, nicht aber in maschineller bzw. künstlicher Intelligenz enthalten sind. Die Fähigkeit, sich in das Gegenüber hineinzuversetzen oder gar empathisch zu agieren, besitzen solche Systeme ebenfalls nicht, sie können im besten Fall vorspiegeln das zu tun. Es spielt für KI-Systeme gar keine Rolle, wieso sie eine gewisse Aufgabe ausführen.

Nehmen Sie hier als Beispiel das Übersetzungsprogramm DeepL: Diese Anwendung weiß nicht, welche Art von Text übersetzt wird. Das heißt, das System weiß nicht, ob es gerade einen juristischen Text übersetzt, der vielleicht für uns Menschen von großer Bedeutung ist, oder ob wir eine Werbemail aus eigenem Interesse übersetzen möchten und das für uns weniger wichtig ist. Aus diesem Fehlen menschlicher Eigenschaften folgt auch, dass KI uns Menschen nicht ebenbürtig und daher auch ein direkter Vergleich schwierig ist.

Zu Ihrem Leitungsbereich gehört auch das Kompetenzzentrum für Deep Learning. Was ist unter Deep Learning zu verstehen und was wird am Kompetenzzentrum derzeit erforscht?
Deep Learning ist ein spezieller Ansatz im Teilgebiet des Maschinellen Lernens und befasst sich mit der Simulation neuronaler Strukturen, wie sie auch im menschlichen Gehirn vorzufinden sind. Vereinfacht werden solche Netze graphisch durch miteinander verbundene Elemente dargestellt, von denen jeweils mehrere auf einer Ebene bzw. Schicht angeordnet sind. Die Elemente selbst repräsentieren die Neuronen. Die synaptischen Verbindungen im Gehirn werden mit gewichteten Kanten zwischen den Elementen simuliert. Künstliche neuronale Netze haben eine Eingangsschicht und schließlich eine Ausgabeschicht, die das jeweilige Ergebnis liefert. Dazwischen gibt es viele weitere Schichten, die die Eingabedaten verarbeiten und dann lernen, diese zu unterscheiden. Ganz abstrakt gesprochen, werden bei jedem dieser künstlichen Neuronen die Eingabedaten gewichtet und aufsummiert. Überschreitet das Ergebnis einen Schwellwert, so wird ein Signal an die verbundenen Elemente der Nachfolgeschicht weitergegeben. „Tief“ oder „Deep“ werden neuronale Netze mit besonders vielen solcher Schichten genannt.

Die Anwendungen, an denen wir forschen, sind hier ganz unterschiedlicher Natur: Diese helfen zum Beispiel bei der Erkennung von Hautkrebs, indem wir Netze mit entsprechendem Bildmaterial trainieren und somit befähigen, dem medizinischen Personal zu assistieren. Auch setzen wir diese Technologie ein, um in Satellitenbildern frühzeitig Umweltkatastrophen zu erkennen und so das Krisenmanagement, z. B. bei der Fluchtwegplanung, zu unterstützen. Alltäglichere Probleme wurden in einem Projekt zu Parkassistenten bearbeitet, indem eine App Personen anhand einer durch das neuronale Netz getroffenen Vorhersage zu freien Parkplätzen in unmittelbarer Nähe navigiert.

Nicht alltäglich, aber nicht minder spannend, ist die Erkennung von Kartoffelfäule mithilfe von Pflanzenfeldbildern, die aus einer bestimmten Höhe aufgenommen werden und anhand derer eine Erkennung und Segmentierung befallener und nicht befallener Pflanzen erfolgt. Wie Sie feststellen können, sind die Anwendungsgebiete sehr zahlreich und divers.

Seite 1 | Weiter zu Seite 2 | Weiter zu Seite 3

Veröffentlicht am 15.10.2019/ Bild: AdobeStock, denisismagilov