Wissenschaft

„Deep Learning wird die Arbeitswelt verändern“

Der Informatiker Damian Borth forscht über Künstliche Intelligenz. Er trainiert Maschinen, damit sie in der Lage sind, die Welt so zu sehen wie Menschen.Thursday, November 9, 2017

Von Kathrin Fromm
Bilder Von DFKI
Damian Borth ist promovierter Informatiker. Er leitet das Kompetenzzentrum Deep Learning am Deutschen Forschungszentrum für Künstliche Intelligenz in Kaiserslautern.

Sie bringen einer Software bei, auf Fotos nicht nur Objekte zu erkennen, sondern diesen auch passende Adjektive zuzuordnen. Warum ist das so schwierig?
Es erscheint uns immer ein bisschen rätselhaft, warum Menschen so etwas leicht fällt: beispielsweise unsere Umgebung visuell wahrzunehmen, ohne uns anzustrengen. Daher verstehen wir nicht, worin für Maschinen die Schwierigkeiten liegen. In meinem Forschungsfeld, dem Deep Learning, gab es um 2012 einen Durchbruch – unter anderem weil die Grafikkarten deutlich besser wurden und sich so nun viel größere Datenmengen einspeisen lassen. Wir arbeiten mit tiefen neuronalen Netzen, die die Verknüpfungen im menschlichen Gehirn simulieren. Damit erzielen wie Ergebnisse, von denen ich vorher nicht geglaubt hätte, dass sie möglich sind.

Und jetzt klappt das mit den Objekten und den Adjektiven?
Das funktioniert schon ganz gut. Aber es geht um mehr: um das sogenannte Sentiment, ob etwas positiv oder negativ wahrgenommen wird. Wir versuchen aus einem objektiven Bildinhalt, etwa einem Hund, eine subjektive Interpretation ableiten zu können. Zum Beispiel: „Das ist ein süßer Hund“ oder „Das ist ein gefährlicher Hund“. Durch die Zuordnung von Adjektiven schaffen wir es, einer Erkenntnis Subjektivität und Emotionalität einzuschreiben.

Wie lernt die Maschine das?
Wir trainieren die neuronalen Netze, und dazu benötigen wir sehr viele Daten. Wir zeigen der Maschine Hunderte „süße“ und „gefährliche“ Hunde. Irgendwann kennt sie den Unterschied. Das ist ein binäres Beispiel – eines mit zwei Konzepten. Wir haben es geschafft, das Vokabular auf fast 3000 solcher Paare zu erweitern. Im ersten Schritt erkennt das Netzwerk also Adjektiv-Nomen-Paare wie einen sonnigen Himmel oder eine traurige Person. Und im zweiten Schritt leiten wir anhand dieser Paare Sentiments ab. Ein weinendes Kind mit einer blutigen Hand ist negativ. Die Verknüpfungen müssen interpretierbar werden. 

“Wir als Forscher haben die Verantwortung, die Menschen in die Diskussion über Künstliche Intelligenz einzubinden.”

Damian Borth, Informatiker

Aber nicht jedes Bild ist eindeutig positiv oder negativ.
Genau, auch darum geht es. Nicht jede Kultur assoziiert visuell das Gleiche, deshalb haben wir das Konzept auf verschiedene Gruppen heruntergebrochen. Zudem gibt es eine starke Personalisierung: Nicht jeder findet zum Beispiel Steak lecker. Spannend sind auch Fragen, wie: Warum ist diese Landschaft schön? Da geht es oft um Komposition. Im besten Fall lernen wir mithilfe der Maschine verstehen, was ein Adjektive wie „schön“ in einem Bild eigentlich auslöst. Immer klappt das natürlich nicht, weil es eben subjektives Empfinden gibt. Aber inzwischen erreichen wir 85 Prozent Genauigkeit. Da wird es langsam auch für Unternehmen interessant.

Für welche Anwendungen lassen sich diese Erkenntnisse nutzen?
Zum Beispiel um Werbung im richtigen Kontext zu schalten. Wenn ich Hundefutter auf Youtube verkaufe, will ich das natürlich nicht neben dem Video mit dem aggressiven Hunde tun, sondern neben dem mit dem süßen. Marketing und Finanzwesen sind denkbare Anwendungsbereiche. Wir können herausfinden, wie eine Marke wahrgenommen wird, indem wir Bilder auf sozialen Netzwerken analysieren lassen. Auch die Haltung gegenüber bestimmten Personen und Parteien vor Wahlen lässt sich so ableiten.

Wie verändert ein Thema wie Deep Learning unseren Alltag?
Durch die Analyse großer Datenmengen lassen sich Prognosen aufstellen, und daraus ergeben sich Rückkopplungen in die Gesellschaft. Deep Learning wird die Arbeitswelt verändern, das Thema geht durch alle Industriezweige. Eigentlich denkt man bei Künstlicher Intelligenz eher an einen Roboter, der im Haushalt hilft. Aber die erfolgreichen Systeme sind die, die man nicht direkt erkennt, wie die Spracherkennung im Handy. Das hat alles eine Auswirkung auf den Otto-Normal-Bürger. Schon heute ermitteln Banken die Kreditwürdigkeit mithilfe neuronaler Netze, abgeleitet aus den Daten, die vorhanden sind. Wir als Forscher haben die Verantwortung, die Menschen in die Diskussion über Künstliche Intelligenz einzubinden. 

Eine dreiteilige Serie zu Künstlicher Intelligenz steht in den Ausgaben 7/2017
bis 9/2017 von National Geographic. Jetzt ein Magazin-Abo abschließen.

Wei­ter­le­sen