"Wir machen uns daran, die Maschinen lernen zu lassen."
Armin Berger im Annual Multimedia-Interview über das große Potential und den Mehrwert der Künstlichen Intelligenz.
Armin Berger im Annual Multimedia-Interview über das große Potential und den Mehrwert der Künstlichen Intelligenz.
Armin Berger: Das war ein längerer Prozess. Schon seit einiger Zeit beschäftigen wir uns mit dem Thema Semantik, also der Verknüpfung einzelner, an sich erst einmal unabhängiger Informationseinheiten. Das Thema ist nicht neu, bislang gab es aber kaum praktische Anwendungsszenarien. Das wollte ich ändern.
So haben wir angefangen, neben unserem klassischen Geschäft – der Erstellung von Websites und der Installation von Content-Management-Systemen – uns technologisch weiter zu entwickeln. Wir haben mit semantischen Technologien zunächst ein eigenes Storytelling-Format entwickelt. Unser Ziel war es, den Nutzern nicht nur eine wesentlich verbesserte Suche anzubieten, sondern gleichzeitig auch Storys zu entwickeln und zu erzählen.
In dieser Arbeit hat dann ein kleiner Shift stattgefunden. Bisher stand für uns als Agentur immer das Frontend im Vordergrund. Uns wurde aber klar, dass auch die Redaktion ein Anwendungsproblem hat. Für sie haben wir ein Tool entwickelt, mit dem auf Grundlage des semantisch annotierten Datenbestandes Storylines entwickelt werden können.
Das war unser erster Schritt in Richtung KI. Sowohl bei Redakteuren als auch den Usern kam das sehr gut an. Das hat uns Mut gemacht. Wir haben dann ein kleines Forschungsprojekt zum Thema semantischer Technologien finanziert bekommen – ein Verbundprojekt mit technologischen Partnern, die wir über das Netzwerk Xinnovations kennengelernt hatten. Forschungspartner waren das Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) sowie weitere KMU-Partner aus Berlin. Im Fokus unserer Forschungsarbeiten standen damals die automatisierte Textanalyse sowie Empfehlungsalgorithmen für Storytelling.
Im Ergebnis haben wir eine Extension für das Content-Management-System TYPO3 entwickelt, über die Texte automatisiert analysiert und mit externen Wissensquellen verknüpft werden können. Die Maschine fungiert in diesem Sinne als eine Art Assistent für den Redakteur, der die Ergebnisse auf ihre Korrektheit hin überprüft und per Mausklick übernehmen kann.
Das System ist schon heute von beeindruckender Qualität, wird aber mit jeder Anwendung noch besser. Die Redakteure sind wirklich begeistert, weil ihre Arbeit so erleichtert und effizienter wird. Die Resonanz auf den 3pc-Redaktionsassistenten ist entsprechend positiv.
Als nächstes starten wir ein noch ambitionierteres Forschungsprojekt mit zwölf Partnern, das wir QURATOR getauft haben. Das Ziel ist eine Plattform, in der eine Reihe von KI-Services den redaktionellen Alltag optimieren, noch schneller, besser und effizienter machen.
Dazu gehören beispielsweise das automatisierte Taggen von Bildern und Videos, die Generierung von Bildunterschriften und Textzusammenfassungen oder Empfehlungsalgorithmen für Augmented Storytelling.
Der Hintergrund ist, dass es in Zukunft immer mehr Content geben wird. Das Volumen explodiert geradezu. Zugleich gibt es immer mehr Geräte und Rezeptions-Situationen: Handys, Notebooks, Tablets, Uhren, Brillen, Audio, Apps etc. Der Redakteur muss also nicht nur Unmengen an Content durchdringen, sondern diesen auch für verschiedenste Formate aufbereiten – in Zeiten, wo sich kaum jemand mehr eine gut besetzte Redaktion leistet kann, eine große Herausforderung. Mit QURATOR wollen wir genau dieses Problem lösen.
Wir gehen sehr vorsichtig mit dem Potential der KI um. Das Dilemma ist ja meist, dass man von der Technologie zu viel erwartet und dann enttäuscht ist, dass sie doch noch nicht so viel kann wie gehofft. Daher ist die normale Reaktion, dass man KI sein lässt und wartet, bis sie mehr kann.
Wir gehen anders vor. Wir machen uns daran, die Maschinen lernen zu lassen. Wir akzeptieren, dass die Qualität der von einer KI vorgeschlagenen Inhalte unterschiedlich ist. 60 Prozent sind vielleicht gut, 30 Prozent nur mittelmäßig und 10 Prozent wirklich schlecht. Das lassen wir von den Redakteuren, den „Kuratoren“, bewerten – und entsprechend lernt das System und wird kontinuierlich besser. So wollen wir dem Dilemma der zu großen Erwartungen an die KI entkommen.
Die Nachfrage nach solchen Systemen ist - gefühlt - gigantisch. Man kann so ein Tool anbieten, weil es funktioniert. Alle Redakteure, die bei jeder Texteingabe stöhnen, weil sie am Ende alles noch verschlagworten müssen, können jetzt aufatmen. Das Tool ist wirklich eine gut funktionierende Hilfe.
Der nächste Schritt ist jetzt die automatisierte Bild-, Video- und Audio-Erkennung, um Multimediadateien durchsuchbar machen zu können. Über sogenannte Media-Fragmente können dann beispielsweise einzelne Passagen in einem Video passend zum Suchbegriff angezeigt werden.
Es ist nicht die KI, die schlecht oder nicht state of the art ist. Das Problem besteht darin, reale Ergebnisse aus dem Wissenschaftsbetrieb herauszubekommen.
Die Anwendungen, die dort entwickelt wurden, sind zum Teil etwas enttäuschend. Das Dilemma ist, dass sich alle Beteiligten nach jedem geförderten Projekt wieder in alle Winde zerstreuen. Es gibt viele Entwicklungen, die halb fertig sind, weil das Geld ausgegangen ist. Insgesamt fehlt es an Kontinuität.
Das zweite Problem ist die sogenannte Translation: Man steckt viel Geld in die Wissenschaft. Dabei entsteht etwas potenziell Bahnbrechendes, aber es kommt nie zu einer sinnvollen Anwendung. Wir kennen das Phänomen vom Thema Fax: In Deutschland entwickelt, ist es dort aber nie zur Anwendung gebracht worden. Das Problem ist von der Politik erkannt und man versucht massiv, das zu ändern. Ich bin aber sehr optimistisch, dass es künftig besser voran geht.