Tag 2 der packenden Datenjournalismus-Konferenz Daten-Labor 2015 an der Uni Dortmund. Zum Auftakt ein Workshop, “Wer mit Wem – Vernetzungen auf der Spur!”, mit Katharina Anna Zweig, Professorin für theoretische Informatik von der TU Kaiserslautern. Wieder ist der Seminar-Raum dicht gefüllt. Natürlich suchen Datenjournalisten Know-how über Netzwerk-Visualisierung und -Analysen, denn in Vernetzungsstrukturen stecken interessante Informationen. Diese lassen sich zwar oft gut visualisieren, erklärt Prof. Zweig, aber es brauche auch mathematische Analyse. Und vor allem sei gründliches, verantwortungsvolles Arbeiten nötig, betont sie, denn “eine zu schnelle Analyse” könne genauso schnell zu Fehleinschätzungen mit verheerenden Folgen für die Betroffenen führen.
In der anschließenden Pause führen Studentinnen des gastgebenden Instituts für Journalistik Video-Interviews mit Tagungsteilnehmern und bitten um “Tipps für angehende Datenjournalisten”. Ich empfehle ihnen, sich auch im Controlling umzuschauen, denn die erprobten Methoden und Werkzeuge der Controller passen haargenau für so manche Aufgabe, die auf dieser Tagung behandelt wurde: von Datenrecherche, -aufbereitung und -analyse, Data-Mining bis zur Visualisierung und Präsentation.
Danach folgt ein weiterer Informatik-Workshop: “Data-Mining: Adaptive Informationsaufbereitung aus heterogenen Quellen” mit Wissenschaftlern der TU Darmstadt. Dass auch dieser Workshop (trotz sperrigem Titel) die Kapazitäten des Seminar-Raums sprengt, hängt sicher mit dem angekündigten Praxisbeitrag vom SPIEGEL zusammen. Es geht um Lösungen für journalistische Recherchen angesichts immer engerer Zeitvorgaben und zugleich explodierender Informationsmengen aus immer komplexeren, hochgradig heterogenen Quellen, die diese Infos oft auch noch in unterschiedlichster Qualität liefern.
Was will hier die informatikorientierte Forschung zu sprach- und wissensverarbeitenden Systemen leisten? Das Anwendungsszenario eines soeben von den Unis Darmstadt und Heidelberg gegründeten Graduiertenkollegs „Adaptive Informationsaufbereitung aus heterogenen Quellen“ (AIPHES) ist es, relevantes Wissen aus heterogenen Textquellen automatisch zu extrahieren und zu einem “informativen und stilistisch homogenen Dossier” aufzubereiten. Dieses soll als Recherchehilfsmittel oder Schreibvorlage für Online-Redaktionen genutzt werden können.
Dann führen Kurt Jansson (Bild) und Maximilian Schäfer vom SPIEGEL weiter durch den Workshop. Jansson gewährt Einblicke, wie beim SPIEGEL strukturierte Daten aus diversen Formaten und Quellen zu Tage gefördert werden. Die Szenarien sind vielfältig, ist zu erfahren. Wie Jansson berichtet, erreichen die Redaktion mal “kiloschwere Aktenordner aus einer Behörde”, dann erhielten Redakteure von Informanten USB-Sticks mit “unklarem Inhalt”, ein anderes Mal würden verstreute Infos aus über tausenden Websites benötigt.
Der Controlling-Blogger nimmt in dieser Präsentation u.a. zur Kenntnis: Auch die Datenprofis des SPIEGEL schwören – wie Controller – auf Excel. Auf einer “Schmerzskala” der Analyse-Quellen ist das Tabellenprogramm weit vor Papier, PDF, Word und Websites als best geeignete gelistet.
Mein Fazit zum Daten-Labor 2015: Datenjournalismus ist ein hoch spannendes, zukunftsweisendes Thema. Pionieren in Praxis und Wissenschaft haben schon Faszinierendes geschaffen und Lösungen für weiter wachsende Anforderungen werden gesucht. Es gibt jede Menge Parallelen zwischen dem Tun und den Herausforderungen von Datenjournalisten und Controllern. Die Professionen schlagen sich mit Themen wie “Datenhunger”, auch Big Data, Datengenerierung und -analyse, Data Mining, Ergebnispräsentation und Visualisierung herum. In Redaktionen arbeiten Datenspezialisten nicht nur als Dienstleister (“Zahlenknechte” 😉 ) der Redakteure, sondern auch als Partner auf Augenhöhe (im Controlling sprechen wir vom “Business Partner”); von der Themen- und Recherche-Planung bis zur Realisierung und Präsentation.