iconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsicons
Mitarbeiterinnen und Mitarbeiter des Instituts repräsentieren die deutsche Kommunikationswissenschaft auf der ICA 2018

Mitarbeiterinnen und Mitarbeiter des Instituts repräsentieren die deutsche Kommunikationswissenschaft auf der ICA 2018

Bei der 68. Jahrestagung der International Communication Association (ICA) in Prag fand am Morgen des 28. Mai 2018 das Panel der Deutschen Gesellschaft für Publizistik und Kommunikationswissenschaft (DGPuK) statt, in dem sich die deutsche Kommunikationswissenschaft alljährlich mit einem Schwerpunktthema der internationalen Fachcommunity präsentiert. In diesem Jahr war in einem Peer Review-Prozess der Vorschlag von Institutsmitarbeiter Julius Reimer ausgewählt worden, der unter dem Titel „Opening the Black Box: Investigating the Algorithmization of Journalism“ vier Vorträge versammelte, die sich aus unterschiedlichen Perspektiven mit dem zunehmenden Einfluss von Algorithmen im Journalismus beschäftigten.
 
Im ersten Vortrag des Panels ordneten Wiebke Loosen, Stephan Dreyer und Amélie Heldt zunächst das Feld und gaben einen Überblick über die vier unterschiedlichen Formen des Einsatzes von Algorithmen im Journalismus:
1. dem algorithmischen Journalismus, bei dem journalistische Inhalte von Personalisierungs- und Suchalgorithmen ausgewählt und über Suchmaschinen, soziale Netzwerke und andere Online-Plattformen verbreitet werden;
2. dem Metrik-getriebenen Journalismus, bei dem anhand algorithmisch produzierter Klick- und anderen Maßzahlen die Reaktionen des Publikums auf Beiträge beobachtet werden und bei dem im Extremfall Themen vor allem so ausgewählt und gestaltet werden, dass Personalisierungs- und Suchalgorithmen sie bevorzugt berücksichtigen;
3. dem Datenjournalismus, bei dem mit Hilfe von Algorithmen ebenfalls algorithmisch erzeugte Daten ausgewertet und in journalistischen Beiträgen präsentiert werden; und
4. dem automatisierten Journalismus, bei dem Algorithmen auf Basis strukturierter Datensätze eigenständig journalistische Beiträge produzieren. (Die Systematisierung entwickelt Wiebke Loosen auch in diesem Arbeitspapier.)
In der anschließenden Analyse zu möglichen rechtlichen Konsequenzen dieser Entwicklungen verwiesen die drei ForscherInnen unter anderem darauf, dass Medienorganisationen in Europa beim Einsatz von Algorithmen darauf achten müssen, dass sie weiterhin die Voraussetzungen erfüllen, die notwendig sind, um die rechtlichen Privilegien eines journalistischen Mediums zu behalten.
 
Im zweiten Vortrag untersuchte Julius Reimer zusammen mit Folker Hanusch, Professor für Journalismus an der Universität Wien, und Edson Tandoc, Assistenzprofessor an der Technischen Universität Nanyang in Singapur, wie sich die oben erwähnten Metriken auf die Vorstellungen auswirken, die JournalistInnen von ihrem Publikum sowie dessen Interessen und Einstellungen haben. Anhand empirischer Daten unter anderem aus dem Projekt des Hans-Bredow-Instituts zur „(Wieder-)Entdeckung des Publikums“ zeigten sie, dass Metriken tatsächlich Veränderungen zu bewirken scheinen. Gleichzeitig beeinflussen aber auch die nicht Algorithmen-basierten Nutzerkommentare auf den Webseiten und Social-Media-Profilen der Redaktionen sowie herkömmlichere Informationsquellen wie Leserbriefe, Verkaufszahlen, Einschaltquoten und persönliche Begegnungen das Bild vom Publikum – und das auf jeweils unterschiedliche Weise. Der Fokus nur auf Metriken und ihren Einfluss reiche nicht aus, schlussfolgerten die Forscher. Stattdessen seien Studien notwendig, die – ähnlich wie die Forschung zur Mediennutzung am HBI – das gesamte Repertoire von Informationsquellen in den Blick nehme, anhand derer sich JournalistInnen ein Bild von ihrem Publikum machen.
 
Der dritte Vortrag von Sascha Hölig und Lisa Merten verschob dann das Augenmerk von den Journalistinnen und Journalisten gänzlich auf das Publikum und dessen Sichtweise auf den oben genannten algorithmischen Journalismus: Auf der Grundlage repräsentativer Befragungsdaten aus dem Reuters Digital News Survey und qualitativer Interviews mit MediennutzerInnen aus einem weiteren Projekt des Hans-Bredow-Institus legten sie dar, dass die allermeisten Menschen keine ausschließliche Präferenz für Nachrichtenauswahl nur durch Algorithmen oder JournalistInnen haben, sondern eine Kombination beider Optionen bevorzugen: Beiden Selektionsformen würden unterschiedliche Vor- und Nachteile zugesprochen, und so kombinierten NutzerInnen auch bewusst Medien, die eher für die eine oder andere Art der Auswahl stehen, um ihre unterschiedlichen Bedürfnisse zu erfüllen und um vielfältig und vollständig informiert zu werden.
 
Im vierten Vortrag widmeten sich Carl-Gustav Lindén und Hannu Toivonen von der Universität Helsinki der vierten und wohl ausgeprägtesten Form von Algorithmisierung im Journalismus: der automatisierten Textproduktion. Sie gaben einen Einblick in das Innenleben des von ihrem Team entwickelten Bot ‚Valtteri‘, der "auf Knopfdruck" automatisch Artikel zu Wahlergebnissen für beliebige Wahlbezirke und KandidatInnen in drei Sprachen produziert. Das System wird derzeit für die automatisierte Berichterstattung zu Kriminalität angepasst. Ein besonderes Augenmerk legten die Kommunikations- und der Computerwissenschaftler auf die Beschränkungen, denen automatisierte Textproduktion unterliege. So habe sich das dahinterliegende Prinzip seit Jahren nicht entscheidend weiterentwickelt. Das vielzitierte Bild des "Roboterjournalisten", der menschliche ReporterInnen in nicht allzu ferner Zukunft ersetzen werde, sei deshalb auch falsch und Hoffnungen wie Befürchtungen, die Journalistinnen und Journalisten aktuell mit Bezug auf die Verbreitung des automatisierten Journalismus äußern, übertrieben. Statt mit einem Roboter, sei automatisierte Textproduktion eher mit einer Waschmaschine vergleichbar: Sie erledige vor allem lästige Aufgaben, die man früher per Hand bewältigen musste, erhöhe dabei die Produktivität, und niemand würde sich ernsthaft die Zeit vor ihrer Erfindung zurückwünschen.
 
In einer Response zu den vier Vorträgen brachte Natali Helberger, Professorin für Informationsrecht an der Universität Amsterdam und ausgewiesene Expertin für die Algorithmisierung von Medien und Kommunikation, die unterschiedlichen Perspektiven wieder zusammen: Für die Forschung wie auch für die gesellschaftliche Debatte zur zunehmenden Datafizierung und Automatisierung des Journalismus und öffentlicher Kommunikation insgesamt sei es entscheidend, dass die im Panel versammelten Perspektiven stärker zusammen betrachtet würden. Dabei stellten sich unterschiedliche Fragen, etwa ob JournalistInnen überhaupt in jedem Fall besser seien als Algorithmen, da schließlich auch Menschen dazu tendierten, einseitige Entscheidungen zu treffen. Auch sei weder klar, wie man Vielfalt von Meinungen und Informationen empirisch messen und normativ bewerten könne, um Algorithmen auf ihre Maximierung hin auszurichten, noch sei ja mit Blick auf den gesellschaftlichen Zusammenhang ein Maximum an Meinungs- und Informationsvielfalt tatsächlich wünschenswert. Für die Zukunft sei sie aber optimistisch, dass sich Algorithmen und Menschen zunehmend ergänzen werden – zum individuellen Nutzen von JournalistInnen und NutzerInnen sowie zum gesellschaftlichen Vorteil.

Der Veranstaltungsbericht wurde verfasst von Julius Reimer.

Newsletter

Infos über aktuelle Projekte, Veranstaltungen und Publikationen des Instituts.

NEWSLETTER ABONNIEREN!