SCAN – Systematische Inhaltsanalyse von Nutzerkommentaren für Journalisten

Im Zuge der Transformation der öffentlichen Kommunikation im digitalen Zeitalter sind Journalisten mit einer zunehmenden Menge von Publikumsfeedback, beispielsweise in Foren, Kommentarbereichen und Social Media konfrontiert. In vordigitalen Zeiten blieb diese Anschlusskommunikation des Publikums über massenmediale Inhalte jenseits des Leserbriefes größtenteils unsichtbar. Heute sind die Äußerungen der „people, formerly known as the audience“ (Jay Rosen) für Journalisten aber auch andere Nutzer sichtbarer, was die Wahrnehmung und Verarbeitung des Feedbacks durch Journalisten und ihr Publikum grundlegend ändert.

Für die meisten (Online-)Nachrichtenredaktionen sind Kommentarbereiche oder andere Feedbackmöglichkeiten obligatorisch. Allerdings variieren die Arten der Gestaltung dieser Resonanzräume, der Einbindung der Nutzer und auch der Verwendung des Feedbacks für die eigene journalistische Arbeit mitunter deutlich – nicht zuletzt, weil die manuelle Bearbeitung von Publikumsrückmeldungen durch Journalisten oder Social-Media-Redakteure sehr zeitintensiv, eine vollautomatische Analyse jedoch teuer und fehleranfällig ist.

Im Rahmen des Projekts soll daher ein Softwaresystem entwickelt werden, das Journalisten beim Analysieren, Filtern und Zusammenfassen von nutzergenerierten Inhalten unterstützt. Durch eine systematische, semi-automatisierte Analyse von Publikumsfeedback sollen die Stimme(n) der Nutzer besser abgebildet und Journalisten bei der Generierung von neuen Inhalten aus Publikumsbeiträgen unterstützt werden. Im Rahmen des zu entwickelnden Systems können Journalisten Stichproben aus Kommentaren ziehen, Fragen an dieses Material entwickeln und „menschliche Kodierer“ aus der Crowd mit deren Beantwortung beauftragen.

Das Softwaresystem nutzt Techniken des maschinellen Lernens und der automatischen Sprachverarbeitung in Kombination mit manuellen Inhaltsanalysen (Peer Coding) und Crowdsourcing. Es wird Spam automatisch herausfiltern, zwischen Lob und Kritik unterscheiden sowie Kommentare in flexible Kategorien gruppieren können.

Darüber hinaus können Journalisten Zusammenfassungen der Kommentare erstellen, beispielsweise um abzubilden, wie viele Nutzer einer Position zustimmen bzw. diese ablehnen. Die Anforderungen an ein solches System werden im Verlauf des Projekts gemeinsam mit Journalisten weiter spezifiziert, und es wird im Rahmen eines konkreten Anwendungsfalls mit einer großen deutschen Nachrichtensite getestet.

Publikationen

  • Loosen, W. (2016): Journalismus als (ent-)differenziertes Phänomen. In: M. Löffelholz, L. Rothenberger (Hrsg.): Handbuch Journalismustheorien. Wiesbaden: Springer VS, S. 177-189.

  • Loosen, W. (2016): Publikumsbeteiligung im Journalismus. In: K. Meier, C. Neuberger (Hrsg.), Journalismusforschung. Stand und Perspektiven. Baden-Baden: Nomos (2. aktualisierte und erweiterte Auflage), S. 287-316.

Vorträge

  • "Making Sense of User Comments. Identifying Journalists’ Requirements for a Software Framework", Vortrag von W. Loosen, L. Merten, J. Reimer und L. van Roessel im Rahmen der Pre-Conference "Comments, Anyone? Multidisciplinary Approaches for Analyzing Online User Comments across News and Other Content Formats" im Vorfeld der "67th Annual Conference" der International Communication Association (ICA) am 25. Mai 2017 in San Diego, USA (zusammen mit Marlo Häring, Zijad Kurtanović und Walid Maalej).

Ansprechpartner

PD Dr. Wiebke Loosen

Hans-Bredow-Institut
Rothenbaumchaussee 36
20148 Hamburg

Tel. +49 (0)40 45 02 17 - 91
Fax +40 (0)40 45 02 17 - 77

E-Mail

Drittmittelgeber

Google Computational Journalism Research Programme