Element 68Element 45Element 44Element 63Element 64Element 43Element 41Element 46Element 47Element 69Element 76Element 62Element 61Element 81Element 82Element 50Element 52Element 79Element 79Element 7Element 8Element 73Element 74Element 17Element 16Element 75Element 13Element 12Element 14Element 15Element 31Element 32Element 59Element 58Element 71Element 70Element 88Element 88Element 56Element 57Element 54Element 55Element 18Element 20Element 23Element 65Element 21Element 22iconsiconsElement 83iconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsElement 84iconsiconsElement 36Element 35Element 1Element 27Element 28Element 30Element 29Element 24Element 25Element 2Element 1Element 66
4.
Oktober 2016

The Rule of Algorithms?

„The Rule of Algorithms? Formen, Einfluss und Regulierung algorithmischer Entscheidungen“, gemeinsame Veranstaltung des Hans-Bredow-Instituts und des Fachbereichs Informatik der Universität Hamburg am 4. Oktober in der der Hamburger Landesvertretung in Berlin. Zu dieser Veranstaltung im Vorfeld der vom Hans-Bredow-Institut mitorganisierten internationalen Internetforschungskonferenz AoIR2016 kamen deutsche sowie internationale Experten zusammen, um sich dem Thema „algorithmische Entscheidungen“ anzunähern. Am Vormittag des Tages tauschten sich in einem geschlossenen Workshop Forscherinnen und Forscher aus der Informatik, Rechtswissenschaft und Sozialwissenschaft über das Thema aus. Am Nachmittag fand der öffentliche, deutschsprachige Teil der Veranstaltung mit gut 150 Teilnehmern statt. Er bestand aus zwei Podiumsdiskussionen mit Teilnehmerinnen und Teilnehmern aus Wissenschaft, Praxis und Politik.

Infos zur Veranstaltung

Adresse

Landesvertretung der Freien und Hansestadt Hamburg in Berlin, Jägerstraße 1-3, 10117 Berlin

In Kooperation mit dem Fachbereich Informatik der Universität Hamburg hat das Hans-Bredow-Institut am 4. Oktober 2016 das Symposium „The Rule of Algorithms? Formen, Einfluss und Regulierung algorithmischer Entscheidungen“ veranstaltet. Im Vorfeld der internationalen Internetforschungskonferenz AoIR2016, die einen Tag später ebenfalls in Berlin startete, kamen deutsche sowie internationale Experten in der Hamburger Landesvertretung in Berlin zusammen, um sich dem Thema „algorithmische Entscheidungen“ anzunähern. Zum Thema, Veranstaltungsnachlese

Zum Thema

Algorithmen und ihre vermeintliche oder tatsächliche Macht sind ein wichtiges Thema der öffentlichen und akademischen Debatte geworden. Algorithmenbasierten Entscheidungen wird zugeschrieben, vielfältige Aspekte unseres Lebens zu strukturieren, zu beeinflussen oder gar zu manipulieren, indem Algorithmen etwa über News-Feed-Inhalte in den sozialen Medien entscheiden, über das Löschen von Hatespeech, aber auch über unsere Kreditwürdigkeit. In der gesellschaftlichen Debatte über diese Entwicklung wird immer wieder kritisiert, dass Algorithmen bzw. algorithmische Entscheidungssysteme intransparent seien und sich der Kontrolle durch die Nutzer entzögen. Dies stellt die Politik und Zivilgesellschaft, aber auch die Wissenschaft vor Herausforderungen.

Da ist zunächst die Frage, was wir überhaupt meinen, wenn wir von Algorithmen sprechen und welche Risiken sich konkret beschreiben lassen. Daran schließen sich weitere Fragen an: Wie lassen sich komplexe Parameter und Prozesse des algorithmischen Entscheidens so gestalten, dass ihr Wirken nachvollziehbar bleibt? Wenn Risiken entstehen, gibt es Ansatzpunkte für die Regulierung solcher Systeme - sollte also die Software selbst reguliert werden, oder die Programmierer, die sie entwickeln, oder diejenigen, die deren Ergebnisse nutzen? Und: Wie kann man Algorithmen und ihre gesellschaftlichen Folgen sinnvoll erforschen? Jedenfalls müssen hier wissenschaftliche Disziplinen zusammenarbeiten, die bislang kaum kooperierten.

Diese und andere Fragen wurden mit Expertinnen und Experten aus der Informatik, den Sozialwissenschaften, den Rechtswissenschaften und dem Journalismus erörtert. Ziel war es, ein interdisziplinäres Verständnis von Algorithmen zu fördern und den praktischen Umgang mit algorithmischen Entscheidungssystemen und ihrer möglichen Regulierung zu diskutieren. Als Beispiel dienten algorithmische Entscheidungssysteme im Journalismus.

Veranstaltungsnachlese

Die Veranstaltung bestand aus einer internen, kleinereren Expertenrunde am Vormittag und einem öffentlichen, deutschsprachige Teil der Veranstaltung mit zwei Podiumsdiskussionen und gut 150 Teilnehmerinnen und Teilnehmern aus Wissenschaft, Praxis und Politik.

Vormittag: Interner Expertenworkshop

Der Vormittag des Tages gab Forscherinnen und Forschern aus unterschiedlichen Fachdisziplinen (Informatik, Rechtswissenschaft und Sozialwissenschaft) Gelegenheit, sich in einer beschlossenen Expertenrunde zum Thema auszutauschen. Die eingeladenen Teilnehmerinnen und Teilnehmer, darunter Kommunikationswissenschaftler Tarleton Gillespie (Microsoft Research, Cornell University), Juristin Niva Elkin-Koren (Universität Haifa) und Informatiker und Kommunikationswissenschaftler Bernhard Rieder (Universität von Amsterdam), setzen sich ihren jeweiligen Forschungsbereichen seit Längerem mit algorithmischen Entscheidungen, deren Entwicklungsprozessen und Auswirkungen auseinander. Auf Basis von vorab vereinbarten Themen und Fragen formulierten sie je drei Statements, die als Denkanstöße für die von Jan-Hinrik Schmidt geleiteten Gruppendiskussionen dienten.

Kein isoliertes Forschungsobjekt 

Die Experten waren sich darin einig, dass Algorithmen als Forschungsgegenstand nicht isoliert betrachtet werden können – auch die Entwicklungs- und Verarbeitungsprozesse, die dahinterliegenden Modelle und die Daten, die in den (oft selbstlernenden) Algorithmus einfließen, müssten berücksichtigt werden. Auch dürfe der Anwendungsbereich des Algorithmus nicht außer Acht lassen werde, da Kulturen und Normen sehr unterschiedlich sein können, etwa hinsichtlich des Datenschutzes oder der Transparenz der Entscheidungen in Verwendungszusammenhängen wie Medizin, öffentliche Kommunikation oder autonomem Autofahren. Der Zugang zu (meist privaten) Unternehmen, die Algorithmen entwickeln, sei imens wichtig für eine sinnvolle Erforschung des Themas. Außerdem gebe es die Gefahr, dass bei algorithmischen Entscheidungen, die in der Regel stark auf quantitativen Daten beruhen, hauptsächlich der gemeinsame Nenner die Entscheidung bestimmt. Wichtig sei deswegen, dass Entwickler von Algorithmen bewusst mit solchen Ausreißern umgehen, etwa um Vielfalt zu gewährleisten.



Nach den drei Themenblöcken fassten Prof. Dr. Maalej vom Fachbereich Informatik und Prof. Dr. Schulz vom Hans-Bredow-Institut den Vormittag zusammen. Prof. Maalej war besonders wichtig, dass bei auf Big Data basierten algorithmische Entscheidungsprozessen neben Durchschnittswerten auch Ausreißer auffindbar bleiben. Außerdem legte er den Teilnehmer ans Herz, den Begriff Algorithmus nicht leichtfertig zu verwenden, und deutlich zu machen, worüber man redet. Prof. Schulz zog die Schlussfolgerung, dass Forschung zu algorithmischen Entscheidungen sich vor allem auf die Entscheidungen und weniger auf die Algorithmen bezieht bzw. beziehen sollte. Darüber hinaus sei ihm wichtig, dass die Wissenschaft sich mit den Anwendungsfeldern befasst, in denen algorithmischen Entscheidungen gesellschaftliche Folgen auslösen.

Nicht beabsichtigte Zwecke

Nach einem algorithmisch generierten Grußwort vom (frei erfundenen) Prof. Dr. Markow, galt die erste Paneldiskussion, moderiert von Sarah Pust, dem Thema „Algorithmische Entscheidungen – Wissenschaftliche Stand der Dinge“. Prof. Dr. Federrath von der Universität Hamburg und der Gesellschaft für Informatik erläuterte, wie Maschinen ähnlich wie Menschen lernen können: indem sie alle mögliche Zustände ausprobieren und evaluieren, und somit eine immer höhere Treffquote erreichen ¬– und dabei letztlich eine höhere Erfolgsrate als Menschen erzielen. Prof. Dr. Michael Latzer von der Universität Zürich erklärte, warum der Algorithmus in bestimmten Anwendungsfällen, etwa bei Newsaggregatoren, sowohl das Problem als auch seine Lösung darstellen kann. Etwa seien jene Algorithmen, die dem Nutzer in der Regel lediglich ihn interessierende Inhalte anzeigen, auch in der Lage, den Nutzer mit seinen (manchmal einseitigen) Präferenzen zu konfrontieren. Technikphilosophin Dr. Judith Simon betonte, dass solche Überlegungen im Idealfall beim Design der Software von Anfang an mit gedacht werden. Außerdem müsse, so Prof. Federrath, jedem im Informatik-Studium klargemacht werden, dass die entwickelten Produkte auch für ursprünglich nicht-beabsichtigte Zwecke verwendet werden können und somit einen „Dual Use“ haben.

Transparenz ist nicht immer die Lösung

Im zweiten Panel tauschten sich Marco Maas (OpenDataCity), PD Dr. Wiebke Loosen (Hans-Bredow-Institut), Min.Dirig. Dr. Jan-Ole Püschel (Bundesbeauftragte für Kultur und Medien) und Prof. Dr. Bernhard Rieder (Universität von Amsterdam) zum Thema „Algorithmische Entscheidungen im Journalismus und in der öffentlichen Kommunikation“ aus. Journalismusforscherin Wiebke Loosen sprach über die Herausforderungen, vor die algorithmische Entscheidungen die journalistische Praxis stellen, sowohl als Berichterstattungsgegenstand (Journalisten müssen sich in diesem gesellschaftlich an Bedeutung gewinnenden Bereich auskennen, um darüber kritisch berichten zu können) als auch mit Blick auf die sich verändernde Rolle des Journalisten, indem Plattformen wie Facebook die traditionell von Journalisten ausgeführten Relevanzfilterung in zunehmendem Maß – algorithmisch gesteuert – übernehmen. Datenjournalist Marco Maas erläuterte sein neues, von Google gefördertes Projekt, in dem eine Plattform entwickelt wird, die Nutzern aus verschiedenen Quellen kontextbasierte Nachrichten ausspielt – etwa aufgrund des Standortes oder des benutzten Geräts.

Die Regulierungsperspektive kam von Jan-Ole Püschel, Leiter Medien, Film und Internationales bei der Beauftragten der Bundesregierung für Kultur und Medien. Er deutete an, dass die Regulierer noch immer einen großen Wissensbedarf hinsichtlich der technischen und kommerziellen Mechanismen haben, bevor sie sich ein Urteil formen könnten. Allerdings, so Bernhard Rieder, sei die oft geforderte Transparenz nicht immer die Lösung, auch wenn im Falle eines Monopols einer Plattform die Frage der Nachvollziehbarkeit drängender sei, als wenn ein vielfältigeres Angebot bestünde. Mit der Frage „wie kommen die Nachrichten zurstande?“ befassen sich Wiebke Loosen zufolge Journalismusforscher bereits Jahrzehnte, und ähnlich müssten auch die algorithmisch generierten Nachrichtenquellen in dieser Disziplin erforscht werden.


Zum Schluss warfen Prof. Dr. Tilo Böhmann (Universität Hamburg) und Prof. Dr. Wolfgang Schulz (Hans-Bredow-Institut) in ihrem gemeinsamen Fazit nochmals die Frage auf: Wie gehen wir fair mit den großen Mengen vorhandener Daten um, und zwar so, dass wir tragfähige Entscheidungen treffen können?

An einem Nachmittag allein, so viel wurde deutlich, lässt sich diese Frage allerdings nicht beantworten.

Ansprechpartner

Lies van Roessel, M. A.
Junior Researcher Game Studies & Algorithmen

Lies van Roessel, M. A.

E-Mail senden

VIELLEICHT INTERESSIEREN SIE AUCH FOLGENDE THEMEN?

Newsletter

Infos über aktuelle Projekte, Veranstaltungen und Publikationen des Instituts.

NEWSLETTER ABONNIEREN!