Braucht es die Kirchen noch in der Kultur der Digitalität?

Kommunikation in der “Kultur der Digitalität” (Felix Stalder) fordert die institutionell verfassten Kirchen in Deutschland heraus. Gemeinsam mit dem Zentrum für Ethik der Medien und der digitalen Gesellschaft (zem::dg) veranstaltete die Evangelische Akademie Loccum deswegen vom 22. bis 24. Juni 2018 eine Fachkonferenz zur digitalen Kommunikation als kirchliche Herausforderung. Mit einer hochkarätigen Mischung aus kirchlichen Praktiker*innen, Wissenschaftler*innen, Blogger*innen und Kirchenleitenden bot die Konferenz einen umfassenden Einblick in das Themenfeld und die kontroverse Diskussion auf dem Weg zu einer digitalen Kirche. Denn dass es die Kirchen in ihrer diakonischen, seelsorgerischen und ethischen Funktion auch digital braucht, daran hatten die Teilnehmer*innen keinen Zweifel.

“Wir müssen hin zu diesen fremden Orten” ermutigen “Die Kirchenbotschafter” der Nordkirche eine eher digitalskeptische evangelische Kirche.

Deutlich wurde in der Diskussion, dass die Digitalisierung nicht zuvorderst eine technische Frage, sondern eine Frage des kulturellen Wandels darstellt. Die durch Digitalisierung „wie durch einen großen Scheinwerfer“ (Michael Brinkmann) sichtbar werdenden Defizite und einhergehende Krisenstimmung könnten eine Chance für eine grundsätzliche Selbstfindung sein, die eine Erneuerung über die technische Infrastruktur hinaus befruchten könnte.

Loccumer Studienleiterin Julia Koll im Gespräch mit EKD-Kommunikationschef Michael Brinkmann, Regionalbischöfin Petra Bahr, Netzjournalist Ingo Dachwitz und Jonas Bedford-Strohm (Foto: Karsten Kopjar)

Dabei sei entscheidend, so Prof. Dr. Alexander Filipovic, dass man sich nicht naiv „vor den Karren der Bedenkenträger“ spannen lasse, sondern in der gegenwärtigen Praxis neugierig nach „noch nicht ganz verwirklichten normativen Potenzialen“ zu suchen und dann tatkräftig dabei mitzuhelfen, diese Potenziale wirklich werden zu lassen. Dabei können diese normativen Potenziale als kritisches Ideal auch dann eingebracht werden, wenn die vollständige Verwirklichung unmöglich oder auf kurze Sicht unrealistisch sei. Eine solche kritisch-konstruktive Zeitgenossenschaft sei der Modus, in dem sich kirchliche Akteure mit hilfreichen, orientierenden Beiträgen im gesellschaftlichen Diskurs zu digitalethischen Fragen einbringen und praktisch Digitalpraxis vorleben könne, so Filipovic.

Prof. Dr. Filipovic über die Kirchen und das “Salz der Digitalität” (Foto: Evangelische Akademie Loccum)

Dr. Kristin Merle (Tübingen) eröffnete die Tagung mit dem Hinweis, dass Mediengestaltung immer als soziale Aushandlungsprozesse zu begreifen seien. Dass dieser Aushandlungs- und Gestaltungsprozess in regem Gange ist, zeigt die Auswertung des Hashtags #DigitaleKirche von aserto im Auftrag der EKD. Das Engagement der Beteiligten und die Reichweite der Diskussionen wurde durch die Tagung in Loccum vervielfacht und stark intensiviert:

Weitere Perspektiven auf die Tagung und die Themen finden Sie von Christoph Breit im Blog KircheDigital, von Markus Bechthold auf dem Portal evangelisch.de, Philipp Greifenstein im Online-Magazin Die Eule, von Ralph-Peter Reimann im Blog TheoNet, sowie unter den Hashtags #DigitaleKirche und #Loccum auf Twitter.

 

Kirchenpräsident der Evangelischen Kirche Hessen-Nassau Volker Jung, Professorin für Christliche Publizistik Johanna Haberer und Kommunikationschef der Landeskirche Hannovers Motoki Tonn stellen sich den Fragen von Jonas Bedford-Strohm

In eigener zem::dg-Sache: Ein herzliches Dankeschön an die Kooperationspartner der Evangelischen Akademie Loccum!

 

Wie verändern digitale Medien die politische Partizipation?

Interdisziplinäre Perspektiven aus Wirtschaft, Medien, Politik und Wissenschaft beim Fachdialog in Berlin

An der Humboldt-Universität zu Berlin trafen sich am 15. und 16. Juni 2018 Politikwissenschaftler*Innen und Ethiker*Innen aus der Wissenschaft mit Vertreter*Innen aus der Praxis in Politik, Kirche und Wirtschaft, um die Frage politische Partizipation in digitalen Öffentlichkeiten zu diskutieren. Veranstaltet wurde das Fachgespräch vom Zentrum für Ethik der Medien und der digitalen Gesellschaft (zem::dg) gemeinsam mit dem Berlin Institute for Public Theology. Zentrums-Co-Direktor Prof. Dr. Alexander Filipovic diskutierte mit der Bundestagsabgeordneten Dr. Petra Sitte (Mitglied im Ausschuss Digitale Agenda) und Stephan Dörner (Chefredakteur des Digitalmagazins t3n.de) über die digitale Transformation des Wahlkampfs in Deutschland. Unser Mitarbeiter Jonas Bedford-Strohm moderierte zudem ein Gespräch mit Medienakteuren aus Tech-Wirtschaft, Radio und dem freien Agenturbereich über die digitalen Transformationsprozessen im Medienkontext.

MdB Petra Sitte berichtete in einem Impuls zunächst über die neuen Partizipationsmöglichkeiten, die die sozialen Medien einer Parteiarbeit bieten. DIE LINKE nutzt Plattformen wie Facebook, Youtube und Instagram intensiv. Frau Dr. Sitte betonte dabei, dass „negative campaigning“ im Digitalen für Sie nicht in Frage kommt. Aus dem Publikum kam die Erwiderung, dass einige zentralen Akteure aus Sittes Partei durchaus zu herabsetzenden Negativstrategien in den sozialen Medien greifen. MdB Sitte gestand ein, dass trotz aller Versuche, eine gemeinsame Strategie zu finden, die nicht die populistischen Tendenzen der interaktionsbasierten Social-Media-Algorithmen ausnutzt, eine vielfältige Partei immer auch vielfältige Kommunikationsansätze haben wird. Sie wies auch darauf hin, dass sie persönlich merkt, wie sie an manche Wählergruppen digital nicht herankommt. Besonders die sich im Populismus entladende Energie habe sie ganz analog am Wählerstand in der Fußgängerzone in Halle immer wieder schon zu spüren bekommen. Sie fahre deswegen ganz bewusst in manche Wahlkreisteile, um dort physisch präsent zu sein und nicht die leibliche Aufmerksamkeit durch reine Digitalarbeit zu ersetzen. Ein sinnvoller Wahlkampf, der echte Menschen erreicht, habe deswegen immer digitale und analoge Komponenten, die sinnvoll aufeinander zu beziehen seien.

Stephan Dörner brachte die Frage der erfolgreichen Präsenz populistischer Gruppen in sozialen Medien ins Spiel – besonders die AfD ist auf Facebook im Vergleich zu den Wahlergebnissen überdurchschnittlich erfolgreich. Liege der Erfolg der rechtspopulistischen Apokalypsen nicht auch daran, dass die liberal-demokratischen Kräfte keine attraktiven Zukunftsvisionen mehr kommunizieren könnten?

Alexander Filipovic wies darauf hin, dass nicht nur Gruppen wie die AfD den gegenwärtigen Trend digital zu nutzen wüssten, sondern auch etablierte Parteifunktionäre wie Jens Spahn mit seiner anti-elitären Rhetorik in den Werkzeugkasten der Populisten greife. So lassen sich Rückkopplungseffekte von Praktiken in den sozialen Medien auf andere Medienformen und die Veränderung des Diskurs-Klimas beobachten. Das Frustrierende daran sei aus medienethischer Perspektive nicht nur, dass digitale Plattformen wie Facebook durch ihre Algorithmen-Gestaltung populistische Tendenzen verstärken könnten und politische Akteure diese Tendenzen nutzen würden, sondern auch, dass diese manipulativen Kulturtechniken tatsächlich funktionierten. Insofern sei neben der Produzenten- und Plattformperspektive auch eine Rezipienten- und Nutzerethik zu entwickeln.

Trotz aller Probleme eines idealistisch-rationalistischen Vernunftmodells, plädierte Prof. Filipovic dafür, an dem orientierenden Ideal eines faktenorientierten Qualitätsjournalismus beizubehalten, auch wenn es in seiner Unerreichbarkeit stets nur ein regulatives Ideal und keine perfekte Wirklichkeit sein könne. Trotzdem gebe es so viel guten Qualitätsjournalismus wie noch nie zuvor – selbst wenn er aufgrund des Inhalte-Zuwachses womöglich im Durchschnitt weniger sichtbar sei. Insofern sei weder eine apokalyptisch sprechende, kulturpessimistische Perspektive, noch ein naiv-idealistisch, appellatives Lamentieren ausreichend. Eine handlungsorientierte Perspektive, die in der praktischen Wirklichkeit normative Potenziale identifiziert und ethische Orientierungen für deren Stärkung entwickelt, sei medienethisch die fruchtbarste.

Das Abendpanel am Freitag gab Medienschaffenden die Gelegenheit, ihre Erfahrungen aus der Praxis einzubringen und anhand konkreter Fragen aus dem Alltag die gegenwärtigen Transformationsprozesse im digitalen Bereich zu thematisieren. Zunächst gab Malte Kosub, Gründer der Entwicklungsagentur Future of Voice, einen Einblick in seine tägliche Arbeit im Innovationsfeld der Sprachassistenten. Er zeigte auf, wie sich der Anpassungsdruck derzeit umdreht: Nicht mehr Menschen müssen lernen, in der Sprache der Computer zu kommunizieren, sondern Computer sollen intuitivere Kommunikationskompetenz antrainiert bekommen. In dieser Perspektive stellt Künstliche Intelligenz nicht einen Verstärker für technisierte Kommunikation dar, sondern eine Humanisierung der Nutzeroberflächen technischer Systeme. Neben den umfangreichen Chancen für interaktive mediale Kommunikation durch Sprachassistenten, wies Kosub allerdings auch darauf hin, dass durch die Metasysteme Alexa, Google Assistant und Co. natürlich neue Gatekeeper zwischen Nutzer und Medienprodukt träten.

 

Die Fragen also, wie zum Beispiel Rankings erstellt werden und welche Antworten und Produkte vom Assistenten bevorzugt werden, stelle eine schwer lösbare Aufgabe für die Plattformanbieter dar. Da diese aber viele Drittanbieter auf ihre Plattform locken möchten, hätten sie ein ureigenes Interesse daran, so neutral und transparent wie möglich zu arbeiten.

Lisa Zauner, Digitalchefin des Radiosenders 1LIVE vom WDR, sprach darüber, wie ein öffentlich-rechtliches Digitalprodukt zum Erfolg gebracht werden kann. Entscheidend ist für sie die Kultur, die das Team dafür ausbildet. Als Digitaleinheit einer Radiowelle in einer großen Landesrundfunkanstalt wie dem WDR fänden sich immer wieder Nischen, in denen kreatives Arbeiten möglich wird, obwohl das Umfeld in einem öffentlich-rechtlichen Ökosystem oft sehr komplex ist. Für Zauner ist wichtig, wie der Kontakt zu den Nutzerinnen und Nutzern gestaltet ist, denn Transparenz und Vertrauen könne ein besonderes Merkmal der öffentlich-rechtlichen Interpretation der Medienarbeit sein. Durch die vielfältigen Möglichkeiten digitaler Technologie könne Radio nun zu einem multimedialen Unterfangen werden und eine interaktivere Gestaltung mit verschiedenen Plattformen und Format umgesetzt werden. Insofern biete sich die Chance auf eine menschenzentrierte Entwicklung, unter anderem dadurch, dass sich mit digitalen Analyse-Werkzeugen ein genauer Blick auf die Bedürfnisse der Hörerinnen und Hörer werfen lässt. Aus dieser Perspektive wird deutlich, dass der öffentlich-rechtliche Rundfunk auch jenseits einer plumpen Quotenorientierung auf die breite Unterstützung der Bevölkerung angewiesen ist. Wenn sich die Mediennutzung der Beitragszahler verändert, verändert sich entsprechend die Erwartungserhaltung. Und insofern kann auch ein werbeunabhängig finanzierter öffentlich-rechtlicher Rundfunk nicht an der Medienpraxis der Menschen vorbei arbeiten, wenn er nicht schleichend an Legitimität und „public value“ verlieren möchte.

Florian Stickel, Chefredakteur von Microsoft News und Portalleiter für MSN in Deutschland, brachte die Perspektive eines Journalisten in einem Technologie-Unternehmen ein. Dabei wurde deutlich, dass auch in einem privatwirtschaftlich organisierten Unternehmen die kommunikative Arbeit zwischen den verschiedenen Berufsgruppen und Division eine Herausforderung und permanente Aufgabe ist. Relevant wird diese Arbeit nicht nur bei der Einschätzung verschiedenener Monetarisierungsmodelle, sondern auch in dem Bewusstsein der presserechtlichen bzw. journalistischen Einordnung verschiedener Ansätze in der Content-Distribution. Auch wenn Stickel einräumte, dass eine totale Objektivität ein nie zu erreichendes Ideal ist, betonte er das Bemühen in der Partnerauswahl für die Medieninhalte auf MSN ein breites Spektrum an Interessen und Perspektiven abzudecken. Als neuartige Herausforderung präsentierte Stickel verschiedene Einsatzmöglichkeiten von Künstlicher Intelligenz. Dabei stellte Stickel klar, dass es sich dabei nach wie vor um Mustererkennung und Assistenzsysteme für die menschlichen Redakteure handelt. Künstlich intelligente Analysesysteme helfen den Redakteuren bei MSN heute schon dabei, Themen zu erkennen, Trends zu analysieren und Inhalte für die Nutzerinteraktion zu optimieren. Aus dieser Perspektive wurde deutlich, dass die Monetarisierung von journalistischen Inhalten jenseits des öffentlich-rechtlichen Rundfunks von zentraler Bedeutung ist und die inhaltliche Gestaltung prägt. Allerdings wird ebenfalls deutlich, dass ein Unternehmen wie Microsoft selbst an verantwortlichen Praktiken interessiert ist und den Dialog im Bereich der Algorithmenethik begrüßt und selbst fordert. Denn auch für ein privatwirtschaftlich organisiertes Medienunternehmen bleibt das Vertrauen der Nutzerinnen und Nutzer – besonders dann, wenn die eigene Plattform die Hauptnachrichtenquelle für sie ist – von entscheidender Bedeutung für den mittel- bis langfristigen wirtschaftlichen Erfolg.

Leitungsteam: Jonas Bedford-Strohm M.A. (Zentrum für Ethik der Medien und der digitalen Gesellschaft in München) Dr. Florian Höhne (Berlin Institute for Public Theology) Dipl.-Theol. Julian Zeyher-Quattlender (Universität Tübingen und Forschungsstätte der Evangelischen Studiengemeinschaft in Heidelberg)

Den Veranstaltungsflyer können Sie hier downloaden.

“Daten alleine gewinnen keine Wahlen!” Eine kritische Analyse der Berichterstattung zur Psychometrie im Wahlkampf

Die Debatte um psychometrische Analysen von Wählerinnen und Wählern im US-Wahlkampf erzeugt vor der Bundestagswahl 2017 auch in Deutschland immer wieder Wellen der Aufmerksamkeit. Sie ist durchsetzt von der subtilen Macht der Manipulation – allerdings nicht nur, wie meist angenommen, durch die dunklen, hyperintelligenten Datenmächte, sondern auch durch plausible, aber fragwürdige Narrative in der Berichterstattung. Eine kritische Analyse von Thema und Präsentation ist angesagt.

Seit Hannes Grassegger mit einem Artikel über die Datenfirma Cambridge Analytica das Thema der Psychometrie auf die Agenda gesetzt hat, wird die Frage der Datennutzung regelmäßig diskutiert – mal mit beruhigendem Tonfall („Da ist gar nichts Neues dabei!“) und mal mit alarmistischem Tonfall („Alles ist neu und die Welt geht den Bach runter!“).

Mindestens zwei Ebenen sind auseinander zu halten: 1. Was ist technisch möglich und wird in den verschiedenen Lebensbereichen eingesetzt? Und 2. Welche Rolle haben diese Technologien politisch in der US-Wahl gespielt? Die Grundthese dieser Reflektion ist, dass 1. technisch schon beeindruckend viel möglich ist, aber 2. die Rolle dieser Technologien in der US-Wahl 2016 sehr klein und nicht wahlentscheidend war.

Stanford-Professor Michael Kosinski, der in Grasseggers Artikel zur Methodik digitaler Psychometrie befragt wird, sorgte kürzlich für eine neue Welle der Empörung. Algorithmen, so Kosinski, könnten bald die politische Orientierung und den IQ vom Gesicht eines Wählers ablesen. Dass so etwas möglich ist, zeigte er mit einem hier beschriebenen Algorithmus, der in 81 Prozent der Fälle die sexuelle Orientierung von Männern richtig erkennen konnte. Sollten diese Technologien tatsächlich praktisch einsatzfähig werden, stellen sich eine ungeheure Menge an digitalethischen Fragen, die noch nicht im Ansatz hinreichend erforscht sind.

Für das Verständnis des politischen Einflusses der schon genutzten Technologien wie das Microtargeting auf Facebook hilft eine Einordnung in die langfristige Entwicklung weiter. Auch nach einer Reihe von kritischen Antworten auf Grasseggers Artikel in Deutschland und den USA hält sich leider in der einschlägigen Berichterstattung die Ansicht, es sei die Trump-Kampagne gewesen, die das Microtargeting von Facebook, das schon seit Jahren von Unternehmen und zivilgesellschaftlichen Akteuren genutzt wird, zum ersten Mal in die Politik gebracht hätte. Das ist falsch.

Obama und Clinton haben beide seit vielen Jahren umfangreiche Datenteams im Einsatz. Viele der Ideen im digitalen Wahlkampf beruhen auf Lifetargeting-Strategien, die schon von Bill Clinton und George W. Bush verwendet wurden, sind seit über einem Jahrzehnt im Standard-Repertoire aller politischen Kampagnen in den USA. (Das einschlägige Buch dazu ist Applebee’s America: How Successful Political, Business, and Religious Leaders Connect with the New American Community. Es wurde 2007 von Clinton-Berater Doug Sosnik und Bush-Berater Matthew Dowd mit dem Journalisten Ron Fournier veröffentlicht.) Schon 2004 begannen die Demokraten das Internet als Raum zu verstehen, in dem die Kampagnen der Zukunft entschieden werden würden. Nicco Mele, Digitalstratege der Kampagne von Howard Dean, war einer der Pioniere in der Nutzung von digitaler Technologie und Social Media, und hat damit das politische Fundraising und die amerikanische Politik revolutioniert. Auch die Obama-Kampagnen griffen auf die Erfahrung aus Meles Arbeit für die Dean-Kampagne zurück.

Mele leitet mittlerweile das Shorenstein Center für Medien und Politik an der Harvard-Universität und hat ein Buch darüber geschrieben, wie das Internet den vermeintlichen Underdog David zum neuen Goliath macht. Passagen des Buches lesen sich wie eine Prophezeiung des Erfolgs von Donald Trump. Entsprechend war Mele einer der wenigen, die schon seit Herbst 2015 in einem Blog-Post erklärte, dass die – auch durch digitale Transformation begünstigten – langfristigen Entwicklungen in einem Trump-Gewinn 2016 kulminieren würden. Cambridge Analytica war dafür nicht nötig.

Ein kritischer Blick auf eine spekulationsreiche Debatte in 5 wichtigen Punkten:

1. Cambridge Analytica ist sehr gut in der Vermarktung von wenig Substanz und hat dabei nicht immer die Wahrheit gesagt.

Die New York Times schrieb im Juni 2017 über die Unstimmigkeiten in den Erzählungen der Vertreter von Cambridge Analytica. Diese gestehen jetzt ein, dass „die Firma nie Pschometrie in der Trump-Kampagne verwendet hat. Camebridge Analytica wird zwar durch die Werbematerialien der Firma und die Berichterstattung der Medien als Meister der dunklen Kampagnen-Künste präsentiert. Die Technologie bleibt aber unbelegt, so ehemalige Mitarbeiter und Republikaner, die die Arbeit der Firma kennen.“

2. Der Fall zeigt die Manipulierbarkeit der Massen nicht nur in Form von Datennutzung durch Kampagnen, sondern auch durch effektives Storytelling und das Ausnutzen des Belief Bias durch Cambridge Analytica.
Heidi Tworek analysierte im Mai 2017 im Blog des Nieman Labs an der Harvard-Universität: „Mit Cambridge Analytica sind wir gleich wieder bei der alten neuen Vision der Sozialpsychologie und der Massenpsychose, die von Gustave Le Bon in 1895 popularisiert wurde. Die harten Beweise für den Einfluss von Cambridge Analytica sind im besten Fall dubios. Das Unternehmen arbeitete zunächst mit Ted Cruz und wechselte erst zu Trump als Cruz zurückzog.“ Die Firma „hat sich erfolgreich in den Fokus hinein vermarktet. Aber wir bräuchten viel mehr Informationen, um zu wissen, ob ihre Techniken einen kausalen Einfluss hatten. Es gibt Hinweise darauf, dass das Trump-Team die Dienste von Cambridge Analytica in den letzten Wochen der Kampagne nicht einmal in Anspruch genommen hat.“

3. Mitarbeiter von Trumps Kampagne haben von Anfang an gegen das Cambridge-Narrativ angeschrieben, allerdings haben sie in Deutschland keine Resonanz damit gefunden.
Gerrit Lansing, Chief Digital Officer von Trump, hat Nix auf Twittersofort als Lügner gebrandmarkt. Gary Coby, Director of Digital Advertising für Trump, hat auf Twittererklärt, Cambridge sei nicht wahlentscheidend gewesen und Psychographen würden ebenfalls nicht von der Kampagne benutzt. Zwar sind Verlautbarungen von Mitarbeitern der Trump-Kampagne nicht ohne weiteres als gesicherte Information zu verstehen. In der Berichterstattung zum Thema müssten solche Stimmen aber zumindest vorkommen.

4. Was Nix als “psychometrisches Targeting” beschreibt, ist vor allem Spekulation, die ohne ausreichende Datengrundlage mit einer guten Geschichte Erfolg erzielt hat, weil sie plausibel ist.
Dave Karpf hat mehrere gute Artikel geschrieben, in denen er die Marketing-Aktivitäten von Datenfirmen im Wahlkampf kritisch analysiert. Alle drei protestieren gegen das Reinfallen auf simple Marketing-Tricks und sind Pflichtlektüre für alle, die sich mit dem Thema auseinander setzen: Retrospective WishcastingWill The Real Psychometric Targeters Please Stand UpPreparing for the Campaign Tech Bullshit Season

5. Viele der Datenanalyse-Tools sind in den USA seit Jahrzehnten in Gebrauch und in den letzten Jahren nur graduell verbessert worden. Sie sind keine Wunderwaffe.
Wenn Kritik an Datennutzung in Wahlkämpfen formuliert wird, dann sollte sie unabhängig von Trump formuliert werden, denn die Datenanalyse-Tools wurden in den letzten zwei Jahrzehnten von nahezu allen Kandidaten in nahezu allen Kampagnen in Bund und Ländern in den USA benutzt. Hier spricht Reince Priebus (Vorsitzender des Nationalkommittees der Republikaner während der Trump-Kampagne) über die vielen Millionen Dollar, die sein Team in Daten investiert hat, und die Nutzung dieser Daten, um Orte zu identifizieren, die für Republikaner ungehobene Wählerpotenziale bereit hält. Exklusiv von den Republikanern wurde die Methode des Lifetargetings aber nicht eingesetzt.

Im Gegenteil: Hier spricht Obamas Kampagnenmanager Messina über die umfangreiche Nutzung von Daten in 2012. Auch schon Bill Clinton und George W. Bush haben Techniken des Lifetargetings benutzt, wie es in Applebee’s America von ihren Beratern anschaulich beschrieben wird. Anders als in Deutschland sind diese Verfahren in den USA also seit Jahren gang und gäbe. Einige Insider gehen so weit, Hillary Clintons Daten-Team als “most sophisticated data team in history” und als Symbol des Versagens von Datenanalyse zu bezeichnen. Die Anzeichen mehren sich, dass Clinton bessere Daten zur Verfügung hatte, diese Daten aber nichts ohne eine “gut values connection” sind, wie sie von Berater Doug Sosnik beschrieben wird.

Was also können wir aus der US-Wahl 2016 für das Verständnis der technologischen Entwicklung und ihren Einfluss auf Wahlkämpfe wirklich lernen?

Die Analyse von Hillary Clintons Datenoperation um Algorithmus Ada dreht die Logik der Berichterstattung zumindest potenziell auf den Kopf: Nicht Trumps Erfolg wäre ein Ausweis der Effektivität von digitaler Datennutzung, sondern Clintons Misserfolg wäre ein Ausweis für den Mangel an Effektivität von Datennutzung alleine. Allerdings gibt es auch Stimmen, die die Fähigkeiten von Ada anzweifeln.

Selbst wenn die Datenoperationen von Clinton und Trump gleichauf lagen: Technologie ist nicht alles. Der Wert der traditionell wichtigen Talente sollte daher in der Berichterstattung wieder mehr in den Vordergrund rücken. Politische Intuition, das ganz analoge Verstehen der Lebenswelt der Wähler, emotionale Intelligenz und eine robuste Vision für die Zukunft bleiben nach wie vor entscheidend. Daten alleine gewinnen keine Wahlen!

Der Fokus auf Technologie, vermischt mit der inhaltlichen Sympathie für Clinton, verstellt Deutschen zu oft den Blick dafür, dass Donald Trump in diesen Kategorien Hillary Clinton das Wasser reichen konnte. Während New York Times und Huffington Post eine Trump-Wahl für unmöglich erklärten, war Trump in der Lage ohne die Unterstützung dieser mächtigen Medien eine direkte Beziehung zu vielen Menschen in den vergesseneren Regionen der USA zu bauen, die nach nicht durch Technologie, sondern nur durch traditionelles politisches Talent wirklich zu erklären ist.

Das sollte uns zu denken geben.

„Arbeit Weiter Denken” – Das Weißbuch Arbeiten 4.0 aus der Perspektive digitaler Ethik

Mit dem Weißbuch Arbeiten 4.0 hat das Bundesministerium für Arbeit und Soziales das Ergebnis eines umfangreichen Dialogprozesses zum Leitbild der „Guten Arbeit“ in der digitalen Gesellschaft vorgelegt.

Motivation für den Prozess ist die zu beobachtenden Polarisierung der digitalen Transformation der Arbeitswelt. Den einen „Lebensgefühl“, den anderen „Sorge“, schlägt die Digitalisierung eine „Kluft zwischen Menschen, die Freiheit und Flexibilität als Verheißung sehen und solchen, die vor allem Stabilität und Sicherheit wünschen.“ Hier setzt das Weißbuch an und interpretiert „Arbeiten 4.0“ als „Kürzel für die Veränderungen in der gesamten Arbeitswelt und ihre Folgen für die Gesellschaft“ (Andrea Nahles), die es gemeinsam mit Sozialpartnern, Verbänden, Unternehmen und Wissenschaft zu erforschen und gestalten gilt.

Themen des Weißbuchs

Neben „Treibern und Trends“ (Kapitel 1) widmet sich das Weißbuch konkreten „Spannungsfeldern“ in der Arbeitswelt der digitalen Gesellschaft (Kapitel 2) und entwickelt ein Leitbild zur „guten Arbeit im digitalen Wandel“ (Kapitel 3). Daraus abgeleitet, skizziert das Weißbuch acht Gestaltungsaufgaben: Weiterentwicklung der Arbeitslosenversicherung, flexible und selbstbestimmte Arbeitszeiten, gute Arbeitsbedingungen im Dienstleistungssektor, Arbeitsschutz im Arbeiten 4.0, hoher Standard im Beschäftigtendatenschutz, Teilhabe und Mitbestimmung im Transformationsprozess, Förderung und Absicherung von Selbstständigkeit, sowie (europäische) Perspektiven für die Zukunft des Sozialstaats. Mit einem Plädoyer für ein aufmerksames, innovatives, partizipatives, recht- und sozialstaatliches „Lernen in und aus der Transformation“ (Kapitel 5) schließt das Weißbuch und kündigt die Fortsetzung des Dialogs getreu dem Motto „Arbeit weiter denken“ an.

Aus dem 232 Seiten starken Analyse-Angebot stechen aus Perspektive digitaler Ethik neben den klassischen Diskursen der Sozialpartnerschaft zwei Punkte heraus, die exemplarisch für das umfangreiche Spektrum der entwickelten Ideen zu nennen sind: die gesellschaftliche Aufgabe der digitalen Bildung, sowie das Themenfeld Generationengerechtigkeit im Transformationsprozess.

Schwerpunkt: Digitale Bildung

Unter dem Stichwort „Digital Literacy“ beschreibt das Weißbuch den „selbstverständlichen Umgang mit Internetquellen wie insgesamt mit neuen, mobilen Computer- und Internetmedien“ als eine „Grundveraussetzung“ für Arbeit in der digitalen Gesellschaft. Auf „nahezu allen Arbeitsplätzen“ seien in Deutschland „digitale Grundkompetenzen erforderlich“, um „die beruflichen Anforderungen“ zu erfüllen. Hieraus ergibt sich die medien- und digitalethische Aufgabe der „aktiven Begleitung der Erwerbstätigen in ihren Veränderungs- und Anpassungsprozessen“.

Angesprochen ist damit auch die Frage der Generationengerechtigkeit, die im Rahmen der digitalen Transformation im Sinne eines „komplementären Lernprozesses“ – um einen Begriff von Jürgen Habermas zu leihen – begriffen werden kann. Das Weißbuch Arbeiten 4.0 begegnet dieser Aufgabe, indem es den Bedarf für eine „umfassende, langfristig ausgerichtete Qualifizierungs- und Weiterbildungsstrategie“ identifiziert und eine „Nationale Weiterbildungskonferenz“ der Bundesregierung, Länder, Sozialpartner und weiteren Akteuren als Ort der Umsetzung vorschlägt. Das Weißbuch identifiziert zudem den Bedarf für ein „flächendeckendes Netz unabhängiger und niedrigschwelliger Beratungsstützpunkte“ und „digitale Assistenz- und Tutorensysteme“, und kündigt die Prüfung von „Weiterbildungsförderung auch im Hinblick auf digitalen Kompetenzen“, sowie die Weiterentwicklung des einschlägigen Beratungsangebots der Bundesagentur für Arbeit an.

Schwerpunkt: Generationengerechtigkeit

Um die „zukunftsfeste Ausgestaltung sozialstaatlicher Leistungen“ unter den Bedingungen der digitalen Gesellschaft generationengerecht voranzutreiben, schlägt das Weißbuch ein „Persönliches Erwerbstätigenkonto“ vor. Drei Vorteile werden genannt:

1. Arbeitnehmergebundene Rechte können durch Langzeitkonten, wie sie schon jetzt von der Deutschen Rentenversicherung gepflegt werden, leichter bei einem Wechsel des Arbeitgebers übertragen werden.

2. Wenn das Konto mit einem zweckgebundenen Startguthaben ausgestattet würde, könnte die „Eigenverantwortung der Beschäftigten“ gestärkt werden, indem so berufliche Weiterqualifizierung, Existenzgründungen, Arbeitsreduzierungen, Sabbatjahre für Erziehung und Pflege, sowie der Übergang in die Selbstständigkeit oder den Ruhestand bedarfsgerecht unterstützt werden.

3. Angesichts der ungleichen Verteilung der Vermögen, die als Erbe in den folgenden Generationen eine Ungleichheit der Chancen bewirken, könnte mit einem Sozialerbe ein „zweckgebundenes Startkapital, das allen jungen Menschen ungeachtet ihrer sozialen Herkunft einmalig vom Staat zur Verfügung gestellt“ wird ein Beitrag zur „Verteilungs- und Generationengerechtigkeit“ geleistet werden, der sich besonders in Phasen der Transformation positiv auswirkt.

Dialog als Partizipation

Das persönliche Fazit von Ministerin Nahles zielt auf „die Chancen der Digitalisierung für Wirtschaft, Beschäftigung und gute Arbeit“ und fordert dabei, „die Sorgen um Arbeitsplatz- und Qualifikationsverlust, Arbeitsverdichtung und Entgrenzung“ ernst zu nehmen. Dem Weißbuch Arbeiten 4.0 gelingt dieser Spagat wie sonst wenigen einschlägigen Publikationen, unter anderem deshalb weil die Analysen der Gremien ergänzt wurden durch einen umfassenden Beteiligungsprozess mit über 50 Stellungnahmen aus Wirtschaft und Zivilgesellschaft, über 200 Experten aus Wissenschaft und Praxis, einem Kinofestival mit Dokumentarfilmen, Dialogveranstaltungen mit etwa 12.000 Teilnehmern und zahlreichen Begleitprojekten. Aus der Perspektive der Ethik der Medien und der digitalen Gesellschaft ist die partizipative, inklusive Philosophie des Dialogs ausdrücklich zu begrüßen.

Einen Link zum Weißbuch Arbeiten 4.0 finden Sie hier.