Feierliche Eröffnung des Bayerischen Kompetenznetzes „Medien – Ethik – Bildung“ in Erlangen

Medienethik ist heute eine Kompetenz, die jeder Mann und jede Frau braucht, um sich im Netz bewegen zu können.

Prof. Johanna Haberer,
Friedrich-Alexander-Universität Erlangen-Nürnberg


Doch was bedeutet eigentlich medienethisch-verantwortliches Handeln im Netz? Und wie kann man eine breite Öffentlichkeit für medienethische Herausforderungen sensibilisieren?

Um diesen Fragestellungen nachzugehen, das bestehende Angebot an Bildungsangeboten zum Thema „Medienethik“ auszubauen, zu vernetzen und sichtbar zu machen, wurde das Bayerische Kompetenznetz „Medien – Ethik – Bildung“ ins Leben gerufen. Im Rahmen der Jubiläumsfeier zum zehnjährigen Bestehen des Masterstudiengangs „Medien – Ethik – Religion“ an der Friedrich-Alexander-Universität Erlangen-Nürnberg wurde das Kompetenznetz am 19. Juli 2019 feierlich eröffnet.

Eingerahmt wurde die Gründung des Kompetenznetzes von spannende Vorträgen zu verschiedenen medienethischen Fragestellungen. So referierte etwa Prof. Friedrich Kraft über journalistische Sprachethik und Prof. Dr. Thomas Zeilinger eröffnete bei seiner Antrittsvorlesung mit dem Titel „Die Medienethik und der Heilige Geist“ einen theologischen Blick auf den Fachbereich.


Das Kompetenznetz „Medien – Ethik – Bildung“ ist ein Zusammenschluss von Einrichtungen rund um das Thema „Medienethik“ und engagiert sich für Bildungsangebote zu den medienethischen Herausforderungen einer digitalen Welt. Die beteiligten Expertinnen und Experten stammen aus unterschiedlichen Bereichen und bringen so vielfältige Perspektiven etwa aus der Philosophie oder Theologie, aus den Kommunikations- und Medienwissenschaften sowie aus der Medienpädagogik mit ein.

Im Rahmen des Kompetenznetzes wurden bereits drei Online-Kurse zu medienethischen Fragestellungen erstellt, weitere sind in Planung.

Weitere Informationen rund um das bereits bestehende Kursangebot und das Kompetenznetz finden Sie auf dessen Internetseite.

Medienethik für alle

Über die neu eröffnete Online-Plattform OPEN vhb ist der Online-Kurs „Medienethik. Themen & Diskurse“ ab sofort frei zugänglich

Teaser-Video zum OPEN vhb-Kurs „Medienethik. Themen & Diskurse“

In was für einer Medien-Gesellschaft möchten wir leben? Medienethische Fragestellungen gehen alle an – und so ist es nur konsequent, dass über die neu eröffnete Plattform OPEN vhb – einem offenen Online-Kursangebot der Virtuellen Hochschule Bayern (vhb) – ein Online-Kurs zum Thema angeboten wird. Der Kurs möchte eine breite Allgemeinheit einerseits für die Bedeutung von medienethischen Herausforderungen sensibilisieren und andererseits zu einem bewussten und verantwortungsvollen Medienumgang motivieren. Hinter dem Kurs stehen die Mitglieder des neu gegründeten Bayerischen Kompetenznetzes „Medien – Ethik – Bildung“, einer Kooperation des Zentrums für Ethik der Medien und der digitalen Gesellschaft (Prof. Dr. Klaus-Dieter Altmeppen und Prof. Dr. Alexander Filipović), sowie der Christlichen Publizistik (Prof. Johanna Haberer und Prof. Dr. Thomas Zeilinger), der Medienethik (Prof. Dr. Christian Schicha) und der Medienpädagogik (Prof. Dr. Rudolf Kammerl) der Friedrich-Alexander-Universität Erlangen-Nürnberg.  

Ausgangspunkt für den neu entwickelten Kurs ist der CLASSIC vhb-Kurs „Medienethik. Themen & Diskurse. Ein interaktiver Grundkurs“, der bereits seit zwei Jahren erfolgreich von Studierenden der bayerischen Hochschulen genutzt wird. Durch die OPEN vhb-Plattform gibt es nun die Möglichkeit, entsprechende Inhalte der Öffentlichkeit zugänglich zu machen. Hierzu wurde der Kurs überarbeitet und mit zusätzlichen multimedialen und interaktiven Elementen angereichert um den Bedürfnissen der heterogenen Zielgruppe gerecht werden zu können.

Neben dem Medienethik-Online-Kurs werden auf der OPEN vhb-Plattform weitere Kurse aus unterschiedlichen Disziplinen auf Hochschulniveau angeboten. Ziel der OPEN vhb ist es, so steht es in der Pressemitteilung zur Eröffnung der Plattform, Bildungswerte zu schaffen, das lebenslange Lernen in der Gesellschaft zu fördern und dafür verlässliche Informationen zu bieten. Auch Prof. Dr. Dr. habil. Godehard Ruppert, Präsident der Virtuellen Hochschule Bayern und Präsident der Universität Bamberg betont die Bedeutung eines offenen Bildungsangebots: 

„Es gibt viele Gründe und Motive für lebenslanges Lernen aus eigenem Antrieb. Sei es der eigene Wunsch nach mehr Wissen zu politischen und gesellschaftlichen Themen, nach fachspezifischem Wissen, um bessere Chancen auf dem Arbeitsmarkt zu haben oder einfach die Freude am Lernen: Wissen ist die entscheidende Kompetenz in einer Wissensgesellschaft. Entsprechend eröffnen wir Chancen – davon sind wir überzeugt“.

Die OPEN vhb wurde im Rahmen des Masterplan „Bayern Digital II“ wurde von der bayerischen Staatsregierung auf den Weg gebracht und am 9. Juli 2019 von Staatsminister Bernd Sibler feierlich in München eröffnet. Die 31 Trägerhochschulen der Verbundeinrichtung vhb, darunter die neun staatlichen Universitäten und 17 Hochschulen für angewandte Wissenschaften, kooperieren seit fast 20 Jahren und bieten hochschulübergreifend Online-Lehre für das reguläre Studium in Bayern an. Mit der OPEN vhb wird dieses Modell nun um offene und kostenfreie Angebote erweitert.

Teaser-Video der OPEN vhb-Plattform

Foto (von links nach rechts): Prof. Dr. Dr. habil. Godehard Ruppert, Präsident der Virtuellen Hochschule Bayern und Präsident der Universität Bamberg Bayern, Bernd Sibler MdL, Bayerischer Staatsminister für Wissenschaft und Kunst, Dr. Steffi Widera, Geschäftsführerin vhb, Prof. Dr. Robert Grebner, Vizepräsident der vhb und Präsident der Hochschule Würzburg-Schweinfurt, Prof. Dr. Dr. h.c. Martin Wirsing, Vizepräsident der Ludwig-Maximilans-Universität München

Linktipps

Veranstaltungstipp: Tagung „Flucht, Migration und Integration in den Medien“ am 11. Bis 13. Juli 2019

Am 11. bis 13. Juli 2019 findet im  Haus der Universität Düsseldorf die interdisziplinäre Tagung des Forschungsprojektes „Flucht als Krise. Mediale Krisendarstellung, Medienumgang und Bewältigung durch Heranwachsende am Beispiel Flucht“, das das zem::dg aus medienethischer Perspektive heraus begleitet, statt.

Auf der Veranstaltung werden Forschungsergebnisse zum Themenfeld „Flucht, Migration und Integration in den Medien präsentiert und diskutiert, Einblicke in die Praxis gegeben sowie gesellschaftspolitische Konsequenzen aktueller Forschungsergebnisse in Runden Tischen diskutiert.

Nähere Informationen zum Tagungsprogramm sowie Anmeldemöglichkeiten finden Sie auf der offiziellen Internetseite des Forschungsprojektes.

Die wichtigsten Daten im Überblick:

Veranstaltungsort:
Haus der Universität Düsseldorf
Schadowplatz 14, 40212 Düsseldorf

Rahmendaten:

  • 11. Juli 2019: Get together (ab 18:30 Uhr)
  • 12. Juli 2019: Tagungstag (inkl. gemeinsamem Abendessen)
  • 13. Juli 2019: Tagungstag (Ende voraussichtlich gegen 14 Uhr)

Lesetipp: „Unsere Kirche braucht mehr Start-up-Kultur“

Unser Fellow Jonas Bedford-Strohm im ZEIT-Interview mit seinem Vater Heinrich Bedford-Strohm.

Das Video „Die Zerstörung der CDU“ des You-Tubers Rezo
verzeichnet mittlerweile über 14 Millionen Aufrufe. Es zeigt: Mit digitalen
Medien können auch ernsthafte Themen angesprochen werden. Sie können die
öffentliche Debatte bereichern. Doch wie kann das funktionieren? Und kann das
Video vielleicht auch ein Vorbild und Impulsgeber für große Institutionen wie
die Kirchen sein?

Die Wochenzeitung „Die Zeit“ hat
das Phänomen „Rezo“ aufgegriffen um gemeinsam mit unserem Fellow Jonas
Bedford-Strohm und seinem Vater, dem Ratsvorsitzenden der Evangelischen Kirche
Heinrich Bedford-Strohm, darüber zu sprechen, was deutsche Pfarrerinnen und
Pfarrer von dem Pfarrerssohn Rezo lernen können, um ihre Themen einer weiten
Öffentlichkeit zugänglich zu machen. Dabei werden auch die Schattenseiten des
Netzes nicht ausgeblendet und zentrale ethische Fragestellungen wie etwa von
Social Media & Co. diskutiert. 

Das vollständige Interview, geführt von Sebastian Kempkens, können Sie auf der Internetseite der Zeitung „Die Zeit“ über diesen Link aufrufen. Zudem erschien es in gedruckter Form in der Ausgabe vom 6. Juni 2019 (DIE ZEIT Nr. 24/2019).

Ethikdebatte in der KI – Alles nur ein Fake?

Die Big Player der Technikindustrie wie Google, Facebook, Microsoft, IBM verbindet derzeit alle eine Sorge: Ethikrichtlinien Künstlicher Intelligenz. In ihrem Artikel in dem digitalen Magazin Republik Alles nur Fake Ethik vom 22.05.2019 weisen Anna-Verena Nosthoff und Felix Maschewski auf zentrale Aspekte in der aktuellen Debatte um ethische Richtlinien der KI hin.

Es verhält sich dabei gewissermaßen wie in einem Flug. Das Pilotenteam zum Ziel „Ethikrichtlinien für KI“ wird indessen zwar noch gesucht, aber es klingt seitens der Technikkonzerne bereits so: bitte lehnen Sie sich zurück, vertrauen Sie uns – wir fliegen Sie entspannt hin!

Dabei hat Google seinen Ethikrat unlängst wieder auflösen lassen, bevor dieser das Licht der Welt auch nur erblicken durfte. Also das eigentlich entsprechende Pilotenteam vor Flugantritt schon wieder entlassen. Microsoft hat indessen zwar einen Ethikrat etabliert, folgt allerdings dem Modell eines schwachen Ethikrats, welchem keinerlei Handlungskompetenz zukommt, sondern ausschließlich eine Beratungsfunktion. Die Piloten dürfen anderen Tipps beim Fliegen geben. Beruhigenden Flug Ihnen! 

Wohin soll die Reise gehen - und wer übernimmt das Steuer? Unsere Autorin Cindy Roberts plädiert für mehr Handlungskompetenz für Ethikräte.

IBM hält bislang hingegen an einer eher fragwürdigen Ethik fest. IBM setzt nämlich die Gesichtserkennungs-Technologie bspw. zur Bekämpfug von Drogenkrieg auf den Philippinen ein. Dabei mag die eingesetzte Technologie, d.h. Software selbst vielleicht ethisch korrekt sein, d.h. ohne bislang festgestellten „bias“, der Einsatz dieser Technologie bleibt jedoch, je nach Einsatzgebiet, dennoch ethisch umstritten.

Wie in einem vorheriger Artikel im zem:dg bereits beschrieben, ist die kürzlich entstandene Diskussion um den Vorwurf des „ethics-washing“ zwischen Thomas Metzinger und Christoph Lütge, hinsichtlich der EU-Leitlinien zu einer vertrauenswürdigen KI gerade nicht verwunderlich, sondern notwendig. Lütge verwies in einem Artikel im Tagesspiegel darauf, dass es um Ethikrichtlinien für KI zu gestalten, in seinen Augen, als Experte der High Level Expert Group, nicht unbedingt Ethiker entscheidend seien. Vielmehr stehen nach Lütge auch die Einbeziehung der Konzerne, d.h. pluraler Interessen im Vordergrund, da er sonst letztlich die Umsetzung dieser gefährdet sehe. Hingegen wurde von Lütge’s Kritiker, Metzinger Besorgnis bzgl. „ethics-washing“ geäußert und die Ethikleitlinien der EU zur vetrauenswürdigen KI als „fake-ethik“ bezeichnet. Auch dieser bemängelte sowohl die Anzahl und damit den mangelnden Einfluss von Ethikern innerhalb der EU Expertengruppe, als auch das Ergebnis. Dieses sei oberflächlich und die Ethikleitlinien mehr zu einer Verschönerung einer Investitionsstrategie verkommen. Metzinger forderte folglich, das Ruder in der Debatte wieder aus den Händen der Industrie und Wirtschaft zurück in die Hände der Zivilgesellschaft zu geben.

Der Streit um das Pilotenteam ist also brandaktuell. Anna-Verena Nosthoff und Felix Maschewski appellieren daher in ihrem Artikel zu einer entspannten aber kritischen Haltung gegenüber der nur all zu frohlockend klingenden Botschaft der großen Technikkonzerne, sich von nun an strikte, ethische Selbstregulierung aufzuerlegen. Diese haben angeblich plötzlich erkannt, dass dies das ethisch Richtige sei und wissen zumal darum, dass Vertrauen ein wertvolles Gut ist. Eine kritische und vernünftige Haltung jedoch ebenso, und dieser Flug geht uns alle etwas an!

Der Weg zu substanziellen Ethikleitsätzen für einen vetrauensvollen Umgang mit KI bleibt somit spannend. Anna-Verena Nosthoff und Felix Maschewski fordern in ihrem Artikel dazu auf, die Zivilgesellschaft, insbesondere die Techniker selbst entsprechend im Umgang mit KI zu schulen. Ebenso scheint es sinnvoll, den Ethikräten mehr Handlungskompetenz einzuräumen und den entsprechend ausgebildeten Piloten hierfür das Steuer zu überlassen nämlich Ethikern und Philosophen.

Pragmatisch vs. Prinzipiengeleitet

Die Debatte über die ethischen Leitlinien für KI der EU-Expertengruppe „High Level Expert Group on Artificial Intelligence (AI HLEG)“.

Hintergrund

Künstliche Intelligenz (KI) ist eine umfassende, sich ständig fortentwickelnde Technologie, die immer mehr Aspekte unseres Lebens berührt. Darunter auch zentrale Werte wie menschliche Freiheit, Würde und Gleichheit, die zugleich als Grundlage der Menschenrechte sowie als Säulen demokratischer Verfassungen fungieren.

Aus diesem Grund, sind Regelungen notwendig, die diese zentralen Werte schützen und sicherstellen können. Dies bezieht sich mitunter auf Fragen des verantwortungsvollen Umgangs mit den von Künstlicher Intelligenz genutzten, notwendigen Daten, oder z.B. direkt auf Mensch-Maschine Interaktionen.

Die EU hat sich deshalb zum Ziel gesetzt, das Vertrauen in eine auf den Menschen ausgerichtete KI zu stärken und hierfür eine Expertengruppe berufen, um Ethik-Leitlinien für KI auszuarbeiten. Letzten Monat hat diese Expertengruppe diese Leitlinien veröffentlicht. Im Rahmen der Diskussion um dieses Thema, gibt es bislang divergierende Ansichten, sodass sich eine Debatte ergeben hat, an der mitunter Thomas Metzinger (Mitglied und zugleich Kritiker der Expertengruppe) und Christoph Lütge (Direktor des neuen Instituts für KI-Ethik an der TU München) hinsichtlich verschiedener Aspekte von Künstlicher Intelligenz zur Erarbeitung und Umsetzung adäquater ethischen Leitlinien mitwirken.

Künstliche Intelligenz (KI) ist eine umfassende, sich ständig fortentwickelnde Technologie, die immer mehr Aspekte unseres Lebens berührt.

Im Rahmen der Debatte verweist Christoph Lütge daher darauf, dass Menschen aufgrund der angestiegenen Komplexität zunehmend dazu gezwungen sind, auf Technologie zu vertrauen. Während Metzinger „Vertrauenswürdigkeit“ als menschliche Eigenschaft auffasst und KI das Attribut „vertrauenswürdig“ ganz abspricht sowie eine Gefahr darin sieht, dass anhand von KI Regierungen, oder Unternehmen (etc.) noch mehr Spielraum eingeräumt wird, um noch weniger vertrauenswürdig zu handeln, sieht Lütge dies pragmatischer. Vielmehr verweist Letzterer auf die positiven Erfolge, die bislang mit dem Einsatz von Programmen und Software-Einsätzen im z.B. Compliance-Bereich bei Unternehmen erzielt werden konnten.

Grundsätzlich stimmen beide also darin überein, dass zukünftig Menschen auf KI zurückgreifen werden, jedoch weisen beide, aufgrund unterschiedlicher ethischer Ausrichtungen in ihren Darlegungen, unterschiedliche Zukunftsprognosen im Umgang mit KI auf.

Ethics Washing

Der Vorwurf Metzingers des „Ethics Washing“ ist, dass Ethik zur Verschönerung von wirtschaftlichen Investitionsstrategien genutzt wird und die Wirtschaft, die notwendige Debatte initiiert und organisiert, die letztlich zivilgesellschaftlich stattfinden sollte. Damit kommt es zur Ablenkung und zeitlichen Verzögerungen, wodurch tatsächliche Regulierungen gerade unterbunden würden. Metzinger sieht indessen die Debatte um vertrauenswürdige KI, welche nach ihm zivilgesellschaftlich geführt werden sollte, daher von der Wirtschaft als signifikant untergraben an. Diese verwende Ethik vielmehr als „Verschönerung“ d.h. dazu, die notwendigen Investitionen in KI wirtschaftlich voran zu treiben und möchte dabei möglichst wenig substanzielle ethische Richtlinien vorgegeben bekommen, d.h. unreguliert bleiben.

Lütge nimmt in diesem Zusammenhang des „Ethics Washing“ Bezug auf eine grundlegende Unterscheidung nämlich der Motivation und der Folge einer Handlung. Er spricht von einer Gruppe von Kritikern (vermutlich darunter auch Metzinger), die Unternehmen aufgrund ihrer Motivation oft kritisiere, ungeachtet möglicher positiver Folgen für die Gesellschaft. Ethisches Handeln sei in Lütges Augen nicht zwingend von der „richtigen Gesinnung“ abhängig bzw. würde man auf die Motivation (der Unternehmen) alleine fokussiert bleiben, würden keinerlei (gesellschaftliche) Veränderungen erzielt werden können.

Es scheint also, dass während Metzinger auf die Prinzipien bzw. die Motivation ethischen Handelns, oder Leitlinien hierfür fokussiert ist, Lütge wohl nahezu ausschließlich auf die Folgen von Handlungen konzentriert ist (oder dies als Kriterium für substanzielle ethische Prinzipien gelten lässt). Dies wirft jedoch gerade in Demokratien entscheidende Fragen auf, die wohl zu bedenken sind.

Einbindung von Ethikern

Ein weiterer Diskussionspunkt der Debatte ist die Einbeziehung von Ethikern in die Expertengruppe zur Formulierung der KI-Richtlinien. Metzinger kritisiert die von der EU eingesetzten Expertengruppe dahingehend, dass darin zu wenig Ethiker eingebunden seien, um ethische Richtlinien zu generieren. Einerseits betont er zwar die Notwendigkeit der Expertise anderer Bereiche, bemängelt jedoch zugleich die Anzahl der Ethiker insgesamt als zu gering (vier von 52 Mitgliedern). Metzinger bemerkt zudem, dass die anfangs von den Experten formulierten Roten-Linien hinsichtlich des Umgangs mit KI, also was nicht mit dieser geschehen solle (z.B. Einsatz autonomer tödlicher Waffensystemen auf KI basierend) letztlich signifikant abgeschwächt, oder ganz aus der veröffentlichten Version der Ethik-Leitlinien der KI gestrichen wurden.

Demgegenüber vertritt Lütge die Ansicht, dass gerade über Ethik-Richtlinien nicht nur Ethiker entscheiden können und sollten. Die Einbindung von Unternehmen (neben Wissenschaft, Zivilgesellschaft, politischen Akteuren) bei der Findung und Formulierung ethischer Leitlinien zeigt sich als notwendig für die realistische Umsetzung ethischer Leitlinien für die KI. Würde man wie oben erwähnt nur die Motivation der Unternehmen beurteilen, beschwört Lütge gar einen Teufelskreis des (wirtschaftlichen) Stillstands, indem keinerlei Fortschritt oder gar Verbesserung erzielt werden könne. So sieht er die Einbeziehung möglichst aller Interessen aus Wirtschaft, Wissenschaft, Zivilgesellschaft und Politik als gleichberechtigt und grundlegend wichtig an.

Zu Richtlinien selbst

Im Rahmen von KI und deren Wirkungskreis, sind die erwähnten Aspekte grundlegend und wir Menschen haben schließlich zu entscheiden, inwieweit Maschinen über Menschen und inwieweit Menschen über Maschinen entscheiden.  Hierfür sind wohlüberlegte, substanzielle ethische Leitlinien essentiell. Metzinger verweist auf die internationale Ebene, in der nur wenige Jahre blieben, um europäische Richtlinien überhaupt niederzuschreiben und verteidigen zu können. Sicherlich lassen China, die USA und der Rest der Welt nicht auf sich warten.

So scheint es sinnvoll, dass zum einen auf die Einbeziehung von diversen Interessensgruppen hinsichtlich der Umsetzung ethischer Leitlinien geachtet wird, da nur so ethische Richtlinien auch effektiv umgesetzt werden können. Allerdings sollten hierbei die Rechte und Interessen der Zivilbevölkerung besonders geschützt werden sowie demokratische Grundwerte unangetastet bleiben. Aus diesem Grund sollte der substanzielle Gehalt ethischer Leitlinien (für vertrauenswürdige KI) nicht leiden. Eine zivilgesellschaftliche Debatte über ethische Prinzipien von KI ist dabei in jedem Fall von grundlegender Bedeutung; nicht nur damit zivilgesellschaftliches Bewusstsein hinsichtlich des Umgangs mit KI erst einmal entstehen kann, sondern auch Interessen der Zivilgesellschaft artikuliert werden können. 

Des Weiteren kommt es auf differenzierte Unterscheidungen bei der Formulierung angemessener ethischer Leitlinien an. So scheint es sinnvoll und notwendig, je nachdem um welche Software es sich handelt, welche Art KI-System eingesetzt wird, welche Daten hierfür wie verwendet werden und welcher Lebensbereich davon betroffen ist, entsprechend differenzierte Regelungen und ethische Leitlinien zu finden.

Dies funktioniert nur mit Richtlinien, die vom Generellen zum Konkreten reichen. Sind die ethischen Leitlinien zur KI also nur als erster Entwurf beim Versuch vom Allgemeinen zum Konkreten zu kommen zu werten, dann sind diese legitim. Ist dies schon als konkretes Endresultat zu verstehen, wovon wir nicht ausgehen können, ist dies jedoch kein ernst zu nehmender Versuch aus Perspektive der Ethik, substanzielle und damit ernsthaft vertrauenswürdige KI-Ethik-Richtlinien zu gestalten.

Diskussion und Konklusion(en)

Ungeachtet dessen, dass sie unterschiedliche Meinungen vertreten, diskutieren beide Autoren wichtige Aspekte hinsichtlich der Debatte um KI-Anwendungen.

Insgesamt lässt sich nur anhand vertrauenswürdiger ethischer Prinzipien, auch vertrauenswürdige KI generieren. Um substanzielle ethische Leitlinien für vertrauenswürdigen und verantwortungsvollen Umgang mit KI, bedarf es natürlich diverser Akteure; nicht nur aus Wirtschaft, Politik, der Zivilgesellschaft, oder Wissenschaft, sondern gerade aus Letzterer nun einmal Philosophen und Ethiker. Überdies könnten schließlich solche europäischen Leitlinien der KI als Standard und als europäische Marke im KI-Bereich international als Chance verstanden und gehandelt werden. Gerade gegenüber China und den USA sollte die EU daher eher mit starken ethischen Leitlinien zur KI „antreten“. Womöglich ist dies gerade ein „selling-point“ im internationalen KI-Wettbewerb, der Europa (noch) vorbehalten ist.

Substanzielle ethische Leitlinien der KI zu formulieren scheint gerade bei diesem Vorhaben in der Tat essentiell. Vor allem in demokratischen Gesellschaften, in denen sowohl Motivation als auch Folgen von Handlungen grundsätzlich hinterfragt werden sollten. Die Interessen der Zivilgesellschaft zu schützen und Grundwerte wie Autonomie und Menschsein durch authentische und damit tatsächlich vertrauenswürdige ethische Prinzipien zu gewährleisten, darf dabei nicht unterschätzt werden. Nur so kann Vertrauen in KI gelingen. Denn ein zentraler Aspekt hinsichtlich KI ist, bleibt und wird auch weiterhin eines sein – nämlich menschliches Vertrauen.  

 

#Medienethik-Tag am Institut für Journalistik der Universität der Bundeswehr München

Am 22. Mai 2019 veranstaltet das Institut für Journalistik der Universität der Bundeswehr München einen Medienethik-Tag. Im Fokus der Veranstaltung steht die Frage nach medienethischem Handeln in Zeiten der Digitalisierung. Abgerundet wird der Tag mit einem Sommerfest der Fakultät sowie der Verleihung der X-media campus Awards.

Das zem::dg ist mit unterschiedlichen Beiträgen aktiv an der Organisation der Veranstaltung beteiligt. 

Nähre Informationen zur Veranstaltung sowie eine Anmeldung sind über den nachfolgenden Link möglich.

Alle Infos auf einen Blick:

Wann?
22. Mai 2019

Wo?
UniCasino
Gebäude 61
Universität der Bundeswehr München
Werner-Heisenberg-Weg 39
85579 Neubiberg

Call for Papers zur Tagung „Flucht, Migration und Integration in den Medien“ verlängert

Neue Deadline: 12. Mai 2019

Gemeinsam mit dem JFF, Institut für Medienpädagogik München (Dr. Niels Brüggen), der Heinrich-Heine-Universität Düsseldorf (Prof. Dr. Gerhard Vowe) der Hochschule für Technik, Wirtschaft und Kultur Leipzig (Prof. Dr. Gabriele Hoofacker) veranstalten wir in diesem Jahr im Kontext des Forschungsprojekts „Flucht als Krise. Mediale Krisendarstellung, Medienumgang und Bewältigung durch Heranwachsende am Beispiel Flucht“ die Tagung „Flucht, Migration und Integration in den Medien“. Die Tagung findet am 11.-13. Juli 2019 in Düsseldorf statt.

Damit wir ein ansprechendes Tagungsprogramm zusammenstellen können, würden wir uns sehr über Einreichungen mit unterschiedlichen Perspektiven auf das Thema „Flucht und Migration“ freuen. Aus diesem Grund wird die Einreichungsfrist bis zum 12. Mai 2019 verlängert.

Alle Hintergrundinformationen zur Tagung sowie den vollständigen Call for Papers finden Sie unter nachfolgendem Link:

Die Helden und Monster in uns

Ein technikphilosophischer Blick auf „Iron Man“ und die „Avengers“

Am 24. April 2019 erscheint „Avengers 4: Endgame“ in den deutschen Kinos. Die Superhelden des Marvel-Universums haben sich zusammengeschlossen und kämpfen gemeinsam gegen die Feinde. Besonders spannend ist das Schicksal von Tony Stark (alias Iron Man), über das schon viel gemunkelt wird. Es lohnt sich, auch einmal einen technikphilosophischen Blick auf die bisherigen „Iron Man“- und „Avengers“-Filme zu werfen – ganz ohne Spoiler.

„Ich bin Iron Man.“ Mit diesem Satz bekennt sich Tony Stark, genialer Technik-Erfinder und Leiter von „Stark Industries“, zu seiner neuen High-Tech-Rüstung: ein fliegendes Roboter-Exoskelett, das ihm übernatürliche Fähigkeiten verleiht. Dieses Pressestatement wird zum Auftakt der Iron Man-Identität. Doch was hat es mit Iron Man eigentlich auf sich? Was verraten die Action- und Science-Fiction-Filmreihen „Iron Man“ (2008–2013) und „The Avengers“ (2012–2018) über uns selbst?

Wer oder was ist Iron Man?

Keine so leichte Frage. Immer wieder beharrt Stark darauf, dass Iron Man kein Roboteranzug, sondern er selbst Iron Man sei. Wenn der Junge Harley in Tennessee voller Begeisterung auf die Rüstung zeigt, entgegnet Stark:

 


Harley: Das – das ist – ist das Iron Man?

Stark: Genau genommen bin ich das.

(Iron Man 3)


 

Vom Senat wird Stark aufgefordert, die „Iron Man-Waffe“ an die Bevölkerung der USA auszuhändigen. Stark beschreibt sie als „High-Tech-Prothese“ und wehrt sich:

 


Stark: Ich bin Iron Man. Der Anzug und ich sind eins. Den Anzug auszuhändigen, hieße, mich selbst auszuhändigen, was gleichbedeutend wäre mit Sklaverei oder Prostitution – je nachdem in welchem Staat man ist.

(Iron Man 2)


 

Stark sieht die Rüstung als Teil seiner selbst, als Teil seines Körpers. Durch die Verbindung von Stark und Rüstung entsteht etwas Neues, erst so entsteht Iron Man. Hier wird deutlich, wie das Implementieren von Technologien in den menschlichen Körper unser Körper- und Selbstverständnis verändert. Auch am Filmende von „Iron Man 3“ heißt es:

 


Stark: Wenn ich ein Fazit ziehen soll, das zusammenfassen muss oder so, dann würde ich sagen, mein Anzug war nie eine Ablenkung oder ein Hobby. Er war ein Kokon. Und jetzt bin ich ein anderer Mensch. Selbst wenn man mir mein Haus und all mein Spielzeug wegnimmt, eins kann man mir nie mehr nehmen: Ich bin Iron Man.

(Iron Man 3)


 

Und dennoch sind Stark und Iron Man nicht identisch. Stark bleibt auch ohne die Iron Man-Rüstung eine eigenständige Persönlichkeit.

 


Captain America: Ein großer Mann in einer Rüstung. Lassen sie sie weg, was sind Sie dann?

Stark: Genie, Milliardär, Playboy, Philanthrop…

(Avengers 1)


 

Außerdem wird er in den Filmen durchgängig als Stark angesprochen. Ohne die Rüstung gibt es noch Tony Stark, aber ohne Tony Stark gibt es – für Stark zumindest – keinen Iron Man.     

    Die zweitweise Verschmelzung von Stark und Roboter ruft oft die Frage hervor, ob Stark ein Cyborg ist. „Cyborg“ als Akronym von „cybernetic“ und „organism“ bezeichnet die Verschmelzung von organischem und technischem Material, dessen Ausgangsgrundlage der Mensch ist (im Unterschied zum Androiden). Doch wo genau die Grenze zwischen Mensch und Cyborg zu ziehen ist oder welche technologischen Veränderungen Menschen zu Cyborgs machen, ist umstritten. Vielleicht würde sich Stark selbst als Cyborg bezeichnen. Da er die Rüstung aber problemlos ablegen kann und nicht dauerhaft mit ihr verschmilzt, ist die Bezeichnung „Cyborg“ meines Erachtens hier wenig zutreffend. Andere technikphilosophische Positionen dagegen gehen davon aus, dass wir Menschen bereits Cyborgs sind (z. B. Donna Haraway).

Was Technikmonster über uns verraten


Stark: Ein großer Mann hat einmal gesagt: Wir erschaffen unsere eigenen Dämonen.

(Iron Man 3)


Obwohl sich die „Iron Man“- und „Avengers“-Filme vordergründig um Superhelden drehen, verschwimmen die Grenzen zwischen heldenhafter Technik und monsterartiger Technik, die dem Menschen zur Gefahr wird. So kann die Iron Man-Rüstung in falschen Händen eine große Gefahr darstellen. Ivan Vanko erfindet eine ähnliche Rüstung und greift damit Menschen an. Selbst Stark treibt auf seiner Geburtstagsparty viel Unsinn mit der Iron Man-Rüstung und verliert die Kontrolle. Nicht nur der Iron Man-Anzug, sondern auch die Avengers werden von der Politik als gefährlich eingestuft. Zugegeben, Hulk ist Avenger-Held und Monster zugleich und ist selbst für seine Freunde eine Bedrohung. Besonders stark kommen die Monsterfantasien in den „Avengers“-Filmen zum Ausdruck, wo die Roboterarmeen der Feinde bestialischen Tieren oder Fabelwesen ähneln.

Jeffrey Jerome Cohen (1996) (Die Aussagen zur Monstertheorie in den nächsten beiden Absätzen beziehen sich auf Cohen (1996)) zeigt mit sieben Thesen zur „Monster Culture“ auf, wie die verschiedenen Monster in Literatur und Film Aufschluss über unsere Kultur geben. Sie ziehen sich schon seit der Antike durch die Geschichte (z. B. Zombies, Vampire, Werwölfe, Frankenstein, das Ungeheuer von Loch Ness, Hydra oder Skylla). Das Monster entpuppt sich als eine Projektion unserer Ängste und Sorgen, Begierden und Sehnsüchte. Es lebt in einer entfesselten Welt, ist nicht an die Gesetze von Raum und Zeit gebunden und entzieht sich unseren traditionellen Kategorien von Ethnie, Kultur, Geschlecht und Sexualität. Cohen bezeichnet dies als „ontologische Liminalität“ (1996: 6) des Monsters. Dabei bewacht es als eine Art Grenzwächter die Grenzen, die es selbst überschreitet: Es warnt die Zuschauer/-innen oder Leser/-innen davor, bei Grenzüberschreitung selbst zu Monstern zu werden, d. h. abstoßend und missgestaltet, unzivilisiert, animalisch und sexuell entartet, gefühlslos, ohne Tugend und geistige Stärke.

Dazu wird in den Körper des Monsters Differenz eingeschrieben: kulturelle, ethnische, geschlechtliche oder sexuelle Andersheit (z. B. weibliche böse, verführerische Monster in einer frauenfeindlichen Kultur; dunkelhäutige, unzivilisierte Monster, um sich von einem anderen Volk abzusetzen). Nicht selten hatten Monster in der Geschichte die Funktion, Herrschaft zu legitimieren, die Vertreibung eines Volkes zu rechtfertigen oder repressive Sexualmoral durchzusetzen. Sie müssen in dem historischen, sozialen, politischen und kulturellen Kontext untersucht werden, in dem sie entstanden sind. Auf diese Weise ist das Monster Kultur pur. Doch im gleichen Maße wie das Monster abstößt, zieht es auch an und wird Projektion von Begierden und Sehnsüchten (wie die Helden). Die entfesselte Welt des Monsters gibt Raum für gewaltvolle, sexuelle, unkonventionelle Fantasien, für die in der Gesellschaft kein Platz ist.

Während Stark und Dr. Bruce Banner mit künstlicher Intelligenz basteln, erschaffen sie versehentlich selbst ein Monster. Ultron wird im zweiten „Avengers“-Film zur großen Gefahr für die Menschheit. Welche Differenz wird in ihn eingeschrieben? Ultron ist so, wie man sich böse, verselbstständigte künstliche Intelligenz vorstellen könnte: ein dunkel gepanzertes, roboterartiges Technikmonster, von der Statur einem Menschen ähnlich, aber ohne organische Grundlage, das gefühlslos ist und ein Normen- und Wertesystem hat, welches nicht mit unserer Gesellschaft verträglich sind. Ist nicht auch Ultron ein unserer Kultur entspringendes Monster, das Grenzen bewacht? Es zeigt unsere Angst vor einer künstlichen Intelligenz, die sich der menschlichen Kontrolle entzieht und das Menschsein überwindet. Es warnt vor einer unpersönlichen, kriegerischen Roboterwelt ohne soziale Gemeinschaft und Natur. Unterstützt wird dies in den „Avengers“-Filmen durch viele posthumane Visionen.

Als Stark und Banner ein zweites Mal mit künstlicher Intelligenz experimentieren, gelingt es ihnen schließlich, den Androiden Vision zum Schutz der Menschheit zu erschaffen. Vision sieht einem Menschen viel ähnlicher als Ultron (z. B. Augen), ist liebesfähig (Beziehung mit Wanda Maximoff) und wird zum Helden, der sein Leben für die Menschen opfert. Untermalt wird dies mit bibelähnlichen Aussagen wie „Ich bin auf der Seite des Lebens“ (Avengers 2). Allen Ernstes zitiert Vision in der deutschen Version sogar Exodus 3,14:


Vision: Ich bin nicht Ultron, ich bin nicht J.A.R.V.I.S. Ich – bin – der – ich – bin. (Avengers 2)


Ethische Fragen

Monster fragen uns, warum wir sie erschaffen haben (Cohen 1996: 20). Die vielen Technikmonster unserer Zeit zeigen unsere Technikängste und -sehnsüchte, die sich übrigens nicht selten mit religiösen Vorstellungen überschneiden. Mit Monstern bewachen wir von uns selbst gesetzte Grenzen. Eine ethische Auseinandersetzung mit Technik muss sich der Frage widmen, welche Grenzen wir setzen wollen. Was ist das „Menschliche“, das wir so dringend vor Technikeingriffen bewahren wollen? An welchen Normen und Werten wollen wir uns orientieren? Wie viel und welche Technik wollen wir in den menschlichen Körper implementieren? Grenzziehungen sind wichtig, insofern sie Orientierung und Identität stiften sowie Handeln erst möglich machen. Aber die Untersuchung von Monstern kann uns auch dazu auffordern, unsere bisherigen Grenzziehungen zu hinterfragen. Technikmonster, die nicht mehr in unsere Kategorien von Ethnie, Kultur, Geschlecht und Sexualität passen, können ein Ansatzpunkt sein, unsere eigenen Kategorien offener zu denken.

Darüber hinaus berühren die „Iron Man“- und „Avengers“-Filme viele weitere ethische Fragen. Zum Beispiel ist „Stark Industries“ ein Rüstungsunternehmen, das Technik zur Waffenproduktion nutzt, bevor Stark dies einstellt. Ist der Iron Man-Anzug eine „Iron Man-Waffe“ oder eine „High-Tech-Prothese“, die Teil von Starks Person ist? Damit hängt die Frage zusammen, wer Zugang zu solchen Ausrüstungen haben sollte. Gehören sie dem Staat? Wir können darauf gespannt sein, welche philosophischen Fragen und Herausforderungen der neue „Avengers“-Film mit sich bringt.

Literaturempfehlungen:

Cohen, Jeffrey Jerome: Monster theory. Reading culture. Minneapolis 1996, besonders S. 3–25.

Graham, Elaine L.: Representations of the post/human. Monsters, aliens and others in popular culture. New Brunswick et al. 2002.

Ausschreibung: Freie Mitarbeit

Wissenschaftliche Begleitung des Entwicklungsprozesses sowie der Erprobungsphase eines Ethik-Guides im Rahmen des Forschungsprojekts „MeKriF“

Kontext der Ausschreibung

Das zem::dg begleitet das Forschungsprojekt „MeKriF – Flucht als Krise. Mediale Krisendarstellung, Medienumgang und Bewältigung durch Heranwachsende am Beispiel Flucht“ aus medienethischer Perspektive.

Ziel des Vorhabens MeKriF ist es, unterschiedliche Strategien von 10- bis 16-Jährigen zur Bewältigung des Themas Flucht in ihren medialen und sozialen Zusammenhängen zu eruieren und Ansatzpunkte herauszuarbeiten, wie die individuellen und gesellschaftlichen Ressourcen zur Bewältigung gestärkt werden können. Hierzu werden das Medienhandeln der Heranwachsenden und die von ihnen genutzten Medieninhalte analysiert; aus den Ergebnissen werden Handlungsempfehlungen für die journalistische und pädagogische Praxis abgeleitet. Die partizipative Entwicklung und Erprobung eines Ethik-Guides, der zur Orientierung professionellen Handelns von Journalist_innen und pädagogischen Fachkräften dienen soll, ist ein zentraler Bestandteil des Projekts.

 

Für die wissenschaftliche Begleitung dieses Entwicklungsprozesses sowie für die Erprobungsphase des Ethik-Guides sucht das zem::dg ab August/September Unterstützung durch eine/einen freie/n Forschungsmitarbeiter_in.

Aufgabengebiet

Das Aufgabengebiet umfasst die Unterstützung des zem::dg-Teams bei der Begleitung der Entwicklung und Erprobung des Ethik-Guides aus spezifisch (medien-)ethischer Perspektive. Die wissenschaftliche Begleitung dieses Prozesses hat das Ziel, exemplarisch die Perspektive der Anspruchsgruppen Jugendliche, Journalist_innen und Fachkräfte der Jugendarbeit in der Entwicklung aufzugreifen und die ggf. spezifischen Bedarfe der jeweiligen Gruppen in die Entwicklung und Erprobung einzubeziehen. Dies könnte z. B. auf die Notwendigkeit zielen, ethische Anregungen zum Umgang mit bestimmten Argumentationsmustern bereitzustellen. Die Ergebnisse der wissenschaftlichen Begleitung bei der Erstellung und Erprobung des Ethik-Guides sollen in einem Ergebnisbericht dokumentiert werden.

Profil
Sie haben erste oder sogar vertiefte Kenntnisse in den Bereichen „Medienethik“, „Ethikdidaktik“ sowie „Pädagogik“. Von Vorteil wären zudem erste Erfahrungen in der Arbeit mit Kindern und Jugendlichen sowie ein Interesse an ethischen Fragestellungen zum Thema „Flucht und Migration“ sowie dessen medialer Darstellung.

Zeitlicher Umfang und Vergütung
Die (medien-)ethische Begleitung der Entwicklung und Erprobung der Ethik-Guides findet im Zeitraum von August/September bis Ende Dezember 2019 statt. Der veranschlagte Zeitaufwand für die Projektunterstützung beträgt insgesamt ca. 160 Stunden, wobei die Einteilung der Arbeitszeit (mit Ausnahme der ethischen Begleitung während der Erprobungsphasen) flexibel möglich ist.

Die Unterstützung wird mit einem Gesamtbetrag von 3.000,- € vergütet, wobei evtl. anfallende Einkommenssteuern selbstständig abgeführt werden müssen. Die Anstellung für das Projekt erfolgt im Rahmen eines Werkvertrags, der mit der Hochschule für Philosophie München, unserer Trägerhochschule, geschlossen wird.


Wir freuen uns auf aussagekräftige Bewerbungen.

Bitte senden Sie Ihre Unterlagen bis zum 15. Juni an Susanna Endres (susanna.endres@zemdg.de). Für Rückfragen steht Ihnen Frau Endres sehr gerne zur Verfügung.