Lesetipp: „Unsere Kirche braucht mehr Start-up-Kultur“

Unser Fellow Jonas Bedford-Strohm im ZEIT-Interview mit seinem Vater Heinrich Bedford-Strohm.

Das Video „Die Zerstörung der CDU“ des You-Tubers Rezo verzeichnet mittlerweile über 14 Millionen Aufrufe. Es zeigt: Mit digitalen Medien können auch ernsthafte Themen angesprochen werden. Sie können die öffentliche Debatte bereichern. Doch wie kann das funktionieren? Und kann das Video vielleicht auch ein Vorbild und Impulsgeber für große Institutionen wie die Kirchen sein?

Die Wochenzeitung „Die Zeit“ hat das Phänomen „Rezo“ aufgegriffen um gemeinsam mit unserem Fellow Jonas Bedford-Strohm und seinem Vater, dem Ratsvorsitzenden der Evangelischen Kirche Heinrich Bedford-Strohm, darüber zu sprechen, was deutsche Pfarrerinnen und Pfarrer von dem Pfarrerssohn Rezo lernen können, um ihre Themen einer weiten Öffentlichkeit zugänglich zu machen. Dabei werden auch die Schattenseiten des Netzes nicht ausgeblendet und zentrale ethische Fragestellungen wie etwa von Social Media & Co. diskutiert. 

Das vollständige Interview, geführt von Sebastian Kempkens, können Sie auf der Internetseite der Zeitung „Die Zeit“ über diesen Link aufrufen. Zudem erschien es in gedruckter Form in der Ausgabe vom 6. Juni 2019 (DIE ZEIT Nr. 24/2019).

Ethikdebatte in der KI – Alles nur ein Fake?

Die Big Player der Technikindustrie wie Google, Facebook, Microsoft, IBM verbindet derzeit alle eine Sorge: Ethikrichtlinien Künstlicher Intelligenz. In ihrem Artikel in dem digitalen Magazin Republik Alles nur Fake Ethik vom 22.05.2019 weisen Anna-Verena Nosthoff und Felix Maschewski auf zentrale Aspekte in der aktuellen Debatte um ethische Richtlinien der KI hin.

Es verhält sich dabei gewissermaßen wie in einem Flug. Das Pilotenteam zum Ziel „Ethikrichtlinien für KI“ wird indessen zwar noch gesucht, aber es klingt seitens der Technikkonzerne bereits so: bitte lehnen Sie sich zurück, vertrauen Sie uns – wir fliegen Sie entspannt hin!

Dabei hat Google seinen Ethikrat unlängst wieder auflösen lassen, bevor dieser das Licht der Welt auch nur erblicken durfte. Also das eigentlich entsprechende Pilotenteam vor Flugantritt schon wieder entlassen. Microsoft hat indessen zwar einen Ethikrat etabliert, folgt allerdings dem Modell eines schwachen Ethikrats, welchem keinerlei Handlungskompetenz zukommt, sondern ausschließlich eine Beratungsfunktion. Die Piloten dürfen anderen Tipps beim Fliegen geben. Beruhigenden Flug Ihnen! 

Wohin soll die Reise gehen - und wer übernimmt das Steuer? Unsere Autorin Cindy Roberts plädiert für mehr Handlungskompetenz für Ethikräte.

IBM hält bislang hingegen an einer eher fragwürdigen Ethik fest. IBM setzt nämlich die Gesichtserkennungs-Technologie bspw. zur Bekämpfug von Drogenkrieg auf den Philippinen ein. Dabei mag die eingesetzte Technologie, d.h. Software selbst vielleicht ethisch korrekt sein, d.h. ohne bislang festgestellten „bias“, der Einsatz dieser Technologie bleibt jedoch, je nach Einsatzgebiet, dennoch ethisch umstritten.

Wie in einem vorheriger Artikel im zem:dg bereits beschrieben, ist die kürzlich entstandene Diskussion um den Vorwurf des „ethics-washing“ zwischen Thomas Metzinger und Christoph Lütge, hinsichtlich der EU-Leitlinien zu einer vertrauenswürdigen KI gerade nicht verwunderlich, sondern notwendig. Lütge verwies in einem Artikel im Tagesspiegel darauf, dass es um Ethikrichtlinien für KI zu gestalten, in seinen Augen, als Experte der High Level Expert Group, nicht unbedingt Ethiker entscheidend seien. Vielmehr stehen nach Lütge auch die Einbeziehung der Konzerne, d.h. pluraler Interessen im Vordergrund, da er sonst letztlich die Umsetzung dieser gefährdet sehe. Hingegen wurde von Lütge’s Kritiker, Metzinger Besorgnis bzgl. „ethics-washing“ geäußert und die Ethikleitlinien der EU zur vetrauenswürdigen KI als „fake-ethik“ bezeichnet. Auch dieser bemängelte sowohl die Anzahl und damit den mangelnden Einfluss von Ethikern innerhalb der EU Expertengruppe, als auch das Ergebnis. Dieses sei oberflächlich und die Ethikleitlinien mehr zu einer Verschönerung einer Investitionsstrategie verkommen. Metzinger forderte folglich, das Ruder in der Debatte wieder aus den Händen der Industrie und Wirtschaft zurück in die Hände der Zivilgesellschaft zu geben.

Der Streit um das Pilotenteam ist also brandaktuell. Anna-Verena Nosthoff und Felix Maschewski appellieren daher in ihrem Artikel zu einer entspannten aber kritischen Haltung gegenüber der nur all zu frohlockend klingenden Botschaft der großen Technikkonzerne, sich von nun an strikte, ethische Selbstregulierung aufzuerlegen. Diese haben angeblich plötzlich erkannt, dass dies das ethisch Richtige sei und wissen zumal darum, dass Vertrauen ein wertvolles Gut ist. Eine kritische und vernünftige Haltung jedoch ebenso, und dieser Flug geht uns alle etwas an!

Der Weg zu substanziellen Ethikleitsätzen für einen vetrauensvollen Umgang mit KI bleibt somit spannend. Anna-Verena Nosthoff und Felix Maschewski fordern in ihrem Artikel dazu auf, die Zivilgesellschaft, insbesondere die Techniker selbst entsprechend im Umgang mit KI zu schulen. Ebenso scheint es sinnvoll, den Ethikräten mehr Handlungskompetenz einzuräumen und den entsprechend ausgebildeten Piloten hierfür das Steuer zu überlassen nämlich Ethikern und Philosophen.

Pragmatisch vs. Prinzipiengeleitet

Die Debatte über die ethischen Leitlinien für KI der EU-Expertengruppe „High Level Expert Group on Artificial Intelligence (AI HLEG)“.

Hintergrund

Künstliche Intelligenz (KI) ist eine umfassende, sich ständig fortentwickelnde Technologie, die immer mehr Aspekte unseres Lebens berührt. Darunter auch zentrale Werte wie menschliche Freiheit, Würde und Gleichheit, die zugleich als Grundlage der Menschenrechte sowie als Säulen demokratischer Verfassungen fungieren.

Aus diesem Grund, sind Regelungen notwendig, die diese zentralen Werte schützen und sicherstellen können. Dies bezieht sich mitunter auf Fragen des verantwortungsvollen Umgangs mit den von Künstlicher Intelligenz genutzten, notwendigen Daten, oder z.B. direkt auf Mensch-Maschine Interaktionen.

Die EU hat sich deshalb zum Ziel gesetzt, das Vertrauen in eine auf den Menschen ausgerichtete KI zu stärken und hierfür eine Expertengruppe berufen, um Ethik-Leitlinien für KI auszuarbeiten. Letzten Monat hat diese Expertengruppe diese Leitlinien veröffentlicht. Im Rahmen der Diskussion um dieses Thema, gibt es bislang divergierende Ansichten, sodass sich eine Debatte ergeben hat, an der mitunter Thomas Metzinger (Mitglied und zugleich Kritiker der Expertengruppe) und Christoph Lütge (Direktor des neuen Instituts für KI-Ethik an der TU München) hinsichtlich verschiedener Aspekte von Künstlicher Intelligenz zur Erarbeitung und Umsetzung adäquater ethischen Leitlinien mitwirken.

Künstliche Intelligenz (KI) ist eine umfassende, sich ständig fortentwickelnde Technologie, die immer mehr Aspekte unseres Lebens berührt.

Im Rahmen der Debatte verweist Christoph Lütge daher darauf, dass Menschen aufgrund der angestiegenen Komplexität zunehmend dazu gezwungen sind, auf Technologie zu vertrauen. Während Metzinger „Vertrauenswürdigkeit“ als menschliche Eigenschaft auffasst und KI das Attribut „vertrauenswürdig“ ganz abspricht sowie eine Gefahr darin sieht, dass anhand von KI Regierungen, oder Unternehmen (etc.) noch mehr Spielraum eingeräumt wird, um noch weniger vertrauenswürdig zu handeln, sieht Lütge dies pragmatischer. Vielmehr verweist Letzterer auf die positiven Erfolge, die bislang mit dem Einsatz von Programmen und Software-Einsätzen im z.B. Compliance-Bereich bei Unternehmen erzielt werden konnten.

Grundsätzlich stimmen beide also darin überein, dass zukünftig Menschen auf KI zurückgreifen werden, jedoch weisen beide, aufgrund unterschiedlicher ethischer Ausrichtungen in ihren Darlegungen, unterschiedliche Zukunftsprognosen im Umgang mit KI auf.

Ethics Washing

Der Vorwurf Metzingers des „Ethics Washing“ ist, dass Ethik zur Verschönerung von wirtschaftlichen Investitionsstrategien genutzt wird und die Wirtschaft, die notwendige Debatte initiiert und organisiert, die letztlich zivilgesellschaftlich stattfinden sollte. Damit kommt es zur Ablenkung und zeitlichen Verzögerungen, wodurch tatsächliche Regulierungen gerade unterbunden würden. Metzinger sieht indessen die Debatte um vertrauenswürdige KI, welche nach ihm zivilgesellschaftlich geführt werden sollte, daher von der Wirtschaft als signifikant untergraben an. Diese verwende Ethik vielmehr als „Verschönerung“ d.h. dazu, die notwendigen Investitionen in KI wirtschaftlich voran zu treiben und möchte dabei möglichst wenig substanzielle ethische Richtlinien vorgegeben bekommen, d.h. unreguliert bleiben.

Lütge nimmt in diesem Zusammenhang des „Ethics Washing“ Bezug auf eine grundlegende Unterscheidung nämlich der Motivation und der Folge einer Handlung. Er spricht von einer Gruppe von Kritikern (vermutlich darunter auch Metzinger), die Unternehmen aufgrund ihrer Motivation oft kritisiere, ungeachtet möglicher positiver Folgen für die Gesellschaft. Ethisches Handeln sei in Lütges Augen nicht zwingend von der „richtigen Gesinnung“ abhängig bzw. würde man auf die Motivation (der Unternehmen) alleine fokussiert bleiben, würden keinerlei (gesellschaftliche) Veränderungen erzielt werden können.

Es scheint also, dass während Metzinger auf die Prinzipien bzw. die Motivation ethischen Handelns, oder Leitlinien hierfür fokussiert ist, Lütge wohl nahezu ausschließlich auf die Folgen von Handlungen konzentriert ist (oder dies als Kriterium für substanzielle ethische Prinzipien gelten lässt). Dies wirft jedoch gerade in Demokratien entscheidende Fragen auf, die wohl zu bedenken sind.

Einbindung von Ethikern

Ein weiterer Diskussionspunkt der Debatte ist die Einbeziehung von Ethikern in die Expertengruppe zur Formulierung der KI-Richtlinien. Metzinger kritisiert die von der EU eingesetzten Expertengruppe dahingehend, dass darin zu wenig Ethiker eingebunden seien, um ethische Richtlinien zu generieren. Einerseits betont er zwar die Notwendigkeit der Expertise anderer Bereiche, bemängelt jedoch zugleich die Anzahl der Ethiker insgesamt als zu gering (vier von 52 Mitgliedern). Metzinger bemerkt zudem, dass die anfangs von den Experten formulierten Roten-Linien hinsichtlich des Umgangs mit KI, also was nicht mit dieser geschehen solle (z.B. Einsatz autonomer tödlicher Waffensystemen auf KI basierend) letztlich signifikant abgeschwächt, oder ganz aus der veröffentlichten Version der Ethik-Leitlinien der KI gestrichen wurden.

Demgegenüber vertritt Lütge die Ansicht, dass gerade über Ethik-Richtlinien nicht nur Ethiker entscheiden können und sollten. Die Einbindung von Unternehmen (neben Wissenschaft, Zivilgesellschaft, politischen Akteuren) bei der Findung und Formulierung ethischer Leitlinien zeigt sich als notwendig für die realistische Umsetzung ethischer Leitlinien für die KI. Würde man wie oben erwähnt nur die Motivation der Unternehmen beurteilen, beschwört Lütge gar einen Teufelskreis des (wirtschaftlichen) Stillstands, indem keinerlei Fortschritt oder gar Verbesserung erzielt werden könne. So sieht er die Einbeziehung möglichst aller Interessen aus Wirtschaft, Wissenschaft, Zivilgesellschaft und Politik als gleichberechtigt und grundlegend wichtig an.

Zu Richtlinien selbst

Im Rahmen von KI und deren Wirkungskreis, sind die erwähnten Aspekte grundlegend und wir Menschen haben schließlich zu entscheiden, inwieweit Maschinen über Menschen und inwieweit Menschen über Maschinen entscheiden.  Hierfür sind wohlüberlegte, substanzielle ethische Leitlinien essentiell. Metzinger verweist auf die internationale Ebene, in der nur wenige Jahre blieben, um europäische Richtlinien überhaupt niederzuschreiben und verteidigen zu können. Sicherlich lassen China, die USA und der Rest der Welt nicht auf sich warten.

So scheint es sinnvoll, dass zum einen auf die Einbeziehung von diversen Interessensgruppen hinsichtlich der Umsetzung ethischer Leitlinien geachtet wird, da nur so ethische Richtlinien auch effektiv umgesetzt werden können. Allerdings sollten hierbei die Rechte und Interessen der Zivilbevölkerung besonders geschützt werden sowie demokratische Grundwerte unangetastet bleiben. Aus diesem Grund sollte der substanzielle Gehalt ethischer Leitlinien (für vertrauenswürdige KI) nicht leiden. Eine zivilgesellschaftliche Debatte über ethische Prinzipien von KI ist dabei in jedem Fall von grundlegender Bedeutung; nicht nur damit zivilgesellschaftliches Bewusstsein hinsichtlich des Umgangs mit KI erst einmal entstehen kann, sondern auch Interessen der Zivilgesellschaft artikuliert werden können. 

Des Weiteren kommt es auf differenzierte Unterscheidungen bei der Formulierung angemessener ethischer Leitlinien an. So scheint es sinnvoll und notwendig, je nachdem um welche Software es sich handelt, welche Art KI-System eingesetzt wird, welche Daten hierfür wie verwendet werden und welcher Lebensbereich davon betroffen ist, entsprechend differenzierte Regelungen und ethische Leitlinien zu finden.

Dies funktioniert nur mit Richtlinien, die vom Generellen zum Konkreten reichen. Sind die ethischen Leitlinien zur KI also nur als erster Entwurf beim Versuch vom Allgemeinen zum Konkreten zu kommen zu werten, dann sind diese legitim. Ist dies schon als konkretes Endresultat zu verstehen, wovon wir nicht ausgehen können, ist dies jedoch kein ernst zu nehmender Versuch aus Perspektive der Ethik, substanzielle und damit ernsthaft vertrauenswürdige KI-Ethik-Richtlinien zu gestalten.

Diskussion und Konklusion(en)

Ungeachtet dessen, dass sie unterschiedliche Meinungen vertreten, diskutieren beide Autoren wichtige Aspekte hinsichtlich der Debatte um KI-Anwendungen.

Insgesamt lässt sich nur anhand vertrauenswürdiger ethischer Prinzipien, auch vertrauenswürdige KI generieren. Um substanzielle ethische Leitlinien für vertrauenswürdigen und verantwortungsvollen Umgang mit KI, bedarf es natürlich diverser Akteure; nicht nur aus Wirtschaft, Politik, der Zivilgesellschaft, oder Wissenschaft, sondern gerade aus Letzterer nun einmal Philosophen und Ethiker. Überdies könnten schließlich solche europäischen Leitlinien der KI als Standard und als europäische Marke im KI-Bereich international als Chance verstanden und gehandelt werden. Gerade gegenüber China und den USA sollte die EU daher eher mit starken ethischen Leitlinien zur KI „antreten“. Womöglich ist dies gerade ein „selling-point“ im internationalen KI-Wettbewerb, der Europa (noch) vorbehalten ist.

Substanzielle ethische Leitlinien der KI zu formulieren scheint gerade bei diesem Vorhaben in der Tat essentiell. Vor allem in demokratischen Gesellschaften, in denen sowohl Motivation als auch Folgen von Handlungen grundsätzlich hinterfragt werden sollten. Die Interessen der Zivilgesellschaft zu schützen und Grundwerte wie Autonomie und Menschsein durch authentische und damit tatsächlich vertrauenswürdige ethische Prinzipien zu gewährleisten, darf dabei nicht unterschätzt werden. Nur so kann Vertrauen in KI gelingen. Denn ein zentraler Aspekt hinsichtlich KI ist, bleibt und wird auch weiterhin eines sein – nämlich menschliches Vertrauen.  

 

#Medienethik-Tag am Institut für Journalistik der Universität der Bundeswehr München

Am 22. Mai 2019 veranstaltet das Institut für Journalistik der Universität der Bundeswehr München einen Medienethik-Tag. Im Fokus der Veranstaltung steht die Frage nach medienethischem Handeln in Zeiten der Digitalisierung. Abgerundet wird der Tag mit einem Sommerfest der Fakultät sowie der Verleihung der X-media campus Awards.

Das zem::dg ist mit unterschiedlichen Beiträgen aktiv an der Organisation der Veranstaltung beteiligt. 

Nähre Informationen zur Veranstaltung sowie eine Anmeldung sind über den nachfolgenden Link möglich.

Alle Infos auf einen Blick:

Wann?
22. Mai 2019

Wo?
UniCasino
Gebäude 61
Universität der Bundeswehr München
Werner-Heisenberg-Weg 39
85579 Neubiberg

Call for Papers zur Tagung “Flucht, Migration und Integration in den Medien” verlängert

Neue Deadline: 12. Mai 2019

Gemeinsam mit dem JFF, Institut für Medienpädagogik München (Dr. Niels Brüggen), der Heinrich-Heine-Universität Düsseldorf (Prof. Dr. Gerhard Vowe) der Hochschule für Technik, Wirtschaft und Kultur Leipzig (Prof. Dr. Gabriele Hoofacker) veranstalten wir in diesem Jahr im Kontext des Forschungsprojekts „Flucht als Krise. Mediale Krisendarstellung, Medienumgang und Bewältigung durch Heranwachsende am Beispiel Flucht” die Tagung „Flucht, Migration und Integration in den Medien“. Die Tagung findet am 11.-13. Juli 2019 in Düsseldorf statt.

Damit wir ein ansprechendes Tagungsprogramm zusammenstellen können, würden wir uns sehr über Einreichungen mit unterschiedlichen Perspektiven auf das Thema „Flucht und Migration“ freuen. Aus diesem Grund wird die Einreichungsfrist bis zum 12. Mai 2019 verlängert.

Alle Hintergrundinformationen zur Tagung sowie den vollständigen Call for Papers finden Sie unter nachfolgendem Link:

Die Helden und Monster in uns

Ein technikphilosophischer Blick auf „Iron Man“ und die „Avengers“

Am 24. April 2019 erscheint „Avengers 4: Endgame“ in den deutschen Kinos. Die Superhelden des Marvel-Universums haben sich zusammengeschlossen und kämpfen gemeinsam gegen die Feinde. Besonders spannend ist das Schicksal von Tony Stark (alias Iron Man), über das schon viel gemunkelt wird. Es lohnt sich, auch einmal einen technikphilosophischen Blick auf die bisherigen „Iron Man“- und „Avengers“-Filme zu werfen – ganz ohne Spoiler.

„Ich bin Iron Man.“ Mit diesem Satz bekennt sich Tony Stark, genialer Technik-Erfinder und Leiter von „Stark Industries“, zu seiner neuen High-Tech-Rüstung: ein fliegendes Roboter-Exoskelett, das ihm übernatürliche Fähigkeiten verleiht. Dieses Pressestatement wird zum Auftakt der Iron Man-Identität. Doch was hat es mit Iron Man eigentlich auf sich? Was verraten die Action- und Science-Fiction-Filmreihen „Iron Man“ (2008–2013) und „The Avengers“ (2012–2018) über uns selbst?

Wer oder was ist Iron Man?

Keine so leichte Frage. Immer wieder beharrt Stark darauf, dass Iron Man kein Roboteranzug, sondern er selbst Iron Man sei. Wenn der Junge Harley in Tennessee voller Begeisterung auf die Rüstung zeigt, entgegnet Stark:

 


Harley: Das – das ist – ist das Iron Man?

Stark: Genau genommen bin ich das.

(Iron Man 3)


 

Vom Senat wird Stark aufgefordert, die „Iron Man-Waffe“ an die Bevölkerung der USA auszuhändigen. Stark beschreibt sie als „High-Tech-Prothese“ und wehrt sich:

 


Stark: Ich bin Iron Man. Der Anzug und ich sind eins. Den Anzug auszuhändigen, hieße, mich selbst auszuhändigen, was gleichbedeutend wäre mit Sklaverei oder Prostitution – je nachdem in welchem Staat man ist.

(Iron Man 2)


 

Stark sieht die Rüstung als Teil seiner selbst, als Teil seines Körpers. Durch die Verbindung von Stark und Rüstung entsteht etwas Neues, erst so entsteht Iron Man. Hier wird deutlich, wie das Implementieren von Technologien in den menschlichen Körper unser Körper- und Selbstverständnis verändert. Auch am Filmende von „Iron Man 3“ heißt es:

 


Stark: Wenn ich ein Fazit ziehen soll, das zusammenfassen muss oder so, dann würde ich sagen, mein Anzug war nie eine Ablenkung oder ein Hobby. Er war ein Kokon. Und jetzt bin ich ein anderer Mensch. Selbst wenn man mir mein Haus und all mein Spielzeug wegnimmt, eins kann man mir nie mehr nehmen: Ich bin Iron Man.

(Iron Man 3)


 

Und dennoch sind Stark und Iron Man nicht identisch. Stark bleibt auch ohne die Iron Man-Rüstung eine eigenständige Persönlichkeit.

 


Captain America: Ein großer Mann in einer Rüstung. Lassen sie sie weg, was sind Sie dann?

Stark: Genie, Milliardär, Playboy, Philanthrop…

(Avengers 1)


 

Außerdem wird er in den Filmen durchgängig als Stark angesprochen. Ohne die Rüstung gibt es noch Tony Stark, aber ohne Tony Stark gibt es – für Stark zumindest – keinen Iron Man.     

    Die zweitweise Verschmelzung von Stark und Roboter ruft oft die Frage hervor, ob Stark ein Cyborg ist. „Cyborg“ als Akronym von „cybernetic“ und „organism“ bezeichnet die Verschmelzung von organischem und technischem Material, dessen Ausgangsgrundlage der Mensch ist (im Unterschied zum Androiden). Doch wo genau die Grenze zwischen Mensch und Cyborg zu ziehen ist oder welche technologischen Veränderungen Menschen zu Cyborgs machen, ist umstritten. Vielleicht würde sich Stark selbst als Cyborg bezeichnen. Da er die Rüstung aber problemlos ablegen kann und nicht dauerhaft mit ihr verschmilzt, ist die Bezeichnung „Cyborg“ meines Erachtens hier wenig zutreffend. Andere technikphilosophische Positionen dagegen gehen davon aus, dass wir Menschen bereits Cyborgs sind (z. B. Donna Haraway).

Was Technikmonster über uns verraten


Stark: Ein großer Mann hat einmal gesagt: Wir erschaffen unsere eigenen Dämonen.

(Iron Man 3)


Obwohl sich die „Iron Man“- und „Avengers“-Filme vordergründig um Superhelden drehen, verschwimmen die Grenzen zwischen heldenhafter Technik und monsterartiger Technik, die dem Menschen zur Gefahr wird. So kann die Iron Man-Rüstung in falschen Händen eine große Gefahr darstellen. Ivan Vanko erfindet eine ähnliche Rüstung und greift damit Menschen an. Selbst Stark treibt auf seiner Geburtstagsparty viel Unsinn mit der Iron Man-Rüstung und verliert die Kontrolle. Nicht nur der Iron Man-Anzug, sondern auch die Avengers werden von der Politik als gefährlich eingestuft. Zugegeben, Hulk ist Avenger-Held und Monster zugleich und ist selbst für seine Freunde eine Bedrohung. Besonders stark kommen die Monsterfantasien in den „Avengers“-Filmen zum Ausdruck, wo die Roboterarmeen der Feinde bestialischen Tieren oder Fabelwesen ähneln.

Jeffrey Jerome Cohen (1996) (Die Aussagen zur Monstertheorie in den nächsten beiden Absätzen beziehen sich auf Cohen (1996)) zeigt mit sieben Thesen zur „Monster Culture“ auf, wie die verschiedenen Monster in Literatur und Film Aufschluss über unsere Kultur geben. Sie ziehen sich schon seit der Antike durch die Geschichte (z. B. Zombies, Vampire, Werwölfe, Frankenstein, das Ungeheuer von Loch Ness, Hydra oder Skylla). Das Monster entpuppt sich als eine Projektion unserer Ängste und Sorgen, Begierden und Sehnsüchte. Es lebt in einer entfesselten Welt, ist nicht an die Gesetze von Raum und Zeit gebunden und entzieht sich unseren traditionellen Kategorien von Ethnie, Kultur, Geschlecht und Sexualität. Cohen bezeichnet dies als „ontologische Liminalität“ (1996: 6) des Monsters. Dabei bewacht es als eine Art Grenzwächter die Grenzen, die es selbst überschreitet: Es warnt die Zuschauer/-innen oder Leser/-innen davor, bei Grenzüberschreitung selbst zu Monstern zu werden, d. h. abstoßend und missgestaltet, unzivilisiert, animalisch und sexuell entartet, gefühlslos, ohne Tugend und geistige Stärke.

Dazu wird in den Körper des Monsters Differenz eingeschrieben: kulturelle, ethnische, geschlechtliche oder sexuelle Andersheit (z. B. weibliche böse, verführerische Monster in einer frauenfeindlichen Kultur; dunkelhäutige, unzivilisierte Monster, um sich von einem anderen Volk abzusetzen). Nicht selten hatten Monster in der Geschichte die Funktion, Herrschaft zu legitimieren, die Vertreibung eines Volkes zu rechtfertigen oder repressive Sexualmoral durchzusetzen. Sie müssen in dem historischen, sozialen, politischen und kulturellen Kontext untersucht werden, in dem sie entstanden sind. Auf diese Weise ist das Monster Kultur pur. Doch im gleichen Maße wie das Monster abstößt, zieht es auch an und wird Projektion von Begierden und Sehnsüchten (wie die Helden). Die entfesselte Welt des Monsters gibt Raum für gewaltvolle, sexuelle, unkonventionelle Fantasien, für die in der Gesellschaft kein Platz ist.

Während Stark und Dr. Bruce Banner mit künstlicher Intelligenz basteln, erschaffen sie versehentlich selbst ein Monster. Ultron wird im zweiten „Avengers“-Film zur großen Gefahr für die Menschheit. Welche Differenz wird in ihn eingeschrieben? Ultron ist so, wie man sich böse, verselbstständigte künstliche Intelligenz vorstellen könnte: ein dunkel gepanzertes, roboterartiges Technikmonster, von der Statur einem Menschen ähnlich, aber ohne organische Grundlage, das gefühlslos ist und ein Normen- und Wertesystem hat, welches nicht mit unserer Gesellschaft verträglich sind. Ist nicht auch Ultron ein unserer Kultur entspringendes Monster, das Grenzen bewacht? Es zeigt unsere Angst vor einer künstlichen Intelligenz, die sich der menschlichen Kontrolle entzieht und das Menschsein überwindet. Es warnt vor einer unpersönlichen, kriegerischen Roboterwelt ohne soziale Gemeinschaft und Natur. Unterstützt wird dies in den „Avengers“-Filmen durch viele posthumane Visionen.

Als Stark und Banner ein zweites Mal mit künstlicher Intelligenz experimentieren, gelingt es ihnen schließlich, den Androiden Vision zum Schutz der Menschheit zu erschaffen. Vision sieht einem Menschen viel ähnlicher als Ultron (z. B. Augen), ist liebesfähig (Beziehung mit Wanda Maximoff) und wird zum Helden, der sein Leben für die Menschen opfert. Untermalt wird dies mit bibelähnlichen Aussagen wie „Ich bin auf der Seite des Lebens“ (Avengers 2). Allen Ernstes zitiert Vision in der deutschen Version sogar Exodus 3,14:


Vision: Ich bin nicht Ultron, ich bin nicht J.A.R.V.I.S. Ich – bin – der – ich – bin. (Avengers 2)


Ethische Fragen

Monster fragen uns, warum wir sie erschaffen haben (Cohen 1996: 20). Die vielen Technikmonster unserer Zeit zeigen unsere Technikängste und -sehnsüchte, die sich übrigens nicht selten mit religiösen Vorstellungen überschneiden. Mit Monstern bewachen wir von uns selbst gesetzte Grenzen. Eine ethische Auseinandersetzung mit Technik muss sich der Frage widmen, welche Grenzen wir setzen wollen. Was ist das „Menschliche“, das wir so dringend vor Technikeingriffen bewahren wollen? An welchen Normen und Werten wollen wir uns orientieren? Wie viel und welche Technik wollen wir in den menschlichen Körper implementieren? Grenzziehungen sind wichtig, insofern sie Orientierung und Identität stiften sowie Handeln erst möglich machen. Aber die Untersuchung von Monstern kann uns auch dazu auffordern, unsere bisherigen Grenzziehungen zu hinterfragen. Technikmonster, die nicht mehr in unsere Kategorien von Ethnie, Kultur, Geschlecht und Sexualität passen, können ein Ansatzpunkt sein, unsere eigenen Kategorien offener zu denken.

Darüber hinaus berühren die „Iron Man“- und „Avengers“-Filme viele weitere ethische Fragen. Zum Beispiel ist „Stark Industries“ ein Rüstungsunternehmen, das Technik zur Waffenproduktion nutzt, bevor Stark dies einstellt. Ist der Iron Man-Anzug eine „Iron Man-Waffe“ oder eine „High-Tech-Prothese“, die Teil von Starks Person ist? Damit hängt die Frage zusammen, wer Zugang zu solchen Ausrüstungen haben sollte. Gehören sie dem Staat? Wir können darauf gespannt sein, welche philosophischen Fragen und Herausforderungen der neue „Avengers“-Film mit sich bringt.

Literaturempfehlungen:

Cohen, Jeffrey Jerome: Monster theory. Reading culture. Minneapolis 1996, besonders S. 3–25.

Graham, Elaine L.: Representations of the post/human. Monsters, aliens and others in popular culture. New Brunswick et al. 2002.

Ausschreibung: Freie Mitarbeit

Wissenschaftliche Begleitung des Entwicklungsprozesses sowie der Erprobungsphase eines Ethik-Guides im Rahmen des Forschungsprojekts „MeKriF“

Kontext der Ausschreibung

Das zem::dg begleitet das Forschungsprojekt „MeKriF – Flucht als Krise. Mediale Krisendarstellung, Medienumgang und Bewältigung durch Heranwachsende am Beispiel Flucht“ aus medienethischer Perspektive.

Ziel des Vorhabens MeKriF ist es, unterschiedliche Strategien von 10- bis 16-Jährigen zur Bewältigung des Themas Flucht in ihren medialen und sozialen Zusammenhängen zu eruieren und Ansatzpunkte herauszuarbeiten, wie die individuellen und gesellschaftlichen Ressourcen zur Bewältigung gestärkt werden können. Hierzu werden das Medienhandeln der Heranwachsenden und die von ihnen genutzten Medieninhalte analysiert; aus den Ergebnissen werden Handlungsempfehlungen für die journalistische und pädagogische Praxis abgeleitet. Die partizipative Entwicklung und Erprobung eines Ethik-Guides, der zur Orientierung professionellen Handelns von Journalist_innen und pädagogischen Fachkräften dienen soll, ist ein zentraler Bestandteil des Projekts.

 

Für die wissenschaftliche Begleitung dieses Entwicklungsprozesses sowie für die Erprobungsphase des Ethik-Guides sucht das zem::dg ab August/September Unterstützung durch eine/einen freie/n Forschungsmitarbeiter_in.

Aufgabengebiet

Das Aufgabengebiet umfasst die Unterstützung des zem::dg-Teams bei der Begleitung der Entwicklung und Erprobung des Ethik-Guides aus spezifisch (medien-)ethischer Perspektive. Die wissenschaftliche Begleitung dieses Prozesses hat das Ziel, exemplarisch die Perspektive der Anspruchsgruppen Jugendliche, Journalist_innen und Fachkräfte der Jugendarbeit in der Entwicklung aufzugreifen und die ggf. spezifischen Bedarfe der jeweiligen Gruppen in die Entwicklung und Erprobung einzubeziehen. Dies könnte z. B. auf die Notwendigkeit zielen, ethische Anregungen zum Umgang mit bestimmten Argumentationsmustern bereitzustellen. Die Ergebnisse der wissenschaftlichen Begleitung bei der Erstellung und Erprobung des Ethik-Guides sollen in einem Ergebnisbericht dokumentiert werden.

Profil
Sie haben erste oder sogar vertiefte Kenntnisse in den Bereichen „Medienethik“, „Ethikdidaktik“ sowie „Pädagogik“. Von Vorteil wären zudem erste Erfahrungen in der Arbeit mit Kindern und Jugendlichen sowie ein Interesse an ethischen Fragestellungen zum Thema „Flucht und Migration“ sowie dessen medialer Darstellung.

Zeitlicher Umfang und Vergütung
Die (medien-)ethische Begleitung der Entwicklung und Erprobung der Ethik-Guides findet im Zeitraum von August/September bis Ende Dezember 2019 statt. Der veranschlagte Zeitaufwand für die Projektunterstützung beträgt insgesamt ca. 160 Stunden, wobei die Einteilung der Arbeitszeit (mit Ausnahme der ethischen Begleitung während der Erprobungsphasen) flexibel möglich ist.

Die Unterstützung wird mit einem Gesamtbetrag von 3.000,- € vergütet, wobei evtl. anfallende Einkommenssteuern selbstständig abgeführt werden müssen. Die Anstellung für das Projekt erfolgt im Rahmen eines Werkvertrags, der mit der Hochschule für Philosophie München, unserer Trägerhochschule, geschlossen wird.


Wir freuen uns auf aussagekräftige Bewerbungen.

Bitte senden Sie Ihre Unterlagen bis zum 15. Juni an Susanna Endres (susanna.endres@zemdg.de). Für Rückfragen steht Ihnen Frau Endres sehr gerne zur Verfügung.

Call for Papers: “Digitale Menschheit”

Ethische Analysen und Antworten in einer Zeit der Transformation

Für die 56. Jahrestagung der Societas Ethica vom 27. bis 30. Juni 2019 können bis zum 1. April Beiträge zum Thema “Digitale Menschheit Ethische Analysen und Antworten in einer Zeit der Transformation” eingereicht werden. Ziel der Tagung ist es die Herausforderungen der Ethik bezüglich der fortschreitenden Digitalisierung zu evaluieren. Dabei werden auch Fragen nach einer adäquaten Reaktion der Ethiker auf die tiefgreifenden individuellen, sozialen, politischen, ökonomischen, technologischen und wissenschaftlichen Transformationen behandelt. Das schließt mit ein, dass normative Ansätze eventuell revidiert oder weiterentwickelt, andere erst zur Anwendung kommen müssen.  Sind Begriffe und Konzepte mit denen traditionell Menschen beschrieben werden (z.B. Emotionen, Intelligenz) auf Maschinen anwendbar? Welche ethischen und rechtlichen Konzepte stehen im digitalen Zeitalter auf dem Spiel? Diese und weitere Fragen werden im Zuge der Tagung behandelt werden. 

Eingeladen sind Vertreter aus den verschiedensten Fachdisziplinen, einen Beitrag einzureichen. Mögliche Themen wären beispielsweise: Epistemologie, Kommunikation (einschließlich Journalismus und Sozialer Medien), Menschenrechte, Privatheit und Partizipation, etc.

Hinweise zur Einreichung:

Einreichungsfrist:
01.04.2019

Umfang:
Das Abstract soll nicht mehr als 800 Wörter umfassen.

Adresse:
Bitte senden Sie ihren Beitrag an galia.assadi@evhn.de mit dem Betreff “Societas Ethica 2019 Conference”.

Call for Papers für die Tagung “Flucht, Migration und Integration in den Medien”

Einladung

Einladung für Beiträge zur interdisziplinären Tagung des Forschungsprojekts “Flucht als Krise. Mediale Krisendarstellung, Medienumgang und Bewältigung durch Heranwachsende am Beispiel Flucht”, die das zem::dg aus medienethischer Perspektive begleitet. 

Themenschwerpunkte:

  1. Voraussetzungen der medialen Diskussion zu Flucht, Migration und Integration
  2. Inhalte, Formen und Verläufe der medialen Diskussion zu Flucht, Migration und Integration
  3. Rezeption, Aneignung und (Wechsel-)Wirkungen der medialen Diskussion zu Flucht, Migration und Integration

Wichtige Daten im Überblick:

Einreichung des Abstracts (mit Verlängerung): 12. Mai 2019

Tagung: 11. Juli – 13. Juli 2019

Tagungsort: Haus der Universität Düsseldorf

Mehr Informationen zur Tagung und zum Projekt:

 

Flucht, Migration und Integration dominieren seit einigen Jahren die öffentliche Debatte in Deutschland. Informationen über Fluchtursachen, über Chancen und Risiken der Migration, über Prozesse der Integration und über die Debatte selbst werden in klassischen Massenmedien und deren Online-Auftritten, aber auch in weiteren Online-Kanälen verbreitet, wie z. B. facebook oder YouTube. An der Debatte beteiligt sich eine Vielzahl an Akteuren – nicht nur Journalistinnen und Journalisten, auch politische Akteure, Aktivistinnen und Aktivisten aus zivilgesellschaftlichen Gruppen und Privatpersonen – darunter auch Kinder und Jugendliche. Mit Blick auf die mediale Diskussion stellen sich der Forschung viele relevante Fragen: Inwiefern wird die mediale Auseinandersetzung durch welche Akteure beeinflusst? Wie verläuft die mediale Diskussion zu diesem Themenbereich in verschiedenen Mediengattungen? Und wie beeinflussen sich wechselseitig die Einstellungen, das Wissen, die Emotionen und die Handlungen der Rezipientinnen und Rezipienten einerseits und die mediale Diskussion über Flucht, Migration und Integration andererseits?
Derartige Fragen sind Thema der Tagung „Flucht, Migration und Integration in den Medien“. Forscherinnen und Forscher aus den relevanten Fachgebieten sind eingeladen, sich mit theoretischen oder empirischen Vorträgen zu beteiligen. Der regionale und der zeitliche Kontext der Beiträge ist nicht auf Deutschland und nicht auf die Ereignisse der sogenannten Flüchtlingskrise der Jahre 2015/2016 begrenzt. Auch in methodischer Hinsicht wird ein breites Spektrum angestrebt.

Alle Vorträge sollen sich einem von drei Themenschwerpunkten zuordnen:

1. Voraussetzungen der medialen Diskussion zu Flucht, Migration und Integration

Dieser Schwerpunkt widmet sich den spezifischen Bedingungen, unter denen massenmediale Inhalte und „user-generated content“ in diesem Themenfeld entstehen. Es können zum Beispiel individuelle Motive, organisatorische Strukturen und gesellschaftliche Rahmenbedingungen untersucht werden. Mögliche Fragen sind: Wie versuchen politische und zivilgesellschaftliche Akteurinnen und Akteure, die mediale Diskussion zu beeinflussen? Wie beeinflussen die Einstellungen von Journalistinnen und Journalisten deren Berichterstattung? Welche Motive haben Individuen, sich an der medialen (Online-)Diskussion zum Thema zu beteiligen? Wie beeinflussen die technischen Voraussetzungen unterschiedlicher Sozialer Netzmedien die Auseinandersetzung, etwa den Grad der Deliberation in den Diskussionen? Welche Rolle haben „Ethno-Medien“ bei der Integration von Geflüchteten? Wie werden Geflüchtete in den medialen Produktionsprozess eingebunden? Und welche Möglichkeiten haben unterschiedliche Gruppen (z. B. Kinder und Jugendliche oder Geflüchtete), die mediale Produktion und Diskussion zu beeinflussen?

2. Inhalte, Formen und Verläufe der medialen Diskussion zu Flucht, Migration und Integration

Zwar liegen einige Inhaltsanalysen zur Berichterstattung während der sogenannten Flüchtlingskrise vor. Aber noch sind viele Fragen offen, etwa wie in den einzelnen Mediengattungen (z. B. Radio) und Medienangeboten (z. B. für Heranwachsende) oder zu spezifischen Zeitpunkten (z. B. zu den Ausschreitungen in Chemnitz 2018) medial berichtet und (online) diskutiert wurde. Mögliche Fragen von Vorträgen sind: Welche Themenschwerpunkte werden in den Massenmedien und Sozialen Netzmedien gesetzt? Wie framen verschiedene Akteure ihre Botschaften? Auf welche Narrative wird zurückgegriffen? Inwiefern hat die sogenannte Flüchtlingskrise die Berichterstattung zu Flucht, Migration und Integration insgesamt verändert? Welche Nachrichtenfaktoren dominieren die mediale Diskussion? Inwiefern unterscheidet sich das Wording von politisch profilierten Gruppen und Medien voneinander? Wie wird satirisch mit dem Thema umgangen? Welche Meme zu diesem Thema kursieren im Netz?Welche Merkmale haben die Beiträge, die im Internet am meisten verbreitet werden? Wie wird in Medienangeboten für Heranwachsende berichtet? Und wie diskutieren Heranwachsende online über das Thema?

3. Rezeption, Aneignung und (Wechsel-)Wirkungen der medialen Diskussion zu Flucht, Migration und Integration

Vorträge zu Rezeption, Aneignung und (Wechsel-)Wirkungen medialer Information können auf der Mikro-, Meso- oder Makroebene angesiedelt sein. Mögliche Fragen sind demnach: Wie beeinflussen einander die mediale Diskussion über Flucht, Migration und Integration einerseits und die Einstellungen, die Vorstellungen, die Emotionen und die Handlungen der Rezipientinnen und Rezipienten andererseits? Wie verändern sich die Routinen medialer oder auch politischer Organisationen im Verlauf der öffentlichen Debatte? Welchen Einfluss haben sogenannte Fake News auf das gesellschaftliche Klima oder das Vertrauen in politische und journalistische Akteurinnen und Akteure? Wie eignen sich Mediennutzerinnen und -nutzer mediale Berichte an, insbesondere Geflüchtete und Heranwachsende? Welche Bewältigungsstrategien entwickeln sie?


Praktische Hinweise:

Vortragsvorschläge (für Präsentationen von 15–20 Minuten) bitten wir als Extended Abstracts mit Angabe des jeweiligen Schwerpunkts einzureichen.

Der Umfang beträgt 800 bis 1.000 Wörter exklusive Literaturverzeichnis, Tabellen, Abbildungen und Titelblatt.

Abgabetermin (mit Verlängerung) für die Einreichung der Abstracts ist der 12. Mai 2019.

Die Einreichung soll zwei separate Dateien umfassen: Abstract und Titelblatt. Bitte senden Sie beide Dokumente als Word-Dateien (*.docx) an:
flucht-in-den-medien@uni-duesseldorf.de 

Für empirische Beiträge ist zu beachten, dass die Ergebnisse im Abstract in den Grundzügen dargelegt werden sollen. Empirische Einreichungen, die lediglich eine Vorausschau auf erwartete, aber noch nicht vorliegende Befunde enthalten, werden nicht in den Begutachtungsprozess einbezogen. Um eine anonymisierte Begutachtung der Einreichung zu gewährleisten, sind alle Angaben zu entfernen, die zu einer Identifizierung der Autorin/des Autors im Textdokument oder den Meta-Daten führen könnten.

Die Vorschläge werden in einem Double Blind Peer Review begutachtet. Für die Auswahl der Beiträge gelten sechs Kriterien: (1) Bezug zum Tagungsthema; (2) Relevanz der Fragestellung; (3) theoretische Fundierung; (4) Angemessenheit der Methode/Vorgehensweise; (5) Originalität der Studie; (6) Klarheit und Prägnanz der Darstellung. Besondere Berücksichtigung finden Beiträge, die Kinder und/oder Jugendliche in die Fragestellung einbeziehen.

Die Ergebnisse des Begutachtungsverfahrens werden bis Anfang Juni 2019 bekannt gegeben. Positiv begutachtete Beiträge werden auf der Tagungswebsite dokumentiert, und zwar in Form von Abstracts sowie ggf. ergänzenden Videoaufzeichnungen der Vorträge, Foliensätzen oder Vortragsmanuskripten.

Informationen zur Tagung:  https://mekrif.jff.de/veranstaltungen/details/tagung-flucht-migration-integration/

Rahmendaten:

Veranstalterin und Veranstalter:

11. Juli 2019 – Get together (ab 18:30 Uhr)
12. Juli 2019 – Tagungstag (inkl. gemeinsamem Abendessen) 
13. Juli 2019 – Tagungstag (Ende voraussichtlich gegen 14 Uhr) 

Koordination, Organisation und Kommunikation

Ole Kelm, M.A.: ole.kelm@uni-duesseldorf.de 

Dr. Niels Brüggen

Prof. Dr. Alexander Filipović

Prof. Dr. Gabriele Hooffacker

Prof. Dr. Gerhard Vowe

Papst Franziskus: mehr Menschlichkeit in den Sozialen Netzwerken!

Papst Franziskus (2015) Quelle: Von Casa Rosada (Argentina Presidency of the Nation), CC BY-SA 2.0, https://commons.wikimedia.org/w/index.php?curid=41540543

Ende Januar jeden Jahres lassen die Päpste ihre Medienbotschaft veröffentlichen. Das geschieht schon seit über 50 Jahren, seit dem Ende des 2. Vatikanischen Konzils (1966). Ein Grundtenor dieser Briefe: Damit Medien wirklich „soziale Kommunikationsmittel“ werden, wie kirchliche Dokumente sie nennen, muss es in ihnen eine Kultur des Respekts und des gegenseitigen Verstehens geben, müssen ihre sozialen Potentiale genutzt werden – nicht nur von den Journalisten und Medienorganisationen, sondern auch vom Publikum.

Im Gottesdienst verlesen – oder wenigstens als Drucksache aufgelegt – werden soll diese Botschaft jeweils am „Welttag der sozialen Kommunikationsmittel“. In Deutschland ist dieser Welttag auf den zweiten Sonntag im September festgesetzt. Er findet dort freilich kaum Aufmerksamkeit, nicht nur weil die Seelsorger*innen gerne sich selber predigen hören. Schade eigentlich, denn die ca. drei Seiten langen Medienbriefe der Päpste sind es wert, wahrgenommen zu werden.

Papst Franziskus hat seit 2014 insgesamt sechs solcher Medienbriefe verfasst. Auch wenn daran wohl der vatikanische Medienrat mitformuliert haben mag, erkennt man in ihnen die großen Themen des gegenwärtigen Papstes: Kommunikation als Mittel zur Überwindung von Spaltung und Ausgeschlossensein (2014); die Familie als „der erste Ort, wo wir lernen zu kommunizieren“ (2015); die Rolle von Barmherzigkeit in der Kommunikation (2016); die Bedeutsamkeit auch von guten Nachrichten (2017); der Umgang mit Fake News und die Notwendigkeit eines Friedensjournalismus (2018).

In einem kurzen Beitrag, der auf der Internetseite der Zeitschrift Communicatio Socialis erschienen ist und aus dem obiger Ausschnitt stammt, gibt Rüdiger Funiok ausführliche Hintergrundinformationen zu den Medienbriefen des Papstes.