Pragmatisch vs. Prinzipiengeleitet

Die Debatte über die ethischen Leitlinien für KI der EU-Expertengruppe „High Level Expert Group on Artificial Intelligence (AI HLEG)“.

Hintergrund

Künstliche Intelligenz (KI) ist eine umfassende, sich ständig fortentwickelnde Technologie, die immer mehr Aspekte unseres Lebens berührt. Darunter auch zentrale Werte wie menschliche Freiheit, Würde und Gleichheit, die zugleich als Grundlage der Menschenrechte sowie als Säulen demokratischer Verfassungen fungieren.

Aus diesem Grund, sind Regelungen notwendig, die diese zentralen Werte schützen und sicherstellen können. Dies bezieht sich mitunter auf Fragen des verantwortungsvollen Umgangs mit den von Künstlicher Intelligenz genutzten, notwendigen Daten, oder z.B. direkt auf Mensch-Maschine Interaktionen.

Die EU hat sich deshalb zum Ziel gesetzt, das Vertrauen in eine auf den Menschen ausgerichtete KI zu stärken und hierfür eine Expertengruppe berufen, um Ethik-Leitlinien für KI auszuarbeiten. Letzten Monat hat diese Expertengruppe diese Leitlinien veröffentlicht. Im Rahmen der Diskussion um dieses Thema, gibt es bislang divergierende Ansichten, sodass sich eine Debatte ergeben hat, an der mitunter Thomas Metzinger (Mitglied und zugleich Kritiker der Expertengruppe) und Christoph Lütge (Direktor des neuen Instituts für KI-Ethik an der TU München) hinsichtlich verschiedener Aspekte von Künstlicher Intelligenz zur Erarbeitung und Umsetzung adäquater ethischen Leitlinien mitwirken.

Künstliche Intelligenz (KI) ist eine umfassende, sich ständig fortentwickelnde Technologie, die immer mehr Aspekte unseres Lebens berührt.

Im Rahmen der Debatte verweist Christoph Lütge daher darauf, dass Menschen aufgrund der angestiegenen Komplexität zunehmend dazu gezwungen sind, auf Technologie zu vertrauen. Während Metzinger „Vertrauenswürdigkeit“ als menschliche Eigenschaft auffasst und KI das Attribut „vertrauenswürdig“ ganz abspricht sowie eine Gefahr darin sieht, dass anhand von KI Regierungen, oder Unternehmen (etc.) noch mehr Spielraum eingeräumt wird, um noch weniger vertrauenswürdig zu handeln, sieht Lütge dies pragmatischer. Vielmehr verweist Letzterer auf die positiven Erfolge, die bislang mit dem Einsatz von Programmen und Software-Einsätzen im z.B. Compliance-Bereich bei Unternehmen erzielt werden konnten.

Grundsätzlich stimmen beide also darin überein, dass zukünftig Menschen auf KI zurückgreifen werden, jedoch weisen beide, aufgrund unterschiedlicher ethischer Ausrichtungen in ihren Darlegungen, unterschiedliche Zukunftsprognosen im Umgang mit KI auf.

Ethics Washing

Der Vorwurf Metzingers des „Ethics Washing“ ist, dass Ethik zur Verschönerung von wirtschaftlichen Investitionsstrategien genutzt wird und die Wirtschaft, die notwendige Debatte initiiert und organisiert, die letztlich zivilgesellschaftlich stattfinden sollte. Damit kommt es zur Ablenkung und zeitlichen Verzögerungen, wodurch tatsächliche Regulierungen gerade unterbunden würden. Metzinger sieht indessen die Debatte um vertrauenswürdige KI, welche nach ihm zivilgesellschaftlich geführt werden sollte, daher von der Wirtschaft als signifikant untergraben an. Diese verwende Ethik vielmehr als „Verschönerung“ d.h. dazu, die notwendigen Investitionen in KI wirtschaftlich voran zu treiben und möchte dabei möglichst wenig substanzielle ethische Richtlinien vorgegeben bekommen, d.h. unreguliert bleiben.

Lütge nimmt in diesem Zusammenhang des „Ethics Washing“ Bezug auf eine grundlegende Unterscheidung nämlich der Motivation und der Folge einer Handlung. Er spricht von einer Gruppe von Kritikern (vermutlich darunter auch Metzinger), die Unternehmen aufgrund ihrer Motivation oft kritisiere, ungeachtet möglicher positiver Folgen für die Gesellschaft. Ethisches Handeln sei in Lütges Augen nicht zwingend von der „richtigen Gesinnung“ abhängig bzw. würde man auf die Motivation (der Unternehmen) alleine fokussiert bleiben, würden keinerlei (gesellschaftliche) Veränderungen erzielt werden können.

Es scheint also, dass während Metzinger auf die Prinzipien bzw. die Motivation ethischen Handelns, oder Leitlinien hierfür fokussiert ist, Lütge wohl nahezu ausschließlich auf die Folgen von Handlungen konzentriert ist (oder dies als Kriterium für substanzielle ethische Prinzipien gelten lässt). Dies wirft jedoch gerade in Demokratien entscheidende Fragen auf, die wohl zu bedenken sind.

Einbindung von Ethikern

Ein weiterer Diskussionspunkt der Debatte ist die Einbeziehung von Ethikern in die Expertengruppe zur Formulierung der KI-Richtlinien. Metzinger kritisiert die von der EU eingesetzten Expertengruppe dahingehend, dass darin zu wenig Ethiker eingebunden seien, um ethische Richtlinien zu generieren. Einerseits betont er zwar die Notwendigkeit der Expertise anderer Bereiche, bemängelt jedoch zugleich die Anzahl der Ethiker insgesamt als zu gering (vier von 52 Mitgliedern). Metzinger bemerkt zudem, dass die anfangs von den Experten formulierten Roten-Linien hinsichtlich des Umgangs mit KI, also was nicht mit dieser geschehen solle (z.B. Einsatz autonomer tödlicher Waffensystemen auf KI basierend) letztlich signifikant abgeschwächt, oder ganz aus der veröffentlichten Version der Ethik-Leitlinien der KI gestrichen wurden.

Demgegenüber vertritt Lütge die Ansicht, dass gerade über Ethik-Richtlinien nicht nur Ethiker entscheiden können und sollten. Die Einbindung von Unternehmen (neben Wissenschaft, Zivilgesellschaft, politischen Akteuren) bei der Findung und Formulierung ethischer Leitlinien zeigt sich als notwendig für die realistische Umsetzung ethischer Leitlinien für die KI. Würde man wie oben erwähnt nur die Motivation der Unternehmen beurteilen, beschwört Lütge gar einen Teufelskreis des (wirtschaftlichen) Stillstands, indem keinerlei Fortschritt oder gar Verbesserung erzielt werden könne. So sieht er die Einbeziehung möglichst aller Interessen aus Wirtschaft, Wissenschaft, Zivilgesellschaft und Politik als gleichberechtigt und grundlegend wichtig an.

Zu Richtlinien selbst

Im Rahmen von KI und deren Wirkungskreis, sind die erwähnten Aspekte grundlegend und wir Menschen haben schließlich zu entscheiden, inwieweit Maschinen über Menschen und inwieweit Menschen über Maschinen entscheiden.  Hierfür sind wohlüberlegte, substanzielle ethische Leitlinien essentiell. Metzinger verweist auf die internationale Ebene, in der nur wenige Jahre blieben, um europäische Richtlinien überhaupt niederzuschreiben und verteidigen zu können. Sicherlich lassen China, die USA und der Rest der Welt nicht auf sich warten.

So scheint es sinnvoll, dass zum einen auf die Einbeziehung von diversen Interessensgruppen hinsichtlich der Umsetzung ethischer Leitlinien geachtet wird, da nur so ethische Richtlinien auch effektiv umgesetzt werden können. Allerdings sollten hierbei die Rechte und Interessen der Zivilbevölkerung besonders geschützt werden sowie demokratische Grundwerte unangetastet bleiben. Aus diesem Grund sollte der substanzielle Gehalt ethischer Leitlinien (für vertrauenswürdige KI) nicht leiden. Eine zivilgesellschaftliche Debatte über ethische Prinzipien von KI ist dabei in jedem Fall von grundlegender Bedeutung; nicht nur damit zivilgesellschaftliches Bewusstsein hinsichtlich des Umgangs mit KI erst einmal entstehen kann, sondern auch Interessen der Zivilgesellschaft artikuliert werden können. 

Des Weiteren kommt es auf differenzierte Unterscheidungen bei der Formulierung angemessener ethischer Leitlinien an. So scheint es sinnvoll und notwendig, je nachdem um welche Software es sich handelt, welche Art KI-System eingesetzt wird, welche Daten hierfür wie verwendet werden und welcher Lebensbereich davon betroffen ist, entsprechend differenzierte Regelungen und ethische Leitlinien zu finden.

Dies funktioniert nur mit Richtlinien, die vom Generellen zum Konkreten reichen. Sind die ethischen Leitlinien zur KI also nur als erster Entwurf beim Versuch vom Allgemeinen zum Konkreten zu kommen zu werten, dann sind diese legitim. Ist dies schon als konkretes Endresultat zu verstehen, wovon wir nicht ausgehen können, ist dies jedoch kein ernst zu nehmender Versuch aus Perspektive der Ethik, substanzielle und damit ernsthaft vertrauenswürdige KI-Ethik-Richtlinien zu gestalten.

Diskussion und Konklusion(en)

Ungeachtet dessen, dass sie unterschiedliche Meinungen vertreten, diskutieren beide Autoren wichtige Aspekte hinsichtlich der Debatte um KI-Anwendungen.

Insgesamt lässt sich nur anhand vertrauenswürdiger ethischer Prinzipien, auch vertrauenswürdige KI generieren. Um substanzielle ethische Leitlinien für vertrauenswürdigen und verantwortungsvollen Umgang mit KI, bedarf es natürlich diverser Akteure; nicht nur aus Wirtschaft, Politik, der Zivilgesellschaft, oder Wissenschaft, sondern gerade aus Letzterer nun einmal Philosophen und Ethiker. Überdies könnten schließlich solche europäischen Leitlinien der KI als Standard und als europäische Marke im KI-Bereich international als Chance verstanden und gehandelt werden. Gerade gegenüber China und den USA sollte die EU daher eher mit starken ethischen Leitlinien zur KI „antreten“. Womöglich ist dies gerade ein „selling-point“ im internationalen KI-Wettbewerb, der Europa (noch) vorbehalten ist.

Substanzielle ethische Leitlinien der KI zu formulieren scheint gerade bei diesem Vorhaben in der Tat essentiell. Vor allem in demokratischen Gesellschaften, in denen sowohl Motivation als auch Folgen von Handlungen grundsätzlich hinterfragt werden sollten. Die Interessen der Zivilgesellschaft zu schützen und Grundwerte wie Autonomie und Menschsein durch authentische und damit tatsächlich vertrauenswürdige ethische Prinzipien zu gewährleisten, darf dabei nicht unterschätzt werden. Nur so kann Vertrauen in KI gelingen. Denn ein zentraler Aspekt hinsichtlich KI ist, bleibt und wird auch weiterhin eines sein – nämlich menschliches Vertrauen.  

 

Wenn Science-Fiction Realität wird: Wie Roboter unseren Alltag verändern

Wie stellen wir uns Roboter vor? Der menschenähnliche Roboter, wie er im Film dominiert, ist in der Realtiät eher die Ausnahme ...

Wenn wir von Robotern sprechen, denken wir auch heute noch in erster Linie an Science-Fiction-Romane. Oder an mittelmäßige Hollywood-Streifen à la Terminator. Kein Wunder, dass die Hoffnungen und Befürchtungen, die dem Thema entgegenschlagen breiter nicht sein könnten: Während auf der einen Seite die diffuse Angst vor „Killermaschinen“, die die Existenz der gesamten Menschheit bedrohen könnten, vorherrscht, sieht die andere Seite Roboter als Heilsbringer, die die Menschheit von der Notwendigkeit der Erwerbsarbeit befreien.

Doch wie sieht die Realität tatsächlich aus?
Wohin könnten die Entwicklungen gehen?

Je nachdem, wie man den Begriff „Roboter“ definiert, sind Roboter schon heute in vielen Haushalten fester Bestandteil unseres Alltags: Vom „Rasenmäh-Roboter“ über den „Staubsauger-Roboter“ bis hin zum Kühlschrank, der bei Bedarf selbst Lebensmittel, die zur Neige gehen, nachbestellt, sind uns entsprechende Maschinen nicht fremd. Mit menschenähnlichen Robotern, wie wir sie aus Filmen oder Büchern kennen, haben diese (relativ einfachen) Geräte jedoch nicht viel zu tun. Vielleicht fällt es uns auch aus diesem Grunde so leicht, uns an ihre praktischen Funktionen zu gewöhnen.

Dass mit diesen so unscheinbaren Alltagshelfern durchaus größere ethische Fragestellungen einhergehen, verliert man dabei schnell aus dem Blick. Dabei sind zahlreiche Aspekte, wie etwa welche Daten durch die heimischen Roboter erhoben werden und was mit diesen geschieht/geschehen darf, bis heute nicht endgültig geklärt.

Auch in der Industrie – in der unter dem Stichwort „Arbeit 4.0“ oder „Industrie 4.0“ das Thema „Robotik“ ein Schlagwort geworden ist – haben und halten Roboter sukzessive Einzug. Automatisierung, Autonomisierung, Flexibilisierung und Individualisierung sind Kennzeichen der „Smart Factory“, die effizient und effektiv agieren und reagieren soll (Bendel, 2015, S. 750).

Die große Befürchtung, dass durch Industrieroboter und –anlagen sukzessive immer mehr Arbeitsplätze vernichtet werden, dominiert dabei immer wieder die Schlagzeilen. Umgekehrt können gerade in Arbeitsbereichen, in denen Arbeitskräfte fehlen, wie etwa dem Pflegesektor, Roboter eine deutliche Entlastung darstellen. Dass mit dem Einsatz von Robotern speziell im sozialen Bereich, in dem das zwischenmenschliche Miteinander von großer Bedeutung ist, jedoch auch nicht als Patentlösung angesehen werden kann und in der Umsetzung durchaus auch kritisch reflektiert werden muss, sollte dabei selbstverständlich sein (Beck, 2013, S. 7).

Sicherlich ist unser Eingangsbeispiel – der Roboter als „Killermaschine“ – sehr drastisch gewählt. Blickt man jedoch auf die aktuellen Entwicklungen im militärischen Kontext, wird deutlich, dass es gar nicht so sehr aus der Luft gegriffen ist. Drohnen, die ferngesteuert Ziele anvisieren können, stellen nur einen ersten Schritt hin zu einem vollautomatisierten Waffensystem dar. Derartige Entwicklungen werfen große ethische Fragestellungen auf, die es mit Blick auf den rasanten technischen Fortschritt zu diskutieren gilt (Weidlich, 2013, o. S.).

Dürfen Maschinen töten? Roboter und Moral

Das Einsatzgebiet von Robotern wird breiter – und dringt bis in unseren Alltag vor. Zudem werden Roboter und roboterähnliche Maschinen immer „intelligenter“. Künstliche Intelligenz, also Maschinen, die aufgrund von „Erfahrungen“ selbst lernen und ihre Handlungsabläufe anpassen können, sind bereits heute Realität. Doch was bedeutet das für moralische Fragestellungen? Können wir es zulassen, dass Maschinen über Leben und Tod entscheiden?

Mit dem selbstfahrenden Auto gelangten entsprechende Fragestellungen zunehmend in die Öffentlichkeit. Wie schwierig die Entscheidungen, um die es hierbei u. a. geht, zu treffen sind, wird etwa in dem Projekt „Moral Machine“ (http://moralmachine.mit.edu/hl/de) des Massachusetts Institute of Technology deutlich: Hier können Nutzer unterschiedliche Dilemmata, auf die selbstfahrende Autos treffen könnten, virtuell durchspielen. Im Anschluss an die eigene Entscheidung kann man sein Urteil mit dem von anderen Teilnehmer_innen vergleichen und diskutieren.

Selbstfahrendes Auto von Google. Von Michael Shick - Eigenes Werk, CC-BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=44405988

Eine andere Frage nach der Moral der Maschinen wirft u. a. das Stichwort „Roboterjournalismus“ auf. Schon heute werden Algorithmen dazu eingesetzt, um Sportnachrichten oder Börsenberichte zu verfassen. Doch wie steht es um Roboterjournalismus, wenn komplexere Inhalte berichtet werden sollen? Wie können Roboter entscheiden, welche Nachrichten für die Leser_innen, für die Gesellschaft wirklich relevant sind? Fragen wie diese zeigen, dass wir trotz all der technischen Potentiale, die mit den Entwicklungen im Bereich der künstlichen Intelligenz einhergehen, Robotern – gerade wenn es um komplexere, ethische Fragestellungen geht – die Kompetenz der Entscheidungsfindung (noch) nicht zutrauen.

Doch was würde es umgekehrt bedeuten, wenn Roboter tatsächlich dazu in der Lage wären, moralische Entscheidungen zu treffen? Wie müssten wir mit Robotern in diesem Falle umgehen? Was wir in der Science-Fiction-Literatur unter dem Thema „Roboter-Rechte“ in naiver Faszination gelesen haben, müsste dann auch in der Realität zu diskutieren sein (Bendel, 2016, S. 189 ff.).

 

Veranstaltungstipp: International Research Conference Robophilosophy 2018

Bereits in diesem kurzen Abriss wurde deutlich, dass das Thema „Robotik“ zahlreiche Fragen aufwirft.

Welche konkreten Auswirkungen die Robotik auf die Gesellschaft haben kann, das wird auf der „International Research Conference Robophilosophy 2018 / TRANSOR 2018“ aus primär geisteswissenschaftlicher Sicht diskutiert. Aktuelle Forschungsergebnisse werden dort mit starkem Praxisbezug präsentiert.

So lauten die drei Hauptziele der Veranstaltung:

  • „present interdisciplinary Humanities research in and on social robotics that can inform policy making and political agendas, critically and constructively
  • investigate how academia and the private sector can work hand in hand to assess benefits and risks of future production formats and employment conditions.
  • explore how research in the Humanities, including art and art research, in the social and human sciences, can contribute to imagining and envisioning the potentials of future social interactions in the public space.“

Die Konferenz findet vom 14.-17. Februar 2018 an der Universität Wien statt.

Weitere Informationen und Anmeldung finden Sie auf der Veranstaltungsseite der Universität Wien.