Pragmatisch vs. Prinzipiengeleitet

Die Debatte über die ethischen Leitlinien für KI der EU-Expertengruppe „High Level Expert Group on Artificial Intelligence (AI HLEG)“.

Hintergrund

Künstliche Intelligenz (KI) ist eine umfassende, sich ständig fortentwickelnde Technologie, die immer mehr Aspekte unseres Lebens berührt. Darunter auch zentrale Werte wie menschliche Freiheit, Würde und Gleichheit, die zugleich als Grundlage der Menschenrechte sowie als Säulen demokratischer Verfassungen fungieren.

Aus diesem Grund, sind Regelungen notwendig, die diese zentralen Werte schützen und sicherstellen können. Dies bezieht sich mitunter auf Fragen des verantwortungsvollen Umgangs mit den von Künstlicher Intelligenz genutzten, notwendigen Daten, oder z.B. direkt auf Mensch-Maschine Interaktionen.

Die EU hat sich deshalb zum Ziel gesetzt, das Vertrauen in eine auf den Menschen ausgerichtete KI zu stärken und hierfür eine Expertengruppe berufen, um Ethik-Leitlinien für KI auszuarbeiten. Letzten Monat hat diese Expertengruppe diese Leitlinien veröffentlicht. Im Rahmen der Diskussion um dieses Thema, gibt es bislang divergierende Ansichten, sodass sich eine Debatte ergeben hat, an der mitunter Thomas Metzinger (Mitglied und zugleich Kritiker der Expertengruppe) und Christoph Lütge (Direktor des neuen Instituts für KI-Ethik an der TU München) hinsichtlich verschiedener Aspekte von Künstlicher Intelligenz zur Erarbeitung und Umsetzung adäquater ethischen Leitlinien mitwirken.

Künstliche Intelligenz (KI) ist eine umfassende, sich ständig fortentwickelnde Technologie, die immer mehr Aspekte unseres Lebens berührt.

Im Rahmen der Debatte verweist Christoph Lütge daher darauf, dass Menschen aufgrund der angestiegenen Komplexität zunehmend dazu gezwungen sind, auf Technologie zu vertrauen. Während Metzinger „Vertrauenswürdigkeit“ als menschliche Eigenschaft auffasst und KI das Attribut „vertrauenswürdig“ ganz abspricht sowie eine Gefahr darin sieht, dass anhand von KI Regierungen, oder Unternehmen (etc.) noch mehr Spielraum eingeräumt wird, um noch weniger vertrauenswürdig zu handeln, sieht Lütge dies pragmatischer. Vielmehr verweist Letzterer auf die positiven Erfolge, die bislang mit dem Einsatz von Programmen und Software-Einsätzen im z.B. Compliance-Bereich bei Unternehmen erzielt werden konnten.

Grundsätzlich stimmen beide also darin überein, dass zukünftig Menschen auf KI zurückgreifen werden, jedoch weisen beide, aufgrund unterschiedlicher ethischer Ausrichtungen in ihren Darlegungen, unterschiedliche Zukunftsprognosen im Umgang mit KI auf.

Ethics Washing

Der Vorwurf Metzingers des „Ethics Washing“ ist, dass Ethik zur Verschönerung von wirtschaftlichen Investitionsstrategien genutzt wird und die Wirtschaft, die notwendige Debatte initiiert und organisiert, die letztlich zivilgesellschaftlich stattfinden sollte. Damit kommt es zur Ablenkung und zeitlichen Verzögerungen, wodurch tatsächliche Regulierungen gerade unterbunden würden. Metzinger sieht indessen die Debatte um vertrauenswürdige KI, welche nach ihm zivilgesellschaftlich geführt werden sollte, daher von der Wirtschaft als signifikant untergraben an. Diese verwende Ethik vielmehr als „Verschönerung“ d.h. dazu, die notwendigen Investitionen in KI wirtschaftlich voran zu treiben und möchte dabei möglichst wenig substanzielle ethische Richtlinien vorgegeben bekommen, d.h. unreguliert bleiben.

Lütge nimmt in diesem Zusammenhang des „Ethics Washing“ Bezug auf eine grundlegende Unterscheidung nämlich der Motivation und der Folge einer Handlung. Er spricht von einer Gruppe von Kritikern (vermutlich darunter auch Metzinger), die Unternehmen aufgrund ihrer Motivation oft kritisiere, ungeachtet möglicher positiver Folgen für die Gesellschaft. Ethisches Handeln sei in Lütges Augen nicht zwingend von der „richtigen Gesinnung“ abhängig bzw. würde man auf die Motivation (der Unternehmen) alleine fokussiert bleiben, würden keinerlei (gesellschaftliche) Veränderungen erzielt werden können.

Es scheint also, dass während Metzinger auf die Prinzipien bzw. die Motivation ethischen Handelns, oder Leitlinien hierfür fokussiert ist, Lütge wohl nahezu ausschließlich auf die Folgen von Handlungen konzentriert ist (oder dies als Kriterium für substanzielle ethische Prinzipien gelten lässt). Dies wirft jedoch gerade in Demokratien entscheidende Fragen auf, die wohl zu bedenken sind.

Einbindung von Ethikern

Ein weiterer Diskussionspunkt der Debatte ist die Einbeziehung von Ethikern in die Expertengruppe zur Formulierung der KI-Richtlinien. Metzinger kritisiert die von der EU eingesetzten Expertengruppe dahingehend, dass darin zu wenig Ethiker eingebunden seien, um ethische Richtlinien zu generieren. Einerseits betont er zwar die Notwendigkeit der Expertise anderer Bereiche, bemängelt jedoch zugleich die Anzahl der Ethiker insgesamt als zu gering (vier von 52 Mitgliedern). Metzinger bemerkt zudem, dass die anfangs von den Experten formulierten Roten-Linien hinsichtlich des Umgangs mit KI, also was nicht mit dieser geschehen solle (z.B. Einsatz autonomer tödlicher Waffensystemen auf KI basierend) letztlich signifikant abgeschwächt, oder ganz aus der veröffentlichten Version der Ethik-Leitlinien der KI gestrichen wurden.

Demgegenüber vertritt Lütge die Ansicht, dass gerade über Ethik-Richtlinien nicht nur Ethiker entscheiden können und sollten. Die Einbindung von Unternehmen (neben Wissenschaft, Zivilgesellschaft, politischen Akteuren) bei der Findung und Formulierung ethischer Leitlinien zeigt sich als notwendig für die realistische Umsetzung ethischer Leitlinien für die KI. Würde man wie oben erwähnt nur die Motivation der Unternehmen beurteilen, beschwört Lütge gar einen Teufelskreis des (wirtschaftlichen) Stillstands, indem keinerlei Fortschritt oder gar Verbesserung erzielt werden könne. So sieht er die Einbeziehung möglichst aller Interessen aus Wirtschaft, Wissenschaft, Zivilgesellschaft und Politik als gleichberechtigt und grundlegend wichtig an.

Zu Richtlinien selbst

Im Rahmen von KI und deren Wirkungskreis, sind die erwähnten Aspekte grundlegend und wir Menschen haben schließlich zu entscheiden, inwieweit Maschinen über Menschen und inwieweit Menschen über Maschinen entscheiden.  Hierfür sind wohlüberlegte, substanzielle ethische Leitlinien essentiell. Metzinger verweist auf die internationale Ebene, in der nur wenige Jahre blieben, um europäische Richtlinien überhaupt niederzuschreiben und verteidigen zu können. Sicherlich lassen China, die USA und der Rest der Welt nicht auf sich warten.

So scheint es sinnvoll, dass zum einen auf die Einbeziehung von diversen Interessensgruppen hinsichtlich der Umsetzung ethischer Leitlinien geachtet wird, da nur so ethische Richtlinien auch effektiv umgesetzt werden können. Allerdings sollten hierbei die Rechte und Interessen der Zivilbevölkerung besonders geschützt werden sowie demokratische Grundwerte unangetastet bleiben. Aus diesem Grund sollte der substanzielle Gehalt ethischer Leitlinien (für vertrauenswürdige KI) nicht leiden. Eine zivilgesellschaftliche Debatte über ethische Prinzipien von KI ist dabei in jedem Fall von grundlegender Bedeutung; nicht nur damit zivilgesellschaftliches Bewusstsein hinsichtlich des Umgangs mit KI erst einmal entstehen kann, sondern auch Interessen der Zivilgesellschaft artikuliert werden können. 

Des Weiteren kommt es auf differenzierte Unterscheidungen bei der Formulierung angemessener ethischer Leitlinien an. So scheint es sinnvoll und notwendig, je nachdem um welche Software es sich handelt, welche Art KI-System eingesetzt wird, welche Daten hierfür wie verwendet werden und welcher Lebensbereich davon betroffen ist, entsprechend differenzierte Regelungen und ethische Leitlinien zu finden.

Dies funktioniert nur mit Richtlinien, die vom Generellen zum Konkreten reichen. Sind die ethischen Leitlinien zur KI also nur als erster Entwurf beim Versuch vom Allgemeinen zum Konkreten zu kommen zu werten, dann sind diese legitim. Ist dies schon als konkretes Endresultat zu verstehen, wovon wir nicht ausgehen können, ist dies jedoch kein ernst zu nehmender Versuch aus Perspektive der Ethik, substanzielle und damit ernsthaft vertrauenswürdige KI-Ethik-Richtlinien zu gestalten.

Diskussion und Konklusion(en)

Ungeachtet dessen, dass sie unterschiedliche Meinungen vertreten, diskutieren beide Autoren wichtige Aspekte hinsichtlich der Debatte um KI-Anwendungen.

Insgesamt lässt sich nur anhand vertrauenswürdiger ethischer Prinzipien, auch vertrauenswürdige KI generieren. Um substanzielle ethische Leitlinien für vertrauenswürdigen und verantwortungsvollen Umgang mit KI, bedarf es natürlich diverser Akteure; nicht nur aus Wirtschaft, Politik, der Zivilgesellschaft, oder Wissenschaft, sondern gerade aus Letzterer nun einmal Philosophen und Ethiker. Überdies könnten schließlich solche europäischen Leitlinien der KI als Standard und als europäische Marke im KI-Bereich international als Chance verstanden und gehandelt werden. Gerade gegenüber China und den USA sollte die EU daher eher mit starken ethischen Leitlinien zur KI „antreten“. Womöglich ist dies gerade ein „selling-point“ im internationalen KI-Wettbewerb, der Europa (noch) vorbehalten ist.

Substanzielle ethische Leitlinien der KI zu formulieren scheint gerade bei diesem Vorhaben in der Tat essentiell. Vor allem in demokratischen Gesellschaften, in denen sowohl Motivation als auch Folgen von Handlungen grundsätzlich hinterfragt werden sollten. Die Interessen der Zivilgesellschaft zu schützen und Grundwerte wie Autonomie und Menschsein durch authentische und damit tatsächlich vertrauenswürdige ethische Prinzipien zu gewährleisten, darf dabei nicht unterschätzt werden. Nur so kann Vertrauen in KI gelingen. Denn ein zentraler Aspekt hinsichtlich KI ist, bleibt und wird auch weiterhin eines sein – nämlich menschliches Vertrauen.  

 

Über Cindy Roberts

Cindy-Ricarda Roberts ist sie wissenschaftliche Mitarbeiterin am Lehrstuhl für Medienethik an der Hochschule für Philosophie München.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Ich akzeptiere

*

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.