Die Diskussion um die Gestaltung des technologischen Fortschritts am Beispiel der Künstlichen Intelligenz – Zu den neusten Vorschlägen der High Level Expertengruppe der EU-Kommission
Es dämmert vielen Menschen immer mehr, dass zukünftig Technologien nicht nur wie in der Vergangenheit die Natur um uns herum verändern, sondern bald schon auch den Menschen selbst umformen werden. Möglichkeiten einer grundlegenden Veränderung unserer Biologie, unserer Psyche und Wahrnehmung und unseres Bewusstseins zeichnen sich bereits ab. Wie wir damit umgehen und diese Möglichkeiten gestalten, bestimmt die Zukunft unseres Menschseins, sowie die unserer individuellen Freiheit. Das macht vielen Menschen Angst. Denn sie glauben, dass der technologische Fortschritt in all seiner Gewaltigkeit eine autonome Kraft darstellt, die einfach so wirkt, ohne dass wir irgendetwas daran ändern können. Wir sind ihren Entwicklungen unrettbar ausgesetzt. Doch sind wir tatsächlich nur passive Zuschauer und Leidtragende, über die neue Technologien einfach so hinwegrollen? Oder können wir diese nicht vielleicht selber gestalten, und dies vielleicht zum Besten unserer aller? Um die letzte Frage positiv zu beantworten, braucht es sicherlich folgendes: 1. Wissen; 2. Bereitschaft und Mut zum Engagement; 3. Klare Grundsätze und Ziele.
Am ehesten wird noch dem Staat und seiner politischen Spitze eine Führungsrolle in dieser Frage zugesprochen. Doch in der Realität sind politische Akteure zumeist sowohl vom Inhalt als auch von der Geschwindigkeit des technologischen Wandels überfordert. Andere Teile des gesellschaftlichen Führungspersonals und der meinungsbildenden Berufe (Intellektuelle, Wissenschaftler, Kulturschaffende, Journalisten, Kirchen, Pädagogen, etc.) erweisen sich den Herausforderungen des technologischen Fortschritts gegenüber oft als nicht weniger hilflos. So werden die Entwicklungen in der Realität oft den Kräften des Marktes überlassen. Dafür existiert sogar ein theoretisches Fundament: Die klassische Ökonomie zeichnet das Bild eines Marktes, der automatisch optimale Bedingungen (zum Beispiel Wohlstand für alle) hervorbringt, wenn man ihn nur lässt. So dient die fast 250 Jahre alte Metapher von der „unsichtbaren Hand“ noch immer als Legitimationsprinzip für die Auffassung, dass ein Markt nur dann die Gesellschaft als Ganzes zu maximalem Wohlstand führt, wenn der Güter- und Dienstleistungsaustausch und andere ökonomische Aktivitäten (in unserem Kontext die technologische Entwicklung) sich völlig unbeschränkt entfalten können. Dass dieses Idealbild ökonomischer Modelle nicht den realen marktwirtschaftlichen Prozessen entspricht, ist längst bekannt. Zahlreiche Kräfte verhindern, dass sich das von Ökonomen propagierte marktwirtschaftliche Gleichgewicht einstellt: Externalisierung von Kosten (Verletzung des Verursacherprinzips), Interessenkonflikte und Korruption, Wettbewerbsverzerrungen, Informationsasymmetrien unter Marktteilnehmern sowie nicht zuletzt massive kognitive Verzerrungen (die längst einen eigenen Zweig in der ökonomischen Forschung hervorgebracht haben, die Verhaltensökonomie). Die freien Kräfte des Marktes unterliegen vielmehr einer kapitalistischen Verwertungslogik, bei der es für den einzelnen Akteur darauf ankommt, möglichst viele Profite zu erwirtschaften. Gesellschaftliche Probleme zu lösen ist dagegen kein Bestandteil irgendeiner Zielfunktion ökonomischer Akteure. Wie kann dies dann ein Teil einer solchen im Markt insgesamt sein?
Ein Prüfstein für die „unsichtbare Hand“ des freien Marktes stellt die ökologische Dimension dar. Dass unser Wirtschaftssystem bei einem der bedeutendsten Probleme unserer Zeit, dem drohenden Klimawandel, kläglich scheitert, wird immer offenbarer. Externe ökologische Kosten treten nun einmal in keiner ökonomischen Zielfunktion auf. Daher drohen wir als Spezies an einer Frage zu scheitern, die für unser langfristiges Überleben kaum wichtiger sein könnte. Ein weiterer Lackmustest für die globale Gesellschaft wird sein, wie wir den technologischen Fortschritt gestalten.
Doch sind die mit dem technologischen Fortschritt verbundenen Prozesse nicht längst zu unübersichtlich, als dass wir ihnen irgendetwas entgegenstellen könnten? Ein solcher Fatalismus könnte selbst fatal sein. Vielmehr braucht es für seine Gestaltung die globale Abstimmung zwischen Interessensgruppen, Staaten und Machtblöcken, damit verhängnisvolle Entwicklungen vermieden und möglichst grosse Nutzen für alle Menschen realisiert werden können. Im Zentrum muss dabei immer ein demokratischer Prozess stehen. Nur eine hohe soziale Diversität, dezentrale Informations- und Entscheidungsstrukturen und gesellschaftliche Vielfalt schaffen eine ausreichend hohe Funktions- und Leistungsfähigkeit und damit die notwendigen Einsichten und Entscheidungskraft innerhalb von Gesellschaft, Politik und Wirtschaft. Erst Demokratie auf globaler Ebene ermöglicht die Abstimmung zwischen Interessensgruppen, Staaten und Machtblöcken, um Entwicklungen zu vermeiden, die die Menschheit als Ganzes ins Abseits führen.
Wie das konkret aussehen kann, könnte eine Initiative der EU-Kommission mit der Gründung einer Experten-Gruppe (High-Level Expert Group on Artificial Intelligence, AI HLEG) aufzeigen, die sich im Dezember 2018 mit einem Beitrag „Ethische Grundlagen für eine vertrauenswürdige KI“ an die Öffentlichkeit wandte. „Künstliche Intelligenz (KI) ist eine der transformativsten Kräfte unserer Zeit und wird das Gewebe der Gesellschaft verändern“, heisst es darin gleich zu Beginn. Die Experten nennen daraufhin die Prinzipien auf dem Weg zu einer verantwortungsvollen Entwicklung der KI-Technologien. Insbesondere sei hier ein „anthropo-zentrischer“ Ansatz vonnöten, so die Gruppe unisono. Ziel ist es, die Entwicklung der KI derart zu gestalten, dass der einzelne Mensch, seine Würde und seine Freiheit geschützt werde, Demokratie, Recht und Gesetz sowie Bürgerrechte aufrecht erhalten werden und Gleichheit, Minderheitenschutz und Solidarität gefördert werden. Grundlegende Richtlinien für jede KI-Technologie müssen daher sein: 1. Den Menschen Gutes zukommen zu lassen; 2. kein menschliches Leid zu verursachen; 3. die menschliche Autonomie zu fördern; 4. das Prinzip der Fairness gelten zu lassen; und 5. Transparenz und Nachvollziehbarkeit in allen Wirkungen zu erreichen.
Hört sich alles prima an. Die gemachten konkreten Vorschläge umfassen auch eine breite Palette an Massnahmen auf technischer wie nicht-technischer Ebene. Beginnt sich hier vielleicht ein erstes zartes Pflänzchen einer echten gesellschaftlichen Diskussion über die so wichtigen Fragen zukünftiger Technikgestaltung zu bilden, wie oben eingefordert? So mancher Kritiker bleibt skeptisch, wie beispielsweise der bekannte Fernsehwissenschaftler Ranga Yogeshwar. Für ihn repräsentieren die Vorschläge der Experten-Kommission eine Ethik, „die (…) instrumentalisiert und zu einem Werbeslogan reduziert wird“. „Sie wird zum Feigenblatt von Geschäftemacherei“, so Yogeshwar weiter. Das sind überaus harte Worte gegen die ausgearbeiteten Vorschläge. Man würde erwarten, dass sie auch mit entsprechend harten Argumenten verteidigt werden. Leider ist das nicht der Fall. So gründet Yogeshwar seine Kritik insbesondere darauf, dass sich unter den 52 Mitgliedern der Gruppe mit Google auch eine amerikanische Firma befindet. Auf der Basis dieser Feststellung suggeriert er, dass „dieser Vorstoß einem Trojanischen Pferd gleicht, bei dem zwar Europa draufsteht, doch im Kern sich die nichteuropäischen Konzerne Zutritt zum europäischen KI-Markt der Zukunft verschaffen“. Untermalt wird das Ganze noch mit der grusligen (wenn auch im Einzelnen korrekten) Aufzählung vieler Verfehlungen Googles (und Facebooks) auf dem europäischen Markt, was Verbraucherschutz angeht. Was Yogeshwar allerdings unerwähnt lässt, ist, dass Google die einzige nicht-europäische Firma auf der Liste ist. Und ist es wirklich sinnvoll, die weltweit führende KI-Firma aus dieser so wichtigen Diskussion aussen vor zulassen, nur weil sie nicht europäisch ist? Damit, dass er gleich dem ganzen Papier derart unlautere Absichten unterstellt, hat der Kommentar wohl ein wenig weit gegriffen und sein Autor wird sich so selber kaum dem Vorwurf der Instrumentalisierung entziehen können. Yogeshwar plädiert dafür, sich die Zusammensetzung des Gremiums einmal genauer anzuschauen. Das sollten wir in der Tat. Denn neben mehr als 20 Vertretern ausser Google ausschliesslich europäischer Industrieunternehmen finden sich darauf auch 19 Repräsentanten aus der akademischen Forschung, sechs Konsumenten- bzw. Arbeitnehmerschutzorganisationen und vier regierungsnahe Institutionen. Man sollte meinen, dass dies eine ausreichend heterogene Gruppe ist, um ein sehr breites Spektrum an Gesichtspunkten und Meinungen zu diesem so wichtigen wie kontroversen Thema auf den Tisch zu bringen, und dass es sich hier daher kaum nur um eine Übung kapitalistischer Interessendurchsetzung unter dem Deckmantel hehrer ethischer Prinzipien handelt.
Tatsächlich konstatiert das Dokument an der entscheidenden Stelle, wo es um mögliche kritische Punkte einer zukünftigen KI-Technologie geht, dass es innerhalb der Gruppe noch gar keinen Konsens gibt. „Hier wird noch heiss diskutiert!“ heisst es da bzgl. der Identifikation und Tracking individueller Nutzer durch KI-Algorithmen, der Interaktion zwischen Menschen und KI, sozialer Scoring-Systeme, autonomer Waffen und möglicher langfristiger Probleme einer KI, die beispielsweise ein eigenes Bewusstsein entwickeln könnte. Oder muss all das von den Lesern gelesen werden als „Achtung, in diese Jauchegrube ethischer Verstrickungen darf ich mich als meinen Aktionären verpflichteter Unternehmer nicht hineinbegeben, also Deckel drauf“? Kaum vorstellbar, dass dies in dieser heterogenen Gruppe von KI-Experten einen breiten Konsens findet.
Ein Kritikpunkt, den auch Yogeshwar vorbringt, behandelt das von der Expertengruppe geforderte Prinzip der „Erklärbarkeit“ von KI gelieferter Wirkungen. Versteckt sich hinter dieser Erklärbarkeitsforderung, die dadurch erreicht werden soll, dass der Nutzer ein „informiertes Einverständnis“ gibt, vielleicht eine Hintertür für die KI-Entwickler, fundamentale Prinzipien der Menschenwürde auszuhebeln, zum Beispiel indem man dem Nutzer Erklärbarkeit vorspielt, um sein Einverständnis zu erhaschen? Drückt dieser dann die „Okay“-Taste, wäre der KI-Entwickler nicht nur juristisch, sondern auch ethisch aus dem Schneider, schliesslich hat der Nutzer den Erklärungen ja zugestimmt! Betrachtet man die Umsetzung der europäischen Datenschutz-Grundverordnung (DSGVO) durch Google, Facebook und Co., so lässt sich eine solche Befürchtung kaum ganz von der Hand weisen. Zugleich verweist das Dokument aber auch immer wieder klar auf die EU-Charta, in der die fundamentalen Menschenrechte explizit dargelegt sind, und will sich an dieser orientieren. Im Zweifelsfall wird es, so die Experten, „hilfreich sein, zu Grundsätzen und übergreifenden Werten und Rechten, die durch die Verträge und die Charta der EU geschützt werden, zurückzukehren.“ Man würde sich vielleicht wünschen, dass dies noch etwas klarer ausgedrückt wird, aber umgekehrt zu behaupten, dass das Erklärbarkeitsprinzip Tür und Tor für eine zukünftige Verletzung unserer Menschenrechte durch KI ermöglicht, oder daraus gar die Legitimation für das Prinzip „Wettbewerb vor Ethik!“ droht, erscheint wiederum etwas übertrieben.
Die Diskussion um die Gestaltung der KI-Technologie ist natürlich zu wichtig, um sie alleine der kapitalistischen Verwertungslogik zu überlassen und sie nur in Hinblick auf die Renditeaussichten der Tech-Investoren oder die Ideologie der Marktfundamentalisten zu führen. Sie muss auf der Basis breiter demokratischer Prozesse geführt werden, in denen sich ein grosses Spektrum an Interessen und Meinungen einbringen. Daher ist die Diskussion um die Darlegungen der AI HLEG schon prinzipiell zu begrüssen, auch wenn diese sich mit einer in einzelnen Punkten sehr berechtigen Kritik, dem Vorwurf der Unklarheit in einzelnen Formulierungen und nicht zuletzt einer Verärgerung ob des sehr knappen zeitlichen Diskussionsfensters ausgesetzt sehen muss. Genau ein solcher Prozess der kritischen Auseinandersetzung mit einem breiten Teil der Bevölkerung braucht es jedoch für die Gestaltung des Potentials zukünftiger Technologien.
1 Kommentar. Hinterlasse eine Antwort
Your style is so unique in comparison to other folks I have read stuff from. Thank you for posting when you’ve got the opportunity, Guess I will just bookmark this blog.|