„Der moralische Kompass ist schwer zu finden”
CHEFINFO: Gibt es ethische Antworten auf all die moralischen Fragen, welche die Digitalisierung, konkret die KI, aufwirft?
Michael Fuchs: Ich kam 2015 nach Linz an die KU und übernahm den Lehrstuhl für Praktische Philosophie und Ethik. Seitdem war ich auch an der JKU für das Modul „Medizin und Ethik“ verantwortlich. Das Thema „Medizin und Ethik“ wurde sehr intensiv und vor allem interdisziplinär diskutiert. Es ging um die großen Fragen. Ethik ist ja nicht gleich Moral. Tatsächlich reflektieren wir in der Ethik auf methodische Weise die Fragen der Moral, vereinfacht geht es um die Differenz zwischen Gut und Böse. Das funktioniert in der Medizin, etwa beim Thema „Gentechnik“ oder „Stammzellen“, ganz gut. Die Ethik hat zwar nicht immer sofort eine Orientierung, was nun richtig und was falsch ist, aber es gibt ethische Klärungs- und Verständigungsprozesse. Bei großen und radikalen Innovationen wie der KI ist der moralische Kompass nicht da und schwer zu finden. In der Medizin gibt es ein Standesethos, etablierte Entscheidungsabläufe und eine lange Tradition über moralische Fragen zu diskutieren. Beim Thema „KI“ wissen selbst die Avantgardisten der Wissenschaft oft nicht, in welche Richtung es geht. Es kann keiner die Entwicklungsperspektive in den nächsten fünf Jahren voraussehen. Damit wissen wir auch nicht, auf welche Aspekte sich die Ethik konzentrieren kann, und dann kann der Verwurf kommen, „die Ethik kommt immer zu spät“. Man kann aber grundsätzliche Fragen stellen und alternative Zukunftsszenarien durchspielen.
Könnte man für die ethischen Fragen rund um die KI auch aus der Medizinethik lernen?
Fuchs: Durchaus. In der Medizinethik tauscht man sich mit der Ärzteschaft und Forschern aus, um ein klares Bild von den unterschiedlichen Zielsetzungen zu haben. Ein Beispiel: Wachstumshormone helfen bei kleinwüchsigen Menschen mit einem Mangel an diesen Hormonen, aber auch bei Kleinwüchsigen ohne diesen Mangel. Da stellt sich die Frage: „Wäre es nicht für viele wünschenswert, größer zu sein, etwa um Basketballspieler oder Model zu werden?“ Das nennt man Enhancement. Im Dialog mit der medizinischen Praxis erfährt man dann, dass es tatsächlich unterschiedliche Herangehensweisen gibt, dass die Behandlungen auch mit Belastungen verbunden sind, dass es viele Fälle gibt, wo die angestrebte Wirkung schlicht ausbleibt. Mit der Digitalisierung hat man sich eine Demokratisierung erhofft. In den 1990ern hieß es: „Wir haben die Gatekeeper-Funktion der großen Medien überwunden, jeder kann sich nun beteiligen.“ Heute sehen wir das mit all den Chatbots und Algorithmen anders. Die Wahrnehmung hat sich verändert – von einer radikaldemokratischen Euphorie hin zur Sorge um die Demokratie. Was beim Thema „KI“ kommen wird, wissen wir noch nicht. Generell gingen aber Prognosen, die sagen: „Das wird so nicht kommen, das wird niemals möglich sein“, in der Vergangenheit meist fehl. Wir müssen also von einer großen Offenheit der möglichen Entwicklungen ausgehen.
Ist Technologie per se zumindest anfangs einmal nicht „neutral“?
Fuchs: Technologie hat Eigengesetzlichkeiten und ist insofern nicht so unschuldig, wie man meinen möchte. Bei vielem stellt sich die Frage eines Dual Use, sprich, gibt es potenziellen Missbrauch und wie wäre der Schaden des Missbrauchs im Verhältnis zum erwarteten Nutzen zu gewichten?

Wie könnte man KI nun „ethisch“ sauber gestalten, sodass der Nutzen größer als der potenzielle Missbrauch ist?
Fuchs: Ein Orientierungspunkt könnte das Prinzip der Autorenschaft sein. Damit Menschen durch die Technologie profitieren und nicht zum bloßen Objekt werden, braucht es Prinzipien und konkrete Verantwortung. Es gehört zur Ethik, sich Fragen zu stellen wie „Was ist der angemessene ethische Ansatz und wie sehen die angemessenen Regulierungsinstanzen aus?“ oder „Warum sollte man gewisse Felder regulieren?“. In der Medizinethik fragt man etwa: „Gibt es Felder, wo man sich auf das Ethos nicht verlassen kann?“ Auch in der KI müssen wir uns fragen: „Gibt es eine Gruppenmoral oder nur die Moral der wichtigsten Player und braucht es staatliche Regulationen, Gesetze, Sanktionsmöglichkeiten?“ Diese Aufgabe stellt sich auch außerhalb von KI und Digitalisierung in anderen Handlungsfeldern. Ein Beispiel aus dem Feld der Sportethik ist die ethische Einordnung von Doping. Ist es richtig, etwas staatlich zu bestrafen oder sollte man das dem Sport überlassen? Wann ist ein Eingreifen in die Integrität der Athleten gerechtfertigt? Das kann z. B. der Fall sein, wenn es staatliche Unterstützung für die Sportler gibt oder wenn die Öffentlichkeit eine Manipulation von Wettkämpfen durch die Sportverbände nicht wirksam verhindert sieht. Dann gibt es auch ein Interesse an Regulierungen. Wenn aber ein US-Präsident per Dekret entscheiden will, wie olympische Wettkämpfe auszusehen haben, dann ist das eine Missachtung der Eigengesetzlichkeit des Sports und seiner Vertreter.
Inwiefern ist der Zugang zu Robotik, Digitalisierung oder KI kulturell geprägt. Europa scheint da eher ein Bremser zu sein?
Fuchs: Da gibt es Unterschiede – wenngleich ich da nicht der richtige Experte dafür bin. Man hat gesagt, ein Roboter wird in Europa eher als Feind gesehen, in den USA als Assistent, in China als Kollege und in Japan vielleicht als Freund. Wenn Roboter schwere oder gar gefährliche Arbeiten übernehmen, passt das auch im europäischen kulturellen Kontext. Wenn es aber um die persönliche Kommunikation geht, ist das schon ein wenig problematischer. Da steht die Gefahr der Täuschung im Raum. Wenn ein Pflegeroboter den Eindruck erzeugt, ein personelles Wesen zu sein, haben wir ein ethisches Problem, weil wir mit seinem Einsatz etwas vortäuschen. Wer mit Täuschung operiert, nimmt den Adressaten nicht adäquat ernst. Über kulturelle Differenzen in der Haltung hinweg ist es möglich, sich an gemeinsamen Prinzipien zu orientieren und sich auf solche zu verständigen. Wir kennen das ethische Dilemma beim autonomen Fahren. Es muss ein ganzes Prinzipien-Setting einprogrammiert werden. Hier wird die moralische Verantwortung vom Fahrer auf die Programmierer verschoben. Aber man muss sich klar sein, dass an einer Stelle menschliche Verantwortung zu tragen ist.

Glauben Sie beim Thema „KI“, dass sich dystopische Voraussagen erfüllen könnten oder sind Sie eher Optimist?
Fuchs: Ich glaube nicht an Dystopien, aber Dystopien können für Urteilsbildungsprozesse wichtige Funktionen wie auch positive Zielszenarien haben. Dystopien gibt es in diesem Feld schon lange. Auch solche, die vieles in der Ethik vorwegnehmen, was heute KI und Robotik betrifft. Der tschechische Schriftsteller Karel Čapek erschuf 1920 in seinem Bühnenstück „R.U.R.“ den künstlichen Menschen. Das Wort „Roboter“ geht auf ihn zurück. Ein Stück, das schon damals viele ethische Fragen aufwarf. Fragen der Emotionalität im Roboter oder ob man tote oder lebendige Materie zur Erschaffung des künstlichen Menschen nutzen darf. Doch mit der rasanten Entwicklung seit der Jahrtausendwende sind wir in einer ganz anderen Situation. Noch in den 1970er Jahren sprach man vom „Winter der KI“, Forschungsgelder wurden stark gekürzt, weil es keinen Durchbruch zu geben schien. Mit den hohen Rechenleistungen, der Miniaturisierung der Endgeräte und der Vernetzung wurde KI vom theoretischen zum alltäglichen Szenario.
Inwiefern glauben Sie, dass KI das Potenzial hat, eine Massenarbeitslosigkeit auszulösen? Es gibt Meinungen, die einen Verlust von 30 bis 80 Prozent aller Jobs voraussagen.
Fuchs: Es ist aktuell schwer zu beantworten, ob in der Summe Jobs wegen Rationalisierung oder wegen neuer Technologien wegfallen. Generell sehe ich derzeit keine Zeichen, dass es zu einer Massenarbeitslosigkeit kommen wird. In vielen Feldern entsteht durch den Einsatz von KI auch Raum für wichtige andere Tätigkeiten, die dann von Menschen angegangen werden können. In Wissenschaft und Forschung beispielsweise gibt es genug offene Fragen und Problemstellungen, in der Medizin könnten Räume entstehen, die lange erhoffte „sprechende Medizin“ endlich Realität werden zu lassen. KI hat in bildgebenden Verfahren, wie in der Radiologie, sehr hohe Kompetenzen. Sie hilft, Tumore zu entdecken – und das ist ein moralisch wichtiger Einsatzbereich –, aber wir sollten nicht so weit kommen, dass Ärzte ihre Kompetenzen verlernen. Generell darf menschliche Kompetenz nie verloren gehen.
