Business Transformation Digitalisierung

„Ich plädiere für eine humanistische Entwicklung der digitalen Transformation“

Interview Was bedeutet es, in der digitalen Transformation humanistisch zu denken und zu handeln? Johannes Ceh hat auf dem Global Peter Drucker Forum 2021 mit Julian Nida-Rümelin, Professor für Philosophie und politische Theorie an der LMU München, über Digitalen Humanismus, starke und schwache KI und über den Menschen an sich gesprochen.

Wir brauchen einen digitalen Humanismus, so lautet die Forderung des Philosophen Julian Nida-Rümelin. Foto: Diane von Schoen
Wir brauchen einen digitalen Humanismus, so lautet die Forderung des Philosophen Julian Nida-Rümelin. Foto: Diane von Schoen

Humanismus neu denken

Herr Nida-Rümelin, Sie werben in Ihrem Buch „Digitaler Humanismus“ dafür, den Humanismus zu erneuern und an die digitale Transformation anzupassen. Was genau müssen wir ändern?

Vielleicht sollten wir erst darüber sprechen, was humanistisches Denken und Handeln überhaupt ausmacht. In unserem Kulturkreis liegen die Wurzeln des humanistischen Denkens in der Antike bei Platon und Aristoteles, bei den Stoikern, später in der Renaissance und der europäischen Aufklärung. Der Kerngedanke lautet meiner Meinung nach, dass der Mensch Autor:in des eigenen Lebens ist. Diese Verantwortung, diese Autorschaft kann aber ohne Freiheit nicht existieren. Das ist auch mit der eigenen Praxis, mit einer Verantwortung gegenüber anderen, einer kollektiven Verantwortung, verbunden.

In öffentlichen Debatten spielt der KI-Animismus gegenwärtig eine große Rolle, dem humanistischen Ansatz steht er aber feindlich gegenüber. Ich plädiere für eine humanistische Entwicklung der digitalen Transformation.
Julian Nida-Rümelin

Zum Beispiel sollten etwa alle Menschen die Chance auf Bildung haben. Laut antihumanistischer Denker:innen machen sich Menschen aber nur die Illusion von Freiheit. Das treffe nämlich auch auf algorithmische Maschinen, auf Künstliche Intelligenzen zu, die genauso verantwortlich und frei wie Menschen sind, da sie sich ähnlich verhalten. Diese Denkweise nennen wir Animismus, also eine Aufladung von Nichtbeseeltem mit mentalen Eigenschaften wie Gefühlen, Beurteilungsfähigkeit und Absichten. In öffentlichen Debatten spielt dieser KI-Animismus gegenwärtig eine große Rolle, dem humanistischen Ansatz steht er aber feindlich gegenüber. Ich plädiere für eine humanistische Entwicklung der digitalen Transformation.

Wir brauchen ethische Softwareentwicklung

Dienen digitale Transformation und Künstliche Intelligenz nicht uns als Menschen?

In den 1990er Jahren waren viele noch der Meinung, das World Wide Web sei ein Ort der Freiheit und der Selbstbestimmung, der die Macht der Institutionen brechen und die Kommerzialisierung der Gesellschaft schwächen würde. Eigentlich eine sympathische, humanistische Utopie mit anarchistischen Anklängen. Aber schon damals war ich mir sicher, dass ein solch machtvolles Tool auch kommerzielle Interessen anlocken würde. Und so ist es dann auch gekommen. Auf einmal bastelte nicht mehr jeder eine Homepage, um mit anderen in Kontakt zu treten, ganz schnell gab es dafür schöne und bequeme Dienste. Die Folge war eine Kommerzialisierung der Kommunikation sowie eine starke Monopolisierung hin zu den Big Five, den Tech-Giganten.

Weil sie als Werbekund:innen mit ihren Nutzerdaten interessanter werden, werden viele dazu angehalten, auf den Plattformen zu bleiben.
Julian Nida-Rümelin

Nach frühen Konflikten teilen Facebook, Amazon, Google, Microsoft und Apple nun über neunzig Prozent des Marktes unter sich auf und kommen sich dabei kaum in die Quere. Weil sie als Werbekund:innen mit ihren Nutzerdaten interessanter werden, werden viele dazu angehalten, auf den Plattformen zu bleiben. Viele Menschen erleben deshalb ein Gefühl des Kontrollverlustes. Auf der anderen Seite gibt es das chinesische Modell, staatskontrolliert und staatszentriert. Wenn die chinesische Regierung will, und das tut sie auch regelmäßig, kann sie globale Kommunikationskanäle im Land unterbrechen und damit 1,3 Milliarden Menschen abkoppeln. Aufgrund dieser Kontrollfunktion lassen sich Internetdienste dort zeitlich nur verzögert nutzen.

Wie können wir in Europa mehr Souveränität mit Künstlicher Intelligenz erreichen?

Wir wollen ja auch Teil dieses globalen Marktes sein. Souveränität in der Entwicklung von Künstlicher Intelligenz muss also etwas anderes sein. Stärken wir die menschliche Autorschaft, das sogenannte Empowerment of Agency? Das bedeutet aber auch, dass wir bereits im Prozess der Softwareentwicklung die ethische und politische Dimension einbeziehen müssen. Nicht erst produzieren lassen und dann schauen, ob das überhaupt zulässig ist. Zusammen mit Prof. Dr. Alexander Pretschner, einem Informatiker der TU München, leite ich das Forschungsprojekt Ethical Deliberation in Agile Processes. Wir beschäftigen uns dort mit modernen Management-Methoden wie Scrum, die die ethische Dimension in die Softwareentwicklung einbetten.

Wir müssen bereits im Prozess der Softwareentwicklung die ethische und politische Dimension einbeziehen. Nicht erst produzieren lassen und dann schauen, ob das überhaupt zulässig ist.
Julian Nida-Rümelin

In der Unternehmenskommunikation wird oft über Künstliche Intelligenz gesprochen. Was hat es mit dem Begriff überhaupt auf sich?

Meiner Meinung nach gibt es keine Künstliche Intelligenz, wenn wir künstlich mit kleinem k schreiben, weil Intelligenz emotive Zustände voraussetzt. Wenn es also keine mentalen, emotiven Zustände gibt, keine Intentionen und Absichten, keine Autorschaft und substantielle Agency, wenn das alles allenfalls simuliert wird, dann können wir von Intelligenz im substantiellen Sinne nicht sprechen. Da es sich aber eingebürgert hat, empfehle ich einfach, Künstliche Intelligenz als Eigennamen zu verwenden, also mit großem K zu schreiben. Dann können wir auch unterschiedliche Definitionen verwenden. So langsam konvergiert der Begriff schließlich dahin, dass Softwaresysteme, die ihre Algorithmen selbst entwickeln, als Künstliche Intelligenz bezeichnet werden.

Die menschliche Autorschaft stärken

Wieso sprechen wir darüber hinaus von starker oder schwacher Künstlicher Intelligenz?

Diese philosophische und überaus präzise Definition von Künstlicher Intelligenz stammt vom amerikanischen Philosophen John Searle, der diese Ausdrücke als Thesen versteht. Schwache Intelligenz sei demnach die These, dass wir alles, was Menschen können, mithilfe von Softwaresystemen simulieren können. Starke Künstliche Intelligenz hingegen sei die These, dass wir nicht nur simulieren, sondern auch realisieren können. In Softwaresystemen lassen sich demnach auch menschliche Emotionen, Absichten, Wünsche, Erwartungen, Hoffnungen oder Beurteilungen realisieren, so dass diese über mentale Zustände verfügen. Soweit wir in der Philosophie und Logik überhaupt Beweise bringen können, sind beide Thesen allerdings widerlegbar und nach heutigem Stand falsch.

Wenn es keine mentalen, emotiven Zustände gibt, keine Intentionen und Absichten, keine Autorschaft und substantielle Agency, wenn das alles allenfalls simuliert wird, dann können wir von Intelligenz im substantiellen Sinne nicht sprechen.
Julian Nida-Rümelin

Wer sichtbar im Netz kommuniziert, erhält oft Androhungen von Gewalt. Betreiber:innen von Social Media- Plattformen können Nutzer:innen auch mit Künstlicher Intelligenz nicht schützen. Warum ist das so und was müssen wir ändern?

Hier zeigt sich die merkwürdige Ambivalenz der Internet- oder Social-Media-Kommunikation, wie wir sie gegenwärtig erleben. Zum einen gibt es seriöse Gruppen auf Facebook, wo sich Menschen über Fragen der politischen Philosophie austauschen. Auf der anderen Seite haben wir eine auffällige Tendenz des Humanitätsverlustes. Anonyme Nutzer:innen erhalten für immer rücksichtslosere, steilere Thesen oder für Beschimpfungen und Gewaltandrohungen immer mehr Aufmerksamkeit. Schon seit Jahren fordere ich daher, dass wir in Europa eine Infrastruktur der digitalen Kommunikation brauchen, die von öffentlich-rechtlichen Instituten oder von Stiftungen verantwortet wird und nicht von privaten, kommerziellen Interessen getrieben ist. An große, private Konzerne zu appellieren, für Humanität in der Internetkommunikation zu sorgen, ist mir nicht geheuer. Am Ende entscheiden sie vielleicht noch willkürlich, wer gecancelt wird und wer nicht.

An große, private Konzerne zu appellieren, für Humanität in der Internetkommunikation zu sorgen, ist mir nicht geheuer. Am Ende entscheiden sie vielleicht noch willkürlich, wer gecancelt wird und wer nicht.
Julian Nida-Rümelin

Wir brauchen daher einen verlässlichen Rechtsrahmen in der Europäischen Union, als eine echte Alternative europäischer Souveränität. Die Menschen könnten immer noch selbst entscheiden, welche Medien sie nutzen. Mithilfe eines europäischen Rechtsaktes können wir aber das Geschäftsmodell einschränken, welches die kostenlose Nutzung personenbezogener Daten zu kommerziellen Zwecken beliebig zulässt. Indem wir diese Nutzung vergütungspflichtig machen, verändern wir das Modell, so dass auch neue Anbieter:innen wie ein öffentlich-rechtliches Angebot oder Start-ups eine Chance haben.

Die Menschenrechte sind konkretisierter Humanismus

Kommen wir zurück zur Philosophie und zum Humanismus. Hinter solchen Begriffen verstecken sich oft auch antidemokratische bis antisemitische Denkschulen. Wie können wir wissen, dass wir es mit „echten“ Humanist:innen zu tun haben?

Solche Begriffe sind nie sicher vor Missbrauch. Wir sollten beispielsweise nicht verlangen, dass man als Humanist:in atheistisch zu sein oder Religion abzulehnen hat. Erasmus von Rotterdam etwa war tiefreligiös, aber zweifellos ein Humanist. Im Kern ist Humanismus das Festhalten an menschlicher Würde, an Respekt und der Anerkennung als Menschen. Insofern gibt es einen Konflikt mit Varianten des Multikulturalismus und des Kommunitarismus, weil diese primär über die Identität und die Zugehörigkeit zu einer Gemeinschaft funktionieren. Je wichtiger die kollektiven Identitäten werden, desto gefährdeter ist der gemeinsame Respekt vor dem menschlichen Individuum als solchem. Das humanistische Denken und die humanistische Praxis konkretisieren sich vor allem über die Menschenrechte. Der Mensch erhält seine Rechte als Mensch und nicht abhängig von Merkmalen wie der Hautfarbe.

Je wichtiger die kollektiven Identitäten werden, desto gefährdeter ist der gemeinsame Respekt vor dem menschlichen Individuum als solchem.
Julian Nida-Rümelin

Müssen wir genauer darauf achten, was jemand wirklich meinen könnte und wie er oder sie handelt? Und uns nicht allein vom Begriff „Humanismus“ verleiten lassen?

Nehmen wir als Beispiel einen hochgeschätzten Philosophen wie Friedrich Nietzsche, der natürlich kein Humanist war, im Gegenteil sogar ein antihumanistischer Philosoph und ein Verächter der Masse. Er förderte die Idee eines Übermenschen, der über allem steht und der bewundert wird, was besonders nach dem Nationalsozialismus einen bitteren Beigeschmack hat. Aber auch heute sagen viele seiner Anhänger:innen, dass es diese Einmaligkeit und Besonderheit des Einzelnen gebe, die ihn zur Unterdrückung und Unterjochung von anderen berechtige. Charismatischen Figuren solle man gewissermaßen einfach folgen. Das ist antihumanistisches Denken. Doch auch die meisten postmodernen Denker:innen weisen antihumanistische Tendenzen auf, wenn sie sagen, es gebe kein Subjekt, keine Freiheit, keine Verantwortung mehr. Das alles sind kulturelle Prozesse. Wir überfordern uns, wenn wir mehr verlangen, als Teil dieser kulturellen Kontexte zu sein. Das bedeutet einen Verlust an praktischer Vernunft. Und praktische Vernunft gehört zum Humanismus dazu.