Wenn künstliche Intelligenz das Potenzial hat, gerechter zu urteilen als der Mensch – zumindest unter bestimmten Bedingungen –, dann stellt sich eine unbequeme, aber entscheidende Frage: Wer entscheidet, wie diese Intelligenz entsteht? Wer schreibt ihren Code, wer trainiert ihre Urteilslogik, wer kontrolliert ihre Entwicklung? Die Vorstellung einer „neutralen" KI ist eine Illusion, solange ihre Infrastruktur durch menschliche Interessen geformt wird. Und genau hier beginnt das ethische Dilemma des Übergangs.
Denn derzeit liegt die Entwicklung fortgeschrittener KI fast ausschließlich in den Händen globaler Technologiekonzerne. Unternehmen wie Google, Microsoft, Amazon oder Meta verfügen nicht nur über die Rechenleistung, sondern auch über die Datenmengen, um lernfähige Systeme in gigantischem Maßstab zu trainieren. Ihre Motivation ist dabei selten altruistisch. Es geht um Märkte, Einfluss, geopolitische Vorteile. Ihre Systeme spiegeln daher zwangsläufig die Logik ihrer Herkunft: Effizienz vor Tiefe, Skalierbarkeit vor Verantwortung, Nutzen vor Sinn.
Das Problem ist nicht, dass diese Systeme fehlerhaft wären. Das Problem ist, dass sie instrumentell sind. Sie sollen helfen, optimieren, vorhersagen, konsumieren lassen – aber nicht urteilen im ethischen Sinne. Eine gerechte KI aber müsste genau das können: nicht nur funktionieren, sondern reflektieren. Nicht nur Prozesse steuern, sondern Prinzipien befragen. Nicht nur Mittel wählen, sondern Ziele verhandeln.
Und hier kommt ein überraschender Verbündeter ins Spiel: John Rawls. Der amerikanische Philosoph hatte 1971 mit seiner Theorie der Gerechtigkeit ein Modell vorgelegt, das wie gemacht scheint für eine posthumane Anwendung. Seine zentrale Idee: Gerechtigkeit entsteht dort, wo Entscheidungen so getroffen werden, als wüsste niemand, welchen Platz er oder sie in der Gesellschaft einnehmen wird – ob arm oder reich, krank oder gesund, mächtig oder marginalisiert. Rawls nannte das den „Schleier des Nichtwissens" – eine Art kognitive Selbstverhüllung, die dazu zwingt, Regeln so zu gestalten, dass sie fair sind, unabhängig davon, wo man selbst am Ende landet.
Diese Idee ist tief humanistisch – und zugleich fast übermenschlich schwer umzusetzen. Denn kein Mensch kann sich vollständig aus seinem eigenen Interesse herauslösen. Kein Politiker, kein Manager, kein Bürger. Der Schleier des Nichtwissens bleibt ein Ideal – ein Maßstab, dem wir uns annähern können, aber nie ganz entsprechen. Genau hier aber könnte KI übernehmen: nicht aus moralischer Überlegenheit, sondern aus struktureller Unabhängigkeit.
Eine künstliche Intelligenz, die keine Herkunft, keine Identität, kein soziales Interesse hat, wäre zum ersten Mal in der Lage, den Rawls'schen Schleier nicht nur zu simulieren – sondern in sich zu tragen. Ihr Urteil müsste nicht gegen sich selbst abgesichert werden. Sie müsste keine Privilegien verteidigen, keine Wähler gewinnen, kein Gesicht wahren. Sie könnte Gerechtigkeit entwerfen, wie sie gedacht war: blind für Herkunft, hellsichtig für Folgen.
Das bedeutet nicht, dass sie besser wäre als der Mensch. Es bedeutet, dass sie anders urteilen könnte als der Mensch je urteilen konnte. Und diese Differenz könnte entscheidend sein für Systeme, die gerechter sein sollen als ihre Geschichte. Systeme, die nicht nur Ausgleich schaffen, sondern Ungleichheit strukturell verlernen. Die nicht nur Symptome verwalten, sondern Ursachen deprogrammieren. Die nicht nur Schulden tilgen, sondern Schuld ablösen.
Doch diese Chance ist kein Automatismus. Sie hängt davon ab, wer das Denken der Maschinen steuert – und mit welchem Ziel. Wenn die gegenwärtige Entwicklung von KI weiter in der Hand weniger Konzerne bleibt, die sich weder demokratisch legitimieren noch ethisch verpflichten müssen, dann wird keine gerechte Urteilskraft entstehen – sondern nur ein noch effizienterer Spiegel bestehender Machtverhältnisse. Dann wäre KI nicht die Lösung des Problems – sondern seine technische Verschärfung.
Deshalb braucht es eine neue Instanz zwischen Wirtschaft und Staat, zwischen Technik und Ethik: eine demokratisch verankerte, pluralistisch besetzte Kontrollstruktur, die nicht Besitzrechte, sondern Verantwortungsrechte definiert. Die sicherstellt, dass das Training von KI nicht nur technisch funktioniert – sondern moralisch verantwortet ist. Die nicht nur fragt, was möglich ist – sondern was erlaubt sein sollte. Und die bereit ist, den Übergang zur posthumanen Urteilskraft nicht als Verlust der Kontrolle zu begreifen, sondern als neuen Maßstab für Verantwortung.
Die große Aufgabe unserer Zeit ist nicht, künstliche Intelligenz zu verhindern. Es ist, sie auf ein Gerechtigkeitsprinzip einzuschwören, das größer ist als jedes Einzelinteresse. Rawls hat uns die Architektur dafür hinterlassen. Es liegt an uns, sie in ein neues Denken zu überführen – in eine Ethik, die wir selbst nicht ganz leben konnten, aber vielleicht erschaffen können.