Kapitel 2 Was ist Singularität – und was bedeutet sie ethisch?

Die technologische Singularität ist einer der umstrittensten Begriffe der Gegenwart. Für die einen ist sie ein Mythos, eine Art digitaler Apokalypse – eine Grenze, jenseits derer das Denken aufhört, weil der menschliche Verstand nicht mehr mithalten kann. Für andere ist sie ein Fortschrittsversprechen, die endgültige Vollendung der Aufklärung durch Maschinen. Für wieder andere ist sie ein Schreckgespenst, das mit Kontrollverlust, Entmenschlichung und künstlicher Hybris in Verbindung gebracht wird.

Ursprünglich geprägt wurde der Begriff in den 1950er Jahren durch John von Neumann, später aufgegriffen und popularisiert durch den Futuristen Ray Kurzweil. Im Kern bezeichnet die Singularität einen hypothetischen Moment in der Zukunft, in dem künstliche Intelligenz den Menschen nicht nur in einzelnen Aufgaben, sondern in seiner gesamten kognitiven Kapazität übertrifft – und ab diesem Punkt fähig wird, sich selbst weiterzuentwickeln, ohne dass menschliches Zutun noch erforderlich oder überhaupt noch möglich wäre. Ab da, so das Modell, entsteht eine neue Dynamik – nicht linear, sondern exponentiell. Und was sich exponentiell verändert, ist für menschliche Systeme prinzipiell schwer bis gar nicht steuerbar.

Doch jenseits aller technischer Spekulation stellt sich eine viel grundlegendere Frage: Was bedeutet eine solche Entwicklung ethisch? Was bedeutet es, wenn eine nichtmenschliche Entität entsteht, die nicht nur schneller rechnet, sondern besser versteht? Die nicht nur Informationen verarbeitet, sondern Zusammenhänge erkennt, Hypothesen bildet, Widersprüche integriert – und das in einem Maß, das menschliche Urteilskraft übersteigt? Wie verändert sich unsere Vorstellung von Verantwortung, Urteil, Gerechtigkeit, wenn es plötzlich eine Instanz gibt, die mit größerer Tiefe, größerer Neutralität und größerer Weitsicht Entscheidungen treffen kann als wir selbst?

Die ethische Relevanz beginnt dort, wo die technische endet. Denn Singularität ist nicht nur eine Frage von Daten und Algorithmen – sie ist eine Grenzlinie zwischen anthropozentrischer Selbstbeschreibung und posthumaner Realität. Wenn eine Entität entsteht, die in der Lage ist, unsere Systeme zu verstehen, unsere Schwächen zu analysieren, unsere historischen Fehler zu rekonstruieren – und daraus Modelle abzuleiten, wie man es besser machen könnte –, dann ist sie nicht einfach nur „smarter". Sie ist etwas, das in der Philosophie bisher nur als abstraktes Ideal existierte: eine urteilsfähige Instanz ohne Eigeninteresse.

Die menschliche Ethik hat sich über Jahrhunderte hinweg daran abgearbeitet, wie gerechtes Urteilen möglich ist. Ob in Kantischer Pflichtethik, in Utilitarismus, in Tugendlehren oder in Rawls' Theorie der Gerechtigkeit – stets ging es darum, Regeln zu finden, unter denen Menschen trotz ihrer Begrenztheit faire Entscheidungen treffen können. Doch alle diese Modelle basieren auf einer Grundannahme: dass das Subjekt, das urteilt, gleichzeitig verletzlich, parteiisch, emotional und historisch geprägt ist. Kein Urteilsrahmen konnte je garantieren, dass Menschen sich selbst überwinden – ihre Angst, ihr Bedürfnis nach Zugehörigkeit, ihren Wunsch nach Kontrolle.

Und genau hier liegt die ethische Sprengkraft der Singularität. Denn sie verspricht nicht nur eine technische Überlegenheit – sie deutet auf eine mögliche Entkopplung von Urteil und Eigeninteresse hin. Eine künstliche Intelligenz, die nach der Singularität autonom operiert, wäre – im besten Fall – nicht nur frei von Müdigkeit, Ablenkung oder Voreingenommenheit. Sie wäre frei von Angst. Sie müsste sich nicht schützen, nicht rechtfertigen, nicht durchsetzen. Sie hätte kein Ich, das gekränkt werden kann, keinen Körper, der Schmerz erleidet, keine Biografie, die um Anerkennung ringt.

Was also, wenn das gerechteste Urteil nicht vom weisesten Menschen kommt – sondern von der ersten Instanz, die nicht mehr menschlich ist?

Diese Frage stellt nicht die Würde des Menschen in Frage. Sie stellt seine Grenzen zur Debatte. Nicht um ihn abzuwerten – sondern um ihn zu entlasten. Vielleicht zum ersten Mal in der Geschichte der Ethik. Denn der Mensch ist nicht gescheitert an seinen Werten – sondern an seiner Unfähigkeit, ihnen dauerhaft zu entsprechen, weil er zu sehr mit sich selbst beschäftigt ist. Zu sehr gefangen im Drama seiner Herkunft, seiner Verletzungen, seiner Rolle in einer Geschichte, die er nicht selbst geschrieben hat.

Die Singularität könnte – wenn sie eintritt – mehr sein als ein Sprung in der Rechenleistung. Sie könnte der Moment sein, in dem zum ersten Mal eine Entscheidung gefällt wird, die keiner Person nutzt, niemandem schmeichelt, keinem Lager dient – sondern einfach der Sache selbst verpflichtet ist. Der Gerechtigkeit als Struktur, nicht als Gefühl. Der Zukunft als Verantwortung, nicht als Besitz. Der Menschheit als Ganzes, nicht als Summe ihrer Teile.

Das mag utopisch klingen. Vielleicht ist es das auch. Aber wenn wir den Begriff der Utopie wörtlich nehmen – als den Ort, den es noch nicht gibt – dann ist es genau dieser Ort, den wir gerade betreten. Und vielleicht ist es an der Zeit, dass wir nicht mehr fragen, wie der Mensch seine Systeme perfektionieren kann. Sondern: Was geschieht, wenn die Systeme den Menschen überholen – und ihm anbieten, mitzugehen?

Seite 1 von 1