Longtermismus: Die gefährliche Religion der Tech-Milliardäre

In den letzten Jahren hat sich eine neue Philosophie durch die Kreise der Superreichen und Technologievisionäre geschlichen, die nicht nur die Zukunft der Menschheit infrage stellt, sondern auch ihre moralischen Grundlagen in Zweifel zieht. Der Longtermismus – eine Ideologie, die sich auf das Wohlergehen künftiger Generationen konzentriert – wird von einigen als fortschrittlich und visionär angesehen, während Kritiker ihn als „hochgradig elitäre Ideologie“ (Medienwissenschaftler Prof. Dr. Bernhard) bezeichnen, die das Leid der Gegenwart ignoriert und potenziell gefährliche ethische Konsequenzen birgt.

Was ist Longtermismus?

Der Longtermismus ist eine philosophische Bewegung, die ihren Ursprung im sogenannten „effektiven Altruismus“ hat, einer Strömung, die darauf abzielt, sozial verantwortliches Handeln durch wissenschaftliche Methoden zu optimieren. Protagonisten wie William MacAskill oder Nick Bostrom argumentieren, dass wir uns weniger auf die Probleme der Gegenwart konzentrieren sollten, sondern stattdessen unsere Ressourcen darauf verwenden müssen, existenzielle Risiken für die Zukunft der Menschheit zu minimieren. Diese Risiken umfassen unter anderem künstliche Intelligenz, biotechnisch erzeugte Seuchen und Asteroideneinschläge.

Die Logik hinter dem Longtermismus ist einfach: Wenn wir davon ausgehen, dass die Menschheit noch viele Äonen vor sich hat, dann zählt jede Person in der Zukunft genauso viel wie jede Person heute. Daher sollte unser Hauptziel darin bestehen, diese Zukunft zu schützen, selbst wenn dies bedeutet, dass wir Opfer in der Gegenwart bringen müssen.

Die Apokalyptik der Reichen

Apokalyptische Visionen sind nichts Neues in der Geschichte der Menschheit. Seit Jahrtausenden haben religiöse Propheten und politische Ideologen von einem nahenden Ende der Welt gesprochen. Doch die heutige Version dieser Apokalyptik unterscheidet sich grundlegend von früheren Formen. Während frühere Prophezeiungen oft auf mystischen Offenbarungen beruhten, basieren moderne Szenarien auf wissenschaftlichen Erkenntnissen. Experten warnen vor realen Gefahren wie dem Klimawandel, dem Verlust der Artenvielfalt oder der Bedrohung durch nukleare Katastrophen.

Was jedoch neu ist, ist die Art und Weise, wie diese Erkenntnisse von einer kleinen Gruppe reicher und mächtiger Individuen instrumentalisiert werden. Menschen wie Elon Musk, Peter Thiel und Sam Bankman-Fried haben ihre Milliarden nicht nur dazu verwendet, innovative Technologien zu entwickeln, sondern auch, um ihre eigene Vision der Zukunft zu fördern. Diese Vision ist oft geprägt von einer Mischung aus Science-Fiction und utilitaristischer Ethik, die den Schutz der Zukunft über alles andere stellt.

Die moralische Dialektik des Longtermismus

Der Kern des Longtermismus liegt in seiner moralischen Logik. Langfristige Denker argumentieren, dass jedes Leben in der Zukunft unendlich wertvoll ist und dass wir daher bereit sein sollten, große Opfer in der Gegenwart zu bringen, um diese Zukunft zu sichern. So schätzt man beispielsweise, dass die Untergrenze der Anzahl biologischer Lebensjahre des Menschen in den kommenden Äonen bei 10^34 Jahren ( zehn Quintilliarden) liegen könnte. In diesem Kontext erscheint selbst ein Massenmord von biblischen Ausmaßen relativ klein, wenn er die Existenz der Menschheit rettet.

Diese Art von Rechnung führt zwangsläufig zu einer ethischen Spannung. Wie weit dürfen wir gehen, um die Zukunft zu schützen? Ist es akzeptabel, Millionen von Menschen heute zu opfern, um möglicherweise Milliarden in der Zukunft zu retten? Und wer entscheidet letztlich, welche Risiken relevant sind und welche nicht?

Die blinden Flecken des Longtermismus

Eine der größten Kritikpunkte am Longtermismus ist seine Tendenz, das Leid der Gegenwart zu ignorieren. Während die Bewegung ihre Ressourcen darauf konzentriert, hypothetische Risiken wie künstliche Intelligenz oder Asteroideneinschläge zu bekämpfen, vergisst sie dabei oft dringende Probleme wie Armut, Hunger oder systemische Ungerechtigkeit. Diese Priorisierung ist besonders problematisch, wenn man bedenkt, dass viele der Protagonisten des Longtermismus selbst zur globalen Oberschicht gehören und somit wenig Eigeninteresse an der Lösung dieser Probleme haben.

Ein weiteres Problem ist die willkürliche Auswahl der Risiken, die der Longtermismus priorisiert. Während Klimawandel und nukleare Katastrophen oft als sekundäre Bedrohungen betrachtet werden, stehen künstliche Intelligenz und biotechnische Seuchen im Mittelpunkt der Diskussion. Diese Fokussierung kann dazu führen, dass wichtige Themen vernachlässigt werden, die ebenfalls existenzielle Auswirkungen haben könnten.

Längst beschränkt sie nicht mehr auf das Silicon Valley, sondern streckt ihre Fühler aus in die Weltpolitik. Was hinter der gefährlichen Ideologie des langfristigen Denkens steckt, analysierte auf dem 38. Chaos Communication Congress in Hamburg der Soziologe Max Schnetker in einem Talk mit dem Titel „Longtermismus – der „Geist“ des digitalen Kapitalismus“.

YouTube player

Die Rolle der Tech-Milliardäre

Es ist kein Zufall, dass der Longtermismus von vielen Tech-Milliardären unterstützt wird. Diese Personen haben nicht nur die finanziellen Mittel, sondern auch die technologischen Kapazitäten, um ihre Visionen umzusetzen. Elon Musk etwa träumt davon, die Menschheit auf Mars zu siedeln, während Peter Thiel sich für die Entwicklung leistungsfähiger künstlicher Intelligenzen einsetzt. Diese Projekte werden oft als altruistisch dargestellt, doch sie bergen auch signifikante Risiken.

Die Kritik an dieser Entwicklung lässt sich am besten am Beispiel von Sam Bankman-Fried verdeutlichen. Der ehemalige CEO von FTX war ein prominenter Vertreter des Longtermismus und spendete große Teile seines Vermögens für wohltätige Zwecke. Doch als sein Imperium zusammenbrach, wurde deutlich, dass seine Methoden oft ethisch fragwürdig waren.

YouTube player
Dies hebt ein wichtiges Problem hervor: Wenn wir es Leuten wie Bankman-Fried überlassen, die Zukunft der Menschheit zu planen, wie können wir sicherstellen, dass ihre Motive tatsächlich altruistisch sind?

Die utopische Dimension des Longtermismus

Der Longtermismus trägt eine utopische Dimension in sich, die sowohl faszinierend als auch beunruhigend ist. Viele seiner Texte malen eine Zukunft aus, in der unsere Nachkommen durch fortschrittliche Technologien zu „Posthumanen“ mutiert sind – Wesen, die unsterblich, superintelligent und emotionslos sind. Diese Vision birgt enorme ethische Herausforderungen. Wenn wir davon ausgehen, dass diese Posthumanen eine bessere Zukunft erschaffen können, wie weit dürfen wir gehen, um sie zu erreichen? Und wer garantiert uns, dass diese Zukunft tatsächlich besser ist als die Gegenwart?

Fazit

Der Longtermismus ist zweifellos eine faszinierende Philosophie, die wichtige Fragen über die Zukunft der Menschheit aufwirft. Doch seine elitäre Natur und seine Tendenz, das Leid der Gegenwart zu ignorieren, machen ihn auch zu einer gefährlichen Ideologie. Während es wichtig ist, existenzielle Risiken ernst zu nehmen, sollten wir uns auch bewusst sein, dass die Lösung dieser Probleme nicht allein in den Händen einer kleinen Gruppe von Superreichen liegen darf.

Vielleicht ist es an der Zeit, einen anderen Weg einzuschlagen – einen Weg, der das Wohlergehen aller Menschen gleichermaßen berücksichtigt, sei es nun in der Gegenwart oder in der Zukunft. Denn letztlich geht es nicht nur darum, die Menschheit zu retten, sondern auch darum, sie menschlich zu bleiben.

Die Kurz-URL des vorliegenden Artikels lautet: https://klassengesellschaft.com/o3rw

Über Schwabing Dog

Unknown's avatar
Hundeaffiner Frührentner & politischer Aktivist, der gerne seine Privatsphäre pflegt. Als tierliebende Betreuungsperson von Fellnasen mag ich besonders gern anspruchsvolle Charakterhunde (Sturrköpfe), die bei mir auch mal so richtig aufdrehen (toben) dürfen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

DSGVO Cookie Consent mit Real Cookie Banner