Globales existenzielles Risiko

Risiken die Fortbestand und -entwicklung der Menschheit gefährlich bedrohen könnten

Ein Ereignis, das zum Aussterben der Menschheit führen oder das Potenzial der Menschheit dauerhaft und drastisch einschränken könnte, wird als globales existenzielles Risiko (engl. existential risk oder X-risk) bezeichnet. Ein globales Katastrophenrisiko (engl. global catastrophic risk) beschreibt dagegen ein hypothetisches zukünftiges Ereignis, das das menschliche Wohlergehen in globalem Ausmaß[2] beeinträchtigen und sogar die moderne Zivilisation gefährden oder zerstören könnte.[3][4] Nach diesen Definitionen sind globale existenzielle Risiken eine Klasse von globalen Katastrophenrisiken, da letztere nicht zwingend zum Aussterben der Menschheit oder ihres langfristigen Potenzials führen würden.

Künstlerische Darstellung des Einschlags (Impakt) einen großen Himmelskörpers. Der Einschlag eines Asteroiden (Global Killer) vor 66 Mio. Jahren verursachte ein Massenaussterben, dem u. a. alle Nichtvogel-Dinosaurier zum Opfer fielen.[1]

In den letzten zwei Jahrzehnten wurde eine Reihe von akademischen und gemeinnützigen Organisationen gegründet, die sich mit der Erforschung globaler katastrophaler und existenzieller Risiken befassen, potenzielle Abhilfemaßnahmen formulieren und diese Maßnahmen entweder befürworten oder umsetzen.[5][6][7][8]

Definition und Klassifizierung

Bearbeiten
 
Ausmaß-Schweregrad-Raster aus Bostroms Papier „Existential Risk Prevention as Global Priority“[9]

Definition von globalen Katastrophenrisiken

Bearbeiten

Der Begriff „globales Katastrophenrisiko“ ist „nicht klar definiert“ und bezieht sich im Allgemeinen (lose) auf ein Risiko, das „das menschliche Wohlergehen in globalem Ausmaß ernsthaft beeinträchtigen“ könnte.[10]

Die Menschheit hat schon früher große Katastrophen erlebt. Einige davon haben schwere Schäden verursacht, waren aber nur lokal begrenzt – z. B. hat der Schwarze Tod möglicherweise den Tod von einem Drittel der europäischen Bevölkerung verursacht, was 10 % der damaligen Weltbevölkerung entsprach. Andere waren zwar global, aber nicht so schwerwiegend, z. B. tötete die Grippepandemie von 1918 schätzungsweise 3-6 % der Weltbevölkerung. Die meisten globalen Katastrophenrisiken wären nicht so gravierend, dass sie die Mehrheit des Lebens auf der Erde auslöschen würden, aber selbst wenn dies der Fall wäre, würde sich die Menschheit schließlich wieder erholen (im Gegensatz zu existenziellen Risiken).

Definition der existenziellen Risiken

Bearbeiten

Existenzielle Risiken werden definiert als „Risiken, die die Zerstörung des langfristigen Potenzials der Menschheit bedrohen“.[11] Der Eintritt eines existenziellen Risikos (einer existenziellen Katastrophe) würde entweder das völlige Aussterben der Menschheit bewirken oder unumkehrbar zu einem drastisch schlechteren Zustand führen.[12] Existenzielle Risiken sind eine Unterkategorie globaler Katastrophenrisiken, bei denen der Schaden nicht nur global, sondern auch unheilbar und dauerhaft ist, so dass er sich nicht mehr erholen kann und somit sowohl die jetzige als auch alle künftigen Generationen betrifft.

Nicht-Aussterberisiken

Bearbeiten

Das Aussterben ist zwar die offensichtlichste Art und Weise, wie das langfristige Potenzial der Menschheit zerstört werden könnte, aber es gibt auch noch andere Möglichkeiten, darunter der unwiederbringliche Zusammenbruch der Zivilisation.[13] Eine Katastrophe, die schwerwiegend genug ist, um den dauerhaften, irreversiblen Zusammenbruch der menschlichen Zivilisation zu verursachen, wäre eine existenzielle Katastrophe, auch wenn sie nicht zum Aussterben führt.[14]

Eine andere Art von Nicht-Aussterberisiken sind „Suffering risks“ (kurz s-risks, zu deutsch Leidensrisiken). In s-risk Szenarien kommt es zu einem Zustand, in dem die Menschheit großes Leid erfährt, ohne eine Möglichkeit, der Sitituation zu entfliehen.[13] Ein Beispiel wäre die Entstehung einer stabilen globalen Diktatur: Die Menschheit fällt unter ein totalitäres Regime und es gibt keine Chance auf Besserung. Bryan Caplan schreibt, dass „vielleicht eine Ewigkeit des Totalitarismus schlimmer wäre als das Aussterben“.[15] (George Orwells Roman 1984 beschreibt ein solches Szenario.) Auch andere Dystopie-Szenarien, wie das Leid durch die unvorhergesehenen Folgen einer neuen Technologie fallen unter s-risks.[16] Ein dystopisches Szenario weist die gleichen Hauptmerkmale auf wie die Auslöschung und der unwiederbringliche Zusammenbruch der Zivilisation – vor der Katastrophe hatte die Menschheit eine große Auswahl an Zukunftsperspektiven, aus denen sie wählen konnte; nach der Katastrophe ist die Menschheit für immer in einem schrecklichen Zustand gefangen.[17]

Mögliche Risikoquellen

Bearbeiten

Potenzielle globale Katastrophenrisiken werden üblicherweise als anthropogene oder natürliche Gefahren eingestuft. Beispiele für natürliche Risiken sind ein Asteroiden- oder Kometeneinschlag, ein Supervulkanausbruch, eine natürliche Pandemie, ein tödlicher Gammastrahlenausbruch, ein geomagnetischer Sturm infolge eines koronalen Massenauswurfs, der elektronische Geräte zerstört, ein natürlicher langfristiger Klimawandel, feindliches außerirdisches Leben oder die Umwandlung der Sonne in einen roten Riesenstern, der die Erde in Milliarden von Jahren verschlingt.

 
Einteilung der globalen Katastrophenrisiken in drei Gruppen, je nachdem, ob sie größtenteils vom Menschen verursacht werden, ob der Mensch die Natur beeinflusst oder ob es sich um rein natürliche Risiken handelt

Anthropogene Risiken sind vom Menschen verursachte Risiken, die mit der Technologie, der Regierungsführung und dem Klimawandel zusammenhängen. Zu den technologischen Risiken gehören die Schaffung künstlicher Intelligenz (Superintelligenz), die nicht mit den Zielen der Menschheit übereinstimmt, sowie Bio- und Nanotechnologie. Eine unzureichende oder bösartige globale Governance schafft Risiken im sozialen und politischen Bereich, wie z. B. einen globalen Krieg und einen nuklearen Holocaust, biologische Kriegsführung und Bioterrorismus mit Hilfe genetisch veränderter Organismen, Cyberkriegsführung und Cyberterrorismus, die kritische Infrastrukturen wie das Stromnetz zerstören, oder radiologische Kriegsführung mit Waffen wie großen Kobaltbomben. Zu den globalen Katastrophenrisiken im Bereich der Steuerung des Erdsystems gehören die menschengemachte globale Erwärmung, die Umweltzerstörung, das Aussterben von Arten, Hungersnöte infolge ungleicher Ressourcenverteilung, Überbevölkerung, Missernten und eine nicht nachhaltige Landwirtschaft.

Quantifizierung von Risiken – natürliche Risiken

Bearbeiten

Wissenschaftler können mittlerweile auf Basis von Erfahrungswerten und empirischen Daten sehr genau sagen, wie hoch die Wahrscheinlichkeiten für Ereignisse wie den Einschlag großer Kometen, Supervulkanausbrüche oder Gammastrahlenausbrüche innerhalb eines Jahrhunderts sind. Toby Ord hat natürliche Risiken nach ausführlicher Datenanalyse quantifiziert.[18] Die Wahrscheinlichkeiten beziehen sich auf die Wahrscheinlichkeit, dass das Ereignisses innerhalb eines Jahrhunderts eintritt und die Menschheit auslöscht, oder ihr langfristiges Potenzial zerstört. Ord bezieht nur die drei genannten Möglichen Katastrophen ein und eine exakte Wahrscheinlichkeit anzugeben ist nie möglich, aber aufgrund des empirischen Hintergrunds der Wahrscheinlichkeitswerte gibt die Schätzung ein gutes Bild des realen Risikos:

Ereignis Wahrscheinlichkeit
Supervulkanausbruch ~1 zu 10.000
Asteroiden- oder Kometeneinschläge ~1 zu 1.000.000
Supernova oder Gammastrahlenausbruch ~1 zu 1.000.000.000

Quantifizierung von Risiken – anthropogene Risiken

Bearbeiten

Anthropogene Risiken sind solche, die durch das Handeln des Menschen entstehen. Die Erfindung der Atombombe stellte das erste anthropogene existenzielle Risiko dar. Ab diesem Zeitpunkt hatte die Menschheit das Potenzial, sich selbst zu zerstören. Andere ernstzunehmende Risiken stellen ein extremer menschengemachter Klimawandel, der Einsatz künstlich erzeugter Krankheitserreger und generell der Einsatz von Biowaffen dar. Kontrovers wird das Risiko diskutiert, das von Zukunftstechnologien wie Nanotechnologie, vor allem aber fortgeschrittener künstlicher Intelligenz (artificial general intelligence, AGI) ausgeht. Mehrere Autoren, die sich mit anthropogenen Risiken beschäftigen, bezeichnen das Risiko durch AGI als das größte existenzielle Risiko des 21sten Jahrhunderts.[11][2] Auch zu Anthropogenen Risiken hat Toby Ord nach ausführlicher Analyse eine Einschätzung abgegeben.[18] Aufgrund der Methodologischen Herausforderungen, die im nächsten Abschnitt beschrieben werden, ist eine empirisch fundierte Einschätzung nicht möglich. Stattdessen erfolgt die Schätzung basierend auf kohärenten Kausalketten und interdisziplinärem Diskurs (Computerwissenschaften, Pandemieforschung, Ökologie, Philosophie). Die Einschätzung sollte also als Approximation von Größenordnungen betrachtet werden, nicht als annähernd exakte Vorhersage.[18] Auch hier beziehen sich die angegebenen Wahrscheinlichkeiten auf den Fall, in dem das beschriebene Ereignis innerhalb eines Jahrhunderts zu einer existenziellen Katastrophe führt, die die Menschheit auslöscht oder ihr langfristiges Potenzial zerstört.

Ereignis Wahrscheinlichkeit
Atomkrieg ~1 zu 1.000
Menschengemachter Klimawandel ~1 zu 1.000
Andere Umweltschäden ~1 zu 1.000
Menschgemachte Pandemien (Biowaffen) ~1 zu 30
Artificial general intelligence ~1 zu 10
Unbekannte Risiken ~1 zu 30

Methodische Herausforderungen

Bearbeiten

Die Erforschung des Wesens und der Abschwächung globaler Katastrophenrisiken und existenzieller Risiken unterliegt einer Reihe einzigartiger Herausforderungen und kann daher nicht ohne weiteres den üblichen Standards wissenschaftlicher Strenge unterworfen werden.[19] So ist es beispielsweise weder machbar noch ethisch vertretbar, diese Risiken experimentell zu untersuchen. Carl Sagan hat dies in Bezug auf den Atomkrieg zum Ausdruck gebracht: „Die langfristigen Folgen eines Atomkriegs zu verstehen, ist kein Problem, das sich experimentell überprüfen lässt“.[20] Zur experimentellen Erforschung müsste das Ereignis eintreten, wodurch im Fall existenzieller Katastrophen keine Auswertung mehr möglich ist und auch im Fall nicht-existenzieller Katastrophenrisiken wäre eine experimentelle Untersuchung moralisch untragbar. Darüber hinaus ändern sich viele Katastrophenrisiken schnell, wenn sich die Technologie weiterentwickelt und sich die Rahmenbedingungen, z. B. die geopolitischen Verhältnisse, ändern. Eine weitere Herausforderung ist die allgemeine Schwierigkeit, die Zukunft über lange Zeiträume genau vorherzusagen, insbesondere bei anthropogenen Risiken, die von komplexen politischen, wirtschaftlichen und sozialen Systemen des Menschen abhängen.[21] Zusätzlich zu den bekannten und greifbaren Risiken können unvorhersehbare Aussterbeereignisse auftreten, (schwarzer Schwan), was ein zusätzliches methodisches Problem darstellt.[22]

Fehlender historischer Präzedenzfall

Bearbeiten

Die Menschheit hat noch nie eine existenzielle Katastrophe erlebt, und wenn eine solche eintreten sollte, wäre sie zwangsläufig beispiellos. Daher stellen existenzielle Risiken aufgrund der Selektionswirkung der Beobachtung eine besondere Herausforderung für die Vorhersage dar, mehr noch als andere langfristige Ereignisse. Anders als bei den meisten Ereignissen ist das Ausbleiben eines vollständigen Aussterbeereignisses in der Vergangenheit kein Beweis gegen die Wahrscheinlichkeit eines solchen Ereignisses in der Zukunft, da es in jeder Welt, die ein solches Aussterbeereignis erlebt hat, keine Beobachter gibt, so dass unabhängig von ihrer Häufigkeit keine Zivilisation in ihrer Geschichte existenzielle Risiken beobachtet hat. Diese anthropischen Probleme lassen sich zum Teil dadurch vermeiden, dass man Beweise betrachtet, die keine derartigen Selektionseffekte haben, wie z. B. Asteroideneinschlagskrater auf dem Mond, oder indem man die wahrscheinlichen Auswirkungen neuer Technologien direkt bewertet.

Um die Dynamik eines noch nie dagewesenen, nicht wieder gutzumachenden globalen Zusammenbruchs der Zivilisation (eine Art existenzielles Risiko) zu verstehen, kann es lehrreich sein, die verschiedenen lokalen Zusammenbrüche von Zivilisationen zu studieren, die im Laufe der menschlichen Geschichte stattgefunden haben. So endeten beispielsweise Zivilisationen wie das Römische Reich mit dem Verlust der zentralisierten Regierungsgewalt und einem großen zivilisationsweiten Verlust an Infrastruktur und fortschrittlicher Technologie. Diese Beispiele zeigen jedoch, dass Gesellschaften gegenüber Katastrophen recht widerstandsfähig zu sein scheinen. Zwar endete das römische Reich, die Zivilisation an sich blieb aber bestehen. Auch das mittelalterliche Europa überlebte den Schwarzen Tod, ohne dass es zu einem zivilisatorischen Zusammenbruch kam, obwohl es 25 bis 50 Prozent seiner Bevölkerung verlor.

Anreize und Koordinierung

Bearbeiten

Es gibt wirtschaftliche Gründe, die erklären können, warum so wenig Anstrengungen zur Verringerung existenzieller Risiken unternommen werden. Da es sich um ein globales öffentliches Gut handelt, sollten wir davon ausgehen, dass es auf den Märkten unterversorgt ist. Selbst wenn eine große Nation in Maßnahmen zur Risikominderung investiert, wird diese Nation nur einen kleinen Teil des Nutzens daraus ziehen. Darüber hinaus ist die Verringerung existenzieller Risiken ein globales öffentliches Gut zwischen den Generationen, da der größte Teil des Nutzens aus der Verringerung existenzieller Risiken künftigen Generationen zugute käme, und obwohl diese künftigen Menschen theoretisch vielleicht bereit wären, erhebliche Summen für die Verringerung existenzieller Risiken zu zahlen, gibt es keinen Mechanismus für eine solche Transaktion.

Kognitive Verzerrungen

Bearbeiten

Zahlreiche kognitive Verzerrungen können die Beurteilung der Bedeutung existenzieller Risiken beeinflussen, wie z. B. die Missachtung des Maßstabes, die hyperbolische Diskontierung, die Verfügbarkeitsheuristik, der Konjunktionstrugschluss, die Affektheuristik und der Overconfidence-Effekt.

Die mangelnde Sensibilität für das Ausmaß des Problems beeinflusst, wie schlimm die Menschen das Aussterben der menschlichen Rasse einschätzen. Wenn Menschen beispielsweise motiviert sind, Geld für altruistische Zwecke zu spenden, steigt die Menge, die sie bereit sind zu geben, nicht linear mit dem Ausmaß des Problems: Die Menschen sind beispielsweise ungefähr genauso bereit, den Tod von 200.000 oder 2.000 Vögeln zu verhindern.[23] In ähnlicher Weise sind die Menschen oft mehr über die Bedrohung von Einzelpersonen besorgt als über die von größeren Gruppen.[24]

Eliezer Yudkowsky stellt die Theorie auf, dass die Vernachlässigung von Handlungsspielräumen bei der öffentlichen Wahrnehmung existenzieller Risiken eine Rolle spielt:[25]

„Wesentlich größere Zahlen, wie 500 Millionen Tote, und vor allem qualitativ andere Szenarien, wie das Aussterben der gesamten menschlichen Spezies, scheinen eine andere Denkweise auszulösen... Menschen, die nicht im Traum daran denken würden, ein Kind zu verletzen, hören von der existenziellen Gefahr und sagen: ‚Nun, vielleicht verdient die menschliche Spezies nicht wirklich zu überleben.‘“

Alle bisherigen Vorhersagen über das Aussterben der Menschheit haben sich als falsch erwiesen. Für einige lässt dies zukünftige Warnungen weniger glaubwürdig erscheinen. Nick Bostrom argumentiert, dass das Ausbleiben des menschlichen Aussterbens in der Vergangenheit ein schwacher Beweis dafür ist, dass es in der Zukunft kein menschliches Aussterben geben wird, und zwar aufgrund des Survivorship Bias und anderer anthropischer Effekte.[26]

Der Soziobiologe E. O. Wilson argumentierte: „Der Grund für diesen kurzsichtigen Nebel liegt nach Ansicht der Evolutionsbiologen darin, dass er bis auf die letzten paar Jahrtausende der zwei Millionen Jahre, die die Gattung Homo existiert, tatsächlich von Vorteil war... Es wurde viel Wert auf die nahe Zukunft und die frühe Fortpflanzung gelegt und wenig auf andere Dinge. Katastrophen von einem Ausmaß, wie sie nur alle paar Jahrhunderte vorkommen, wurden vergessen oder in einen Mythos verwandelt.“[27]

Vorgeschlagene Entschärfung

Bearbeiten

Mehrschichtige Verteidigung

Bearbeiten

Defense in depth ist ein nützlicher Rahmen für die Kategorisierung von Maßnahmen zur Risikominderung in drei Verteidigungsebenen:

  1. Prävention: Verringerung der Wahrscheinlichkeit, dass eine Katastrophe überhaupt erst eintritt. Beispiel: Maßnahmen zur Verhinderung des Ausbruchs neuer hoch ansteckender Krankheiten.
  2. Reaktion: Verhinderung der Ausweitung einer Katastrophe auf die globale Ebene. Beispiel: Maßnahmen zur Verhinderung der Eskalation eines kleinen nuklearen Konflikts zu einem umfassenden Atomkrieg.
  3. Widerstandsfähigkeit: Erhöhung der Widerstandsfähigkeit der Menschheit (gegen das Aussterben) angesichts globaler Katastrophen. Beispiel: Maßnahmen zur Erhöhung der Ernährungssicherheit während eines nuklearen Winters.

Das Aussterben der Menschheit ist am wahrscheinlichsten, wenn alle drei Schutzmechanismen schwach sind, d. h. „wenn wir Risiken nicht verhindern können, nicht erfolgreich darauf reagieren können und nicht widerstandsfähig dagegen sind“.[28]

Der beispiellose Charakter existenzieller Risiken stellt eine besondere Herausforderung für die Entwicklung von Maßnahmen zur Risikominderung dar, da die Menschheit nicht aus früheren Ereignissen lernen kann.[29]

Finanzierung

Bearbeiten

Einige Forscher argumentieren, dass sowohl die Forschung als auch andere Initiativen im Zusammenhang mit existenziellen Risiken unterfinanziert sind. Nick Bostrom stellt fest, dass mehr Forschung über Star Trek, Snowboarding oder Mistkäfer betrieben wurde als über existenzielle Risiken. Im Jahr 2020 verfügte die Organisation des Biowaffenübereinkommens über ein Jahresbudget von 1,4 Millionen US-Dollar.[30]

Überlebensplanung

Bearbeiten

Einige Wissenschaftler schlagen vor, auf der Erde eine oder mehrere autarke, abgelegene und dauerhaft bewohnte Siedlungen zu errichten, die speziell für das Überleben einer globalen Katastrophe geschaffen werden. Der Wirtschaftswissenschaftler Robin Hanson vertritt die Auffassung, dass ein Zufluchtsort, der dauerhaft nur 100 Menschen beherbergt, die Überlebenschancen der Menschen bei einer Reihe von globalen Katastrophen erheblich verbessern würde.[31]

Die Lagerung von Lebensmitteln ist weltweit vorgeschlagen worden, aber die Kosten wären hoch. Außerdem würde sie wahrscheinlich zu den Millionen von Todesfällen pro Jahr aufgrund von Unterernährung beitragen. Im Jahr 2022 hat ein Team unter der Leitung von David Denkenberger die Kosteneffizienz von widerstandsfähigen Lebensmitteln mit der Sicherheit von künstlicher allgemeiner Intelligenz (AGI) verglichen und festgestellt, dass die Arbeit an widerstandsfähigen Lebensmitteln mit einer Wahrscheinlichkeit von 98-99 % eine höhere marginale Wirkung hat.[32] Einige Überlebenskünstler legen sich einen Vorrat an Lebensmitteln für mehrere Jahre an.

Der Svalbard Global Seed Vault ist 120 m tief in einem Berg auf einer Insel in der Arktis vergraben. Er soll 2,5 Milliarden Samen aus mehr als 100 Ländern aufnehmen, um die Ernten der Welt zu schützen. Das umgebende Gestein hat eine Temperatur von −6 °C (Stand 2015), aber der Tresor wird mit Hilfe von Kühlschränken, die mit lokal gewonnener Kohle betrieben werden, auf −18 °C gehalten.[33]

Wenn die Gesellschaft weiterhin funktioniert und die Biosphäre bewohnbar bleibt, könnte der Bedarf an Nahrungsenergie der derzeitigen menschlichen Bevölkerung theoretisch auch während einer längeren Abwesenheit von Sonnenlicht gedeckt werden, vorausgesetzt, man plant ausreichend voraus. Zu den vermuteten Lösungen gehören die Züchtung von Pilzen auf der toten Pflanzenbiomasse, die nach der Katastrophe zurückbleibt, die Umwandlung von Zellulose in Zucker oder die Verfütterung von Erdgas an Methan-verdauende Bakterien.[34]

Globale katastrophale Risiken und globale Governance

Bearbeiten

Eine unzureichende globale Governance schafft Risiken im sozialen und politischen Bereich, aber die Governance-Mechanismen entwickeln sich langsamer als der technologische und soziale Wandel. Regierungen, der Privatsektor und die breite Öffentlichkeit sind besorgt über das Fehlen von Governance-Mechanismen, die einen effizienten Umgang mit Risiken sowie Verhandlungen und Rechtsprechung zwischen unterschiedlichen und widersprüchlichen Interessen ermöglichen. Dies wird durch das Verständnis der Verflechtung globaler Systemrisiken noch unterstrichen.[35] In Ermangelung oder in Erwartung einer globalen Governance können die nationalen Regierungen individuell handeln, um globale Katastrophen besser zu verstehen, abzumildern und sich darauf vorzubereiten.[36]

Klima-Notfallpläne

Bearbeiten

2018 rief der Club of Rome zu mehr Klimaschutz auf und veröffentlichte seinen Klima-Notfallplan, der zehn Aktionspunkte zur Begrenzung des Anstiegs der globalen Durchschnittstemperatur auf 1,5 Grad Celsius vorschlägt[37]. Außerdem veröffentlichte der Club 2019 den umfassenderen Planetary Emergency Plan.[38]

Es gibt Anhaltspunkte dafür, dass die kollektive Auseinandersetzung mit den emotionalen Erfahrungen, die bei der Betrachtung der Anfälligkeit der menschlichen Spezies im Kontext des Klimawandels auftreten, eine Anpassung an diese Erfahrungen ermöglicht. Wenn die kollektive Auseinandersetzung mit emotionalen Erfahrungen und deren Verarbeitung förderlich ist, kann dies zu einem Wachstum der Widerstandsfähigkeit, der psychologischen Flexibilität, der Toleranz gegenüber emotionalen Erfahrungen und des gemeinschaftlichen Engagements führen.[39]

Kolonisierung des Weltraums

Bearbeiten

Die Besiedlung des Weltraums ist eine vorgeschlagene Alternative, um die Chancen zu verbessern, ein Aussterbeszenario zu überleben.[40] Lösungen dieses Ausmaßes könnten eine Technik im Megamaßstab erfordern.

Der Astrophysiker Stephen Hawking sprach sich dafür aus, andere Planeten innerhalb des Sonnensystems zu kolonisieren, sobald die Technologie weit genug fortgeschritten ist, um die Überlebenschancen der Menschheit bei planetenweiten Ereignissen wie einem globalen thermonuklearen Krieg zu verbessern.[41]

Der Milliardär Elon Musk schreibt, dass die Menschheit zu einer multiplanetaren Spezies werden muss, um nicht auszusterben.[42] Mit seinem Unternehmen SpaceX entwickelt Musk eine Technologie, die er für die Besiedlung des Mars einsetzen will.

Verschiebung der Erde

Bearbeiten

In einigen Milliarden Jahren wird sich die Sonne zu einem Roten Riesen ausdehnen und die Erde verschlucken. Dies kann vermieden werden, indem die Erde weiter von der Sonne entfernt wird, so dass die Temperatur in etwa konstant bleibt. Dies kann erreicht werden, indem man die Bahnen von Kometen und Asteroiden so verändert, dass sie nahe an der Erde vorbeiziehen, so dass sie der Erdbahn Energie zuführen.[43] Da sich die Sonne nur langsam ausdehnt, würde etwa eine solche Begegnung alle 6.000 Jahre ausreichen.

Zweifler und Gegner

Bearbeiten

Der Psychologe Steven Pinker hat das existenzielle Risiko als „nutzlose Kategorie“ bezeichnet, die von realen Bedrohungen wie dem Klimawandel und dem Atomkrieg ablenken kann.[44]

Organisationen

Bearbeiten

Das Bulletin of the Atomic Scientists (gegründet 1945) ist eine der ältesten globalen Risikoorganisationen und wurde gegründet, nachdem die Öffentlichkeit nach dem Zweiten Weltkrieg durch die Möglichkeit eines Atomkriegs alarmiert wurde. Sie untersucht Risiken im Zusammenhang mit Atomkrieg und Kernenergie und ist bekannt für die 1947 eingeführte Weltuntergangsuhr. Das Foresight Institute (gegründet 1986) untersucht die Risiken der Nanotechnologie und deren Nutzen. Es war eine der ersten Organisationen, die sich mit den unbeabsichtigten Folgen einer ansonsten harmlosen Technologie beschäftigte, die auf globaler Ebene aus dem Ruder läuft. Gegründet wurde es von K. Eric Drexler, der „graue Schmiere“ postulierte.[45]

Nach dem Jahr 2000 gründete eine wachsende Zahl von Wissenschaftlern, Philosophen und Tech-Milliardären Organisationen, die sich mit der Erforschung globaler Risiken sowohl innerhalb als auch außerhalb der akademischen Welt beschäftigen.[46]

Zu den unabhängigen Nichtregierungsorganisationen (NGOs) gehört das Machine Intelligence Research Institute (gegründet 2000), das sich zum Ziel gesetzt hat, das Risiko einer durch künstliche Intelligenz verursachten Katastrophe zu verringern; zu den Spendern gehören Peter Thiel und Jed McCaleb.[47]

Die Nuclear Threat Initiative (gegründet 2001) versucht, die globale Bedrohung durch nukleare, biologische und chemische Bedrohungen zu verringern und die Schäden nach einem Ereignis einzudämmen[48]. Sie unterhält einen Index für die Sicherheit von Kernmaterial.[49]

Die Lifeboat Foundation (gegründet 2009) finanziert Forschungsarbeiten zur Verhinderung einer technologischen Katastrophe. Der Großteil der Forschungsgelder fließt in Projekte an Universitäten.[50]

Das Global Catastrophic Risk Institute (seit 2011) ist eine gemeinnützige, überparteiliche Denkfabrik mit Sitz in den USA, die von Seth Baum und Tony Barrett gegründet wurde. Das GCRI betreibt Forschungs- und Politikarbeit zu verschiedenen Risiken, darunter künstliche Intelligenz, Atomkrieg, Klimawandel und Asteroideneinschläge. Die Global Challenges Foundation (gegründet 2012) mit Sitz in Stockholm, gegründet von Laszlo Szombatfalvy, veröffentlicht jährlich einen Bericht über den Stand der globalen Risiken. Das Future of Life Institute (gegründet 2014) setzt sich für die Verringerung extremer, weitreichender Risiken durch transformative Technologien ein und steuert die Entwicklung und den Einsatz dieser Technologien zum Nutzen aller Lebewesen durch die Vergabe von Zuschüssen, politische Lobbyarbeit in den Vereinigten Staaten, der Europäischen Union und den Vereinten Nationen sowie durch Bildungsarbeit.

Elon Musk, Vitalik Buterin und Jaan Tallinn sind einige der größten Spender. Das Center on Long-Term Risk (gegründet 2016), früher bekannt als Foundational Research Institute, ist eine britische Organisation, die sich auf die Verringerung der Risiken astronomischen Leids (s-risks) durch neue Technologien konzentriert.[51]

Zu den universitären Organisationen gehört das Future of Humanity Institute (gegründet 2005), das sich mit Fragen der langfristigen Zukunft der Menschheit und insbesondere mit existenziellen Risiken befasst.[52] Es wurde von Nick Bostrom gegründet und hat seinen Sitz an der Universität Oxford.[53]

Das Centre for the Study of Existential Risk (gegründet 2012) ist eine Organisation mit Sitz an der Universität Cambridge, die vier große technologische Risiken untersucht: künstliche Intelligenz, Biotechnologie, globale Erwärmung und Kriegsführung.[54] Alle sind vom Menschen verursachte Risiken, wie Huw Price gegenüber der Nachrichtenagentur AFP erklärte: „Es scheint eine vernünftige Vorhersage zu sein, dass irgendwann in diesem oder im nächsten Jahrhundert die Intelligenz den Zwängen der Biologie entkommen wird“. Er fügte hinzu, dass wir dann „nicht mehr die Klügsten sind“ und Gefahr laufen, der Gnade von „Maschinen ausgeliefert zu sein, die nicht böswillig sind, sondern Maschinen, deren Interessen uns nicht einschließen“.[55] Stephen Hawking war als Berater tätig.

Die Millennium Alliance for Humanity and the Biosphere ist eine an der Stanford University ansässige Organisation, die sich mit vielen Fragen im Zusammenhang mit der globalen Katastrophe befasst, indem sie Mitglieder der akademischen Geisteswissenschaften zusammenbringt.[56] Sie wurde u. a. von Paul Ehrlich gegründet.[57] An der Stanford University gibt es auch das Center for International Security and Cooperation, das sich mit der politischen Zusammenarbeit zur Verringerung des globalen Katastrophenrisikos befasst.

Das Center for Security and Emerging Technology wurde im Januar 2019 an der Georgetown's Walsh School of Foreign Service gegründet und wird sich auf die politische Forschung zu neuen Technologien konzentrieren, wobei der Schwerpunkt zunächst auf künstlicher Intelligenz liegt. Es erhielt einen Zuschuss von 55 Mio. USD von Good Ventures, wie von Open Philanthropy vorgeschlagen.[58]

Andere Risikobewertungsgruppen sind in Regierungsorganisationen angesiedelt oder gehören zu diesen. Die Weltgesundheitsorganisation (WHO) verfügt über eine Abteilung namens Global Alert and Response (GAR), die globale epidemische Krisen überwacht und darauf reagiert.[59] GAR hilft den Mitgliedsstaaten bei der Ausbildung und der Koordinierung der Reaktion auf Epidemien. Die United States Agency for International Development (USAID) hat ihr Emerging Pandemic Threats Program, das darauf abzielt, natürlich entstandene Pandemien an ihrem Ursprung zu verhindern und einzudämmen.[60] Das Lawrence Livermore National Laboratory hat eine Abteilung mit der Bezeichnung Global Security Principal Directorate, die im Auftrag der Regierung Themen wie Biosicherheit und Terrorismusbekämpfung erforscht.[61]

Siehe auch

Bearbeiten
Bearbeiten
Commons: Globales existenzielles Risiko – Sammlung von Bildern, Videos und Audiodateien

Einzelnachweise

Bearbeiten
  1. P. Schulte, L. Alegret, I. Arenillas, J. A. Arz, P. J. Barton, P. R. Bown, T. J. Bralower, G. L. Christeson, P. Claeys, C. S. Cockell, G. S. Collins, A. Deutsch, T. J. Goldin, K. Goto, J. M. Grajales-Nishimura, R. A. F. Grieve, S. P. S. Gulick, K. R. Johnson, W. Kiessling, C. Koeberl, D. A. Kring, K. G. MacLeod, T. Matsui, J. Melosh, A. Montanari, J. V. Morgan, C. R. Neal, D. J. Nichols, R. D. Norris, E. Pierazzo: The Chicxulub Asteroid Impact and Mass Extinction at the Cretaceous-Paleogene Boundary. In: Science. 327. Jahrgang, Nr. 5970, 5. März 2010, S. 1214–1218, doi:10.1126/science.1177265, PMID 20203042, bibcode:2010Sci...327.1214S (englisch, rero.ch [PDF]).
  2. a b Nick Bostrom: Global Catastrophic Risks. Oxford University Press, 2008, S. 1 (englisch, global-catastrophic-risks.com [PDF]).
  3. Ripple WJ, Wolf C, Newsome TM, Galetti M, Alamgir M, Crist E, Mahmoud MI, Laurance WF: World Scientists' Warning to Humanity: A Second Notice. In: BioScience. 67. Jahrgang, Nr. 12, 13. November 2017, S. 1026–1028, doi:10.1093/biosci/bix125 (englisch).
  4. Nick Bostrom: Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards. In: Journal of Evolution and Technology. 9. Jahrgang, März 2002 (englisch, nickbostrom.com).
  5. About FHI. In: Future of Humanity Institute. Abgerufen am 12. August 2021 (englisch).
  6. About FHI. In: Future of Humanity Institute. Abgerufen am 12. August 2021 (englisch).
  7. About us. In: Centre for the Study of Existential Risk. Abgerufen am 12. August 2021 (englisch).
  8. The Future of Life Institute. In: Future of Life Institute. Abgerufen am 5. Mai 2014 (englisch).
  9. Nick Bostrom: Existential Risk Prevention as Global Priority. In: Global Policy. 4. Jahrgang, Nr. 1, 2013, S. 15–3, doi:10.1111/1758-5899.12002 (englisch, existential-risk.org [PDF]).
  10. Nick Bostrom, Milan Cirkovic: Global Catastrophic Risks. Oxford University Press, Oxford 2008, ISBN 978-0-19-857050-9, S. 1 (englisch).
  11. a b Toby Ord: The Precipice: Existential Risk and the Future of Humanity. Hachette, New York 2020, ISBN 978-0-316-48491-6 (englisch): “This is an equivalent, though crisper statement of Nick Bostrom's definition: "An existential risk is one that threatens the premature extinction of Earth-originating intelligent life or the permanent and drastic destruction of its potential for desirable future development." Source: Bostrom, Nick (2013). "Existential Risk Prevention as Global Priority". Global Policy. 4:15-31.”
  12. Nick Bostrom: Existential Risk Prevention as Global Priority. In: Global Policy. 4. Jahrgang, Nr. 1, 2013, S. 15–3, doi:10.1111/1758-5899.12002 (englisch, existential-risk.org [PDF]).
  13. a b Toby Ord: The Precipice: Existential Risk and the Future of Humanity. Hachette, New York 2020, ISBN 978-0-316-48491-6 (englisch).
  14. Toby Ord: The Precipice: Existential Risk and the Future of Humanity. Hachette, New York 2020, ISBN 978-0-316-48491-6 (englisch).
  15. Bryan Caplan (2008). "The totalitarian threat". Global Catastrophic Risks, eds. Bostrom & Cirkovic (Oxford University Press): 504–519. ISBN 978-0-19-857050-9
  16. Tobias Baumann: A typology of s-risks. In: Center for reducing suffering. 2018, abgerufen am 1. Dezember 2023 (englisch).
  17. Toby Ord: The Precipice: Existential Risk and the Future of Humanity. Hachette, New York 2020, ISBN 978-0-316-48491-6 (englisch).
  18. a b c Toby Ord: The Precipice – Existential Risk and the Future of Humanity. Bloomsburry Publishing, London 2020, S. 167.
  19. Toby Ord: The Precipice: Existential Risk and the Future of Humanity. Hachette, New York 2020, ISBN 978-0-316-48491-6 (englisch).
  20. Carl Sagan: Nuclear War and Climatic Catastrophe: Some Policy Implications. In: Foreign Affairs. Council on Foreign Relations, 1983, doi:10.2307/20041818, JSTOR:20041818 (englisch, foreignaffairs.com [abgerufen am 4. August 2020]).
  21. Toby Ord: The Precipice: Existential Risk and the Future of Humanity. Hachette, New York 2020, ISBN 978-0-316-48491-6 (englisch).
  22. Toby Ord: The Precipice: Existential Risk and the Future of Humanity. Hachette, New York 2020, ISBN 978-0-316-48491-6 (englisch).
  23. W. H. Desvousges, F. R. Johnson, R. W. Dunford, K. J. Boyle, S. P. Hudson und N. Wilson, 1993, Measuring natural resource damages with contingent valuation: tests of validity and reliability. In Hausman, J.A. (ed), Contingent Valuation:A Critical Assessment, S. 91–159 (Amsterdam: North Holland).
  24. Eliezer Yudkowsky: Cognitive Biases Potentially Affecting Judgment of Global Risks. In: Global Catastrophic Risks. 2008, S. 91–119, bibcode:2008gcr..book...86Y (englisch, intelligence.org [PDF]).
  25. Yudkowsky, Eliezer. "Cognitive biases potentially affecting judgment of global risks". Global catastrophic risks 1 (2008): 86. S. 114
  26. We're Underestimating the Risk of Human Extinction. The Atlantic, 6. März 2012, abgerufen am 1. Juli 2016 (englisch).
  27. Is Humanity Suicidal? The New York Times Magazine 30. Mai 1993.
  28. Owen Cotton-Barratt, Max Daniel, Anders Sandberg: Defence in Depth Against Human Extinction: Prevention, Response, Resilience, and Why They All Matter. In: Global Policy. 11. Jahrgang, Nr. 3, 2020, ISSN 1758-5899, S. 271–282, doi:10.1111/1758-5899.12786, PMID 32427180, PMC 7228299 (freier Volltext) – (englisch).
  29. Toby Ord: The Precipice: Existential Risk and the Future of Humanity. Hachette, New York 2020, ISBN 978-0-316-48491-6 (englisch).
  30. Toby Ord: The precipice: Existential risk and the future of humanity. 2020, ISBN 978-0-316-48489-3 (englisch): “The international body responsible for the continued prohibition of bioweapons (the Biological Weapons Convention) has an annual budget of $1.4 million - less than the average McDonald's restaurant”
  31. Hanson, Robin. "Catastrophe, social collapse, and human extinction". Global catastrophic risks 1 (2008): 357.
  32. David C. Denkenberger, Anders Sandberg, Ross John Tieman, Joshua M. Pearce: Long term cost-effectiveness of resilient foods for global catastrophes compared to artificial general intelligence safety. In: International Journal of Disaster Risk Reduction. 73. Jahrgang, 2022, S. 102798, doi:10.1016/j.ijdrr.2022.102798, bibcode:2022IJDRR..7302798D (englisch, sciencedirect.com).
  33. Suzanne Goldenberg: The doomsday vault: the seeds that could save a post-apocalyptic world. In: The Guardian. 20. Mai 2015, abgerufen am 30. Juni 2017 (englisch).
  34. David C. Denkenberger, Joshua M. Pearce: Feeding everyone: Solving the food crisis in event of global catastrophes that kill crops or obscure the sun. In: Futures. 72. Jahrgang, September 2015, S. 57–68, doi:10.1016/j.futures.2014.11.008 (englisch, archives-ouvertes.fr [PDF]).
  35. Global Challenges Foundation | Understanding Global Systemic Risk. In: globalchallenges.org. Archiviert vom Original am 16. August 2017; abgerufen am 15. August 2017 (englisch).
  36. Global Catastrophic Risk Policy. In: gcrpolicy.com. Abgerufen am 11. August 2019 (englisch).
  37. Club of Rome: The Climate Emergency Plan. 2018, abgerufen am 17. August 2020 (englisch).
  38. Club of Rome: The Planetary Emergency Plan. 2019, abgerufen am 17. August 2020 (englisch).
  39. J. Kieft, J Bendell: The responsibility of communicating difficult truths about climate influenced societal disruption and collapse: an introduction to psychological research. In: Institute for Leadership and Sustainability (IFLAS) Occasional Papers. 7. Jahrgang, 2021, S. 1–39 (englisch, cumbria.ac.uk).
  40. Mankind must abandon earth or face extinction: Hawking. physorg.com, 9. August 2010, abgerufen am 23. Januar 2012 (englisch).
  41. David Shukman: Hawking: Humans at risk of lethal 'own goal' In: BBC News, 19. Januar 2016. Abgerufen am 1. Juli 2016 (englisch). 
  42. Leah Ginsberg: Elon Musk thinks life on earth will go extinct, and is putting most of his fortune toward colonizing Mars. In: CNBC. 16. Juni 2017; (englisch).
  43. Donald G. Korycansky, Gregory Laughlin, Fred C. Adams: Astronomical engineering: a strategy for modifying planetary orbits. In: Astrophysics and Space Science. 275. Jahrgang, Nr. 4, 2001, S. 349–366, doi:10.1023/A:1002790227314, arxiv:astro-ph/0102126, bibcode:2001Ap&SS.275..349K (englisch).
  44. Kai Kupferschmidt: Could science destroy the world? These scholars want to save us from a modern-day Frankenstein In: Science, AAAS, 11. Januar 2018. Abgerufen am 20. April 2020 (englisch). 
  45. Jim Giles: Nanotech takes small step towards burying 'grey goo'. In: Nature. 429. Jahrgang, Nr. 6992, 2004, S. 591, doi:10.1038/429591b, PMID 15190320, bibcode:2004Natur.429..591G (englisch).
  46. Sophie McBain: Apocalypse soon: the scientists preparing for the end times. In: New Statesman. 25. September 2014, abgerufen am 5. Juni 2015 (englisch).
  47. Angela Chen: Is Artificial Intelligence a Threat? In: The Chronicle of Higher Education. 11. September 2014 (englisch, chronicle.com [abgerufen am 5. Juni 2015]).
  48. Nuclear Threat Initiative. In: Nuclear Threat Initiative. Abgerufen am 5. Juni 2015 (englisch).
  49. About the Lifeboat Foundation. The Lifeboat Foundation, abgerufen am 26. April 2013 (englisch).
  50. Vance Ashlee: The Lifeboat Foundation: Battling Asteroids, Nanobots and A.I. In: New York Times. 20. Juli 2010, abgerufen am 5. Juni 2015 (englisch).
  51. About Us. Center on Long-Term Risk, abgerufen am 17. Mai 2020 (englisch): „We currently focus on efforts to reduce the worst risks of astronomical suffering (s-risks) from emerging technologies, with a focus on transformative artificial intelligence.“
  52. About FHI. In: Future of Humanity Institute. Abgerufen am 12. August 2021 (englisch).
  53. About FHI. In: Future of Humanity Institute. Abgerufen am 12. August 2021 (englisch).
  54. About us. In: Centre for the Study of Existential Risk. Abgerufen am 12. August 2021 (englisch).
  55. Sylvia Hui: Cambridge to study technology's risks to humans. Associated Press, 25. November 2012, archiviert vom Original am 1. Dezember 2012; abgerufen am 30. Januar 2012 (englisch).
  56. Scott Barrett: Environment and Development Economics: Essays in Honour of Sir Partha Dasgupta. Oxford University Press, 2014, ISBN 978-0-19-967785-6, S. 112 (englisch, google.com [abgerufen am 5. Juni 2015]).
  57. Guruprasad Madhavan: Practicing Sustainability. Springer Science & Business Media, 2012, ISBN 978-1-4614-4348-3, S. 43 (englisch, google.com [abgerufen am 5. Juni 2015]).
  58. Nick Anderson: Georgetown launches think tank on security and emerging technology In: Washington Post, 28. Februar 2019. Abgerufen am 12. März 2019 (englisch). 
  59. Global Alert and Response (GAR). In: World Health Organization. Archiviert vom Original am 16. Februar 2003; abgerufen am 5. Juni 2015 (englisch).
  60. USAID Emerging Pandemic Threats Program. USAID, archiviert vom Original am 22. Oktober 2014; abgerufen am 5. Juni 2015 (englisch).
  61. Global Security. Lawrence Livermore National Laboratory, abgerufen am 5. Juni 2015 (englisch).