Zum Hauptinhalt springen
Nicht aus der Schweiz? Besuchen Sie lehmanns.de

Die Zukunft der Menschheit (eBook)

Aufsätze

(Autor)

eBook Download: EPUB
2018 | 1., Originalausgabe
209 Seiten
Suhrkamp Verlag
978-3-518-75755-0 (ISBN)

Lese- und Medienproben

Die Zukunft der Menschheit - Nick Bostrom
Systemvoraussetzungen
19,99 inkl. MwSt
(CHF 19,50)
Der eBook-Verkauf erfolgt durch die Lehmanns Media GmbH (Berlin) zum Preis in Euro inkl. MwSt.
  • Download sofort lieferbar
  • Zahlungsarten anzeigen

Es stehen dramatische Zeiten bevor: In den nächsten Jahrzehnten könnten Technologien wie die Künstliche Intelligenz und die Gentechnik das Ende der Menschheit herbeiführen oder aber ein goldenes Zeitalter einläuten, das wir uns noch kaum ausmalen können. Oder leben wir etwa heute schon in der Matrix, wie der schwedische Philosoph und Bestsellerautor (Superintelligenz) Nick Bostrom in seinem berühmten Simulationsargument behauptet?

In den sechs hier versammelten Aufsätzen, von denen einige bereits Klassikerstatus besitzen, wagt Bostrom einen ebenso nüchternen wie detaillierten Blick in unsere Zukunft. Manches liest sich (noch) wie Science-Fiction, könnte aber aktueller und ernster kaum sein.



<p>Nick Bostrom, geboren 1973, ist Professor f&uuml;r Philosophie am St. Cross College der Universit&auml;tvon Oxford und sowohl Direktordes Future of Humanity Instituteals auch des Programme on the Impacts of Future Technology. 2009 erhielt er den Eugene R. Gannon Award for the Continued Pursuit of Human Advancement. Bostrom war auf der 100 Top Global Thinkers List von Foreign Policy, auf der Top World Thinkers List des Magazins Prospect und ist Autor von mehr als 200 Publikationen. Seine Schriften wurden bislang in 22 Sprachen &uuml;bersetzt, sein Buch <em>Superintelligenz</em> ist ein internationaler Bestseller.</p>

Nick Bostrom, geboren 1973 als Niklas Boström in Schweden, studierte Physik, Mathematik, Neurowissenschaften sowie Philosophie unter anderem am King's College in London und an der London School of Economics, wo er promoviert wurde. Derzeit ist er Professor für Philosophie am St. Cross College der Universität von Oxford und Direktor sowohl des Future of Humanity Institute als auch des Programme for the Impact of Future Technology, die beide Teil der Oxford Martin School sind. 2009 wurde er für seine Arbeit, die weltweit rezipiert wird, mit dem prestigeträchtigen Eugene R. Gannon Award for the Continued Pursuit of Human Advancement ausgezeichnet und war auf der 100 Top Global Thinkers List von Foreign Policy.

Existentiell sind solche Risiken, die die gesamte Zukunft der Menschheit bedrohen. Vielen Werttheorien zufolge haben selbst relativ kleine Verringerungen des existentiellen Gesamtrisikos einen enormen Erwartungswert, doch trotz ihrer Wichtigkeit sind die Fragen, die solche und ähnliche Risiken betreffen, nach wie vor kaum verstanden. In diesem Aufsatz kläre ich den Begriff des existentiellen Risikos und entwerfe ein verbessertes Klassifikationssystem. Ich diskutiere den Zusammenhang zwischen existentiellen Risiken und grundlegenden axiologischen Fragen und zeige außerdem, wie die Reduktion existentieller Risiken (mittels der Maxipok-Regel) einem Utilitaristen als starkes handlungsleitendes Prinzip dienen kann. Zudem zeige ich, inwiefern der Begriff des existentiellen Risikos eine neue Denkweise in Bezug auf das Ideal der Stabilität nahelegt.

1. Die Maxipok-Regel


Existentielles Risiko und Ungewissheit

Ein existentielles Risiko liegt vor, wenn die vorzeitige Auslöschung des intelligenten Lebens irdischen Ursprungs droht oder die Gefahr besteht, dass dessen zukünftiges Entwicklungspotential dauerhaft und drastisch beschnitten wird.[1] Obwohl sich die Wahrscheinlichkeit solcher Risiken oft schwer einschätzen lässt, gibt es viele Gründe für die Annahme, dass die Menschheit in den nächsten Jahrhunderten einem erheblichen Gesamtrisiko ausgesetzt sein wird. Wer sich mit dem Thema auskennt, schätzt das Gesamtrisiko in diesem Jahrhundert in der Regel auf 10 bis 20 Prozent, allerdings hängen solche Schätzungen unweigerlich stark von subjektiven Urteilen 52ab[2] – die vernünftigste Prognose könnte auch wesentlich höher oder niedriger ausfallen. Der vielleicht stärkste Grund, die Gefahren in den nächsten Jahrhunderten für erheblich zu halten, besteht jedoch darin, dass enorm viel auf dem Spiel steht. Auch eine geringe Wahrscheinlichkeit einer existentiellen Katastrophe dürfte daher von erheblicher praktischer Bedeutung sein.[3]

Natürliche existentielle Risiken hat die Menschheit schon seit hunderttausenden von Jahren überlebt, weshalb sie uns auch im nächsten Jahrhundert vermutlich nicht umbringen werden.[4] Diese Folgerung wird noch gestützt, wenn wir uns spezifische natürliche Risiken wie etwa Asteroideneinschläge, Supervulkanausbrüche, Erdbeben oder Gammastrahlenimpulse ansehen. Empirisch ermittelten Auswirkungsverteilungen und wissenschaftlichen Modellen zufolge dürfte es extrem unwahrscheinlich sein, dass uns solche Katastrophen in den nächsten hundert Jahren auslöschen.[5]

53Im Gegensatz dazu hat unsere Spezies ganz neue Formen existentieller Risiken in die Welt gesetzt, denen wir noch nie gegenüberstanden; daher besteht trotz der Langlebigkeit unserer Art kein besonderer Grund zur Zuversicht. Die genauere Analyse spezifischer Szenarien bestätigt die Vermutung, dass das existentielle Risiko auf absehbare Zeit vor allem auf anthropogenen existentiellen Risiken beruht – also vom Menschen ausgeht. Insbesondere scheinen die meisten der großen existentiellen Risiken mit potentiellen künftigen technischen Durchbrüchen zusammenzuhängen, die unsere Fähigkeiten zur Veränderung der Umwelt oder unserer eigenen Biologie radikal erweitern würden. Mit zunehmenden Fähigkeiten wächst auch das Ausmaß der potentiellen Folgen, egal ob beabsichtigt oder unbeabsichtigt, positiv oder negativ. Beispielsweise scheinen in nicht allzu ferner Zukunft liegende Formen der Biotechnologie, molekularen Nanotechnologie und maschinellen Intelligenz erhebliche existentielle Risiken zu bergen. Der Großteil des Risikos könnte in den nächsten hundert Jahren also von recht spekulativen Szenarien abhängen, denen sich auch durch Einsatz rigoroser statistischer und wissenschaftlicher Methoden keine genauen Wahrscheinlichkeiten zuordnen lassen. Ein Risiko, das sich nur schwer quantifizieren lässt, ist jedoch nicht unbedingt zu vernachlässigen.

Wahrscheinlichkeiten kann man auf verschiedene Weise verstehen. Für unsere Zwecke ist die epistemische Bedeutung am wichtigsten, der zufolge Wahrscheinlichkeit (in etwa) der Überzeugungsgrad ist, den ein vollkommen vernünftiger Betrachter aller vorhandenen Belege der Chance gibt, dass der Ernstfall eintritt.[6] Wenn man momentan nicht wissen kann, ob etwas objektiv ungefährlich ist, dann ist es zumindest in diesem für die Entscheidungsfindung relevanten subjektiven Sinn riskant. Wenn man nicht weiß, ob in einer Höhle ein hungriger Löwe wartet, dann ist die Höhle in genau diesem Sinn gefährlich. Die Höhle zu meiden ist rational, wenn Sie vernünftigerweise urteilen, dass die zu erwartenden Kosten des Betretens der Höhle den zu erwartenden Nutzen übersteigen.

Die Ungewissheit und Fehleranfälligkeit unserer Risikoein54schätzung erster Ordnung ist selbst in die globale Wahrscheinlichkeitszuschreibung einzubeziehen. Dieser Faktor dominiert oft bei wenig wahrscheinlichen, aber folgenreichen Risiken – insbesondere bei jenen, die kaum verstandene natürliche Phänomene, komplexe soziale Dynamiken oder neue Technologien betreffen oder aus anderen Gründen schwer einzuschätzen sind. Angenommen, eine Katastrophe X hat einer wissenschaftlichen Analyse A zufolge eine extrem kleine Wahrscheinlichkeit P(X). Dann könnte die Wahrscheinlichkeit, dass A einen schweren Fehler enthält, ganz schnell deutlich größer sein als P(X).[7] Ziemlich hoch könnte außerdem auch P(X|¬A) sein, also die bedingte Wahrscheinlichkeit von X, gegeben einen schweren Fehler in A. Es könnte sich dann herausstellen, dass das Risiko von X größtenteils in der Ungewissheit bezüglich unserer wissenschaftlichen Einschätzung bestand, dass P(X) gering war (siehe Abb. 1).[8]

Abb. 1: Ungewissheit auf der Meta-Ebene.

Quelle: Ord et al. 2010 (siehe Fußnote 8). Der Einbezug der Fehlbarkeit unserer Risikoabschätzung erster Stufe kann die Wahrscheinlichkeit von Risiken erhöhen, die für sehr gering gehalten werden. Die ursprüngliche Analyse (linke Seite) schreibt einem Desaster eine geringe Wahrscheinlichkeit zu (schwarzer Streifen). Diese Analyse könnte jedoch falsch sein, was durch den grauen Bereich dargestellt wird (rechte Seite). Der größte Teil des Gesamtrisikos kann also auch eher im grauen Bereich als innerhalb des schwarzen Streifens liegen.

55Kategorien qualitativer Risiken

Da ein Risiko eine negativ bewertete Chance ist, hängt die Größe des Risikos einer Sache – und sogar, ob diese überhaupt riskant ist – von einer Bewertung ab. Bevor wir die Größe eines Risikos einschätzen können, müssen wir einen Bewertungsstandard angeben, mit dessen Hilfe es sich messen lässt. Dafür stehen uns mehrere Typen solcher Bewertungsstandards zur Verfügung, so etwa eine Nutzenfunktion, die die Präferenzen eines Akteurs hinsichtlich verschiedener Ergebnisse repräsentiert. Das mag die beste Methode sein, um einem Akteur bei der Entscheidungsfindung zu helfen; hier werden wir jedoch eine normative Bewertung vornehmen, eine moralisch gerechtfertigte Zuschreibung von Werten zu verschiedenen möglichen Ergebnissen. Diese Art von Evaluation ist relevanter, wenn es darum geht, wie unsere gesellschaftlichen (oder individuellen) Prioritäten in puncto Risikominimierung aussehen sollten.

In der Moralphilosophie herrscht keine Einigkeit darüber, welche normativen Bewertungen korrekt sind, und ich werde hier nicht versuchen, irgendwelche grundsätzlichen axiologischen Differenzen zu...

Erscheint lt. Verlag 23.10.2018
Übersetzer Jan-Erik Strasser
Verlagsort Berlin
Sprache deutsch
Themenwelt Geisteswissenschaften
Schlagworte AI • Artifical Intelligence • Artificial Intelligence • Chat-GPT • DALL-E • generative AI • gpt • KI • Künstliche Intelligenz • Risikoforschung • Simulationsargument • STW 2245 • STW2245 • suhrkamp taschenbuch wissenschaft 2245 • Superintelligenz • Tranhumanismus • Utopia • X-Risk
ISBN-10 3-518-75755-5 / 3518757555
ISBN-13 978-3-518-75755-0 / 9783518757550
Informationen gemäß Produktsicherheitsverordnung (GPSR)
Haben Sie eine Frage zum Produkt?
EPUBEPUB (Wasserzeichen)

DRM: Digitales Wasserzeichen
Dieses eBook enthält ein digitales Wasser­zeichen und ist damit für Sie persona­lisiert. Bei einer missbräuch­lichen Weiter­gabe des eBooks an Dritte ist eine Rück­ver­folgung an die Quelle möglich.

Dateiformat: EPUB (Electronic Publication)
EPUB ist ein offener Standard für eBooks und eignet sich besonders zur Darstellung von Belle­tristik und Sach­büchern. Der Fließ­text wird dynamisch an die Display- und Schrift­größe ange­passt. Auch für mobile Lese­geräte ist EPUB daher gut geeignet.

Systemvoraussetzungen:
PC/Mac: Mit einem PC oder Mac können Sie dieses eBook lesen. Sie benötigen dafür die kostenlose Software Adobe Digital Editions.
eReader: Dieses eBook kann mit (fast) allen eBook-Readern gelesen werden. Mit dem amazon-Kindle ist es aber nicht kompatibel.
Smartphone/Tablet: Egal ob Apple oder Android, dieses eBook können Sie lesen. Sie benötigen dafür eine kostenlose App.
Geräteliste und zusätzliche Hinweise

Buying eBooks from abroad
For tax law reasons we can sell eBooks just within Germany and Switzerland. Regrettably we cannot fulfill eBook-orders from other countries.

Mehr entdecken
aus dem Bereich
Strategien und Hilfen für die Alltagsbewältigung

von Roberto D&#039; Amelio; Wolfgang Retz …

eBook Download (2024)
Kohlhammer Verlag
CHF 25,35