地球壊滅リスク
地球壊滅リスク(ちきゅうかいめつリスク、英: Global catastrophic risk)は、現代文明(英語: modernity )を危機に晒すもしくは破壊する程度の[2]、地球的規模において人類の安寧に損害を及ぼしかねないと仮説される未来の出来事である[3]。 特に20世紀の終わりから多くの著者らによって導入された、この概念は、哲学者ニック・ボストロムによって2008年に理論化と精密化がなされた。人類の絶滅や永久的かつ劇的な人類の減少を引き起こしうるものは(人類)存亡リスク (英: existential risk)として知られる。この概念も同様にボストロムにより2002年に呼称を提案された[4]。
潜在的な地球壊滅リスクは人類(の技術、統治、気候変動)によって引き起こされる人為的(英: anthropogenic)リスクと、非人為的もしくは外的リスクを含む[2]。技術的リスクの事例は、汎用人工知能による人類滅亡のリスクと破壊的な生物工学もしくはナノテクノロジーである。 世界大戦のような、社会的かつ政治的領域で不十分なもしくは有害なグローバル・ガバナンスが生み出すリスクは、核による大虐殺 (英語: nuclear holocaust)、遺伝子組換え生物を使用する生物兵器テロリズム (英語: bioterrorism)、電力系統のようなライフラインを破壊するサイバーテロリズム;もしくは自然の感染症の汎流行の管理の失敗である。地球環境管理 (英語: earth system governance)の領域における問題とリスクは地球温暖化、種の絶滅を含む自然破壊、 不公平な資源配分の結果としての飢饉、人口過多、凶作及び非持続可能な農業を含む。
非人為的リスクの事例は小惑星の天体衝突、 巨大火山噴火、致死的ガンマ線爆発、電気設備を破壊する磁気嵐、自然の長期的な気候変動、敵性地球外生命、或いは地球を飲み込む太陽の赤色巨星への膨張変形を予想し得る。
分類
[編集]地球壊滅リスクと存亡リスク
[編集]地球壊滅リスクは、少なくとも範囲において地球規模であり、強度において主観的に見えないものではないものであるところの何らかのリスクである。強度において、すべての未来の世代に影響を及ぼし(それらが問題となっている物体や有機物を完全に絶やすことを意味する)「終末」であるところのこれらは、存亡リスクとして分類される。地球壊滅リスクは地球上の生命の莫大な大部分を殺傷するかもしれないうちに、人類はまだ復活する可能性がある。存亡リスクは、これに対し、人類を全く破壊するかまたは文明の復活の如何なる機会をも妨げるものである[6]。
可能性
[編集]幾つかのリスクは、地球で過去に起き、地学的記録に残されたものであるところの現象の結果による。同時に現代の観測をもって、それは未来に起きるであろうそのような事象の、知見を要する可能性の評価が可能である。例えば、絶滅水準の 彗星または小惑星の衝突事象は、西暦2100年以前では百万分の一と見積もられている[7][8]。破局噴火は別の事例である。 トバ山を含む、それらの最後の噴火の時に殆ど人類文明を消滅させただろう、幾つかの歴史的な巨大噴火が知られている。地学的記録はこの特別な巨大噴火が大よそ50,000年毎に再噴火することを示唆する[9] [10][要説明]。
存亡リスクの倫理的重要性
[編集]何人かの学者らは、将来世代の大きな利益となることの理由をもって、存亡リスクを引き下げることを強く支持している。デレク・パーフィットは、地球を住めなくさせる 太陽の膨張の前に、私たちの子孫は40億年生き延びるかもしれないので、絶滅は大きな損失となるだろうことを主張する[11][12]。ニック・ボストロムは一層大きな可能性が 宇宙植民地にあると主張する。もし将来の人類が宇宙に移住すれば、1兆年に亘って、他の惑星で彼らはとても多くの数の人々を維持することができるかもしれない[6]。従って、少しでも存亡リスクを下げることは、将来に存在するだろう人々の予見される数においてとても顕著な衝撃となろう。
リスクの潜在的要因
[編集]壊滅的リスクの幾つかは、隕石の衝撃や巨大火山の噴火のような、自然によるものである。幾つかのこれらは過去に大量絶滅を引き起こした。一方で、幾つかのリスクは、地球温暖化、[13]環境の劣化、巧みに工作された感染症の汎流行や核戦争のような、人為的なものである[14]。
人為的
[編集]ケンブリッジ大学のCambridge Projectは、人類にとっての「最大の脅威」は人為的なものであると言う;それらは人工知能、地球温暖化、核戦争、凶暴なバイオテクノロジーである[15]Future of Humanity Institute(英語: Future of Humanity Institute )も人類絶滅は自然の原因よりも人類由来の原因からの結果の方がもっともらしいと述べる。[5][16]。
既知のリスク
[編集]環境災害
[編集]世界的凶作 や生態系サービスの崩壊のような、環境的なもしくは生態的な災害は、人口過多、経済発展、非持続可能な農業の、先行する傾向によって引き起こされる。
鉱物資源の枯渇
[編集]経済学での開祖者で生態経済学のパラダイム創始者の、ルーマニア系アメリカ人 (英語: Romanian Americans)の経済学者のニコラス・ジョージェスク-レーゲン (英語: Nicholas Georgescu-Roegen)は、人類の人口と消費の水準を維持する地球の許容限度である地球の 環境容量は、 鉱物資源の地球の有限な保有が予め取り出され使用されるにつれ、将来において時折減少するよう制限される;そして従って、世界経済全体は不可避な将来の破綻、人類文明自体の崩御へ向かって行くことを主張した[17]。
サイバー攻撃
[編集]サイバー攻撃は個人的データから電力系統までのあらゆるものを破壊する恐れがある。Foresight Institure の共同創業者で元代表のクリスティーヌ・パターソン (英語: Christine Peterson )は、電力系統におけるサイバー攻撃が壊滅リスクとなり得るのを信じる[18]。
世界人口と農業危機
[編集]二十世紀は医療開発と、緑の革命のような農業生産性での驀進[19]に従い、人口の急速な増加を見た[20]。緑の革命が地球上至る所の農業の形を変えた時の、1950年から1984年の間、世界の穀物生産高は250%で増えた。農業での緑の革命は世界規模の人口増加または実質可能な人口増加の速度を保つよう食料生産を助けた。緑の革命のためのエネルギーは、(天然ガスの)肥料、(石油の)駆除剤、ならびに炭化水素燃料の灌漑の形での、化石燃料によって与えられた[21]。
戦災と大衆暴動
[編集]最も度々探求されてきた筋書きは、核戦争と 最終兵器である。誤った警報に対する応答での核攻撃の間違った開始は一つの有り得る筋書きである;これと近似して1983年のソビエト連邦の誤核警報事変 (英語: 1983 Soviet nuclear false alarm incident )は起きた。年間当たりの核戦争の確率は低いけれども、マーティン・ヘルマン教授はそれを長期的には避けられないものとして述べる;確率が0に達することなく、文明の運が尽きるある日不可避的にそれらは到来する[22]。
地球温暖化
[編集]地球温暖化は十九世紀またはそれ以前からの人類の技術によって引き起こされた温暖化を意味する。将来の気候変動の予測は、更なる地球温暖化、海面上昇、そして極端な気象の出来事や気象由来の災害の頻度の増大を示唆する。地球温暖化の影響は、生物多様性の喪失、既存の食料生産システムへのストレス、マラリアのような既知の感染症の伝播の増大、そして急速な微生物の突然変異を含む。2017年11月に、184の国からの354人の科学者により宣言が示された。それは化石燃料利用からの温室効果ガスの増大水準は、人類の人口増加、無森林化、並びにとりわけ食肉消費のための反芻動物の農場経営による農業生産のための土地の過剰利用は、今後数十年の人類の悲惨の増大の予測のところの道筋の方向に傾いていると述べる[2]。
未知のリスク
[編集]実験的な技術の事故
[編集]ニック・ボストロムは知識の追求において、人類は意図せずに地球や太陽系を破壊しうる装置を作るかもしれない事を示唆する[23]。核物理学や高エネルギー物理における探求は破局的結果をもった通常ではない状況を生み出せたかもしれない。例えば、科学者は最初の核実験(英語: first nuclear test )は大気を発火させたかもしれないことを心配した[24][25]。他にはRHICについての懸念(英語: worred that the RHIC ) やLHCが、ブラックホール、ストレンジレットもしくは偽の真空状態を伴う連鎖反応の地球規模の事故を起こすかもしれない。これらの部分的な懸念は取り組まれてきた、[26][27][28][29]しかし一般的な懸念は残されている。
人工知能
[編集]もし人工知能システムが急速に超知能になるならば、それらは予測しない行動をとったり人類と競争して勝るかもしれない[30]。哲学者のニック・ボストロムによれば、現れる最初の超知能は、目標を達成することを妨げるいかなる企ても仮想的にくじくのと同様に、ほとんどのどんな可能な貴重な成果ももたらすだろうことが、あるかもしれない[31]。このようにして、人間性に無関心な超知能は、もし無関係な目標へ、人間を障害として認知するならば、危険になりうる。ボストロムのSuperintelligenceという本の中で、彼はこれを人工知能の管理の問題(英語: AI control problem )として定義した[32]。物理学者のステファン・ホーキング、マイクロソフトの創始者のビル・ゲイツ、スペースエックスの創始者のイーロン・マスクはこれらの懸念に共感した。ホーキングはそのような人工知能は「人類の終焉を招き」うると理論上想定したこともあった[33]。
ナノテクノロジー
[編集]多くのナノスケールの技術が開発中もしくは今利用される[34]。顕著な地球壊滅リスクを引き起こすよう現れる唯一のものは、原子の精度で複雑な構造を組み立てられるようにする技術の、 分子工場である[35] 。
バイオテクノロジー
[編集]バイオテクノロジーは(ウイルス、バクテリア、細菌、植物、動物の)生物工学的生物の形で地球壊滅リスクを持ち出しうる。多くの場合においてそれらの生物は人間、家畜、作物または私たちが依存する生物(例えば 花粉媒介者、腸内細菌)の病原体となるだろう。しかしながら、いかなる生物も 生態系の機能を破局的に破壊しうる、例えば、主要作物より勝る競争力の強い雑草は、バイオテクノロジーの危険を持ち出す。
非人為的
[編集]感染症の汎流行
[編集]大規模の人数の公衆において荒廃させる影響をもっていた、感染症の汎流行の歴史的事例が数多くある[36]。今日、人間の活動の先例のない規模と速度は地域的な検疫を通り抜ける今までにあった流行性のものよりも一層困難にさせる、そして別の不確かな感染源とリスクの性質の進化は自然の感染症の汎流行が人間の文明に対して現実の脅威となりうることを意味する[37] 。
提案された緩和策
[編集]地球環境管理 (英語: planetary management)とプラネタリー・バウンダリーの尊重は生態系崩壊を防ぐアプローチとして提案されてきた。これらのアプローチの視野の範囲内で、気候工学は大気の化学での人類由来の変化を退けるかもしくは打ち消す計画的な大規模な技術と地球環境の操作を含む。宇宙植民は絶滅の筋書きでの生き残る見込みを改善する提案された代替案である[38]。この範囲の解決策は巨大技術(英語: megascale engineering )を要求するかもしれない。地球規模の食糧倉庫 (英語: food storage )は提案されてきた、しかし資金費用が高くなるだろう。さらに、それらは今日の栄養失調 による毎年の何百万の死亡に寄与する恐れがある[39]。
地球壊滅リスクとグローバル統治
[編集]不十分なグローバル・ガバナンスは社会的および政治的領域でのリスクを生み出すが、そのガバナンスのメカニズムは技術的または社会的変化よりもゆっくりと発展する。政府による、一般的な公的セクターと同様の、リスクを有効に処理し、種々の込み入った利害関係の間の協定や判決を下すガバナンスのメカニズムを欠いた、私的セクターの問題がある。グローバルなシステミックリスクの相互関係のひとつの理解においてこれはさらに横たわっている[40]。グローバルガバナンスの見越しや欠乏において、諸国家の政府は地球壊滅のために独自に理解、緩和、そして準備しうる[41]。
気候保障計画
[編集]2018年に、ローマクラブは気候変動の大きな活動を呼び求めて、そしてClimate Cmergency Planを出版した、それは地球平均での温度上昇を摂氏1.5度に制限するような10項目の活動を提案する[42]。さらに、2019年には、クラブはより包括的なPlanetary Emergency Planを出版した[43]。
宇宙植民
[編集]宇宙植民が絶滅シナリオから生き残る確率を高めるための代替策として提案されている[38]。
イーロン・マスクは人類は絶滅回避のために多惑星種になるべきだと書いている[44]。 マスク氏は自社スペースXで火星の植民に使用されることを望む技術開発を行っている。
生存計画
[編集]地球規模の災害を生き残る目的のため、特別製の1つ以上の居住地を設立することを提案する学者もいる。 この居住地は自給自足が可能で、辺境にあり、恒久的な居住が行われることが想定されているものである[45][46]。
スヴァールバル世界種子貯蔵庫は北極圏の島にある山の中に設けられており、世界中の農作物を保管するために設計されている。
諸組織
[編集]ブレッティン・オブ・ジ・アトミック・サイエンティスツ(創立1945年)は、第二次世界大戦後の核戦争の可能性に一般の人々が不安を感じるようになった後に創立された、地球壊滅リスク関連団体の古い一つである。それは核戦争と核エネルギーに関係するリスクを研究し、1947年に創始された世界終末時計の運営で有名である。Foresight Institute(創立1986年)はナノテクノロジーのリスクとその利益を確かめた。それは、地球規模で混乱した別の無害な技術の意図しない結果を研究する最も初期の団体の一つだった。それは「グレイグー」を仮定したK・エリック・ドレクスラーによって創立された[47][48]。
リスクにおける本当らしさの評価
[編集]フェルミのパラドックス
[編集]1950年に、イタリア人の物理学者のエンリコ・フェルミは、人類がまだ地球外の文明に出会っていないのは何故(なぜ)か不思議に思った。「宇宙全体のどこに?」という自問だった[49]。 宇宙の年齢 の一定の存在、それに星の数の膨大さから、地球が格別例外的でなければ、地球外生命はきっとありふれているだろう。この奇妙さはフェルミのパラドックス の名前で知られる。
それは多く(の者)が受け入れなかったけれども、パラドックスについて示された説明は存亡リスクの概念である、そしてさらにまさしく、私たちが観測することをさせるところの(または私たちが訪(たず)ねたことをさせたところの)文明という観念は、人類の出現が消失されることを有している[50][51]。
リスクの認知
[編集]エリザー・ユーコフスキー (フランス語: Eliezer Yudkowsky)によると、規模不感受性、利用可能性ヒューリスティック、合接の誤謬、情動ヒューリスティック、それらとダニング=クルーガー効果を表すものであるバイアスすなわち偏見の内、幾つかの認知バイアスが、地球壊滅リスクの重要性を評価する個人や集団のものの態度に影響を与える[52]。
分析と批判
[編集]前出の節における詳細のリスクにおける重要性はまれに否定される、まさに、もしリスクは人間をもって、しばしば最小限に見積もられるものであるならば[53];しかしながら、ニック・ボストロムの分析は異なった多数の視点から批判された。
技術的批判
[編集]ニック・ボストロムの彼の本の中で述べられた幾つものリスクは大袈裟(おおげさ)な(それどころか空想の)判断であった、もしくは時間のスケールにおける対応があまりにも広すぎるのでそれはほとんど即時の脅威の再編成のせいで少し馬鹿らしく思われる[54][55]。
哲学的見解
[編集]ニック・ボストロム彼自身が支持する、人間の肉体と精神の特性を改善するために科学技術における活用を賞賛するひとつの観念形態である、トランスヒューマニズムの分析は;そしてそれは、その可能性をまったく開発する人間性を妨げることを防ぐものであるすべての事も一つの存亡リスクと考える[4];それは、恒星間宇宙の征服が一億(= 100万 × 100)年の規模での予測しうる宇宙的危険において人類を安全な場所に隠れるのを与えさえるひとつだけのところのものの例として評価し、このような移民に必要な技術的可能性の消滅を存亡リスクの種類の内に置く[56]。
フィクションにおけるもの
[編集]文学
[編集]地球壊滅の筋書きは、その萌芽を古代神話の総覧においても有する;ギルガメッシュ叙事詩における生きるものすべてを飲み込む大洪水、北欧神話のラグナロクでの氷、水、火炎による破壊、十の災いの項目など[57]。しかしながら、これらの物語は、科学的もしくは社会的な本当らしさを心配しない、いかなる1950年代頃のサイエンスフィクションを提示するものではない;著名な『 1984年』の例外を除いた、(ニック・ボストロムの《甲高い悲鳴》(仏: hurlement、英: shriek)に照応する)ディストピアのその描写は、同じ様にして、それらが提示する 現実感を出すための、陰影の部分の暗色の強調であるところの、そのシステムの一貫性と発展性を少しも気に懸けない。
映画
[編集]映画の歴史において現れて以来、壊滅あるいは破局は、(例えば一例としての1927年のメトロポリスをもって)本題の成立要件を満たした。その作品はディストピアを扱った、しかしながら、『マッドマックス』シリーズにおけるような、ひとつの荒廃した世界の描写への映画監督自身の愛着というよりはむしろ、その映画監督の難しい、最初の映画と考えられる。
1990年代から開始以来の、デジタル特殊効果における並外れた進歩は新しい芸術的息吹をパニック映画に与えた『インデペンデンス・デイ』(1996年)は地球外からの侵略に、『ボルケーノ』(1997年)は満員の都市に向けての火山噴火に関係し、あるいはまた『アルマゲドン』(1998年)は脅迫的な衝突の小惑星による破壊を描写する。「機械の反抗」を例証するものとして、『ターミネーター』シリーズと『 マトリックス』シリーズの映画もまた同じく引用されるかもしれない。2004年の、ローランド・エメリッヒによる『デイ・アフター・トゥモロー』は急激な気候変動を描写する。しかしながら、すべてこれらの映画はそれらの写実性(仏: réalisme)と本当らしさ(或(ある)いは迫真性、仏: vraisemblance )を欠くものとしての重い批判がある[58]。[59]
加えてまだ最近の、地球壊滅ものの別の類型である、パンデミックの特別なオンデマンド映画を供給する、特殊効果の少ない一層写実的な、この類型でかなり著名な映画は『コンテイジョン』である。
脚注または引用文献
[編集]- ^ (Schulte et al. 2010)
- ^ a b c (Ripple et al. 2017)
- ^ (Bostrom & Ćirković 2008), pp. 1.
- ^ a b (Bostrom 2002)
- ^ a b (Bostrom 2013)
- ^ a b (Bostrom 2009)
- ^ (Matheny 2007)
- ^ (Asher et al. 2005)
- ^ Ambrose 1998; Rampino & Ambrose 2000, pp. 71, 80.
- ^ (Rampino & Ambrose 2002)
- ^ (Parfit 1984)
- ^ (Carrington 2000)
- ^ IPCC (11 November 2013): D. "Understanding the Climate System and its Recent Changes", in: Summary for Policymakers (finalized version) Archived 2017-03-09 at the Wayback Machine., in: IPCC AR5 WG1 2013, p. 13
- ^ “Global Catastrophic Risks: a summary”. (2019年8月11日)
- ^ “'Terminator center' to open at Cambridge University”. Fox News. (2012年11月26日)
- ^ “Frequently Asked Questions”. Existential Risk. Future of Humanity Institute. 26 July 2013閲覧。
- ^ (Georgescu-Roegen 1971), p. 303f
- ^ UCLA Engineering (June 28, 2017). “Scholars assess threats to civilization, life on Earth”. UCLA. June 30, 2017閲覧。
- ^ “The end of India's green revolution?”. BBC News. (2006年5月29日) 2012年1月31日閲覧。
- ^ admin (2000年4月8日). “Food First/Institute for Food and Development Policy”. Foodfirst.org. July 14, 2009時点のオリジナルよりアーカイブ。2012年1月31日閲覧。
- ^ “How peak oil could lead to starvation” (2009年5月27日). May 27, 2009時点のオリジナルよりアーカイブ。2012年1月31日閲覧。
- ^ Hellman 1985.
- ^ Bostrom 2002, section 4.8
- ^ (Hamming 1998)
- ^ “Report LA-602, Ignition of the Atmosphere With Nuclear Bombs”. 2011年10月19日閲覧。
- ^ Konopinski, E. J; Marvin, C.; Teller, Edward (1946). Ignition of the Atmosphere with Nuclear Bombs. Los Alamos National Laboratory 23 November 2008閲覧。.
- ^ "Statement by the Executive Committee of the DPF on the Safety of Collisions at the Large Hadron Collider." Archived 2009-10-24 at the Wayback Machine.
- ^ “Safety at the LHC”. 2008年5月13日時点のオリジナルよりアーカイブ。2008年6月18日閲覧。
- ^ J. Blaizot et al., "Study of Potentially Dangerous Events During Heavy-Ion Collisions at the LHC", CERN library record CERN Yellow Reports Server (PDF)
- ^ Bill Joy, Why the future doesn't need us. Wired magazine .
- ^ Nick Bostrom 2002 "Ethical Issues in Advanced Artificial Intelligence"
- ^ Bostrom, Nick. Superintelligence: Paths, Dangers, Strategies
- ^ Rawlinson, Kevin (2015年1月29日). “Microsoft's Bill Gates insists AI is a threat”. BBC News 30 January 2015閲覧。
- ^ (Phoenix & Treder 2008)
- ^ “Frequently Asked Questions - Molecular Manufacturing”. foresight.org. 2014年4月26日時点のオリジナルよりアーカイブ。19 July 2014閲覧。
- ^ “Near Apocalypse Causing Diseases, a Historical Look”. postapocalypticsurvival.com. 2012年5月5日閲覧。
- ^ Manheim, David (2018). “Questioning Estimates of Natural Pandemic Risk”. Health Security 16 (6): 381–390. doi:10.1089/hs.2018.0039. PMC 6306648. PMID 30489178 .
- ^ a b “Mankind must abandon earth or face extinction: Hawking”, physorg.com, (August 9, 2010) 2012年1月23日閲覧。
- ^ Smil 2003, p. 25.
- ^ “Global Challenges Foundation | Understanding Global Systemic Risk” (英語). globalchallenges.org. 2017年8月16日時点のオリジナルよりアーカイブ。2017年8月15日閲覧。
- ^ “Global Catastrophic Risk Policy |” (英語). gcrpolicy.com. 2019年8月11日閲覧。
- ^ Club of Rome (2018年). “The Climate Emergency Plan”. 17 August 2020閲覧。
- ^ Club of Rome (2019年). “The Planetary Emergency Plan”. 17 August 2020閲覧。
- ^ Elon Musk thinks life on earth will go extinct, and is putting most of his fortune toward colonizing Mars
- ^ Matheny, Jason Gaverick (2007). “Reducing the Risk of Human Extinction”. Risk Analysis 27 (5): 1335–1344. doi:10.1111/j.1539-6924.2007.00960.x. PMID 18076500 .
- ^ Wells, Willard. (2009). Apocalypse when?. Praxis. ISBN 978-0387098364
- ^ Fred Hapgood (November 1986). “Nanotechnology: Molecular Machines that Mimic Life”. Omni. June 5, 2015閲覧。
- ^ Giles 2004.
- ^ (Jones 1985)
- ^ (Ćirković, Sandberg & Bostrom 2010)
- ^ Ventrudo 2009.
- ^ (Yudkowsky 2008)
- ^ 『世界を騙しつづける科学者たち』の中で、ナオミ・オレスケス(仏: Naomi Oreskes)とエリック・M・コンウェイ(仏: Erik M. Conway)は、ニコチン中毒における比喩を否定する利点の、従業員の情報操作での同様の戦略が、酸性雨とオゾン層破壊における、気候温暖化の効果を最小限に見積もるのに有効だったことを示した。
- ^ (Bostrom 2003)
- ^ 例えば、人類に太陽の膨張を妨げることができる日がやってくる事と、 異恒星系への植民だけが保護を与える事は、ちょっと本当らしく思える。しかしながら、(私たちが実際に知っている限りにおいて)植民のこの類型は、私たちの実際の可能性における技術の許容度ならびに極めて遠い社会に基づいている(典型的には、数万年単位の期間の、未来の入植者の安定した文明の広大な宇宙船における維持):この場合における 費用-収益関係についての信頼の置ける分析は、全くの幻想への幾つもの批判の様に思われる。
- ^ (Ord 2020), page = 188 et suivantes
- ^ Jeanvrin 2009.
- ^ sseb22 2015.
- ^ 例えば、『アルマゲドン』におけるような小惑星について説明すると、衝突時の地球をたぶん保護できない、『デイ・アフター・トゥモロー』で描かれる急激な気候変動が、新しい短期間の氷河期を引き起こすリスクは滅多に無い、のみならず、まったく人々が外にいて即座にこれが凍らせることはないのは飛躍した話ではない。
ウェブサイト
[編集]- Jones, E. M. (1 may 1985 1985). Los Alamos National Laboratory (LANL), United States Department of Energy: “'Where is everybody?' An account of Fermi's question”. 2013年1月12日閲覧。
- sseb22 (2015年11月16日). “Les films avec les plus grosses aberrations scientifiques”. senscritique.com. 2021年6月20日閲覧。
- Yudkowsky, Eliezer (2008年). MIRI: “Cognitive Biases potentially affecting judgments of global risks”. intelligence.org. 2016年10月23日閲覧。.
書籍
[編集]- Bostrom, Nick; Ćirković, Milan (2008). Global Catastrophic Risks. Oxford University Press
- Georgescu-Roegen, Nicholas (1971) (Full book accessible in three parts at Scribd). The Entropy Law and the Economic Process.. Cambridge, Massachusetts: Harvard University Press. ISBN 978-0674257801
- Ord, Toby (2020) (英語). The Precipice : Existential Risk and the Future of Humanity. Londres: Bloomsbury Publishing Plc. ISBN 978-1526600219
- Parfit, Derek (1984). Reasons and Persons. Oxford University Press. pp. 453 - 454
- Phoenix, Chris; Treder, Mike (2008). “Chapter 21: Nanotechnology as global catastrophic risk”. Global catastrophic risks. Oxford: Oxford University Press. ISBN 978-0-19-857050-9
- Smil, Vaclav (2003). The Earth's Biosphere: Evolution, Dynamics, and Change. MIT Press. ISBN 978-0-262-69298-4
新聞
[編集]- Carrington, Damian (21 February 2000). “Date set for desert Earth”. BBC News online
- Hellman, Martin (April 29, 1985). “On the Probability of Nuclear War”. Houston Post (Houston, Texas: MediaNews Group)
雑誌
[編集]- Asher, D. J.; Bailey, M. E.; Emel'yanenko, V.; Napier, W. M. (2005). “Earth in the cosmic shooting gallery”. The Observatory 125: 319 - 322. Bibcode: 2005Obs...125..319A .
- Bostrom, Nick (March 2002). “Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards”. Journal of Evolution and Technology 9 .
- Bostrom, Nick (2003). “Are You Living In a Computer Simulation?”. Philosophical Quarterly 53: 243 - 255 .
- Bostrom, Nick (2009). “Astronomical Waste: The opportunity cost of delayed technological development”. Utilitas 15 (3): 303 - 314. doi:10.1017/s0953820800004076 .
- Bostrom, Nick (2013). “Existential Risk Prevention as Global Priority”. Global Policy 4 (1): 15 - 3. doi:10.1111/1758-5899.12002 .
- Ćirković, Milan; Sandberg, Anders; Bostrom, Nick (2010). “Anthropic Shadow: Observation Selection Effects and Human Extinction Risks”. Risk Analysis 30: 1495–1506. doi:10.1111/j.1539-6924.2010.01460.x .
- Giles, Jim (2004). “Nanotech takes small step towards burying 'grey goo'”. Nature 429 (6992): 591. Bibcode: 2004Natur.429..591G. doi:10.1038/429591b. PMID 15190320.
- Richard Hamming (1998). “Mathematics on a Distant Planet”. The American Mathematical Monthly 105 (7): 640–650. doi:10.1080/00029890.1998.12004938. JSTOR 2589247.
- Jeanvrin, Sébastien (2009). “Catastrophe, sacré et figures du mal dans la science-fiction : une fonction cathartique”. Le Portique (22) .
- Matheny, Jason Gaverick (2007). “Reducing the Risk of Human Extinction”. Risk Analysis 27 (5): 1335 - 1344. doi:10.1111/j.1539-6924.2007.00960.x. PMID 18076500 .
- Rampino, M. R.; Ambrose, S. H. (2002). “Super eruptions as a threat to civilizations on Earth-like planets”. Icarus 156 (2): 562 - 569. Bibcode: 2002Icar..156..562R. doi:10.1006/icar.2001.6808 .
- Ripple, W. J. et al. (13 November 2017). “World Scientists' Warming to Humanity: A Second Notice”. BioScience 67 (12): 1026 - 1028. doi:10.1093/biosci/bix125.
- Schulte, P. (5 March 2010). “The Chicxulub Asteroid Impact and Mass Extinction at the Cretaceous-Paleogene Boundary”. Science 327 (5970): 1214 - 1218. Bibcode: 2010Sci...327.1214S. doi:10.1126/science.1177265. PMID 20203042 .
- Ventrudo, Brian (5 June 2009). “So Where Is ET, Anyway?”. Universe Today 2014年3月10日閲覧. "Some believe [the Fermi Paradox] means advanced extraterrestrial societies are rare or nonexistent. Others suggest they must destroy themselves before they move on to the stars"
- 宇佐美誠(2021)「存亡リスクの公共政策学・序説」『公共政策研究』21号、111-123。doi:10.32202/publicpolicystudies.21.0_111
関連項目
[編集]人物
[編集]文献
[編集]事項
[編集]- 4千年紀以降
- 宇宙の終焉
- 核拡散
- 完新世絶滅 (英語: Holocene extinction)
- 極度のリスク (英語: extreme risk)
- グレート・フィルター (英語: great filter)
- コミュニティ回復力 (英語: Community resilience)
- 失敗国家
- 思弁進化:例えば、人類存亡的破局の後の遠い未来のある日に地球に生きるかもしれない仮説的な動物の
- 社会崩壊 (英語: societal collapse)
- 終末もの
- 終末論
- 人工知能軍拡競争 (英語: Artificial intelligence arms race)
- 想定外問題(英語: Excession#Outside Context Problem )
- 退化
- 太陽系の形成と進化
- 地球的問題 (英語: global issues)
- 地球的問題の一覧 (英語: List of global issues)
- 地球の未来
- テールリスク (英語: Tail risk)
- 天体衝突
- 洞察力 (心理学) (英語: Foresight (psychology))
- フェルミのパラドックス
- プラネタリー・バウンダリー
- プレッパー
- ポールシフト
- 稀な事象 (英語: rare events)