Placeholder Image

字幕表 動画を再生する

審査済み この字幕は審査済みです
  • ("Each of us must work for his own improvement and, at the same time, share a general responsibility for all humanity." -- Marie Skłodowska-Curie)

    (私たち一人ひとりが、自分自身の向上のために努力すると同時に、全人類に対する一般的な責任を共有しなければならない」。-- マリー・スクウォドフスカ=キュリー)

  • In January of 1995, Russia detected a nuclear missile headed its way.

    1995年1月、ロシアは核ミサイルの飛来を察知しました。

  • The alert went all the way to the president who was deciding whether to strike back when another system contradicted the initial warning.

    この警報は大統領まで届き、反撃するかどうか決めていたところ、別のシステムが最初の警報と矛盾することを知らせました。

  • What they'd thought was the first missile in a massive attack was actually a research rocket studying the northern lights.

    大規模な攻撃の最初のミサイルと思われていたものは、実はオーロラを研究するための研究用ロケットだったのだ。

  • This incident happened after the end of the Cold War, but was nevertheless one of the closest calls we've had to igniting a global nuclear war.

    この事件は冷戦終結後に起こりましたが、世界的な核戦争の勃発に最も近づいた事件の一つです。

  • With the invention of the atomic bomb, humanity gained the power to destroy itself for the first time in our history.

    原爆の発明により、人類は歴史上初めて自らを破壊する力を手に入れました。

  • Since then, our existential riskrisk of either extinction or the unrecoverable collapse of human civilizationhas steadily increased.

    それ以来、人類の存亡にかかわるリスク⏤文明が回復不能になるリスク⏤は確実に高まっているのです。

  • It's well within our power to reduce this risk, but in order to do so, we have to understand which of our activities pose existential threats now and which might in the future.

    このリスクを減らすことは十分に可能ですが、そのためには、私たちの活動のどれが現在、そして将来的に実存的な脅威となり得るかを理解する必要があります。

  • So far, our species has survived 2,000 centuries, each with some extinction risk from natural causes: asteroid impacts, super volcanoes, and the like.

    これまで私たちの種は、小惑星の衝突や超巨大火山など、自然現象による絶滅のリスクを抱えながら、2000世紀を生き抜いてきました。

  • Assessing existential risk is an inherently uncertain business because, usually, when we try to figure out how likely something is, we check how often it's happened before.

    というのも、通常、ある事柄がどの程度の確率で起こり得るかを判断する場合、過去にどの程度の頻度で起こったかを確認します。

  • But the complete destruction of humanity has never happened before.

    しかし、人類の完全な滅亡は、これまでにはなかったことです。

  • While there's no perfect method to determine our risk from natural threats, experts estimate it's about 1 in 10,000 per century.

    自然の脅威から私たちのリスクを判断する完璧な方法はありませんが、専門家は10000分の1程度と見積もっています。

  • Nuclear weapons were our first addition to that baseline.

    核兵器は、その基本線に初めて加わったものです。

  • While there are many risks associated with nuclear weapons, the existential risk comes from the possibility of a global nuclear war that leads to a nuclear winter,

    核兵器には多くのリスクがありますが、核の冬をもたらす世界規模の核戦争の可能性は、実存的なリスクです。

  • where soot from burning cities blocks out the sun for years, causing the crops that humanity depends on to fail.

    都市を焼いた煤が何年も太陽を遮り、人類が依存する作物が不作になるような場所。

  • We haven't had a nuclear war yet, but our track record is too short to tell if they're inherently unlikely or we've simply been lucky.

    核戦争はまだ起きていませんが、元々起こりえないことなのか、単に運が良かっただけなのかは、実績が少なすぎてわかりません。

  • We also can't say for sure whether a global nuclear war would cause a nuclear winter so severe it would pose an existential threat to humanity.

    また、地球規模の核戦争が起こった場合、人類に存亡の危機をもたらすほど深刻な核の冬が訪れるかどうかも、断言はできません。

  • The next major addition to our existential risk was climate change.

    次に大きなリスクとして加わったのが、気候変動です。

  • Like nuclear war, climate change could result in a lot of terrible scenarios that we should be working hard to avoid, but that would stop short of causing extinction or unrecoverable collapse.

    核戦争のように、気候変動は、私たちが回避するために努力すべき多くの恐ろしいシナリオをもたらすかもしれませんが、それは絶滅や回復不可能な崩壊を引き起こすまでには至らないでしょう。

  • We expect a few degrees Celsius of warming, but can't yet completely rule out 6 or even 10 degrees, which would cause a calamity of possibly unprecedented proportions.

    数℃の温暖化は予想されますが、6℃や10℃の温暖化もまだ完全には否定できません。そうなると、おそらく未曾有の大災害を引き起こすことになります。

  • Even in this worst-case scenario, it's not clear whether warming would pose a direct existential risk, but the disruption it would cause would likely make us more vulnerable to other existential risks.

    この最悪のシナリオの場合でも、温暖化が直接の存亡の危機をもたらすかどうかはわかりませんが、温暖化がもたらす混乱は、他の存亡の危機をより脆弱にする可能性があります。

  • The greatest risks may come from technologies that are still emerging.

    最も大きなリスクは、まだ生まれて間もない技術から生じるかもしれません。

  • Take engineered pandemics.

    例えば、人工的なパンデミック。

  • The biggest catastrophes in human history have been from pandemics.

    人類の歴史上、最大の惨事はパンデミックによるものでした。

  • And biotechnology is enabling us to modify and create germs that could be much more deadly than naturally occurring ones.

    そして、バイオテクノロジーによって、自然界に存在するものよりもはるかに致命的な細菌を改造し、作り出すことができるようになりました。

  • Such germs could cause pandemics through biowarfare and research accidents.

    そのような細菌は、生物兵器や研究事故を通じてパンデミックを引き起こす可能性があります。

  • Decreased costs of genome sequencing and modification, along with increased availability of potentially dangerous information like the published genomes of deadly viruses,

    ゲノムの配列決定や改変のコストが低下し、致命的なウイルスのゲノムが公開されるなど、潜在的に危険な情報が入手しやすくなりました。

  • also increase the number of people and groups who could potentially create such pathogens.

    また、そのような病原体を作り出す可能性のある人や集団の数も増加します。

  • Another concern is unaligned AI.

    もう一つの懸念は、意識していないAIです。

  • Most AI researchers think this will be the century where we develop artificial intelligence that surpasses human abilities across the board.

    AI研究者の多くは、今世紀は全面的に人間の能力を超える人工知能が開発される世紀になると考えています。

  • If we cede this advantage, we place our future in the hands of the systems we create.

    この優位性を放棄すれば、私たちの未来は、私たちが創り出すシステムの手に委ねられることになります。

  • Even if created solely with humanity's best interests in mind, super-intelligent AI could pose an existential risk if it isn't perfectly aligned with human values,

    たとえ人類の利益だけを考えて作られたとしても、超高性能AIは人間の価値観と完全に一致しなければ、存亡の危機にさらされる可能性があるのです。

  • a task scientists are finding extremely difficult.

    というのは、科学者にとって非常に難しい課題です。

  • Based on what we know at this point, some experts estimate the anthropogenic existential risk is more than 100 times higher than the background rate of natural risk.

    現時点でわかっていることをもとに、人為的な実存リスクは自然リスクのバックグラウンド率よりも100倍以上高いと推定する専門家もいます。

  • But these odds depend heavily on human choices because most of the risk is from human action, and it's within human control.

    しかし、この確率は人間の選択に大きく依存しています。なぜなら、リスクのほとんどは人間の行動によるものであり、人間がコントロールできる範囲にあるからです。

  • If we treat safeguarding humanity's future as the defining issue of our time, we can reduce this risk.

    人類の未来を守ることが、私たちの時代の決定的な課題であるとするならば、このリスクを減らすことができるのです。

  • Whether humanity fulfills its potentialor notis in our hands.

    人類がその潜在能力を発揮できるかどうか⏤は、私たちの手に委ねられているのです。

  • So, just how likely are each of these risks?

    では、それぞれのリスクの可能性はどのくらいなのでしょうか?

  • To learn more about how we can assess existential risk, including detailed estimate for every risk we've mentioned, we highly recommend "The Precipice" by Toby Ord.

    今回紹介したすべてのリスクに対する詳細な試算を含む、実存的リスクの評価方法については、トビー・オード著「The Precipice」を強くお勧めします。

("Each of us must work for his own improvement and, at the same time, share a general responsibility for all humanity." -- Marie Skłodowska-Curie)

(私たち一人ひとりが、自分自身の向上のために努力すると同時に、全人類に対する一般的な責任を共有しなければならない」。-- マリー・スクウォドフスカ=キュリー)

字幕と単語
審査済み この字幕は審査済みです

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます