Placeholder Image

字幕表 動画を再生する

  • This is a graph

    翻訳: Hiroshi Uchiyama 校正: Eriko Tsukamoto

  • that represents the economic history of human civilization.

    このグラフは

  • [World GDP per capita over the last 200,000 years]

    人類文明の経済史を表しています

  • There's not much going on, is there.

    [過去20万年間の 世界の1人当たりのGDP推移]

  • For the vast majority of human history,

    あまり変化がありませんよね

  • pretty much everyone lived on the equivalent of one dollar per day,

    人類史の大部分において

  • and not much changed.

    ほぼすべての人が1日1ドル相当の生活をし

  • But then, something extraordinary happened:

    あまり変わっていません

  • the Scientific and Industrial Revolutions.

    しかしその後 驚くべきことが起こりました

  • And the basically flat graph you just saw

    科学革命そして産業革命です

  • transforms into this.

    ご覧になった 基本的に平坦だったグラフが

  • What this graph means is that, in terms of power to change the world,

    このように変化します

  • we live in an unprecedented time in human history,

    このグラフが意味するのは 世界を変革する力という点では

  • and I believe our ethical understanding hasn't yet caught up with this fact.

    私たちは今 人類史の新たな局面を 生きているということです

  • The Scientific and Industrial Revolutions

    倫理的な理解力はこの事実に まだ追い付けていないと思います

  • transformed both our understanding of the world

    科学革命と産業革命は

  • and our ability to alter it.

    私たちの世界に対する理解と 変化をもたらす力を

  • What we need is an ethical revolution

    すっかり変えてしまいました

  • so that we can work out

    私たちが必要としているのは倫理改革で

  • how do we use this tremendous bounty of resources

    それにより

  • to improve the world.

    世界を改善するために 莫大な資源を どう活用するか

  • For the last 10 years,

    考えることが可能になります

  • my colleagues and I have developed a philosophy and research program

    これまでの10年間に

  • that we call effective altruism.

    私と同僚とで「効果的利他主義」という 哲学と研究プログラムを

  • It tries to respond to these radical changes in our world,

    開発しました

  • uses evidence and careful reasoning to try to answer this question:

    世界の急進的な変化に対処しようと試み

  • How can we do the most good?

    根拠と慎重な推論に基づいて これに答えようとするものです

  • Now, there are many issues you've got to address

    どうすれば最大の善を行えるのか?

  • if you want to tackle this problem:

    まず この問題に立ち向うためには

  • whether to do good through your charity

    扱うべき課題がたくさんあります

  • or your career or your political engagement,

    善い行いを 慈善活動で実践するのか

  • what programs to focus on, who to work with.

    仕事や政治活動を通して進めるのか—

  • But what I want to talk about

    どのプログラムに重点を置き 誰と協力すべきか などです

  • is what I think is the most fundamental problem.

    でもここでお話ししたいのは

  • Of all the many problems that the world faces,

    私が考える最も根本的な問題です

  • which should we be focused on trying to solve first?

    世界が直面する全ての問題の中でも

  • Now, I'm going to give you a framework for thinking about this question,

    最初に着目し解決を試みるべき 問題は何でしょうか?

  • and the framework is very simple.

    この問題を考えるための フレームワークを示しましょう

  • A problem's higher priority,

    それはとてもシンプルです

  • the bigger, the more easily solvable and the more neglected it is.

    優先順位が高い問題とは

  • Bigger is better,

    より大きく より簡単に解決でき より見過ごされているものです

  • because we've got more to gain if we do solve the problem.

    大きい方が良いのは

  • More easily solvable is better

    その問題が解決すると リターンがより大きいからです

  • because I can solve the problem with less time or money.

    より簡単に解決できる方が良いのは

  • And most subtly,

    少ない時間と費用で 問題を解決できるからです

  • more neglected is better, because of diminishing returns.

    そして絶妙な点は 「収穫逓減」の観点から

  • The more resources that have already been invested into solving a problem,

    見過ごされた手付かずの 問題の方が良いのです

  • the harder it will be to make additional progress.

    既に問題解決に費やされた リソースが大きいほど

  • Now, the key thing that I want to leave with you is this framework,

    更なる進歩を生み出すのは 難しくなります

  • so that you can think for yourself

    今日お話しする このフレームワークで

  • what are the highest global priorities.

    世界の最優先課題を

  • But I and others in the effective altruism community

    自分の事として考えられるようになります

  • have converged on three moral issues that we believe are unusually important,

    効果的利他主義の研究コミュニティの 私たちは

  • score unusually well in this framework.

    このフレームワークで著しくスコアが高く 他に抜きん出て重要と考える倫理課題を

  • First is global health.

    3つに収束しました

  • This is supersolvable.

    第1は国際保健です

  • We have an amazing track record in global health.

    これは解決可能性がきわめて高いです

  • Rates of death from measles, malaria, diarrheal disease

    国際保健問題については 素晴らしい実績があります

  • are down by over 70 percent.

    はしか マラリア 下痢性疾患による死亡率は

  • And in 1980, we eradicated smallpox.

    70%以上も低下しました

  • I estimate we thereby saved over 60 million lives.

    1980年には天然痘を根絶しました

  • That's more lives saved than if we'd achieved world peace

    これは 6,000万人以上の 命を救ったと推定します

  • in that same time period.

    同じ期間に世界平和を実現したとしたら 救えたはずの命の数を

  • On our current best estimates,

    上回ります

  • we can save a life by distributing long-lasting insecticide-treated bed nets

    現時点でのベストな推定では

  • for just a few thousand dollars.

    わずか数千ドルで購入できる 長期間効く殺虫剤が塗布された蚊帳で

  • This is an amazing opportunity.

    ひとつの命が救えます

  • The second big priority is factory farming.

    これは驚くべきチャンスです

  • This is superneglected.

    2番目の重要優先課題は工場式畜産です

  • There are 50 billion land animals used every year for food,

    非常に見過ごされています

  • and the vast majority of them are factory farmed,

    毎年500億もの陸生動物が食料にされ

  • living in conditions of horrific suffering.

    その大部分は凄惨な苦しみの伴う

  • They're probably among the worst-off creatures on this planet,

    工場飼育をされています

  • and in many cases, we could significantly improve their lives

    そのような動物は地球上 最も虐げられた生き物に含まれ

  • for just pennies per animal.

    多くの場合 一匹当り数セントで 彼らの生活環境を

  • Yet this is hugely neglected.

    著しく改善できるのです

  • There are 3,000 times more animals in factory farms

    非常に見過ごされていることです

  • than there are stray pets,

    保護犬猫の3,000倍の数の動物が

  • but yet, factory farming gets one fiftieth of the philanthropic funding.

    工場飼育されていますが

  • That means additional resources in this area

    工場式畜産動物が受ける慈善的支援金額は 犬猫の50分の1に過ぎません

  • could have a truly transformative impact.

    この分野での追加資源が

  • Now the third area is the one that I want to focus on the most,

    革新的なインパクトを持つということです

  • and that's the category of existential risks:

    3つ目の分野は私が最も着目したい分野で

  • events like a nuclear war or a global pandemic

    人類存続の危機というカテゴリーです

  • that could permanently derail civilization

    例えば核戦争や世界的な疫病のように

  • or even lead to the extinction of the human race.

    文明を永久に停滞させたり

  • Let me explain why I think this is such a big priority

    一歩誤ると人類を滅亡に 導きかねないリスクのことです

  • in terms of this framework.

    このフレームワークで なぜこれが優先されるか

  • First, size.

    説明させてください

  • How bad would it be if there were a truly existential catastrophe?

    第1にその規模です

  • Well, it would involve the deaths of all seven billion people on this planet

    真に人類存続に関わる大災害があるとしたら 如何に凄まじい事になるのか?

  • and that means you and everyone you know and love.

    おそらく地球上の70億人全てが 死滅することになるでしょうし

  • That's just a tragedy of unimaginable size.

    その中にはあなたや あなたの知人や愛する人が皆含まれます

  • But then, what's more,

    想像できない規模の悲劇です

  • it would also mean the curtailment of humanity's future potential,

    そして更に悪いことには

  • and I believe that humanity's potential is vast.

    それは人類が持つ未来の可能性が 狭まることを意味しますが

  • The human race has been around for about 200,000 years,

    私は人類には とても大きな 可能性があると信じています

  • and if she lives as long as a typical mammalian species,

    人類は約20万年生息していますが

  • she would last for about two million years.

    典型的な哺乳類の種として生息を続けた場合

  • If the human race were a single individual,

    その寿命は約200万年程です

  • she would be just 10 years old today.

    人類の歴史を人生に置き換えると

  • And what's more, the human race isn't a typical mammalian species.

    今は10歳くらいでしょう

  • There's no reason why, if we're careful,

    更に人類は典型的な哺乳類ではありません

  • we should die off after only two million years.

    注意深く行動すれば

  • The earth will remain habitable for 500 million years to come.

    たった200万年で 絶滅する理由などありません

  • And if someday, we took to the stars,

    地球は後5億年は居住可能でしょう

  • the civilization could continue for billions more.

    そしていつか私たちが他の星に行けば

  • So I think the future is going to be really big,

    更に何十億年も文明を維持できるでしょう

  • but is it going to be good?

    未来はとても大きくなると私は思います

  • Is the human race even really worth preserving?

    でも 良くなっていくのでしょうか?

  • Well, we hear all the time about how things have been getting worse,

    人類は存続する価値があるのでしょうか?

  • but I think that when we take the long run,

    ことある毎に 物事が悪くなるのを耳にしますが

  • things have been getting radically better.

    私が思うに長い目で見れば

  • Here, for example, is life expectancy over time.

    物事は劇的に良くなっています

  • Here's the proportion of people not living in extreme poverty.

    例えばこれは 平均余命の推移です

  • Here's the number of countries over time that have decriminalized homosexuality.

    極貧生活をしていない人口の割合

  • Here's the number of countries over time that have become democratic.

    同性愛が合法化された国の数

  • Then, when we look to the future, there could be so much more to gain again.

    民主化された国の数の推移

  • We'll be so much richer,

    未来を見通したときには もっと向上するでしょう

  • we can solve so many problems that are intractable today.

    私たちはもっと裕福になり

  • So if this is kind of a graph of how humanity has progressed

    現在では手に負えない 多くの問題を解決できるでしょう

  • in terms of total human flourishing over time,

    このグラフが 総合的な人類の繁栄という観点で

  • well, this is what we would expect future progress to look like.

    人類の進歩を示すとすると

  • It's vast.

    私たちが予想する未来の進展は このようなものです

  • Here, for example,

    大規模なのです

  • is where we would expect no one to live in extreme poverty.

    これがその例で

  • Here is where we would expect everyone to be better off

    誰も極端な貧困で生活する人がいない世界です

  • than the richest person alive today.

    誰もがこんにちの最も裕福な人よりも 良い生活ができるであろう

  • Perhaps here is where we would discover the fundamental natural laws

    そんな世界です

  • that govern our world.

    私達の住む世界を支配する 自然の法則を発見できる

  • Perhaps here is where we discover an entirely new form of art,

    そんな世界です

  • a form of music we currently lack the ears to hear.

    もしかしたらまったく新しい形式の芸術や

  • And this is just the next few thousand years.

    今はまだ理解できない新しい音楽を 発見できるかもしれません

  • Once we think past that,

    それらはたった数千年先の話です

  • well, we can't even imagine the heights that human accomplishment might reach.

    その先を考えてみると

  • So the future could be very big and it could be very good,

    人類の成果が到達できるかもしれない高みは 想像さえできません

  • but are there ways we could lose this value?

    未来はとても壮大で とても素晴らしいものになり得るのです

  • And sadly, I think there are.

    でもこの価値を失う道筋は あるのでしょうか?

  • The last two centuries brought tremendous technological progress,

    残念なことにあるのです

  • but they also brought the global risks of nuclear war

    過去2世紀は途轍もない 科学技術の進歩をもたらしました

  • and the possibility of extreme climate change.

    それと同時に世界的な核戦争の脅威や

  • When we look to the coming centuries,

    極端な気候変動の可能性をもたらしたのです

  • we should expect to see the same pattern again.

    来たるべき世紀を展望すると

  • And we can see some radically powerful technologies on the horizon.

    同じパターンが見えることを 想定すべきです

  • Synthetic biology might give us the power to create viruses

    劇的に強力な科学技術が興るでしょう

  • of unprecedented contagiousness and lethality.

    合成生物学により かつてない 伝染性と致死性を持つ

  • Geoengineering might give us the power to dramatically alter the earth's climate.

    ウィルスを作り出すことが 可能になるかもしれません

  • Artificial intelligence might give us the power to create intelligent agents

    地球工学で劇的に地球の気候を 変えられるようになるかもしれません

  • with abilities greater than our own.

    人工知能で人類より優れた能力を持つ 知的エージェントを

  • Now, I'm not saying that any of these risks are particularly likely,

    作れるようになるかもしれません

  • but when there's so much at stake,

    ただし どの脅威が特に実現しやすいかが 問題なのではなく

  • even small probabilities matter a great deal.

    及ぼす影響の大きさを考えると

  • Imagine if you're getting on a plane and you're kind of nervous,

    可能性が低くてもそれは大変なことなのです

  • and the pilot reassures you by saying,

    航空機に乗ることを想像してください 不安になった皆さんを

  • "There's only a one-in-a-thousand chance of crashing. Don't worry."

    安心させようと パイロットがこう言います

  • Would you feel reassured?

    「事故に遭う確率はたった1,000分の1です 心配はいりません」

  • For these reasons, I think that preserving the future of humanity

    安心できたでしょうか?

  • is among the most important problems that we currently face.

    このような理由から 人類の生存を保障することが

  • But let's keep using this framework.

    私たちが現在直面する 最も重要な問題の一つだと考えます

  • Is this problem neglected?

    ではこのフレームワークを 使い続けましょう

  • And I think the answer is yes,

    これは見過ごされた問題か?

  • and that's because problems that affect future generations

    その答えは「Yes」だと思います

  • are often hugely neglected.

    なぜなら未来の世代に影響する問題は しばしば容易に

  • Why?

    見過ごされてしまうからです

  • Because future people don't participate in markets today.

    なぜでしょう?

  • They don't have a vote.

    それは未来の人がこんにちの市場には 存在しないからです

  • It's not like there's a lobby representing the interests

    選挙権も持ちません

  • of those born in 2300 AD.

    2300年に生まれてくる人の 利益を代弁する

  • They don't get to influence the decisions we make today.

    ロビー活動もありません

  • They're voiceless.

    彼らは こんにち我々が行う判断に 干渉することができません

  • And that means we still spend a paltry amount on these issues:

    訴えるすべがないのです

  • nuclear nonproliferation,

    そう考えると いろいろな問題への投資は まだわずかなものです

  • geoengineering, biorisk,

    核拡散防止

  • artificial intelligence safety.

    地球工学 バイオリスク

  • All of these receive only a few tens of millions of dollars

    人工知能の安全性などです

  • of philanthropic funding every year.

    今挙げたことに費やされる額は 毎年慈善団体の基金からの

  • That's tiny compared to the 390 billion dollars

    数千万ドルに過ぎません

  • that's spent on US philanthropy in total.

    米国の慈善活動への支出総額は 3,900億ドルですから

  • The final aspect of our framework then:

    それに比較すれば微々たるものです

  • Is this solvable?

    このフレームワークの 最後の側面 それは

  • I believe it is.

    解決可能かどうかです

  • You can contribute with your money,

    私は可能だと思います

  • your career or your political engagement.

    皆さんは寄付をして 貢献することができます

  • With your money, you can support organizations

    あるいは仕事や 政治的活動を通して貢献できます

  • that focus on these risks,

    このようなリスクに取り組む団体を

  • like the Nuclear Threat Initiative,

    資金面で支援できます

  • which campaigns to take nuclear weapons off hair-trigger alert,

    例えば核脅威イニシアティブです

  • or the Blue Ribbon Panel, which develops policy to minimize the damage

    この団体は核兵器を一触即発の状況から 引き離す活動をしていますし

  • from natural and man-made pandemics,

    ブルーリボン・パネルは自然現象や 人為的な原因のパンデミック被害を

  • or the Center for Human-Compatible AI, which does technical research

    最小化するための政策立案をしていますし

  • to ensure that AI systems are safe and reliable.

    Center for Human-Compatible AI では 人工知能を安全で信頼できるシステムに

  • With your political engagement,

    するための技術研究を行っています

  • you can vote for candidates that care about these risks,

    皆さんが政治に参加すれば

  • and you can support greater international cooperation.

    それらのリスクに 関心を持つ候補者に投票でき

  • And then with your career, there is so much that you can do.

    さらに大きな国際協力活動を支援できます

  • Of course, we need scientists and policymakers and organization leaders,

    また 仕事を通してできることも たくさんあります

  • but just as importantly,

    もちろん研究者や政治家や 組織のリーダーは必要ですが

  • we also need accountants and managers and assistants

    同様に重要なことは

  • to work in these organizations that are tackling these problems.

    そうした問題に取り組む組織には

  • Now, the research program of effective altruism

    会計士やマネージャーや アシスタントも必要なのです

  • is still in its infancy,

    現在 効果的利他主義の研究プログラムは

  • and there's still a huge amount that we don't know.

    始まって間もなく

  • But even with what we've learned so far,

    まだ わからないことが沢山あります

  • we can see that by thinking carefully

    しかしこれまで学びとったことだけでも

  • and by focusing on those problems that are big, solvable and neglected,

    慎重に熟考し 重大で解決可能な

  • we can make a truly tremendous difference to the world

    見過ごされてきた問題に焦点を当てることで

  • for thousands of years to come.

    これからの数千年にわたる大きな変革を

  • Thank you.

    世界にもたらすことができるのです

  • (Applause)

    ありがとうございました

This is a graph

翻訳: Hiroshi Uchiyama 校正: Eriko Tsukamoto

字幕と単語

動画の操作 ここで「動画」の調整と「字幕」の表示を設定することができます

B1 中級 日本語 TED 人類 問題 解決 世界 可能

TED】ウィル・マカスキル。私たちの時代の最も重要な道徳的問題とは何か?(What are the most important moral problems of our time? | Will MacAskill) (【TED】Will MacAskill: What are the most important moral problems of our time? (What are the most important moral problems of our time? | Will Ma

  • 2079 79
    林宜悉   に公開 2021 年 01 月 14 日
動画の中の単語