字幕表 動画を再生する
After 13.8 billion years of cosmic history,
翻訳: Yumika Amemiya 校正: Tomoyuki Suzuki
our universe has woken up
宇宙の誕生後 138億年もの時を経て
and become aware of itself.
私たちの世界は覚醒し
From a small blue planet,
自らを認識しました
tiny, conscious parts of our universe have begun gazing out into the cosmos
小さな青い惑星から
with telescopes,
この世界のごく小さな領域の 意識あるものが 望遠鏡を使って
discovering something humbling.
この宇宙を見つめ始め
We've discovered that our universe is vastly grander
自らの矮小さを発見しました
than our ancestors imagined
この世界は 私たちの先祖が 想像していたものより
and that life seems to be an almost imperceptibly small perturbation
遥かに壮大であることと
on an otherwise dead universe.
生命は感知できない程度の影響しか及ぼさず それ以外は死んだも同然の
But we've also discovered something inspiring,
静的な世界であると発見したのです
which is that the technology we're developing has the potential
しかし 刺激的なことも発見しました
to help life flourish like never before,
私たちが開発している技術が 今までにないほどに
not just for centuries but for billions of years,
生命の繁栄を手助けをする 可能性を秘めていることです
and not just on earth but throughout much of this amazing cosmos.
それは 何百年に限らず 何十億年と続き
I think of the earliest life as "Life 1.0"
地球上だけではなく この素晴らしい宇宙の大域に及ぶ繁栄なのです
because it was really dumb,
私は一番最初の生命を 「ライフ 1.0」と考えます
like bacteria, unable to learn anything during its lifetime.
バクテリアのように馬鹿で
I think of us humans as "Life 2.0" because we can learn,
一生の間 何も学ぶことができません
which we in nerdy, geek speak,
人類は「ライフ 2.0」と考えます 私たちは学習できるからです
might think of as installing new software into our brains,
それは オタクっぽく言えば
like languages and job skills.
言語や技能といった 新しいソフトウェアを
"Life 3.0," which can design not only its software but also its hardware
脳にインストールすることです
of course doesn't exist yet.
「ライフ 3.0」は ソフトウェアだけでなく ハードウェアも設計できます
But perhaps our technology has already made us "Life 2.1,"
もちろんまだ存在していません
with our artificial knees, pacemakers and cochlear implants.
しかし おそらく私たちは 人工膝関節 ペースメーカーや
So let's take a closer look at our relationship with technology, OK?
人口内耳といった技術によって 既に「ライフ2.1」になっているのでしょう
As an example,
では 私たちと技術の関係性を もっと詳しく見てみましょう
the Apollo 11 moon mission was both successful and inspiring,
例えば
showing that when we humans use technology wisely,
アポロ11号による月への飛行計画は 成功しただけでなく刺激的でもありました
we can accomplish things that our ancestors could only dream of.
この計画が示したことは 人類が賢明なやり方で技術を使えば
But there's an even more inspiring journey
私たちの先祖がただ夢見ただけのことを 成し遂げられるということです
propelled by something more powerful than rocket engines,
しかし これよりさらに 刺激的な宇宙旅行があります
where the passengers aren't just three astronauts
ロケットエンジンより強力な 推進力を得て
but all of humanity.
乗客は3人の宇宙飛行士にとどまらず
Let's talk about our collective journey into the future
全人類なのです
with artificial intelligence.
人工知能を伴い 私たちが集団となって 未来に旅することについて
My friend Jaan Tallinn likes to point out that just as with rocketry,
お話ししましょう
it's not enough to make our technology powerful.
私の友人 ヤーン・タリンが好む議論ですが ロケットの話と似ていて
We also have to figure out, if we're going to be really ambitious,
技術が単に強力になれば 良いというものではなく
how to steer it
もし本当に野心的になろうとするなら
and where we want to go with it.
操縦の仕方と
So let's talk about all three for artificial intelligence:
どこへ向かうべきかも 理解しないといけません
the power, the steering and the destination.
ではこの3つの要素を 人工知能についても議論しましょう
Let's start with the power.
推進力 操縦と目的地です
I define intelligence very inclusively --
推進力から話しましょう
simply as our ability to accomplish complex goals,
私は 知能をかなり広く 定義しています
because I want to include both biological and artificial intelligence.
単に 複雑な目標を 達成する能力という定義です
And I want to avoid the silly carbon-chauvinism idea
何故なら 生物が備える知能と 人工知能の両方を含めたいからです
that you can only be smart if you're made of meat.
肉でできていてはじめて 知的になりうるという
It's really amazing how the power of AI has grown recently.
有機物至上主義のような 馬鹿げた考え方を避けたいのです
Just think about it.
最近のAI技術の発展には驚かされます
Not long ago, robots couldn't walk.
考えてみてください
Now, they can do backflips.
少し前まで ロボットは歩けませんでした
Not long ago,
今では バク転ができるのです
we didn't have self-driving cars.
少し前まで
Now, we have self-flying rockets.
自動運転車はありませんでした
Not long ago,
今では自動飛行するロケットがあります
AI couldn't do face recognition.
少し前まで
Now, AI can generate fake faces
AIは顔認証ができませんでした
and simulate your face saying stuff that you never said.
今では 偽の顔を生成し
Not long ago,
あなたが話す言葉を勝手に作り出し その時の表情までシミュレーションできます
AI couldn't beat us at the game of Go.
少し前まで
Then, Google DeepMind's AlphaZero AI took 3,000 years of human Go games
AIは囲碁で私たちに勝てませんでしたが
and Go wisdom,
Google DeepMindのAlphaZero AIは 3千年に渡る 人間による
ignored it all and became the world's best player by just playing against itself.
囲碁の対局と戦略について
And the most impressive feat here wasn't that it crushed human gamers,
その成果を参照せず AI内部の対戦だけで 世界最強のプレイヤーになりました
but that it crushed human AI researchers
そして最も印象的な出来事は 人間の棋士を倒したことではなく
who had spent decades handcrafting game-playing software.
何十年もの間 ゲームをプレーするソフトを
And AlphaZero crushed human AI researchers not just in Go but even at chess,
自分の手で開発してきた AI研究者たちを圧倒したことです
which we have been working on since 1950.
そして AlphaZeroは囲碁だけでなく 1950年以来 AI研究者が取り組んできた
So all this amazing recent progress in AI really begs the question:
チェスでも圧倒しました
How far will it go?
すると AIの近年の驚くべき進歩によって こんな疑問が生じます
I like to think about this question
どこまで進歩するのか?
in terms of this abstract landscape of tasks,
私はこの疑問を
where the elevation represents how hard it is for AI to do each task
タスクで構成された地形として 捉えるのが好きです
at human level,
標高で表しているのは AIが人間並みに作業をする場合の
and the sea level represents what AI can do today.
難易度で
The sea level is rising as AI improves,
海面は現在のAIができる事を表します
so there's a kind of global warming going on here in the task landscape.
AIが進歩するに従い 海面は上昇していきます
And the obvious takeaway is to avoid careers at the waterfront --
このタスクの地形は 地球温暖化に似た状況になっています
(Laughter)
はっきりしているのは 水際にある職業は避ける事です
which will soon be automated and disrupted.
(笑)
But there's a much bigger question as well.
間も無く自動化され消滅しますから
How high will the water end up rising?
しかし もっと大きな疑問もあります
Will it eventually rise to flood everything,
水面はどこまで上昇するのか?
matching human intelligence at all tasks.
あらゆるタスクで 人間の知能レベルに追いつき
This is the definition of artificial general intelligence --
大地を完全に水没させるのでしょうか
AGI,
これが汎用人工知能—
which has been the holy grail of AI research since its inception.
AGIの定義です
By this definition, people who say,
これは AI研究が始まって以来の 究極の目標となっています
"Ah, there will always be jobs that humans can do better than machines,"
この定義によると
are simply saying that we'll never get AGI.
「機械より 人間の方が上手くできる仕事は 無くならない」と言う人は
Sure, we might still choose to have some human jobs
AGIは実現不可能と 言っているのに過ぎないのです
or to give humans income and purpose with our jobs,
確かに AGIができても 人間は仕事を選んだり
but AGI will in any case transform life as we know it
仕事から給料ややりがいを 得られるかもしれませんが
with humans no longer being the most intelligent.
皆さんがお分かりのとおり いずれにしろ AGIは生活を変化させ
Now, if the water level does reach AGI,
人間はもはや最も知的な存在とは いえなくなることでしょう
then further AI progress will be driven mainly not by humans but by AI,
では もし水面が AGI まで到達すれば
which means that there's a possibility
その先のAIの進歩は 主に人間ではなく AIによって進められます
that further AI progress could be way faster
ということは
than the typical human research and development timescale of years,
その先のAIの進歩は
raising the controversial possibility of an intelligence explosion
通常何年もかかる人間による研究や開発より かなり速くなる可能性があります
where recursively self-improving AI
したがって 議論を呼ぶ「知能の爆発」が 起こる可能性が高まります
rapidly leaves human intelligence far behind,
再帰的に自己改善するAIによって
creating what's known as superintelligence.
人間の知能がはるか後方に取り残され
Alright, reality check:
「超知能」というものが造られるのです
Are we going to get AGI any time soon?
では 現実に起こり得るか 検討してみましょう
Some famous AI researchers, like Rodney Brooks,
AGIはすぐにでも作られるのでしょうか?
think it won't happen for hundreds of years.
ロドニー・ブルックスのような 有名なAI研究者は
But others, like Google DeepMind founder Demis Hassabis,
数百年以内には起こらないと言います
are more optimistic
しかし Google DeepMind の創立者 デミス・ハサビスといった人たちは
and are working to try to make it happen much sooner.
もっと楽観的で
And recent surveys have shown that most AI researchers
AGIをできるだけ早く 作るために努力しています
actually share Demis's optimism,
そして 最近の調査によると ほとんどのAI研究者は
expecting that we will get AGI within decades,
デミスの様に楽観的で
so within the lifetime of many of us,
AGIは数十年以内に作れると予測しています
which begs the question -- and then what?
つまり 私たちがまだ 生きているうちにできるのです
What do we want the role of humans to be
ここで疑問が生じます― その後どうなるのか?
if machines can do everything better and cheaper than us?
機械が私たちより 何でも安く上手にできるなら
The way I see it, we face a choice.
人間はどんな役割を担えばよいのでしょう?
One option is to be complacent.
私たちは選択を迫られると思います
We can say, "Oh, let's just build machines that can do everything we can do
1つ目は満足することです
and not worry about the consequences.
「じゃあ 私たちができる事なら 何でもできる機械を作って
Come on, if we build technology that makes all humans obsolete,
その後のことは心配しないでいい
what could possibly go wrong?"
ほら 人間を時代遅れの立場に置く 技術を開発したところで
(Laughter)
何も問題ないだろう?」と言うのです
But I think that would be embarrassingly lame.
(笑)
I think we should be more ambitious -- in the spirit of TED.
しかし それは極めてまずいと思います
Let's envision a truly inspiring high-tech future
私は TEDの様に もっと野心的で あるべきだと思います
and try to steer towards it.
真に心を打つハイテクな未来を想像し
This brings us to the second part of our rocket metaphor: the steering.
そちらへと向けて操縦してみましょう
We're making AI more powerful,
ここから ロケットのたとえの第2部 「操縦」へと話を移します
but how can we steer towards a future
どんどん強力なAIが 作られていきますが
where AI helps humanity flourish rather than flounder?
AIが人類をまごつかせるのではなく AIが人類の繁栄に役立つような
To help with this,
そんな未来に向かうには どう操縦すればよいのでしょうか?
I cofounded the Future of Life Institute.
その問題解決のために
It's a small nonprofit promoting beneficial technology use,
Future of Life Instituteを 共同設立しました
and our goal is simply for the future of life to exist
小さな非営利組織で 有益な技術を促進しており
and to be as inspiring as possible.
その目的はシンプルで 生命が存在できて
You know, I love technology.
できるだけ刺激的な 未来にすることです
Technology is why today is better than the Stone Age.
もちろん 私は技術を愛しています
And I'm optimistic that we can create a really inspiring high-tech future ...
現代が石器時代より良いのは 技術のおかげです
if -- and this is a big if --
そして真に刺激的なハイテクな未来を 作れると楽観的に考えています
if we win the wisdom race --
もし — 万が一の話ですが —
the race between the growing power of our technology
もし人類が知恵の競争で勝ったら?
and the growing wisdom with which we manage it.
これは 技術が生み出す能力の成長と
But this is going to require a change of strategy
人類が技術を管理するための 知恵の強化との間の競争です
because our old strategy has been learning from mistakes.
しかし 勝つには戦略を 変えなければいけません
We invented fire,
古い戦略とは 失敗から学ぶことだからです
screwed up a bunch of times --
私たちは 火を発明し
invented the fire extinguisher.
幾度も失敗して
(Laughter)
消火器を発明したのです
We invented the car, screwed up a bunch of times --
(笑)
invented the traffic light, the seat belt and the airbag,
私たちは車を発明し 幾度も失敗して
but with more powerful technology like nuclear weapons and AGI,
信号とシートベルトと エアバッグを発明したのです
learning from mistakes is a lousy strategy,
一方 核兵器やAGIのように ずっと強力な技術の場合
don't you think?
失敗から学ぶというのは お粗末な戦略だとは
(Laughter)
思いませんか?
It's much better to be proactive rather than reactive;
(笑)
plan ahead and get things right the first time
後手の対応より 先手を打つ方が ずっと良いのです
because that might be the only time we'll get.
事前に計画して一発で成功させるのです
But it is funny because sometimes people tell me,
チャンスは一度だけかもしれませんから
"Max, shhh, don't talk like that.
でも こう言われると変な感じがします
That's Luddite scaremongering."
「マックス そんな風に言うなよ そんなの―
But it's not scaremongering.
技術革新反対主義者のデマだぜ」と
It's what we at MIT call safety engineering.
しかし デマではないのです
Think about it:
MITではこれを安全工学と 呼んでいます
before NASA launched the Apollo 11 mission,
考えてみてください
they systematically thought through everything that could go wrong
NASAがアポロ11号を打ち上げる前
when you put people on top of explosive fuel tanks
彼らは 起こり得るトラブルを 全て 系統的に検討しました
and launch them somewhere where no one could help them.
なにしろ 爆発しやすい燃料タンクの上に 人間を座らせて
And there was a lot that could go wrong.
誰も助けられない所に向けて 打ち上げるからです
Was that scaremongering?
起こり得るトラブルは たくさんありました
No.
それはデマでしたか?
That's was precisely the safety engineering
いいえ
that ensured the success of the mission,
それこそが安全工学なのです
and that is precisely the strategy I think we should take with AGI.
飛行の成功を保証したのです
Think through what can go wrong to make sure it goes right.
私はまさにこの戦略をAGIでも 取るべきだと思います
So in this spirit, we've organized conferences,
成功を保証するために 起こりそうな問題を徹底的に考えるのです
bringing together leading AI researchers and other thinkers
この精神をもって 会議を開きました
to discuss how to grow this wisdom we need to keep AI beneficial.
一流のAI研究者や その他の思想家と共に
Our last conference was in Asilomar, California last year
AIが有益であり続けるために必要な 知恵を身に付ける方法を議論しました
and produced this list of 23 principles
前回の会議はカリフォルニアの アシロマで昨年開催され
which have since been signed by over 1,000 AI researchers
23ヶ条の原則を作成しました
and key industry leaders,
これは千人以上のAI研究者と 産業界の主な指導者によって
and I want to tell you about three of these principles.
署名されました
One is that we should avoid an arms race and lethal autonomous weapons.
そのうちの3ヶ条についてお話しします
The idea here is that any science can be used for new ways of helping people
1つ目は軍拡競争と 自律型の殺人兵器を控えることです
or new ways of harming people.
科学は 人を助けるため もしくは 人を傷つけるための
For example, biology and chemistry are much more likely to be used
新たな方法として使えます
for new medicines or new cures than for new ways of killing people,
例えば 生物学と化学は 人を殺す方法としてではなく
because biologists and chemists pushed hard --
新薬や新たな治療法の開発のために 使われる可能性の方がずっと高いです
and successfully --
なぜなら 生物学者と化学者は
for bans on biological and chemical weapons.
生物兵器と化学兵器の禁止を
And in the same spirit,
強く推進し 成功したからです
most AI researchers want to stigmatize and ban lethal autonomous weapons.
同じような考えで
Another Asilomar AI principle
ほとんどのAI研究者は自律型の殺人兵器を 非難し禁止することを望んでいます
is that we should mitigate AI-fueled income inequality.
もう一つのアシロマでの原則は
I think that if we can grow the economic pie dramatically with AI
AIによって引き起こされる 所得格差を和らげることです
and we still can't figure out how to divide this pie
もしAIによって経済的な利益が 著しく増えても
so that everyone is better off,
誰もが豊かになるように 増益分を配分する方法が
then shame on us.
見つけられなければ
(Applause)
私たちにとって恥です
Alright, now raise your hand if your computer has ever crashed.
(拍手)
(Laughter)
さて コンピューターが異常終了したことの ある人は手をあげてください
Wow, that's a lot of hands.
(笑)
Well, then you'll appreciate this principle
ずいぶん 手が上がりましたね
that we should invest much more in AI safety research,
それなら次の原則を 理解していただけるでしょう
because as we put AI in charge of even more decisions and infrastructure,
AIの安全性の研究に もっと投資するという原則です
we need to figure out how to transform today's buggy and hackable computers
なぜなら AIを意思決定や インフラへ利用することが増えるにつれ
into robust AI systems that we can really trust,
バグが多く ハッキングされやすい 現在のコンピューターを 信頼度が高く
because otherwise,
安定に動作するAIに変える方法を 見つける必要があります
all this awesome new technology can malfunction and harm us,
そうしなければ
or get hacked and be turned against us.
この素晴らしい新技術は 誤動作を起こして被害を与え
And this AI safety work has to include work on AI value alignment,
ハッキングされ 私たちを攻撃するかもしれません
because the real threat from AGI isn't malice,
また安全性研究の一環として AIの価値観を 私たちの価値観と一致させる研究が必要です
like in silly Hollywood movies,
AGIの真の脅威は 馬鹿げたハリウッド映画のような
but competence --
人間への敵意などではなく
AGI accomplishing goals that just aren't aligned with ours.
その能力にあります
For example, when we humans drove the West African black rhino extinct,
私たちの目標に合致しないことを 成し遂げてしまいかねないからです
we didn't do it because we were a bunch of evil rhinoceros haters, did we?
例えば 私たち人間が 西アフリカの クロサイを絶滅させたのは
We did it because we were smarter than them
私たちはサイを狩る邪悪な 集団だったからではないですよね?
and our goals weren't aligned with theirs.
私たちは奴らより利口で
But AGI is by definition smarter than us,
私たちの目的が相手と 一致しなかったからなのです
so to make sure that we don't put ourselves in the position of those rhinos
しかし AGIは 定義上 私たちより利口なので
if we create AGI,
私たちをサイの立場に置かないためには
we need to figure out how to make machines understand our goals,
AGIを作る時に
adopt our goals and retain our goals.
機械に私たちの目的を理解させ
And whose goals should these be, anyway?
それを採用し 保持させる方法を 見出す必要があります
Which goals should they be?
また これは誰の目的で あるべきなのでしょうか?
This brings us to the third part of our rocket metaphor: the destination.
何を目的とすべきなのでしょうか?
We're making AI more powerful,
これはロケットのたとえの第3部へと つながります 目的地です
trying to figure out how to steer it,
AIを強化し
but where do we want to go with it?
操縦方法を見出そうとしていますが
This is the elephant in the room that almost nobody talks about --
どこに行こうと しているのでしょうか?
not even here at TED --
これは ほとんど誰もが話題にすることを 避けている重大な問題です
because we're so fixated on short-term AI challenges.
ここTEDにいる人たちでもそうです
Look, our species is trying to build AGI,
短期的なAIの課題に 掛かり切りだからです
motivated by curiosity and economics,
さて 人類はAGIを 作ろうとしていて
but what sort of future society are we hoping for if we succeed?
それは好奇心と経済的なことが 動機となっていますが
We did an opinion poll on this recently,
もしAGIが成功したら 私たちは どんな未来社会を望むのでしょう?
and I was struck to see
これについて 意識調査を 最近実施しましたが
that most people actually want us to build superintelligence:
私は 多くの人が
AI that's vastly smarter than us in all ways.
「超知能」の創造を望んでいるという 意見に驚きました
What there was the greatest agreement on was that we should be ambitious
あらゆる面において私たちより 遥かに利口な知能を望んでいるのです
and help life spread into the cosmos,
最も意見の一致を見た点は 私たちが大志を抱き
but there was much less agreement about who or what should be in charge.
生命を宇宙へと 拡散させるべきということでした
And I was actually quite amused
ただ 超知能を管理する主体については 意見が分かれました
to see that there's some some people who want it to be just machines.
面白いと思ったのは
(Laughter)
機械だけで管理すればよいと 考える人がいた事です
And there was total disagreement about what the role of humans should be,
(笑)
even at the most basic level,
その上 人間の役割は何であるべきかに ついては 最も基本的なレベルにおいても
so let's take a closer look at possible futures
全く意見が一致しませんでした
that we might choose to steer toward, alright?
では 私たちが向かって行く可能性のある
So don't get be wrong here.
未来を詳しく見てみましょう
I'm not talking about space travel,
誤解しないでください
merely about humanity's metaphorical journey into the future.
私は宇宙旅行について 語ろうとしているのではなく
So one option that some of my AI colleagues like
人類の未来への道のりを 比喩的に言っているだけです
is to build superintelligence and keep it under human control,
私のAI研究者仲間がお気に入りの 一つの選択肢は
like an enslaved god,
超知能を造って 人間の支配下に置くというものです
disconnected from the internet
まるで奴隷にされた神の様であり
and used to create unimaginable technology and wealth
インターネットへの接続もなく
for whoever controls it.
誰であれ それを制御できる人のために 想像すらできない様な技術と富を
But Lord Acton warned us
創造するために使われます
that power corrupts, and absolute power corrupts absolutely,
しかしアクトン卿は
so you might worry that maybe we humans just aren't smart enough,
権力は腐敗し 絶対的な権力は 絶対に腐敗すると警告しました
or wise enough rather,
だから 皆さんは この様なすごい力を 扱える程には人類は利口ではない
to handle this much power.
もしくは十分に賢くはないと
Also, aside from any moral qualms you might have
憂慮されるかもしれません
about enslaving superior minds,
より優れた知性を 奴隷扱いするのは気がとがめるという
you might worry that maybe the superintelligence could outsmart us,
道徳的なことはさておき
break out and take over.
超知能が 想像を超えた方法で 逃げ出し 優位に立つのではと
But I also have colleagues who are fine with AI taking over
心配になるかもしれません
and even causing human extinction,
しかし 私の同僚には AIに乗っ取られてもいい
as long as we feel the the AIs are our worthy descendants,
さらには人類を絶滅させても いいと考える人もいます
like our children.
それも AIのことを 自分たちの子供のように相応しい子孫と
But how would we know that the AIs have adopted our best values
思えればの話です
and aren't just unconscious zombies tricking us into anthropomorphizing them?
ただ AIが私たちの価値観を持ったことを どうしたら確認できるでしょう?
Also, shouldn't those people who don't want human extinction
意識を持たないゾンビなのに 人間らしく見えるだけではないと?
have a say in the matter, too?
それに 人類の絶滅を望まぬ人々にも 発言権が
Now, if you didn't like either of those two high-tech options,
あるべきではないでしょうか?
it's important to remember that low-tech is suicide
さて これらのハイテクな選択肢は どちらもお望みでないとしても
from a cosmic perspective,
ローテクな選択肢は 宇宙的視野に立てば自殺行為であると
because if we don't go far beyond today's technology,
知っておくことは大切です
the question isn't whether humanity is going to go extinct,
なぜなら 現在の技術レベルを はるかに上回らない限り
merely whether we're going to get taken out
人類が将来 絶滅するかどうかという 問題ではなく
by the next killer asteroid, supervolcano
技術が進んでいれば回避できるはずの
or some other problem that better technology could have solved.
小惑星の衝突や 巨大な火山噴火といった事態で
So, how about having our cake and eating it ...
人類は滅亡するのかという 問題になってしまうからです
with AGI that's not enslaved
それならば 長所を全て 生かしてはどうでしょうか
but treats us well because its values are aligned with ours?
奴隷化されなくても
This is the gist of what Eliezer Yudkowsky has called "friendly AI,"
私たちと同じ価値観を持ち 人間を大事にするAGIを使うのです
and if we can do this, it could be awesome.
これはエリエゼル・ユドカウスキーが 「友好的なAI」と呼ぶものです
It could not only eliminate negative experiences like disease, poverty,
そして これができれば 素晴らしいことでしょう
crime and other suffering,
病気 貧困 犯罪など 苦痛というマイナスの経験を
but it could also give us the freedom to choose
無くすことができるだけではなく
from a fantastic new diversity of positive experiences --
様々な 新しいプラスの経験から 選択する自由を
basically making us the masters of our own destiny.
与えてくれるかもしれません
So in summary,
そうなれば私たちは 自分の手で運命を決められるのです
our situation with technology is complicated,
では まとめます
but the big picture is rather simple.
技術に関する状況は 複雑ではありますが
Most AI researchers expect AGI within decades,
全体像は 単純です
and if we just bumble into this unprepared,
ほとんどのAI研究者はAGIが 数十年以内にできると期待しています
it will probably be the biggest mistake in human history --
そして 準備がないままに つまづきながら進んで行くと
let's face it.
おそらく人類史上最大の 間違いとなるでしょう
It could enable brutal, global dictatorship
それは認めるべきです
with unprecedented inequality, surveillance and suffering,
冷酷な 全世界的独裁政権が可能になり
and maybe even human extinction.
前代未聞の差別 監視社会と 苦しみが産まれ
But if we steer carefully,
さらに人類の絶滅さえ 起こるかもしれません
we could end up in a fantastic future where everybody's better off:
しかし注意深く操縦すれば
the poor are richer, the rich are richer,
誰もが裕福になれる 素晴らしい未来にたどり着くかもしれません
everybody is healthy and free to live out their dreams.
貧乏人は金持ちになり 金持ちはさらに金持ちになり
Now, hang on.
みんなが健康で 夢を追い求めながら 自由に人生を送れることでしょう
Do you folks want the future that's politically right or left?
ちょっと考えてください
Do you want the pious society with strict moral rules,
皆さんは 政治的に右寄りの未来と 左寄りの未来なら どちらがいいですか?
or do you an hedonistic free-for-all,
厳格な道徳的規則を持つ敬虔な社会と
more like Burning Man 24/7?
快楽主義的で制約のない
Do you want beautiful beaches, forests and lakes,
毎日がバーニングマンのような社会なら どちらがいいですか?
or would you prefer to rearrange some of those atoms with the computers,
綺麗なビーチや森や湖がいいですか?
enabling virtual experiences?
それともコンピューターで 原子を少し置き換えた
With friendly AI, we could simply build all of these societies
バーチャル体験がいいですか?
and give people the freedom to choose which one they want to live in
友好的なAIがあれば どの社会でも作ることができ
because we would no longer be limited by our intelligence,
人々にどの社会に住むかの 自由を与えることができます
merely by the laws of physics.
なぜなら 自分たちの知能に 縛られることはなくなるからです
So the resources and space for this would be astronomical --
制約は物理法則だけです
literally.
ですから このような世界の資源と空間は 天文学的になります
So here's our choice.
文字通りにです
We can either be complacent about our future,
我々は選択しなければなりません
taking as an article of blind faith
自分の未来に満足し
that any new technology is guaranteed to be beneficial,
新しいテクノロジーなら何でも
and just repeat that to ourselves as a mantra over and over and over again
有益なことが保証されているという 根拠のない信条を持ち
as we drift like a rudderless ship towards our own obsolescence.
まるで舵のない船が 衰退に向かって漂流するように
Or we can be ambitious --
それを自分の中で 何度も繰り返し唱え続けるのか
thinking hard about how to steer our technology
あるいは野心を持って
and where we want to go with it
技術の操縦方法と目的地を
to create the age of amazement.
真剣に考え
We're all here to celebrate the age of amazement,
「素晴らしい時代」を築くのか
and I feel that its essence should lie in becoming not overpowered
私たちは 「素晴らしい時代」を 祝うためにここにいます
but empowered by our technology.
私は その本質は 技術に圧倒されるのではなく
Thank you.
技術から力を得ることだと思います
(Applause)
ありがとうございました