字幕表 動画を再生する
This is Lee Sedol.
翻訳: Yasushi Aoki 校正: Yuko Yoshida
Lee Sedol is one of the world's greatest Go players,
これは李世ドルです
and he's having what my friends in Silicon Valley call
李世ドルは 世界で最も強い 碁打ちの1人ですが
a "Holy Cow" moment --
シリコンバレーの 友人たちなら
(Laughter)
「なんてこった」と言う 瞬間を迎えています
a moment where we realize
(笑)
that AI is actually progressing a lot faster than we expected.
我々が予想していたよりも ずっと早く
So humans have lost on the Go board. What about the real world?
AIが進歩していることに 気付いた瞬間です
Well, the real world is much bigger,
人間は碁盤上で機械に負けましたが 実際の世の中ではどうでしょう?
much more complicated than the Go board.
実際の世界は
It's a lot less visible,
碁盤よりもずっと大きく ずっと複雑で
but it's still a decision problem.
ずっと見通し難いですが
And if we think about some of the technologies
決定問題であることに 違いはありません
that are coming down the pike ...
到来しつつある
Noriko [Arai] mentioned that reading is not yet happening in machines,
テクノロジーのことを考えるなら —
at least with understanding.
機械は 本当に理解して文を読めるようには まだなっていないことに
But that will happen,
新井紀子氏が 触れていましたが
and when that happens,
それもやがて できるようになるでしょう
very soon afterwards,
そして そうなったとき
machines will have read everything that the human race has ever written.
機械は人類がかつて書いた すべてのものを
And that will enable machines,
速やかに読破することでしょう
along with the ability to look further ahead than humans can,
そうなると機械は
as we've already seen in Go,
碁において見せた
if they also have access to more information,
人間より遠くまで 見通す力と合わせ
they'll be able to make better decisions in the real world than we can.
より多くの情報に 触れられるようになることで
So is that a good thing?
実際の世の中でも 人間より優れた 判断ができるようになるでしょう
Well, I hope so.
それは良いこと なのでしょうか?
Our entire civilization, everything that we value,
そうだと望みたいです
is based on our intelligence.
我々の文明そのもの 我々が価値を置くすべては
And if we had access to a lot more intelligence,
我々の知性を 拠り所としています
then there's really no limit to what the human race can do.
はるかに多くの知性が 使えるようになったなら
And I think this could be, as some people have described it,
人類に可能なことに 限界はないでしょう
the biggest event in human history.
ある人々が言っているように
So why are people saying things like this,
これは人類史上最大の出来事に なるかもしれません
that AI might spell the end of the human race?
ではなぜ「AIは人類の終焉を 意味するかもしれない」などと
Is this a new thing?
言われているのでしょう?
Is it just Elon Musk and Bill Gates and Stephen Hawking?
これは新しいこと なのでしょうか?
Actually, no. This idea has been around for a while.
ただイーロン・マスクと ビル・ゲイツと ホーキングが言っているだけなのか?
Here's a quotation:
違います この考えは結構前からありました
"Even if we could keep the machines in a subservient position,
ここに ある人の 言葉があります
for instance, by turning off the power at strategic moments" --
「重大な瞬間にスイッチを切る といったことによって
and I'll come back to that "turning off the power" idea later on --
機械を 従属的な位置に 保てたとしても —
"we should, as a species, feel greatly humbled."
この “スイッチを切る” ことについては 後でまた戻ってきます —
So who said this? This is Alan Turing in 1951.
種としての我々は 謙虚に捉えるべきである」
Alan Turing, as you know, is the father of computer science
誰の言葉でしょう? アラン・チューリングが 1951年に言ったことです
and in many ways, the father of AI as well.
ご存じのように チューリングは コンピューター科学の父であり
So if we think about this problem,
いろいろな意味で AIの父でもあります
the problem of creating something more intelligent than your own species,
この問題を考えてみると
we might call this "the gorilla problem,"
つまり自分の種よりも知的なものを 生み出してしまうという問題ですが
because gorillas' ancestors did this a few million years ago,
これは「ゴリラの問題」と呼んでも 良いかもしれません
and now we can ask the gorillas:
なぜなら数百万年前に ゴリラの祖先がそうしているからで
Was this a good idea?
ゴリラたちに 尋ねることができます
So here they are having a meeting to discuss whether it was a good idea,
「いいアイデアだったと思う?」
and after a little while, they conclude, no,
ゴリラたちが いいアイデアだったのか 議論するために 集まっていますが
this was a terrible idea.
しばらくして 出した結論は
Our species is in dire straits.
「あれは酷いアイデアだった」 というものです
In fact, you can see the existential sadness in their eyes.
おかげで我々の種は ひどい苦境に置かれていると
(Laughter)
彼らの目に実存的な悲哀を 見て取れるでしょう
So this queasy feeling that making something smarter than your own species
(笑)
is maybe not a good idea --
「自分の種より知的なものを 生み出すのは
what can we do about that?
良い考えではないのでは?」 という不安な感覚があります
Well, really nothing, except stop doing AI,
それについて 何ができるのでしょう?
and because of all the benefits that I mentioned
AIの開発をやめてしまう以外 ないかもしれませんが
and because I'm an AI researcher,
AIのもたらす様々な利点や
I'm not having that.
私自身AI研究者である という理由によって
I actually want to be able to keep doing AI.
私にはそういう選択肢は ありません
So we actually need to nail down the problem a bit more.
実際AIは続けたいと 思っています
What exactly is the problem?
この問題をもう少し 明確にする必要があるでしょう
Why is better AI possibly a catastrophe?
正確に何が問題なのか?
So here's another quotation:
優れたAIが我々の破滅に繋がりうるのは なぜなのか?
"We had better be quite sure that the purpose put into the machine
ここにもう1つ 引用があります
is the purpose which we really desire."
「機械に与える目的については
This was said by Norbert Wiener in 1960,
それが本当に望むものだと 確信があるものにする必要がある」
shortly after he watched one of the very early learning systems
これはノーバート・ウィーナーが 1960年に言ったことで
learn to play checkers better than its creator.
最初期の学習システムが
But this could equally have been said
作り手よりもうまくチェッカーを 指すのを見た すぐ後のことです
by King Midas.
しかしこれはミダス王の 言葉だったとしても
King Midas said, "I want everything I touch to turn to gold,"
おかしくないでしょう
and he got exactly what he asked for.
ミダス王は「自分の触れたものすべてが 金になってほしい」と望み
That was the purpose that he put into the machine,
そして その望みが 叶えられました
so to speak,
これはいわば
and then his food and his drink and his relatives turned to gold
彼が「機械に与えた目的」です
and he died in misery and starvation.
そして彼の食べ物や飲み物や親類は みんな金に変わってしまい
So we'll call this "the King Midas problem"
彼は悲嘆と飢えの中で 死んでいきました
of stating an objective which is not, in fact,
だから自分が本当に望むことと合わない 目的を掲げることを
truly aligned with what we want.
「ミダス王の問題」と
In modern terms, we call this "the value alignment problem."
呼ぶことにしましょう
Putting in the wrong objective is not the only part of the problem.
現代的な用語では これを 「価値整合の問題」と言います
There's another part.
間違った目的を与えてしまうというのが 問題のすべてではありません
If you put an objective into a machine,
別の側面もあります
even something as simple as, "Fetch the coffee,"
「コーヒーを取ってくる」というような
the machine says to itself,
ごく単純な目的を 機械に与えたとします
"Well, how might I fail to fetch the coffee?
機械は考えます
Someone might switch me off.
「コーヒーを取ってくるのに失敗する どんな状況がありうるだろう?
OK, I have to take steps to prevent that.
誰かが自分のスイッチを 切るかもしれない
I will disable my 'off' switch.
そのようなことを防止する 手を打たなければ
I will do anything to defend myself against interference
自分の「オフ」スイッチを 無効にしておこう
with this objective that I have been given."
与えられた目的の遂行を阻むものから 自分を守るためであれば
So this single-minded pursuit
何だってやろう」
in a very defensive mode of an objective that is, in fact,
1つの目的を
not aligned with the true objectives of the human race --
非常に防御的に 一途に追求すると
that's the problem that we face.
人類の本当の目的に 沿わなくなるというのが
And in fact, that's the high-value takeaway from this talk.
我々の直面する問題です
If you want to remember one thing,
実際それが この講演から学べる 価値ある教訓です
it's that you can't fetch the coffee if you're dead.
もし1つだけ覚えておくとしたら それは —
(Laughter)
「死んだらコーヒーを取ってこれない」 ということです
It's very simple. Just remember that. Repeat it to yourself three times a day.
(笑)
(Laughter)
簡単でしょう 記憶して1日3回唱えてください
And in fact, this is exactly the plot
(笑)
of "2001: [A Space Odyssey]"
実際 映画『2001年宇宙の旅』の筋は
HAL has an objective, a mission,
そういうものでした
which is not aligned with the objectives of the humans,
HALの目的・ミッションは
and that leads to this conflict.
人間の目的とは合わず
Now fortunately, HAL is not superintelligent.
そのため衝突が起きます
He's pretty smart, but eventually Dave outwits him
幸いHALは非常に賢くはあっても 超知的ではありませんでした
and manages to switch him off.
それで最終的には 主人公が出し抜いて
But we might not be so lucky.
スイッチを切ることができました
So what are we going to do?
でも私たちはそんなに幸運では ないかもしれません
I'm trying to redefine AI
では どうしたらいいのでしょう?
to get away from this classical notion
「知的に目的を追求する機械」という
of machines that intelligently pursue objectives.
古典的な見方から離れて
There are three principles involved.
AIの再定義を試みようと思います
The first one is a principle of altruism, if you like,
3つの原則があります
that the robot's only objective
第1は「利他性の原則」で
is to maximize the realization of human objectives,
ロボットの唯一の目的は
of human values.
人間の目的 人間にとって価値あることが
And by values here I don't mean touchy-feely, goody-goody values.
最大限に実現される ようにすることです
I just mean whatever it is that the human would prefer
ここで言う価値は 善人ぶった崇高そうな価値ではありません
their life to be like.
単に何であれ
And so this actually violates Asimov's law
人間が自分の生活に 望むものということです
that the robot has to protect its own existence.
この原則は
It has no interest in preserving its existence whatsoever.
「ロボットは自己を守らなければならない」 というアシモフの原則に反します
The second law is a law of humility, if you like.
自己の存在維持には まったく関心を持たないのです
And this turns out to be really important to make robots safe.
第2の原則は 言うなれば「謙虚の原則」です
It says that the robot does not know
これはロボットを安全なものにする上で 非常に重要であることがわかります
what those human values are,
この原則は
so it has to maximize them, but it doesn't know what they are.
ロボットが人間の価値が何か 知らないものとしています
And that avoids this problem of single-minded pursuit
ロボットは最大化すべきものが何か 知らないということです
of an objective.
1つの目的を 一途に追求することの問題を
This uncertainty turns out to be crucial.
これで避けることができます
Now, in order to be useful to us,
この不確定性が 極めて重要なのです
it has to have some idea of what we want.
人間にとって有用であるためには
It obtains that information primarily by observation of human choices,
我々が何を望むのかについて 大まかな理解は必要です
so our own choices reveal information
ロボットはその情報を主として 人間の選択を観察することで得ます
about what it is that we prefer our lives to be like.
我々が自分の生活に望むのが 何かという情報が
So those are the three principles.
我々のする選択を通して 明かされるわけです
Let's see how that applies to this question of:
以上が3つの原則です
"Can you switch the machine off?" as Turing suggested.
これがチューリングの提起した 「機械のスイッチを切れるか」という問題に
So here's a PR2 robot.
どう適用できるか 見てみましょう
This is one that we have in our lab,
これは PR2 ロボットです
and it has a big red "off" switch right on the back.
私たちの研究室にあるもので
The question is: Is it going to let you switch it off?
背中に大きな赤い 「オフ」スイッチがあります
If we do it the classical way,
問題は ロボットがスイッチを 切らせてくれるかということです
we give it the objective of, "Fetch the coffee, I must fetch the coffee,
古典的なやり方をするなら
I can't fetch the coffee if I'm dead,"
「コーヒーを取ってくる」 という目的に対し
so obviously the PR2 has been listening to my talk,
「コーヒーを取ってこなければならない」 「死んだらコーヒーを取ってこれない」と考え
and so it says, therefore, "I must disable my 'off' switch,
私の講演を聴いていたPR2は
and probably taser all the other people in Starbucks
「オフ・スイッチは無効にしなければ」 と判断し
who might interfere with me."
「スターバックスで邪魔になる 他の客はみんな
(Laughter)
テーザー銃で眠らせよう」 となります
So this seems to be inevitable, right?
(笑)
This kind of failure mode seems to be inevitable,
これは避けがたい ように見えます
and it follows from having a concrete, definite objective.
このような故障モードは 不可避に見え
So what happens if the machine is uncertain about the objective?
そしてそれは具体的で絶対的な 目的があることから来ています
Well, it reasons in a different way.
目的が何なのか機械に 確信がないとしたら どうなるでしょう?
It says, "OK, the human might switch me off,
違ったように推論するはずです
but only if I'm doing something wrong.
「人間は自分のスイッチを 切るかもしれないが
Well, I don't really know what wrong is,
それは自分が何か 悪いことをしたときだけだ
but I know that I don't want to do it."
悪いことが何か よく分からないけど
So that's the first and second principles right there.
悪いことはしたくない」
"So I should let the human switch me off."
ここで 第1 および第2の原則が 効いています
And in fact you can calculate the incentive that the robot has
「だからスイッチを切るのを 人間に許すべきだ」
to allow the human to switch it off,
実際ロボットが人間に スイッチを切ることを許す
and it's directly tied to the degree
インセンティブを 計算することができ
of uncertainty about the underlying objective.
それは目的の不確かさの度合いと
And then when the machine is switched off,
直接的に結びついています
that third principle comes into play.
機械のスイッチが切られると
It learns something about the objectives it should be pursuing,
第3の原則が働いて
because it learns that what it did wasn't right.
追求すべき目的について 何かを学びます
In fact, we can, with suitable use of Greek symbols,
自分の間違った行いから 学ぶのです
as mathematicians usually do,
数学者がよくやるように
we can actually prove a theorem
ギリシャ文字をうまく使って
that says that such a robot is provably beneficial to the human.
そのようなロボットが 人間にとって有益であるという定理を
You are provably better off with a machine that's designed in this way
証明することができます
than without it.
そのようにデザインされた機械の方が そうでないものより良い結果になると
So this is a very simple example, but this is the first step
証明可能なのです
in what we're trying to do with human-compatible AI.
これは単純な例ですが
Now, this third principle,
人間互換のAIを手にするための 第一歩です
I think is the one that you're probably scratching your head over.
3番目の原則については
You're probably thinking, "Well, you know, I behave badly.
皆さん困惑しているのでは と思います
I don't want my robot to behave like me.
「自分の行動は 見上げたものではない
I sneak down in the middle of the night and take stuff from the fridge.
ロボットに自分のように 振る舞って欲しくはない
I do this and that."
真夜中にこっそり台所に行って 冷蔵庫から食べ物を失敬したり
There's all kinds of things you don't want the robot doing.
あんなことや こんなことを しているから」
But in fact, it doesn't quite work that way.
ロボットにしてほしくない 様々なことがあります
Just because you behave badly
でも実際そういう風に 働くわけではありません
doesn't mean the robot is going to copy your behavior.
自分がまずい振る舞いをしたら
It's going to understand your motivations and maybe help you resist them,
ロボットがそれを真似する というわけではありません
if appropriate.
人がそのようにする 動機を理解して
But it's still difficult.
誘惑に抵抗する手助けさえ してくれるかもしれません
What we're trying to do, in fact,
それでも難しいです
is to allow machines to predict for any person and for any possible life
私たちがやろうとしているのは
that they could live,
あらゆる状況にある
and the lives of everybody else:
あらゆる人のことを
Which would they prefer?
機械に予測させる ということです
And there are many, many difficulties involved in doing this;
その人たちは どちらを好むのか?
I don't expect that this is going to get solved very quickly.
これには難しいことが たくさんあって
The real difficulties, in fact, are us.
ごく速やかに解決されるだろうとは 思っていません
As I have already mentioned, we behave badly.
本当に難しい部分は 私たちにあります
In fact, some of us are downright nasty.
言いましたように 私たちは まずい振る舞いをします
Now the robot, as I said, doesn't have to copy the behavior.
人によっては 悪質でさえあります
The robot does not have any objective of its own.
しかしロボットは人間の振るまいを 真似する必要はありません
It's purely altruistic.
ロボットは それ自身の目的 というのを持ちません
And it's not designed just to satisfy the desires of one person, the user,
純粋に利他的です
but in fact it has to respect the preferences of everybody.
そして1人の人間の望みだけ 満たそうとするのではなく
So it can deal with a certain amount of nastiness,
みんなの好みに敬意を払うよう デザインされています
and it can even understand that your nastiness, for example,
だからある程度 悪いことも扱え
you may take bribes as a passport official
人間の悪い面も 理解できます
because you need to feed your family and send your kids to school.
例えば入国審査官が 賄賂を受け取っているけれど
It can understand that; it doesn't mean it's going to steal.
それは家族を食べさせ 子供を学校に行かせるためなのだとか
In fact, it'll just help you send your kids to school.
ロボットはそれを理解できますが そのために盗みをするわけではありません
We are also computationally limited.
ただ子供が学校に行けるよう 手助けをするだけです
Lee Sedol is a brilliant Go player,
また人間は計算能力の点で 限界があります
but he still lost.
李世ドルは 素晴らしい碁打ちですが
So if we look at his actions, he took an action that lost the game.
それでも負けました
That doesn't mean he wanted to lose.
彼の行動を見れば 勝負に負けることになる 手を打ったのが分かるでしょう
So to understand his behavior,
しかしそれは 彼が負けを 望んだことを意味しません
we actually have to invert through a model of human cognition
彼の行動を理解するためには
that includes our computational limitations -- a very complicated model.
人の認知モデルを 逆にたどる必要がありますが
But it's still something that we can work on understanding.
それは計算能力の限界も含む とても複雑なモデルです
Probably the most difficult part, from my point of view as an AI researcher,
それでも私たちが理解すべく 取り組めるものではあります
is the fact that there are lots of us,
AI研究者として見たとき 最も難しいと思える部分は
and so the machine has to somehow trade off, weigh up the preferences
私たち人間が 沢山いるということです
of many different people,
だから機械は トレードオフを考え
and there are different ways to do that.
沢山の異なる人間の好みを 比較考量する必要があり
Economists, sociologists, moral philosophers have understood that,
それには いろいろな やり方があります
and we are actively looking for collaboration.
経済学者 社会学者 倫理学者は そういうことを分かっており
Let's have a look and see what happens when you get that wrong.
私たちは協同の道を 探っています
So you can have a conversation, for example,
そこをうまくやらないと どうなるか見てみましょう
with your intelligent personal assistant
たとえばこんな会話を 考えてみます
that might be available in a few years' time.
知的な秘書AIが
Think of a Siri on steroids.
数年内に利用可能に なるかもしれません
So Siri says, "Your wife called to remind you about dinner tonight."
強化されたSiriのようなものです
And of course, you've forgotten. "What? What dinner?
Siriが「今晩のディナーについて 奥様から確認の電話がありました」と言います
What are you talking about?"
あなたはもちろん忘れています 「何のディナーだって?
"Uh, your 20th anniversary at 7pm."
何の話をしているんだ?」
"I can't do that. I'm meeting with the secretary-general at 7:30.
「20周年のディナーですよ 夜7時の」
How could this have happened?"
「無理だよ 7時半に 事務総長と会わなきゃならない
"Well, I did warn you, but you overrode my recommendation."
どうして こんなことに なったんだ?」
"Well, what am I going to do? I can't just tell him I'm too busy."
「警告は致しましたが あなたは推奨案を無視されました」
"Don't worry. I arranged for his plane to be delayed."
「どうしたらいいんだ? 忙しくて行けないなんて言えないぞ」
(Laughter)
「ご心配には及びません 事務総長の飛行機が遅れるように手配済みです」
"Some kind of computer malfunction."
(笑)
(Laughter)
「コンピューターに 細工しておきました」
"Really? You can do that?"
(笑)
"He sends his profound apologies
「えっ そんなことできるのか?」
and looks forward to meeting you for lunch tomorrow."
「大変恐縮して
(Laughter)
明日のランチでお会いするのを 楽しみにしている とのことです」
So the values here -- there's a slight mistake going on.
(笑)
This is clearly following my wife's values
ここでは価値について ちょっと行き違いが起きています
which is "Happy wife, happy life."
Siri は明らかに 妻の価値観に従っています
(Laughter)
「妻の幸せが 夫の幸せ」です
It could go the other way.
(笑)
You could come home after a hard day's work,
別の方向に行くことも あり得ます
and the computer says, "Long day?"
忙しい仕事を終え 帰宅すると コンピューターが言います
"Yes, I didn't even have time for lunch."
「大変な1日だったようですね」
"You must be very hungry."
「昼を食べる時間もなかったよ」
"Starving, yeah. Could you make some dinner?"
「お腹が空いたことでしょう」
"There's something I need to tell you."
「ああ 腹ペコだよ 何か夕食を作ってもらえるかな?」
(Laughter)
「そのことで お話ししなければ ならないことがあります」
"There are humans in South Sudan who are in more urgent need than you."
(笑)
(Laughter)
「南スーダンには あなたよりも 必要に迫られている人々がいます」
"So I'm leaving. Make your own dinner."
(笑)
(Laughter)
「行くことに致しましたので 夕食はご自分で作ってください」
So we have to solve these problems,
(笑)
and I'm looking forward to working on them.
こういった問題を 解かなければなりません
There are reasons for optimism.
そういう問題に取り組むのは 楽しみです
One reason is,
楽観しているのには 理由があります
there is a massive amount of data.
1つには
Because remember -- I said they're going to read everything
膨大なデータがあること
the human race has ever written.
思い出してください
Most of what we write about is human beings doing things
機械は人類が書いたあらゆるものを 読むことになるでしょう
and other people getting upset about it.
人間の書いたものはたいがい
So there's a massive amount of data to learn from.
誰かが何かをし 他の人がそれに腹を立てたというものです
There's also a very strong economic incentive
学べるデータが膨大にあります
to get this right.
また これを正しくやるための
So imagine your domestic robot's at home.
強い経済的インセンティブが 存在します
You're late from work again and the robot has to feed the kids,
家に家事ロボットがいると 想像してください
and the kids are hungry and there's nothing in the fridge.
あなたはまた仕事で帰りが遅く ロボットは子供達に食べさせなければなりません
And the robot sees the cat.
子供達はお腹を空かせていますが 冷蔵庫は空っぽです
(Laughter)
そこでロボットは 猫に目を止めます
And the robot hasn't quite learned the human value function properly,
(笑)
so it doesn't understand
ロボットは人間の価値観を ちゃんと学んでいないため
the sentimental value of the cat outweighs the nutritional value of the cat.
猫の持つ感情的価値が
(Laughter)
猫の栄養的価値を上回ることを 理解しません
So then what happens?
(笑)
Well, it happens like this:
するとどうなるでしょう?
"Deranged robot cooks kitty for family dinner."
「狂ったロボット 子猫を料理して夕食に出す」
That one incident would be the end of the domestic robot industry.
みたいな見出しを 見ることになります
So there's a huge incentive to get this right
このような出来事1つで 家事ロボット産業はお終いです
long before we reach superintelligent machines.
だから超知的な機械に到達する ずっと以前に
So to summarize:
この問題を正すよう 大きなインセンティブが働きます
I'm actually trying to change the definition of AI
要約すると
so that we have provably beneficial machines.
私はAIの定義を変えて
And the principles are:
人間のためになると証明可能な機械が 得られるよう試みています
machines that are altruistic,
その原則は
that want to achieve only our objectives,
機械は利他的であり
but that are uncertain about what those objectives are,
人間の目的のみを 達成しようとするが
and will watch all of us
その目的が何かは 確信を持たず
to learn more about what it is that we really want.
そしてすべての人間を 観察することで
And hopefully in the process, we will learn to be better people.
我々の本当に望むことが何かを学ぶ ということです
Thank you very much.
その過程で 人類がより良い者になる術を 学ぶことを望みます
(Applause)
ありがとうございました
Chris Anderson: So interesting, Stuart.
(拍手)
We're going to stand here a bit because I think they're setting up
(クリス・アンダーソン) すごく興味深いね スチュワート
for our next speaker.
次のスピーカーのための 準備があるので
A couple of questions.
少しここで話しましょう
So the idea of programming in ignorance seems intuitively really powerful.
質問があるんですが
As you get to superintelligence,
「無知にプログラムする」というアイデアは とても強力であるように思えます
what's going to stop a robot
超知的になったロボットが 文献を読んで
reading literature and discovering this idea that knowledge
無知よりも知識がある方が 良いと気付き
is actually better than ignorance
自分の目的を変えて プログラムを書き換えてしまう —
and still just shifting its own goals and rewriting that programming?
そういうことに ならないためには
Stuart Russell: Yes, so we want it to learn more, as I said,
どうすれば 良いのでしょう?
about our objectives.
(スチュワート・ラッセル) 私たちはロボットに
It'll only become more certain as it becomes more correct,
人間の目的をよく学んで ほしいと思っています
so the evidence is there
ロボットは より正しくなるほど 確信を強めます
and it's going to be designed to interpret it correctly.
手がかりはそこに あるわけですから
It will understand, for example, that books are very biased
それを正しく解釈するよう デザインするのです
in the evidence they contain.
たとえば本の内容には
They only talk about kings and princes
バイアスがあることを 理解するでしょう
and elite white male people doing stuff.
王や王女や エリートの白人男性がしたことばかり
So it's a complicated problem,
書かれているといった風に
but as it learns more about our objectives
だから複雑な問題ではありますが
it will become more and more useful to us.
ロボットが我々の目的を 学べは学ぶほど
CA: And you couldn't just boil it down to one law,
我々にとって 有用なものになるでしょう
you know, hardwired in:
(クリス) 1つの原則に まとめられないんですか?
"if any human ever tries to switch me off,
固定したプログラムとして
I comply. I comply."
「人間がスイッチを切ろうとしたら
SR: Absolutely not.
無条件に従う」みたいな
That would be a terrible idea.
(スチュワート) それは駄目ですね
So imagine that you have a self-driving car
まずいアイデアです
and you want to send your five-year-old
自動運転車で
off to preschool.
5歳の子を幼稚園に 送るところを
Do you want your five-year-old to be able to switch off the car
考えてみてください
while it's driving along?
車に1人で乗っている 5歳児が
Probably not.
車のスイッチを切れるように したいと思いますか?
So it needs to understand how rational and sensible the person is.
違うでしょう
The more rational the person,
ロボットは その人間がどれほど理性的で 分別があるかを理解する必要があります
the more willing you are to be switched off.
人間が理性的であるほど
If the person is completely random or even malicious,
スイッチを切らせる見込みは 高くなります
then you're less willing to be switched off.
まったくランダムな相手や 悪意ある人間に対しては
CA: All right. Stuart, can I just say,
なかなかスイッチを切らせようとは しないでしょう
I really, really hope you figure this out for us.
(クリス) スチュワート
Thank you so much for that talk. That was amazing.
あなたが みんなのために この問題を解決してくれることを切に望みます
SR: Thank you.
ありがとうございました 素晴らしいお話でした
(Applause)
(スチュワート) どうもありがとう