字幕表 動画を再生する
So, I started my first job as a computer programmer
翻訳: Naoko Fujii 校正: Misaki Sato
in my very first year of college --
私はコンピュータ・プログラマー としての最初の仕事を
basically, as a teenager.
大学1年生で始めました
Soon after I started working,
まあ 10代だったんですね
writing software in a company,
ある会社で ソフトウェアを
a manager who worked at the company came down to where I was,
書くという仕事を 始めてまもなく
and he whispered to me,
会社のマネージャーが 私のところに来て
"Can he tell if I'm lying?"
こうささやきました
There was nobody else in the room.
「僕の嘘 彼にばれてる?」
"Can who tell if you're lying? And why are we whispering?"
部屋には他に誰もいません
The manager pointed at the computer in the room.
「誰にばれてるって言うんです? それにどうしてひそひそ声で?」
"Can he tell if I'm lying?"
マネージャーは 室内のコンピュータを指さして
Well, that manager was having an affair with the receptionist.
「僕の嘘 彼にばれてる?」
(Laughter)
実はこのマネージャー 受付係と浮気してたんです
And I was still a teenager.
(笑)
So I whisper-shouted back to him,
私はまだ10代でした
"Yes, the computer can tell if you're lying."
だからささやき声で 彼に叫び返しました
(Laughter)
「ええ コンピュータには お見通しですよ」って
Well, I laughed, but actually, the laugh's on me.
(笑)
Nowadays, there are computational systems
笑っちゃいましたが 実は その笑いは自分に返ってきました
that can suss out emotional states and even lying
今日 コンピュータ・システムは
from processing human faces.
人間の顔画像を処理することによって
Advertisers and even governments are very interested.
感情や 嘘まで見抜けるんです
I had become a computer programmer
広告主や 政府までもが 非常に関心を寄せています
because I was one of those kids crazy about math and science.
コンピュータプログラマーに 私がなったのは
But somewhere along the line I'd learned about nuclear weapons,
子どもの頃から数学と科学が 熱狂的に好きだったからです
and I'd gotten really concerned with the ethics of science.
しかしその過程で 核兵器についても学び
I was troubled.
科学の倫理について 非常に懸念するようになりました
However, because of family circumstances,
悩みました
I also needed to start working as soon as possible.
しかし 家庭の事情で
So I thought to myself, hey, let me pick a technical field
私はできるだけ早く 働き始めなければなりませんでした
where I can get a job easily
それでひそかに考えました 技術者として
and where I don't have to deal with any troublesome questions of ethics.
簡単に職が得られて
So I picked computers.
倫理という厄介な問題を何も 考えなくていい分野の仕事はないかと
(Laughter)
それで選んだのがコンピュータです
Well, ha, ha, ha! All the laughs are on me.
(笑)
Nowadays, computer scientists are building platforms
ハハ 笑っちゃう 自分のことを笑ってるんです
that control what a billion people see every day.
近頃 コンピュータ科学者は
They're developing cars that could decide who to run over.
10億人が毎日見ているものを制御する プラットフォームを作っています
They're even building machines, weapons,
誰をひき殺すか決定できる 車を開発しています
that might kill human beings in war.
戦争で人間を殺すかもしれないような
It's ethics all the way down.
機械や兵器さえも作っています
Machine intelligence is here.
全てにおいて重要になるのが倫理です
We're now using computation to make all sort of decisions,
機械知能は もう存在しています
but also new kinds of decisions.
私たちは今や コンピュータを使って あらゆる種類の決定を下し
We're asking questions to computation that have no single right answers,
さらに新しい類の決定も下します
that are subjective
私たちは 単一の正答がない問題の答えを コンピュータに尋ねています
and open-ended and value-laden.
その問題とは 主観的で
We're asking questions like,
オープンエンドで 価値観にかかわるものです
"Who should the company hire?"
私たちがする質問はこんなふうです
"Which update from which friend should you be shown?"
「誰を社員に採用すべきか?」
"Which convict is more likely to reoffend?"
「どの友達からの新着情報を 表示すべきか?」
"Which news item or movie should be recommended to people?"
「再犯する可能性の高い受刑者は誰か?」
Look, yes, we've been using computers for a while,
「人々に勧めるべき ニュースや映画はどれか?」
but this is different.
確かに私たちは しばらくの間 コンピュータを使ってきました
This is a historical twist,
しかしこれは違います
because we cannot anchor computation for such subjective decisions
これは歴史的なひずみです
the way we can anchor computation for flying airplanes, building bridges,
なぜならそのような主観的な決定を コンピュータには頼れないからです
going to the moon.
飛行機を飛ばしたり 建物を建てたり
Are airplanes safer? Did the bridge sway and fall?
月に行く場合とは違うんです
There, we have agreed-upon, fairly clear benchmarks,
飛行機の方が安全か? その橋は揺れたり落ちたりしたか?
and we have laws of nature to guide us.
そこでは合意された かなり明確な基準があり
We have no such anchors and benchmarks
自然の法則が私たちを導いてくれます
for decisions in messy human affairs.
私たちがそのような 支えや基準を何も持っていないのが
To make things more complicated, our software is getting more powerful,
人間くさい事柄における 厄介な決定についてです
but it's also getting less transparent and more complex.
もっと複雑なことに ソフトウェアは強力になりつつあります
Recently, in the past decade,
その一方で 透明性を減らし 複雑さを増してもいるのです
complex algorithms have made great strides.
ここ10年のあいだ
They can recognize human faces.
複雑なアルゴリズムは 大きく前進しました
They can decipher handwriting.
人間の顔を認識できます
They can detect credit card fraud
手書き文字を読み取れます
and block spam
クレジットカードの不正使用を探知し
and they can translate between languages.
スパムをブロックし
They can detect tumors in medical imaging.
言語の翻訳もできます
They can beat humans in chess and Go.
医用イメージングで 腫瘍を探しあてることもできます
Much of this progress comes from a method called "machine learning."
チェスや碁で人間を 打ち負かすこともできます
Machine learning is different than traditional programming,
この進歩の多くは 「機械学習」と 呼ばれる方法から成り立っています
where you give the computer detailed, exact, painstaking instructions.
機械学習は コンピュータに 詳細で正確、綿密な指示を与える―
It's more like you take the system and you feed it lots of data,
伝統的なプログラミングとは異なります
including unstructured data,
機械学習は システムに 大量のデータを しこたま詰め込むやり方です
like the kind we generate in our digital lives.
そこには非構造化データという
And the system learns by churning through this data.
人間がデジタルライフで 生成する類のものも含まれます
And also, crucially,
そしてシステムはこのデータを 組み合わせながら学習します
these systems don't operate under a single-answer logic.
そしてまた重要なことに
They don't produce a simple answer; it's more probabilistic:
これらのシステムは 答が単一になる論理で動いてはいません
"This one is probably more like what you're looking for."
単純に回答を与えるのではなく もっと確率論的です
Now, the upside is: this method is really powerful.
「これはおそらくあなたが 探しているものにより近いでしょう」
The head of Google's AI systems called it,
これの良い面は この方法が非常に強力であることです
"the unreasonable effectiveness of data."
GoogleのAIシステムのトップはこれを
The downside is,
「データの理不尽なほどの強力さ」 と呼んでいます
we don't really understand what the system learned.
このシステムの悪い面は
In fact, that's its power.
これが何を学習しているのか 私たちはそれほど理解していないことです
This is less like giving instructions to a computer;
実際 その強力さが問題なのです
it's more like training a puppy-machine-creature
これはコンピュータに 指示を与えるというよりは
we don't really understand or control.
むしろ子犬のような生き物として 訓練するようなものです
So this is our problem.
その機械をそれほど 理解も制御もできていないのにです
It's a problem when this artificial intelligence system gets things wrong.
これは問題です
It's also a problem when it gets things right,
この人工知能システムが 誤りを犯したときだけでなく
because we don't even know which is which when it's a subjective problem.
正しいことをした場合にも 問題が生じます
We don't know what this thing is thinking.
なぜなら主観的な問題の場合 私たちには正誤さえも分からないからです
So, consider a hiring algorithm --
私たちはこの物体が 何を考えているか知りません
a system used to hire people, using machine-learning systems.
ですから たとえば雇用アルゴリズムを 考えてみましょう
Such a system would have been trained on previous employees' data
社員を雇う際に使われるシステムで 機械学習システムを使っています
and instructed to find and hire
そのようなシステムは過去の従業員の データに基づいて訓練されています
people like the existing high performers in the company.
そしてそのシステムが指示するのは
Sounds good.
その会社に在籍する業績優秀者に似た 人材を探し雇うことです
I once attended a conference
良さそうですね
that brought together human resources managers and executives,
以前ある会議に 出席した折のことですが
high-level people,
そこには人事部のマネージャーと 執行役が集まっていました
using such systems in hiring.
高い職位の人たちで
They were super excited.
そのようなシステムを 雇用に活用しています
They thought that this would make hiring more objective, less biased,
彼らは非常にワクワクしていました
and give women and minorities a better shot
彼らの考えでは このシステムは より客観的で偏見の少ない雇用を行い
against biased human managers.
マネージャーの偏見に対して 女性や少数派の人々に
And look -- human hiring is biased.
より良い機会を与えるものでした
I know.
そうです 雇用には偏見が混じるのです
I mean, in one of my early jobs as a programmer,
私は知っています
my immediate manager would sometimes come down to where I was
ある職場で プログラマーとして 働きだした頃
really early in the morning or really late in the afternoon,
直属のマネージャーが 時々私のところに来ました
and she'd say, "Zeynep, let's go to lunch!"
それも早朝とか夕方にです
I'd be puzzled by the weird timing.
そして彼女はこう言うんです 「ゼイナップ ランチ行きましょ」
It's 4pm. Lunch?
おかしなタイミングで 全く訳が分かりませんでした
I was broke, so free lunch. I always went.
午後4時にランチ?
I later realized what was happening.
私はお金がなかったので おごりでした いつも行きました
My immediate managers had not confessed to their higher-ups
後で何が起こっていたのか悟りました
that the programmer they hired for a serious job was a teen girl
直属のマネージャーは上層部に
who wore jeans and sneakers to work.
重要な仕事のために雇ったのが
I was doing a good job, I just looked wrong
ジーンズとスニーカーで仕事をする 10代女子だと言ってなかったんです
and was the wrong age and gender.
私は良い仕事ぶりだったのに 体裁が悪くて
So hiring in a gender- and race-blind way
年齢や性別の点でも 良くなかったんです
certainly sounds good to me.
ですから性別や人種に 惑わされない形での雇用は
But with these systems, it is more complicated, and here's why:
非常に良いことだと 私には思えます
Currently, computational systems can infer all sorts of things about you
でもこのシステムを用いると 事態はより複雑になります なぜなら
from your digital crumbs,
現在コンピュータシステムは あなたに関するあらゆる類のことを
even if you have not disclosed those things.
デジタル情報の断片から 推測できるからです
They can infer your sexual orientation,
自分が開示していなくてもです
your personality traits,
システムはあなたの性的志向や
your political leanings.
性格特徴や
They have predictive power with high levels of accuracy.
政治的傾向を推測できます
Remember -- for things you haven't even disclosed.
システムは高水準の正確さで 予測する力を持っています
This is inference.
思い出してください 開示さえしていない事柄をですよ
I have a friend who developed such computational systems
これが推測です
to predict the likelihood of clinical or postpartum depression
ある友達は そのようなコンピュータシステムを
from social media data.
病的な あるいは産後の 抑うつの可能性を 予測するために開発しています
The results are impressive.
SNSのデータを用いるんです
Her system can predict the likelihood of depression
結果は素晴らしいです
months before the onset of any symptoms --
彼女のシステムは うつ罹患の可能性を
months before.
症状が現れる数か月前に 予測できるのです
No symptoms, there's prediction.
数か月も前ですよ
She hopes it will be used for early intervention. Great!
症状が全くない段階での予測です
But now put this in the context of hiring.
彼女はこれを早期介入のために 活用したがっています 素晴らしい!
So at this human resources managers conference,
でもこれを雇用の文脈で 考えてみましょう
I approached a high-level manager in a very large company,
例の 人事マネージャーの会議では
and I said to her, "Look, what if, unbeknownst to you,
私はある非常に大きな企業の 高職位のマネージャーに近づき
your system is weeding out people with high future likelihood of depression?
こう言いました 「まだご存じないこととは思いますが
They're not depressed now, just maybe in the future, more likely.
もしそのシステムが 将来うつになる可能性が 高い人を排除しているとしたらどうでしょう?
What if it's weeding out women more likely to be pregnant
今ではなく 将来そうなる可能性が高い人です
in the next year or two but aren't pregnant now?
妊娠する可能性の 高い女性を排除しているとしたら?
What if it's hiring aggressive people because that's your workplace culture?"
来年か再来年のことで 今は妊娠していない場合ですよ?
You can't tell this by looking at gender breakdowns.
もし職場の文化に合っているからと 攻撃的な人が雇われたらどうします?」
Those may be balanced.
性別の構成からは そのことを読み取れません
And since this is machine learning, not traditional coding,
構成比はバランスが取れています
there is no variable there labeled "higher risk of depression,"
これは機械学習で 伝統的なプログラムではないので
"higher risk of pregnancy,"
たとえば「うつハイリスク」とか 「妊娠ハイリスク」
"aggressive guy scale."
「攻撃的な人物度」
Not only do you not know what your system is selecting on,
などの変数は登場しません
you don't even know where to begin to look.
システムが何に基づいて選択しているのか 分からないばかりか
It's a black box.
どうすれば分かるのかの 手がかりもありません
It has predictive power, but you don't understand it.
ブラックボックスなんです
"What safeguards," I asked, "do you have
システムには予測力がありますが 人間には理解できない代物です
to make sure that your black box isn't doing something shady?"
「どんな安全対策をしていますか?
She looked at me as if I had just stepped on 10 puppy tails.
あなたのブラックボックスが やましいことをしないようにです」
(Laughter)
彼女は子犬の尻尾を10匹分も踏みつけた 人でなしを見るかのような顔になりました
She stared at me and she said,
(笑)
"I don't want to hear another word about this."
彼女は私をじっと見て言いました
And she turned around and walked away.
「これについては もう何も聞きたくない」
Mind you -- she wasn't rude.
そして彼女は踵を返して 行ってしまいました
It was clearly: what I don't know isn't my problem, go away, death stare.
彼女が失礼なわけではありません
(Laughter)
明らかに 聞かなかったことにしたい あっち行ってという憎悪の眼差しでした
Look, such a system may even be less biased
(笑)
than human managers in some ways.
いいですか そのようなシステムは ある意味 偏見の程度は
And it could make monetary sense.
人間のマネージャーよりは 少ないかもしれません
But it could also lead
費用の面でも 理にかなっているでしょう
to a steady but stealthy shutting out of the job market
でもそれはまた
of people with higher risk of depression.
ひそやかながら確実に 労働市場からの
Is this the kind of society we want to build,
うつハイリスク者の締め出しに つながりかねません
without even knowing we've done this,
これが私たちの築きたい 社会の姿でしょうか?
because we turned decision-making to machines we don't totally understand?
こんなことをしていることさえ 私たちは知らないんです
Another problem is this:
完全には理解していない機械に 意思決定をさせているんですからね
these systems are often trained on data generated by our actions,
もう1つの問題はこれです
human imprints.
このようなシステムの訓練は往々にして 人間の行動データに基づいています
Well, they could just be reflecting our biases,
人間らしさが刻み込まれています
and these systems could be picking up on our biases
それらは私たちの偏見を 反映している可能性があり
and amplifying them
これらのシステムは 私たちの偏見を拾い上げ
and showing them back to us,
それを増幅して
while we're telling ourselves,
私たちに示し返しかねません
"We're just doing objective, neutral computation."
私たちはこんな言いっぷりなのにですよ
Researchers found that on Google,
「私たちはまさしく客観的です 中立的なコンピューティングですから」
women are less likely than men to be shown job ads for high-paying jobs.
研究者たちは Googleにおいて
And searching for African-American names
女性には 高給の求人広告が 表示されにくいことを見出しました
is more likely to bring up ads suggesting criminal history,
また アフリカ系アメリカ人の 名前を検索すると
even when there is none.
犯罪歴をほのめかす広告が 高確率で表示されます
Such hidden biases and black-box algorithms
犯罪歴がない人の場合でもそうです
that researchers uncover sometimes but sometimes we don't know,
そのような隠れた偏見と ブラックボックスのアルゴリズムを
can have life-altering consequences.
研究者が暴くこともありますが 知られない場合もあります
In Wisconsin, a defendant was sentenced to six years in prison
それらは人生を 変える結果になりうるのです
for evading the police.
ウィスコンシンで ある被告が 刑期6年の判決を受けました
You may not know this,
警察官から逃げたためです
but algorithms are increasingly used in parole and sentencing decisions.
ご存知ないかもしれませんが
He wanted to know: How is this score calculated?
仮釈放や判決の決定においても アルゴリズムの使用が増えています
It's a commercial black box.
彼はこのスコアが計算される仕組みを 知りたいと思いました
The company refused to have its algorithm be challenged in open court.
それは商用のブラックボックスです
But ProPublica, an investigative nonprofit, audited that very algorithm
企業はアルゴリズムが 公開の法廷で検証されるのを拒みました
with what public data they could find,
でもProPublicaという非営利の調査団体が そのアルゴリズムを監査しました
and found that its outcomes were biased
入手可能だった 公開データを用いてです
and its predictive power was dismal, barely better than chance,
そして分かったのは 結果には偏見が影響しており
and it was wrongly labeling black defendants as future criminals
予測力はひどいものでした 偶然よりわずかにましな程度です
at twice the rate of white defendants.
黒人の被告は 白人の被告に比べて 将来犯罪を起こす確率が
So, consider this case:
2倍高いと 誤ってラベリングされていました
This woman was late picking up her godsister
ではこのケースを考えてみましょう
from a school in Broward County, Florida,
女性のほうは予定より遅れて 親友を迎えに行くため
running down the street with a friend of hers.
フロリダ州ブロワード郡の ある学校に向かって
They spotted an unlocked kid's bike and a scooter on a porch
友達と一緒に道を走っていました
and foolishly jumped on it.
ふたりはある家の玄関で 無施錠の 子ども用の自転車とキックスケーターを見つけ
As they were speeding off, a woman came out and said,
愚かにもそれに飛び乗りました
"Hey! That's my kid's bike!"
走り去ろうとしたところ 女性が出てきて言いました
They dropped it, they walked away, but they were arrested.
「ちょっと! それはうちの子の自転車よ!」
She was wrong, she was foolish, but she was also just 18.
ふたりは降りて 歩き去りましたが 逮捕されました
She had a couple of juvenile misdemeanors.
彼女は間違っていたし愚かでした でもまだ18歳です
Meanwhile, that man had been arrested for shoplifting in Home Depot --
彼女は2回の非行歴がありました
85 dollars' worth of stuff, a similar petty crime.
一方 男性のほうは Home Depoで 万引きをして捕まりました
But he had two prior armed robbery convictions.
彼が万引きしたのは85ドル相当で 同じく軽犯罪ですが
But the algorithm scored her as high risk, and not him.
彼は強盗で前科2犯でした
Two years later, ProPublica found that she had not reoffended.
でもアルゴリズムは 男性ではなく 女性の方をハイリスクと評価しました
It was just hard to get a job for her with her record.
その女性が2年後に再犯していないことを ProPiblicaは明らかにしています
He, on the other hand, did reoffend
犯罪記録をもつ彼女が 職を得るのは実に困難でした
and is now serving an eight-year prison term for a later crime.
一方 男性の方は再犯し
Clearly, we need to audit our black boxes
2つ目の犯罪のために 現在は8年間の収監中です
and not have them have this kind of unchecked power.
ブラックボックスに対して 監査が必要なのは明白です
(Applause)
チェックしないままこの種の権力を 与えてはいけないのです
Audits are great and important, but they don't solve all our problems.
(拍手)
Take Facebook's powerful news feed algorithm --
監査は偉大で重要ですが それで全ての問題を解決できはしません
you know, the one that ranks everything and decides what to show you
Facebookのニュース・フィードの 強力なアルゴリズムの場合
from all the friends and pages you follow.
全てをランク付けし 全ての友達やフォロー中のページのなかで
Should you be shown another baby picture?
何を見るべきか決定する仕組みですね
(Laughter)
赤ちゃんの写真をもう1枚見るべきか?
A sullen note from an acquaintance?
(笑)
An important but difficult news item?
知り合いからの ご機嫌斜めのコメントは?
There's no right answer.
重要だけど難解なニュース記事は?
Facebook optimizes for engagement on the site:
正答はありません
likes, shares, comments.
Facebookはサイト上での やりとりに応じて最適化します
In August of 2014,
「いいね」やシェア コメント といったものです
protests broke out in Ferguson, Missouri,
2014年8月
after the killing of an African-American teenager by a white police officer,
ミズーリ州ファーガソンで 抗議運動が勃発しました
under murky circumstances.
アフリカ系アメリカ人の10代が 白人の警察官に殺され
The news of the protests was all over
その状況が不審だったのです
my algorithmically unfiltered Twitter feed,
抗議運動のニュースは
but nowhere on my Facebook.
フィルタリングされない Twitterフィードを埋め尽くしました
Was it my Facebook friends?
でもFacebookには何ら 表示されませんでした
I disabled Facebook's algorithm,
Facebook上の友達との 関連でしょうか?
which is hard because Facebook keeps wanting to make you
私はFacebookのアルゴリズムを 無効にしました
come under the algorithm's control,
Facebookはアルゴリズムの 管理下に置きたがるので
and saw that my friends were talking about it.
難しかったですけどね
It's just that the algorithm wasn't showing it to me.
すると友達が 抗議運動のことを 話しているのが分かりました
I researched this and found this was a widespread problem.
アルゴリズムが私に 見せなかっただけなんです
The story of Ferguson wasn't algorithm-friendly.
調査して分かりましたが これは広範囲にわたる問題でした
It's not "likable."
ファーガソンの話題は アルゴリズムに馴染まなかったんです
Who's going to click on "like?"
「いいね」しにくいのです
It's not even easy to comment on.
誰が「いいね」します?
Without likes and comments,
コメントをするのさえ 容易じゃありません
the algorithm was likely showing it to even fewer people,
「いいね」もコメントもないので
so we didn't get to see this.
アルゴリズムは少数の人にしか それを表示しません
Instead, that week,
だから目にすることがなかったんです
Facebook's algorithm highlighted this,
そのかわり その週
which is the ALS Ice Bucket Challenge.
Facebookのアルゴリズムが ハイライトしたのは
Worthy cause; dump ice water, donate to charity, fine.
ALSアイス・バケツ・チャレンジでした
But it was super algorithm-friendly.
価値のある目的で氷水をかぶり チャリティに寄付 良いですね
The machine made this decision for us.
でも極めてよく アルゴリズムに馴染みます
A very important but difficult conversation
機械が私たちのために これを決定したんです
might have been smothered,
非常に重要だけれど難解な会話は
had Facebook been the only channel.
Facebookが唯一の経路の場合
Now, finally, these systems can also be wrong
抑え込まれてきたのかもしれません
in ways that don't resemble human systems.
さて最後にこれらのシステムは
Do you guys remember Watson, IBM's machine-intelligence system
人間のシステムとは似つかない誤りを 犯しうるのです
that wiped the floor with human contestants on Jeopardy?
皆さんはワトソンを覚えていますか IBMの機械知能システムで
It was a great player.
クイズ番組『ジェパディ!』で 対戦相手の人間を打ち負かしました
But then, for Final Jeopardy, Watson was asked this question:
すごい選手だったんです
"Its largest airport is named for a World War II hero,
しかし最終問題で ワトソンは こんな質問をされました
its second-largest for a World War II battle."
「その地域最大の空港の名は 第二次世界大戦の英雄に由来し
(Hums Final Jeopardy music)
2番目の空港の名の由来は 第二次世界大戦中の戦いです」
Chicago.
(最終問題の音楽をハミング)
The two humans got it right.
「シカゴ」
Watson, on the other hand, answered "Toronto" --
人間ふたりは正答でした
for a US city category!
一方ワトソンの答えは 「トロント」
The impressive system also made an error
米国の都市についての 問題だったのに!
that a human would never make, a second-grader wouldn't make.
この素晴らしいシステムも エラーをするんです
Our machine intelligence can fail
人間はしないようなエラーです 2年生の子どもでもしません
in ways that don't fit error patterns of humans,
機械知能は失敗を犯すこともあるんです
in ways we won't expect and be prepared for.
人間のエラーパターンとは 異なります
It'd be lousy not to get a job one is qualified for,
予想外であり 備えもできないような方法です
but it would triple suck if it was because of stack overflow
資質のある人が仕事を得られないのも ひどい話ですが
in some subroutine.
もしそれがプログラムのサブルーチンに伴う スタックオーバーフローが原因なら
(Laughter)
3倍ひどい話です
In May of 2010,
(笑)
a flash crash on Wall Street fueled by a feedback loop
2010年5月
in Wall Street's "sell" algorithm
ウォールストリートの 「売り」アルゴリズムでの
wiped a trillion dollars of value in 36 minutes.
フィードバックループによって 瞬間暴落が起き
I don't even want to think what "error" means
36分間で1兆ドル相当の 損失が出ました
in the context of lethal autonomous weapons.
「エラー」の意味を 考えたくもないのが
So yes, humans have always made biases.
無人攻撃機の場合です
Decision makers and gatekeepers,
ええ人間には 偏見がつきものです
in courts, in news, in war ...
意思決定者やゲートキーパー
they make mistakes; but that's exactly my point.
法廷、ニュース、戦争・・・
We cannot escape these difficult questions.
そこではミスが生じますが これこそ私の言いたいことです
We cannot outsource our responsibilities to machines.
これらの難問から 私たちは逃れられません
(Applause)
私たちは責任を 機械に外部委託することはできないのです
Artificial intelligence does not give us a "Get out of ethics free" card.
(拍手)
Data scientist Fred Benenson calls this math-washing.
人工知能は「倫理問題からの解放」カードを 私たちにくれたりしません
We need the opposite.
データ科学者のフレッド・ベネンソンは これを数学による洗脳だと呼びました
We need to cultivate algorithm suspicion, scrutiny and investigation.
私たちに必要なのは逆のものです
We need to make sure we have algorithmic accountability,
私たちはアルゴリズムを疑い 精査するようにならねばなりません
auditing and meaningful transparency.
私たちは アルゴリズムについての 説明責任を持ち
We need to accept that bringing math and computation
監査や意味のある透明化を 求めなければなりません
to messy, value-laden human affairs
私たちは厄介で価値観にかかわる 人間くさい事柄に対して
does not bring objectivity;
数学や計算機は 客観性をもたらしえないことを
rather, the complexity of human affairs invades the algorithms.
受け入れなければなりません
Yes, we can and we should use computation
むしろ人間くささのもつ複雑さが アルゴリズムを管理するのです
to help us make better decisions.
確かに私たちは コンピュータを 良い決断を下す助けとして
But we have to own up to our moral responsibility to judgment,
使いうるし そうすべきです
and use algorithms within that framework,
でも私たちは判断を下すことへの 自分の道徳的な責任を認め
not as a means to abdicate and outsource our responsibilities
そしてアルゴリズムを その枠内で用いなければなりません
to one another as human to human.
自分の責任を放棄して 別の人間へ委ねることとは
Machine intelligence is here.
異なるのです
That means we must hold on ever tighter
機械知能はもう存在しています
to human values and human ethics.
つまり私たちは 人間としての価値観や倫理感を
Thank you.
よりしっかり持たねばなりません
(Applause)
ありがとうございました