字幕表 動画を再生する
Algorithms are everywhere.
翻訳: Kazunori Akashi 校正: Yasushi Aoki
They sort and separate the winners from the losers.
アルゴリズムは どこにでもあります
The winners get the job
アルゴリズムが勝者と敗者を分けます
or a good credit card offer.
勝者は仕事を手に入れ
The losers don't even get an interview
有利なクレジットカードを 申し込めます
or they pay more for insurance.
一方 敗者は就職面接すら受けられず
We're being scored with secret formulas that we don't understand
保険料は より高くなります
that often don't have systems of appeal.
私たちは 理解できない上に 不服申し立ての機会もない—
That begs the question:
秘密の数式によって 格付けされているのです
What if the algorithms are wrong?
そこで疑問が湧いてきます
To build an algorithm you need two things:
もしアルゴリズムが間違っていたら?
you need data, what happened in the past,
アルゴリズムを作る時 必要なものが2つあります
and a definition of success,
データ つまり過去の出来事の記録と
the thing you're looking for and often hoping for.
人が追い求める「成功」を 定義する基準です
You train an algorithm by looking, figuring out.
人が追い求める「成功」を 定義する基準です
The algorithm figures out what is associated with success.
そして観察と理解を通して アルゴリズムを訓練します
What situation leads to success?
アルゴリズムに 成功と関係する要素を 理解させるためです
Actually, everyone uses algorithms.
どんな状況が 成功に繋がるのでしょう?
They just don't formalize them in written code.
実は アルゴリズムは 誰でも使っています
Let me give you an example.
プログラムに書かないだけです
I use an algorithm every day to make a meal for my family.
1つ例を挙げましょう
The data I use
私は毎日アルゴリズムを使って 家族の食事を用意します
is the ingredients in my kitchen,
私が利用するデータは
the time I have,
台所にどんな材料があるか
the ambition I have,
どれだけ時間をかけられるか
and I curate that data.
どれだけ料理に凝るかで
I don't count those little packages of ramen noodles as food.
私はそのデータをまとめます
(Laughter)
ちなみにインスタントラーメンは 食べ物とは認めません
My definition of success is:
(笑)
a meal is successful if my kids eat vegetables.
私にとって成功の基準は
It's very different from if my youngest son were in charge.
子供たちが野菜を食べることです
He'd say success is if he gets to eat lots of Nutella.
もし下の息子が決めるなら 基準はガラッと変わり
But I get to choose success.
「いっぱいチョコナッツクリームを 食べられれば成功」と言うでしょう
I am in charge. My opinion matters.
でも基準を決めるのは私です
That's the first rule of algorithms.
責任者は私で 私の意見が重要なんですから
Algorithms are opinions embedded in code.
これがアルゴリズムの第1のルールです
It's really different from what you think most people think of algorithms.
アルゴリズムとはプログラムに 埋め込まれた意見なのです
They think algorithms are objective and true and scientific.
これは ほとんどの人が持つ アルゴリズムのイメージとはかけ離れています
That's a marketing trick.
人々はアルゴリズムが客観的で正しく 科学的なものと思っていますが
It's also a marketing trick
それはマーケティング上のトリックです
to intimidate you with algorithms,
アルゴリズムで人を怯ませるのも
to make you trust and fear algorithms
マーケティングのトリックですし
because you trust and fear mathematics.
アルゴリズムを信用させたり 恐れさせたりするのもそう
A lot can go wrong when we put blind faith in big data.
皆 数学を恐れつつ信用していますから
This is Kiri Soares. She's a high school principal in Brooklyn.
ビッグデータを盲信すると いろいろな問題が生じかねません
In 2011, she told me her teachers were being scored
彼女はキリ・ソアーズ ブルックリンの高校で校長をしています
with a complex, secret algorithm
2011年に彼女が教えてくれたのですが 彼女の学校では
called the "value-added model."
「付加価値モデル」という 複雑な秘密のアルゴリズムで
I told her, "Well, figure out what the formula is, show it to me.
教員が評価されている ということでした
I'm going to explain it to you."
私は こう伝えました 「数式を調べてみましょう
She said, "Well, I tried to get the formula,
見せてくれれば説明しますよ」
but my Department of Education contact told me it was math
すると彼女は 「数式を入手しようとしたら
and I wouldn't understand it."
市教育局の担当者に『これは数学ですよ 理解できないでしょう』と
It gets worse.
言われたんです」
The New York Post filed a Freedom of Information Act request,
事態はさらに深刻化します
got all the teachers' names and all their scores
ニューヨーク・ポスト紙が 情報自由法に基づく開示請求をして
and they published them as an act of teacher-shaming.
ニューヨーク市の全教員の 名前とスコアを手に入れ
When I tried to get the formulas, the source code, through the same means,
教員を辱めるような データを公表しました
I was told I couldn't.
一方 私がソース・コードを 同じ方法で手に入れようとしたところ
I was denied.
無理だと言われました
I later found out
却下されたのです
that nobody in New York City had access to that formula.
後にわかったことですが
No one understood it.
ニューヨーク市で その数式を 見られる人は誰もおらず
Then someone really smart got involved, Gary Rubinstein.
誰も理解していなかったのです
He found 665 teachers from that New York Post data
その後 ゲイリー・ルービンスタインという 頭のキレる人物が登場します
that actually had two scores.
彼はニューヨーク・ポスト紙のデータから
That could happen if they were teaching
2種類のスコアを持っている 教員665名を見つけ出しました
seventh grade math and eighth grade math.
それに該当するのは 例えば
He decided to plot them.
数学を7年生と8年生で 教えている場合です
Each dot represents a teacher.
彼は2種類のスコアを散布図にしました
(Laughter)
点はそれぞれ 先生を表します
What is that?
(笑)
(Laughter)
これは どういうことでしょう?
That should never have been used for individual assessment.
(笑)
It's almost a random number generator.
こんなものを教員の個人評価に 使ってはいけません
(Applause)
まるで乱数発生器じゃないですか
But it was.
(拍手)
This is Sarah Wysocki.
でも実際に使われたんです
She got fired, along with 205 other teachers,
彼女はサラ・ワイサキ
from the Washington, DC school district,
他の205人のワシントンD.C.学区の 先生たちと共に
even though she had great recommendations from her principal
解雇されました
and the parents of her kids.
校長や保護者からの評価は 非常に高かったのにです
I know what a lot of you guys are thinking,
校長や保護者からの評価は 非常に高かったのにです
especially the data scientists, the AI experts here.
皆さんが今 考えていることは わかります
You're thinking, "Well, I would never make an algorithm that inconsistent."
特にデータサイエンティストや AIの専門家なら思うでしょう
But algorithms can go wrong,
「自分なら そんなデタラメな アルゴリズムは作らない」って
even have deeply destructive effects with good intentions.
でもアルゴリズムは誤ることもあれば
And whereas an airplane that's designed badly
善意に基づいていても 破壊的な影響を及ぼすことだってあります
crashes to the earth and everyone sees it,
飛行機なら 設計がまずければ
an algorithm designed badly
墜落しますし その様子が見えますが
can go on for a long time, silently wreaking havoc.
アルゴリズムだと設計がまずくても
This is Roger Ailes.
長期間に渡って 音もなく 大惨事をもたらし続けかねないんです
(Laughter)
彼はロジャー・エイルズ
He founded Fox News in 1996.
(笑)
More than 20 women complained about sexual harassment.
1996年にFOXニュースを創設しました
They said they weren't allowed to succeed at Fox News.
20人以上の女性が セクハラ被害を訴えました
He was ousted last year, but we've seen recently
またキャリアアップを 妨害されたそうです
that the problems have persisted.
彼自身は2016年に地位を追われましたが
That begs the question:
最近のニュースにある通り 問題は依然残っています
What should Fox News do to turn over another leaf?
ここで疑問が湧いてきます
Well, what if they replaced their hiring process
再起をはかるために FOXニュースは何をすべきか?
with a machine-learning algorithm?
人材採用プロセスを 機械学習アルゴリズムに
That sounds good, right?
替えるのはどうでしょう?
Think about it.
いいアイデアでしょう?
The data, what would the data be?
検討してみましょう
A reasonable choice would be the last 21 years of applications to Fox News.
まずデータには 何が使えるでしょう?
Reasonable.
過去21年間に FOXニュースに送られた 履歴書がいいでしょう
What about the definition of success?
妥当なデータです
Reasonable choice would be,
では成功の基準は?
well, who is successful at Fox News?
妥当な基準は…
I guess someone who, say, stayed there for four years
どんな人がFOXニュースで 成功するんでしょう?
and was promoted at least once.
例えば 4年在職して 最低1回は昇進していれば
Sounds reasonable.
成功と言えそうです
And then the algorithm would be trained.
妥当な基準です
It would be trained to look for people to learn what led to success,
それをアルゴリズムに学習させます
what kind of applications historically led to success
人々を探って 何が成功につながるか—
by that definition.
これまで どんな履歴書が 成功に繋がってきたのかを
Now think about what would happen
この基準に従って学習させるのです
if we applied that to a current pool of applicants.
さて このアルゴリズムを
It would filter out women
現在の就職希望者に 当てはめると どうなるでしょう?
because they do not look like people who were successful in the past.
まず女性は除外されるでしょう
Algorithms don't make things fair
過去に成功してきたようには 見えないからです
if you just blithely, blindly apply algorithms.
配慮もなく やみくもに アルゴリズムを適用しても
They don't make things fair.
物事は公平にはならないんです
They repeat our past practices,
アルゴリズムは公平を生みません
our patterns.
過去の行為や行動パターンを
They automate the status quo.
繰り返し
That would be great if we had a perfect world,
自動的に現状を維持するだけです
but we don't.
この世界が完璧なら それでいいんでしょうが
And I'll add that most companies don't have embarrassing lawsuits,
そうではありません
but the data scientists in those companies
さらに付け加えると ほとんどの企業は みっともない裁判を抱えている訳ではありませんが
are told to follow the data,
こういった企業にいる データサイエンティストは
to focus on accuracy.
正確性に焦点を当て
Think about what that means.
データに従うよう指示されています
Because we all have bias, it means they could be codifying sexism
その意味を考えてみましょう
or any other kind of bigotry.
誰でもバイアスを持っているので
Thought experiment,
アルゴリズムに性差別や その他の偏見が コード化されている可能性があります
because I like them:
思考実験をしてみましょう
an entirely segregated society --
私は思考実験が好きなので
racially segregated, all towns, all neighborhoods
人種を完全に隔離した 社会があるとします
and where we send the police only to the minority neighborhoods
どの街でも どの地域でも 人種は隔離され
to look for crime.
犯罪を見つけるために 警察を送り込むのは
The arrest data would be very biased.
マイノリティーが住む地域だけです
What if, on top of that, we found the data scientists
すると逮捕者のデータは かなり偏ったものになるでしょう
and paid the data scientists to predict where the next crime would occur?
さらに データサイエンティストを 探してきて
Minority neighborhood.
報酬を払い 次の犯罪が起こる場所を 予測させたらどうなるでしょう?
Or to predict who the next criminal would be?
マイノリティーの地域になります
A minority.
あるいは 次に犯罪を犯しそうな人を 予測させたら?
The data scientists would brag about how great and how accurate
マイノリティーでしょうね
their model would be,
データサイエンティストは モデルの素晴らしさと正確さを
and they'd be right.
自慢するでしょうし
Now, reality isn't that drastic, but we do have severe segregations
確かにその通りでしょう
in many cities and towns,
さて 現実はそこまで極端ではありませんが
and we have plenty of evidence
実際に多くの市や町で 深刻な人種差別があり
of biased policing and justice system data.
警察の活動や司法制度のデータが 偏っているという
And we actually do predict hotspots,
証拠が揃っています
places where crimes will occur.
実際にホットスポットと呼ばれる 犯罪多発地域を
And we do predict, in fact, the individual criminality,
予測しています
the criminality of individuals.
さらには個々人の犯罪傾向を
The news organization ProPublica recently looked into
実際に予測しています
one of those "recidivism risk" algorithms,
報道組織プロパブリカが最近 いわゆる「再犯リスク」アルゴリズムの
as they're called,
1つを取り上げ調査しました
being used in Florida during sentencing by judges.
1つを取り上げ調査しました
Bernard, on the left, the black man, was scored a 10 out of 10.
フロリダ州で 判事による 量刑手続に使われているものです
Dylan, on the right, 3 out of 10.
左側の黒人男性バーナードのスコアは 10点満点の10点で
10 out of 10, high risk. 3 out of 10, low risk.
右の白人ディランは3点でした
They were both brought in for drug possession.
10点中10点はハイリスクで 3点はローリスクです
They both had records,
2人とも麻薬所持で逮捕され
but Dylan had a felony
どちらも前科はありましたが
but Bernard didn't.
3点のディランには重罪の前科があり
This matters, because the higher score you are,
10点のバーナードにはありませんでした
the more likely you're being given a longer sentence.
これが重要な理由は スコアが高ければ高いほど
What's going on?
刑期が長くなる 傾向があるからです
Data laundering.
どうなっているのでしょう?
It's a process by which technologists hide ugly truths
これは「データ・ロンダリング」です
inside black box algorithms
このプロセスを通して 技術者が ブラックボックスのようなアルゴリズムの内部に
and call them objective;
醜い現実を隠し
call them meritocratic.
「客観的」とか
When they're secret, important and destructive,
「能力主義」と称しているんです
I've coined a term for these algorithms:
秘密にされている 重要で破壊的なアルゴリズムを
"weapons of math destruction."
私はこんな名前で呼んでいます
(Laughter)
「大量破壊数学」です
(Applause)
(笑)
They're everywhere, and it's not a mistake.
(拍手)
These are private companies building private algorithms
それは間違いなく どこにでも存在します
for private ends.
民間企業が 私的なアルゴリズムを 私的な目的で
Even the ones I talked about for teachers and the public police,
作っているんです
those were built by private companies
先程お話しした 教員や警察向けのアルゴリズムでさえ
and sold to the government institutions.
民間企業が制作し
They call it their "secret sauce" --
政府機関に販売したものです
that's why they can't tell us about it.
アルゴリズムは 「秘伝のタレ」だから
It's also private power.
公開できないと 企業側は主張します
They are profiting for wielding the authority of the inscrutable.
また アルゴリズムは私的な権力です
Now you might think, since all this stuff is private
この謎めいた存在が持つ権威を振りかざして 企業は利益を得ています
and there's competition,
ただ こう思うかもしれません アルゴリズムが民間のものなら
maybe the free market will solve this problem.
競争があるので
It won't.
自由市場の力が 問題を解決するのではないか…
There's a lot of money to be made in unfairness.
でも そうはいきません
Also, we're not economic rational agents.
不公平は大きな利益を 生み出しますから
We all are biased.
それに我々人間は 合理的経済人ではなく
We're all racist and bigoted in ways that we wish we weren't,
誰もがバイアスを持っています
in ways that we don't even know.
私たちは 自分が望みも 気づきもしない形で
We know this, though, in aggregate,
差別や偏見を持っているのです
because sociologists have consistently demonstrated this
全体を俯瞰して見ると そのことがわかります
with these experiments they build,
なぜなら社会学者が 考案した実験を通して
where they send a bunch of applications to jobs out,
一貫して実証されてきたからです
equally qualified but some have white-sounding names
その実験では研究者が 履歴書を大量に送付しました
and some have black-sounding names,
同じように資格は満たしていますが 一部は白人っぽい名前で
and it's always disappointing, the results -- always.
一部は黒人っぽい名前
So we are the ones that are biased,
そして結果は 常にがっかりするものでした
and we are injecting those biases into the algorithms
つまりバイアスがあるのは私たちで
by choosing what data to collect,
どんなデータを集め選ぶかによって
like I chose not to think about ramen noodles --
そのバイアスをアルゴリズムに 注入しているんです
I decided it was irrelevant.
これは私がインスタントラーメンを 含めないのと同じで
But by trusting the data that's actually picking up on past practices
不適切だと決めたのは 私なんです
and by choosing the definition of success,
しかし実際に過去の行動を元にした データを信頼し
how can we expect the algorithms to emerge unscathed?
成功の基準を恣意的に選びながら
We can't. We have to check them.
どうして欠陥のないアルゴリズムを 期待できるのでしょう?
We have to check them for fairness.
それは無理です チェックが必要なんです
The good news is, we can check them for fairness.
公平性を確かめる必要があるんです
Algorithms can be interrogated,
幸い公正性は確認できます
and they will tell us the truth every time.
アルゴリズムに問いただせば
And we can fix them. We can make them better.
常に本当のことしか 答えないので
I call this an algorithmic audit,
修正を加え より良いものに 作り替えられます
and I'll walk you through it.
私は これを アルゴリズム監査と呼んでいます
First, data integrity check.
その手順を説明しましょう
For the recidivism risk algorithm I talked about,
まずはデータ完全性チェックです
a data integrity check would mean we'd have to come to terms with the fact
先ほど登場した 再犯リスク・アルゴリズムの場合—
that in the US, whites and blacks smoke pot at the same rate
データ完全性チェックとは 事実を直視するという意味になるでしょう
but blacks are far more likely to be arrested --
例えばアメリカでは 大麻の使用率は 白人と黒人で同じなのに
four or five times more likely, depending on the area.
逮捕される割合は 黒人の方がはるかに高く
What is that bias looking like in other crime categories,
地域によっては 4〜5倍になるという事実があります
and how do we account for it?
このようなバイアスは 他の犯罪では どんな形で表れ
Second, we should think about the definition of success,
私たちは それを どう説明したらいいでしょうか?
audit that.
次に 私たちは成功の基準について 考えなければなりません
Remember -- with the hiring algorithm? We talked about it.
その基準を監査するのです
Someone who stays for four years and is promoted once?
採用アルゴリズムを 思い出してください
Well, that is a successful employee,
勤続年数が4年で 昇進1回の人はどうだったでしょう
but it's also an employee that is supported by their culture.
その人は成功した社員でしょうが
That said, also it can be quite biased.
同時に その会社の文化に 支持されたとも言えます
We need to separate those two things.
ただ その文化に バイアスがあるかもしれないので
We should look to the blind orchestra audition
この2つは分けて考える必要があります
as an example.
一つの例として オーケストラの ブラインド・オーディションを見るべきでしょう
That's where the people auditioning are behind a sheet.
一つの例として オーケストラの ブラインド・オーディションを見るべきでしょう
What I want to think about there
オーディションを受ける人は 衝立の向こうにいます
is the people who are listening have decided what's important
ここで注目したいのは
and they've decided what's not important,
審査員は 何が重要で 何が重要でないかを
and they're not getting distracted by that.
あらかじめ決めて
When the blind orchestra auditions started,
重要でないものに 惑わされないようにしている点です
the number of women in orchestras went up by a factor of five.
ブラインド・オーディションを するようになって
Next, we have to consider accuracy.
女性がオーケストラに占める割合は 5倍に増えました
This is where the value-added model for teachers would fail immediately.
次に正確性を吟味しなければなりません
No algorithm is perfect, of course,
教員向けの付加価値モデルなら すぐ落第になる項目です
so we have to consider the errors of every algorithm.
当然 完璧なアルゴリズムなどないので
How often are there errors, and for whom does this model fail?
あらゆるアルゴリズムの 誤りを検討する必要があります
What is the cost of that failure?
誤りを起こす頻度は? どんな相手だと そのモデルは機能しないのか?
And finally, we have to consider
失敗した時の損失規模は?
the long-term effects of algorithms,
そして最後に考えなければならないのは
the feedback loops that are engendering.
アルゴリズムの長期的影響 つまり
That sounds abstract,
それによって生じる フィードバック・ループです
but imagine if Facebook engineers had considered that
抽象的な話に 聞こえるかもしれませんが
before they decided to show us only things that our friends had posted.
もしFacebookのエンジニアが 友人の投稿だけを表示する前に
I have two more messages, one for the data scientists out there.
フィードバック・ループの影響を 考慮していたらと考えてみてください
Data scientists: we should not be the arbiters of truth.
伝えたいことは あと2つ 1つはデータサイエンティストに向けたものです
We should be translators of ethical discussions that happen
私たちデータサイエンティストが 真実を決めるべきではありません
in larger society.
私たちは もっと広い社会に生じる 倫理的な議論を
(Applause)
解釈する存在であるべきです
And the rest of you,
(拍手)
the non-data scientists:
そしてデータサイエンティスト以外の 皆さん—
this is not a math test.
そしてデータサイエンティスト以外の 皆さん—
This is a political fight.
この状況は数学のテストではなく
We need to demand accountability for our algorithmic overlords.
政治闘争なのです
(Applause)
専制君主のようなアルゴリズムに対して 私たちは説明を求める必要があります
The era of blind faith in big data must end.
(拍手)
Thank you very much.
ビッグデータを盲信する時代は 終わらせるべきです
(Applause)
ありがとうございました