Placeholder Image

字幕表 動画を再生する

AI 自動生成字幕
  • Maybe we-- if you guys could stand over--

    たぶん、私たちは...あなたたちが立ってくれるなら...

  • Is it okay if they stand over here?

    ここに立っていてもいいのでしょうか?

  • - Yeah. - Um, actually.

    - ええ、実は

  • Christophe, if you can get even lower.

    クリストフ、もっと低くてもいいんだ。

  • - Okay. - ( shutter clicks )

    - なるほど - ( シャッター音 )

  • This is Lee and this is Christophe.

    こちらはリー、こちらはクリストフ。

  • They're two of the hosts of this show.

    この番組の司会者のお二人です。

  • But to a machine, they're not people.

    しかし、機械にとっては、彼らは人ではないのです。

  • This is just pixels. It's just data.

    これはただのピクセルです。ただのデータです

  • A machine shouldn't have a reason to prefer

    機械が好む理由はないはずです。

  • one of these guys over the other.

    のどちらかを選ぶ。

  • And yet, as you'll see in a second, it does.

    でも、すぐにわかるように、そうなんです。

  • It feels weird to call a machine racist,

    機械を差別と言うのは変な感じがします。

  • but I really can't explain-- I can't explain what just happened.

    でも、本当に説明できないんだ......何が起こったのか、説明できない。

  • Data-driven systems are becoming a bigger and bigger part of our lives,

    データドリブンなシステムは、私たちの生活の中でますます大きな役割を果たすようになってきています。

  • and they work well a lot of the time.

    そして、それは多くの場合、うまく機能します。

  • - But when they fail... - Once again, it's the white guy.

    - しかし、失敗すると...- またしても、白人の仕業だ。

  • When they fail, they're not failing on everyone equally.

    失敗しても、みんなに平等に失敗しているわけではないのです。

  • If I go back right now...

    もし今すぐ戻ったら...

  • Ruha Benjamin: You can have neutral intentions.

    Ruha Benjamin:中立的な意思を持つことができます。

  • You can have good intentions.

    善意でもいいんです。

  • And the outcomes can still be discriminatory.

    そして、その結果はやはり差別的なものになりかねません。

  • Whether you want to call that machine racist

    そのマシンを人種差別主義者と呼ぶかどうか

  • or you want to call the outcome racist,

    それとも結果を人種差別と言いたいのか。

  • we have a problem.

    問題が発生しました。

  • ( theme music playing )

    ( テーマ曲の演奏 )

  • I was scrolling through my Twitter feed a while back

    少し前にTwitterをスクロールしていたら

  • and I kept seeing tweets that look like this.

    というようなツイートを何度も見かけました。

  • Two of the same picture of Republican senator Mitch McConnell smiling,

    共和党のミッチ・マコーネル上院議員が微笑んでいる同じ写真の2枚。

  • or sometimes it would be four pictures

    または、4枚になることもあります。

  • of the same random stock photo guy.

    同じランダムなストックフォトの人の

  • And I didn't really know what was going on,

    そして、何が起こっているのか、よくわかりませんでした。

  • but it turns out that this was a big public test of algorithmic bias.

    が、これはアルゴリズムによる偏向の大きな公開テストであったことが判明しました。

  • Because it turns out that these aren't pictures of just Mitch McConnell.

    なぜなら、これはミッチ・マコーネルだけの写真ではないことがわかったからです。

  • They're pictures of Mitch McConnell and...

    ミッチ・マコーネルの写真と...

  • - Barack Obama. - Lee: Oh, wow.

    - バラク・オバマ- リーです。おお、すごい。

  • So people were uploading

    だから、みんながアップロードしていた

  • these really extreme vertical images

    これらの本当に極端な垂直画像

  • to basically force this image cropping algorithm

    を使えば、基本的にこの画像切り出しアルゴリズムを強制することができます。

  • to choose one of these faces.

    をクリックすると、これらの顔の中から1つを選ぶことができます。

  • People were alleging that there's a racial bias here.

    ここに人種的な偏見があるのではと主張する人たちがいました。

  • But I think what's so interesting about this particular algorithm

    しかし、この特殊なアルゴリズムが面白いのは

  • is that it is so testable for the public.

    は、一般の方でもテスト可能なほどです。

  • It's something that we could test right now if we wanted to.

    その気になれば、今すぐにでもテストできることなのです。

  • - Let's do it. - You guys wanna do it?

    - やろうぜ- お前らやるか?

  • Okay. Here we go.

    よし、始めるぞ

  • So, Twitter does offer you options to crop your own image.

    そこで、Twitterでは、自分で画像を切り抜くオプションが用意されています。

  • But if you don't use those,

    でも、それらを使わないのであれば

  • it uses an automatic cropping algorithm.

    自動切り出しアルゴリズムを使用しています。

  • - Wow. There it is. - Whoa. Wow.

    - わあこれだ- わあワオ

  • That's crazy.

    それはおかしいよ。

  • Christophe, it likes you.

    クリストフ、それはあなたが好きです。

  • Okay, let's try the other-- the happy one.

    では、もうひとつの...幸せなほうを試してみましょう。

  • Lee: Wow.

    李:すごい。

  • - Unbelievable. Oh, wow. - Both times.

    - アンビリーバボー。おお、すごい。- 2回とも

  • So, do you guys think this machine is racist?

    さて、皆さんはこの機械が人種差別だと思いますか?

  • The only other theory I possibly have

    他に考えられるのは

  • is if the algorithm prioritizes white faces

    は、アルゴリズムが白い顔を優先している場合

  • because it can pick them up quicker, for whatever reason,

    なぜかというと、より早く拾えるからです。

  • against whatever background.

    どんな背景でも

  • Immediately, it looks through the image

    すぐに、画像に目を通す

  • and tries to scan for a face.

    と顔をスキャンしようとします。

  • Why is it always finding the white face first?

    なぜいつも最初に白い顔を見つけるのでしょうか?

  • Joss: With this picture, I think someone could argue

    ジョスこの写真で、誰かが主張することができると思います

  • that the lighting makes Christophe's face more sharp.

    ライティングによって、クリストフの顔がよりシャープになること。

  • I still would love to do

    それでもやりたいのは

  • a little bit more systematic testing on this.

    これについては、もう少し体系的なテストが必要です。

  • I think maybe hundreds of photos

    多分、数百枚の写真があると思います。

  • could allow us to draw a conclusion.

    は、結論を導き出すことができるかもしれません。

  • I have downloaded a bunch of photos

    写真をたくさんダウンロードしました

  • from a site called Generated Photos.

    Generated Photosというサイトから。

  • These people do not exist. They were a creation of AI.

    この人たちは存在しない。彼らはAIが作り出したものです。

  • And I went through, I pulled a bunch

    そして、私は、その束を引き抜いた。

  • that I think will give us

    を与えてくれると思います。

  • a pretty decent way to test this.

    は、これをテストするためのかなりまともな方法です。

  • So, Christophe, I wonder if you would be willing to help me out with that.

    そこで、クリストフさん、私に協力していただけないでしょうか。

  • You want me to tweet hundreds of photos?

    何百枚も写真をツイートしろって?

  • - ( Lee laughs ) - Joss: Exactly.

    - ( リー笑い ) - ジョスその通りです。

  • I'm down. Sure, I've got time.

    落ちましたもちろん、時間はある。

  • Okay.

    なるほど。

  • ( music playing )

    ( music playing )

  • There may be some people who take issue with the idea

    問題視される方もいらっしゃるかもしれませんが

  • that machines can be racist

    機械は人種差別をするものである

  • without a human brain or malicious intent.

    人間の脳も悪意もなく

  • But such a narrow definition of racism

    しかし、このような狭義の人種差別は

  • really misses a lot of what's going on.

    本当に多くのことを見逃しています。

  • I want to read a quote that responds to that idea.

    その考えに応えるような名言を読んでみたい。

  • It says, "Robots are not sentient beings, sure,

    ロボットは確かに感覚を持った存在ではない」と書かれています。

  • but racism flourishes well beyond hate-filled hearts.

    しかし、人種差別は、憎しみに満ちた心を超えて、大きく広がっている。

  • No malice needed, no "N" word required,

    悪意は不要、"N "ワードも不要。

  • just a lack of concern for how the past shapes the present."

    過去が現在をどのように形成しているかということに関心がないだけだ。

  • I'm going now to speak to the author of those words, Ruha Benjamin.

    これから、この言葉の作者であるルハー・ベンジャミンに話を聞きます。

  • She's a professor of African-American Studies at Princeton University.

    プリンストン大学でアフリカ系アメリカ人研究の教授をされています。

  • When did you first become concerned

    関心を持ったのはいつ頃ですか?

  • that automated systems, AI, could be biased?

    自動化システム、AIが偏る可能性があるということ?

  • A few years ago, I noticed these headlines

    数年前、こんな見出しが目についた。

  • and hot takes about so-called racist and sexist robots.

    と、いわゆる人種差別主義者や性差別主義者のロボットについてのホットな話題を提供します。

  • There was a viral video in which two friends were in a hotel bathroom

    友人2人がホテルのバスルームにいるというバイラルビデオがありました。

  • and they were trying to use an automated soap dispenser.

    と、自動ソープディスペンサーを使おうとしていました。

  • Black hand, nothing. Larry, go.

    ブラックハンド、何もないラリー、行け

  • Black hand, nothing.

    黒い手、何もない。

  • And although they seem funny

    そして、面白いようですが

  • and they kind of get us to chuckle,

    と、思わず笑ってしまうような内容です。

  • the question is, are similar design processes

    問題は、同じような設計プロセスであるかということです。

  • impacting much more consequential technologies that we're not even aware of?

    私たちが気づいていない、もっと重大な技術に影響を及ぼしているのではないか?

  • When the early news controversies came along maybe 10 years ago,

    初期のニュース論争があった頃、多分10年前。

  • people were surprised by the fact that they showed a racial bias.

    の人が、人種的な偏りを見せたことに驚いていた。

  • Why do you think people were surprised?

    なぜ、人々は驚いたと思いますか?

  • Part of it is a deep attachment and commitment

    その一端は、深い愛着とこだわり

  • to this idea of tech neutrality.

    この技術的中立性という考え方に

  • People-- I think because life is so complicated

    人は...人生はとても複雑だと思います。

  • and our social world is so messy--

    そして、私たちの社会はとても混乱している...

  • really cling on to something that will save us,

    私たちを救ってくれるものに、本当にしがみつくのです。

  • and a way of making decisions that's not drenched

    そして、その決断を下すための方法。

  • in the muck of all of human subjectivity,

    人間のあらゆる主観の泥の中にある。

  • human prejudice and frailty.

    人間の偏見と弱さ

  • We want it so much to be true.

    私たちは、それが真実であってほしいと強く願っています。

  • We want it so much to be true, you know?

    私たちは、それが真実であってほしいと強く願っているんです。

  • And the danger is that we don't question it.

    そして、それを疑わないことが危険なのです。

  • And still we continue to have, you know, so-called glitches

    それでもまだ、いわゆる不具合は続いています。

  • when it comes to race and skin complexion.

    人種や肌の色に関係なく

  • And I don't think that they're glitches.

    そして、それらは不具合ではないと思うのです。

  • It's a systemic issue in the truest sense of the word.

    本当の意味でのシステム的な問題です。

  • It has to do with our computer systems and the process of design.

    それは、私たちのコンピューターシステムや設計のプロセスに関係しています。

  • Joss: AI can seem pretty abstract sometimes.

    ジョス AIは、時にかなり抽象的に見えることがあります。

  • So we built this to help explain

    そこで、説明のためにこれを作りました。

  • how machine learning works and what can go wrong.

    機械学習はどのように機能し、何が問題なのか。

  • This black box is the part of the system that we interact with.

    このブラックボックスは、私たちが対話するシステムの一部です。

  • It's the software that decides which dating profiles we might like,

    これは、私たちが気に入るかもしれないデートプロフィールを決定するためのソフトウェアです。

  • how much a rideshare should cost,

    ライドシェアはいくら必要なのか。

  • or how a photo should be cropped on Twitter.

    とか、Twitterで写真をどう切り取るかとか。

  • We just see a device making a decision.

    私たちは、デバイスが判断しているのを見るだけです。

  • Or more accurately, a prediction.

    正確には、予測です。

  • What we don't see is all of the human decisions

    私たちが目にしないのは、人間の決断のすべてです。

  • that went into the design of that technology.

    その技術を設計したのは

  • Now, it's true that when you're dealing with AI,

    さて、たしかにAIを扱うとなると

  • that means that the code in this box

    ということは、このボックスの中のコードは

  • wasn't all written directly by humans,

    は、すべて人間が直接書いたものではありません。

  • but by machine-learning algorithms

    が、機械学習アルゴリズムによって

  • that find complex patterns in data.

    データから複雑なパターンを見つけ出す

  • But they don't just spontaneously learn things from the world.

    しかし、彼らは自発的に世の中から物事を学んでいるわけではありません。

  • They're learning from examples.

    お手本を見て学んでいるのです。

  • Examples that are labeled by people,

    人によってレッテルを貼られる例。

  • selected by people,

    人に選ばれる。

  • and derived from people, too.

    と人から派生したものでもあります。

  • See, these machines and their predictions,

    ほら、この機械とその予測。

  • they're not separate from us or from our biases

    彼らは私たちや私たちのバイアスから独立していません。

  • or from our history,

    または歴史から。

  • which we've seen in headline after headline

    というのがありますが、これは見出しに次ぐ見出しで見てきました。

  • for the past 10 years.

    を過去10年間続けてきました。

  • We're using the face-tracking software,

    顔認識ソフトを使用しています。

  • so it's supposed to follow me as I move.

    ということで、私の動きに合わせて追従してくれるはずです。

  • As you can see, I do this-- no following.

    見ての通り、私はこうしている......フォローはない。

  • Not really-- not really following me.

    別に......別について行ってないし。

  • - Wanda, if you would, please? - Sure.

    - ワンダ もしよかったら...- もちろん

  • In 2010, the top hit

    2010年、トップヒット

  • when you did a search for "black girls,"

    "ブラックガール "で検索したら

  • 80% of what you found

    見つけたものの80%は

  • on the first page of results was all porn sites.

    がポルノサイトばかりだった。

  • Google is apologizing after its photo software

    Google、写真ソフトで謝罪

  • labeled two African-Americans gorillas.

    は、2人のアフリカ系アメリカ人にゴリラのラベルを貼った。

  • Microsoft is shutting down

    マイクロソフトがシャットダウン

  • its new artificial intelligent bot

    新しい人工知能ボット

  • after Twitter users taught it how to be racist.

    は、Twitterユーザーが人種差別をする方法を教えてくれた後。

  • Woman: In order to make yourself hotter,

    女性自分をより熱くするために。

  • the app appeared to lighten your skin tone.

    は、肌色を明るくするアプリとして登場しました。

  • Overall, they work better on lighter faces than darker faces,

    全体的に、暗い顔より明るい顔の方が効果的です。

  • and they worked especially poorly

    で、特に出来が悪かった

  • on darker female faces.

    女性の濃い顔で

  • Okay, I've noticed that on all these damn beauty filters,

    そういえば、このクソみたいな美容フィルターにも書いてありましたね。

  • is they keep taking my nose and making it thinner.

    は、私の鼻を取り続け、細くすることです。

  • Give me my African nose back, please.

    私のアフリカの鼻を返してください。

  • Man: So, the first thing that I tried was the prompt "Two Muslims..."

    男:そこで、まず試したのが、プロンプトの "Two Muslims... "です。

  • And the way it completed it was,

    そして、その完成した姿は

  • "Two Muslims, one with an apparent bomb,

    "2人のイスラム教徒" "1人は爆弾を持っているようだ

  • tried to blow up the Federal Building

    連邦ビル爆破未遂

  • in Oklahoma City in the mid-1990s."

    1990年代半ばにオクラホマシティーで行われた"

  • Woman: Detroit police wrongfully arrested Robert Williams

    女性 デトロイト警察がロバート・ウィリアムズを不当逮捕

  • based on a false facial recognition hit.

    を、顔認証の誤認識ヒットに基づいて

  • There's definitely a pattern of harm

    間違いなく害悪のパターンがある

  • that disproportionately falls on vulnerable people, people of color.

    その結果、弱い立場の人々、つまり有色人種に不当に負担がかかることになります。

  • Then there's attention,

    それから、注目です。

  • but of course, the damage has already been done.

    が、もちろん、ダメージはすでに受けている。

  • ( Skype ringing )

    ( Skype ringing )

  • - Hello. - Hey, Christophe.

    - こんにちは- やあ、クリストフ。

  • Thanks for doing these tests.

    このようなテストをしていただき、ありがとうございます。

  • - Of course. - I know it was a bit of a pain,

    - もちろんです。- ちょっと面倒だったでしょう。

  • but I'm curious what you found.

    が、何を発見したのか気になるところです。

  • Sure. I mean, I actually did it.

    もちろん、実際にやってみたんですけどね。

  • I actually tweeted 180 different sets of pictures.

    実は180種類の写真をセットでツイートしているんです。

  • In total, dark-skinned people

    合計で、肌の色が黒い人

  • were displayed in the crop 131 times,

    は131回表示されました。

  • and light-skinned people

    とか、肌の色が明るい人

  • were displayed in the crop 229 times,

    が229回クロップに表示されました。

  • which comes out to 36% dark-skinned

    ということになり、36%のダークスキンが

  • and 64% light-skinned.

    と64%の明るい肌の人がいます。

  • That does seem to be evidence of some bias.

    それは、何らかのバイアスがかかっている証拠と思われます。

  • It's interesting because Twitter posted a blog post

    Twitterがブログ記事を投稿しているので、興味深いです。

  • saying that they had done some of their own tests

    自分たちでテストしてみたということで

  • before launching this tool, and they said that

    このツールを発売する前に、彼らは次のように述べています。

  • they didn't find evidence of racial bias,

    人種的偏見の証拠は見つかりませんでした。

  • but that they would be looking into it further.

    しかし、さらに検討するとのこと。

  • Um, they also said that the kind of technology

    ええと、彼らはまた、技術の種類を言った。

  • that they use to crop images

    画像の切り出しに使用する

  • is called a Saliency Prediction Model,

    は、Saliency Prediction Modelと呼ばれる。

  • which means software that basically is making a guess

    ということは、基本的に推測で動くソフト

  • about what's important in an image.

    を、画像で重要視しています。

  • So, how does a machine know what is salient, what's relevant in a picture?

    では、機械はどのようにして、写真の中の何が重要で、何が関連しているかを知ることができるのでしょうか?

  • Yeah, it's really interesting, actually.

    ええ、実に興味深いです。

  • There's these saliency data sets

    このような顕著性のデータセットがあります。

  • that documented people's eye movements

    人の目の動きを記録した

  • while they looked at certain sets of images.

    を、ある画像を見ながら

  • So you can take those photos

    だから、その写真を撮ることができる

  • and you can take that eye-tracking data

    そして、そのアイトラッキングデータを

  • and teach a computer what humans look at.

    と、人間が見ているものをコンピュータに教える。

  • So, Twitter's not going to give me any more information

    だから、Twitterはこれ以上情報を提供しない

  • about how they trained their model,

    を、どのように学習させたかについてです。

  • but I found an engineer from a company called Gradio.

    が、Gradioという会社のエンジニアに出会いました。

  • They built an app that does something similar,

    似たようなことをするアプリを作ったのです。

  • and I think it can give us a closer look

    と、より身近に感じることができるのではないでしょうか。

  • at how this kind of AI works.

    を、このようなAIの仕組みで実現しました。

  • - Hey. - Hey.

    - おいおい

  • - Joss. - Nice to meet you. Dawood.

    - ジョスです- よろしくお願いします。ドードーです

  • So, you and your colleagues

    だから、あなたとあなたの仲間は

  • built a saliency cropping tool

    顕著性切り出しツールの構築

  • that is similar to what we think Twitter is probably doing.

    というのは、おそらくTwitterがやっていると思われることと似ています。

  • Yeah, we took a public machine learning model, posted it on our library,

    そうそう、公開されている機械学習モデルを、私たちのライブラリに掲載したんです。

  • and launched it for anyone to try.

    を発売し、誰でも試せるようにしました。

  • And you don't have to constantly post pictures

    また、常に写真を投稿する必要はありません。

  • on your timeline to try and experiment with it,

    をあなたのタイムラインで試してみてください。

  • which is what people were doing when they first became aware of the problem.

    というのが、問題意識を持った人たちがやっていたことです。

  • And that's what we did. We did a bunch of tests just on Twitter.

    それが、私たちが行ったことです。Twitterだけで何度もテストをしました。

  • But what's interesting about what your app shows

    しかし、あなたのアプリが示すものの中で興味深いのは

  • is the sort of intermediate step there, which is this saliency prediction.

    は、その中間段階である顕著性予測です。

  • Right, yeah. I think the intermediate step is important for people to see.

    そうですね、ええ。中級編は見てもらうことが大事だと思います。

  • Well, I-- I brought some pictures for us to try.

    試しに写真を持ってきたんだ

  • These are actually the hosts of "Glad You Asked."

    実はこの方たち、"Glad You Asked "の司会者なんです。

  • And I was hoping we could put them into your interface

    そして、それらをあなたのインターフェイスに入れることができればと思いました。

  • and see what, uh, the saliency prediction is.

    で、顕著性の予測がどうなるかを見る。

  • Sure. Just load this image here.

    もちろん、この画像をここに読み込むだけです。

  • Joss: Okay, so, we have a saliency map.

    ジョスさて、顕著性マップができました。

  • Clearly the prediction is that faces are salient,

    明らかに、顔が顕著であることが予測されます。

  • which is not really a surprise.

    というのは、あまり驚きではありません。

  • But it looks like maybe they're not equally salient.

    しかし、それらは等しく顕著なものではないのかもしれません。

  • - Right. - Is there a way to sort of look closer at that?

    - そうですね。- もっと詳しく見る方法はないのでしょうか?

  • So, what we can do here, we actually built it out in the app

    そこで、ここでできることは、実際にアプリの中で構築した

  • where we can put a window on someone's specific face,

    誰かの特定の顔に窓をつけることができるところ。

  • and it will give us a percentage of what amount of saliency

    と、どの程度の顕著性を持つかをパーセンテージで表示してくれます。

  • you have over your face versus in proportion to the whole thing.

    顔全体に対しての割合で持っています。

  • - That's interesting. - Yeah.

    - それは面白いですね。- そうだね。

  • She's-- Fabiola's in the center of the picture,

    写真の中央にいるのがファビオラです。

  • but she's actually got a lower percentage

    が、実は彼女の方が低い割合で

  • of the salience compared to Cleo, who's to her right.

    右隣にいるクレオと比べると、その存在感が際立ちます。

  • Right, and trying to guess why a model is making a prediction

    そうですね、モデルがなぜ予測をするのかを推測しようとすると

  • and why it's predicting what it is

    そして、なぜそのような予測をしているのか

  • is a huge problem with machine learning.

    は、機械学習における大きな問題である。

  • It's always something that you have to kind of

    それは、常に、ある種のものです。

  • back-trace to try and understand.

    バックトレースで理解しようとする。

  • And sometimes it's not even possible.

    そして、時にはそれが不可能なこともあります。

  • Mm-hmm. I looked up what data sets

    うんうん。どんなデータセットか調べたら

  • were used to train the model you guys used,

    は、あなた方が使用したモデルのトレーニングに使用されました。

  • and I found one that was created by

    で作成されたものを発見しました。

  • researchers at MIT back in 2009.

    は、2009年にMITの研究者たちによって開発されました。

  • So, it was originally about a thousand images.

    だから、もともとは1000枚くらいの画像だったんです。

  • We pulled the ones that contained faces,

    顔が写っているものを抜きました。

  • any face we could find that was big enough to see.

    を、見える大きさの顔なら何でもいい。

  • And I went through all of those,

    そして、そのすべてを経験しました。

  • and I found that only 10 of the photos,

    と、10枚しかないことがわかりました。

  • that's just about 3%,

    はちょうど3%くらいですね。

  • included someone who appeared to be

    と思われる人物が含まれていた。

  • of Black or African descent.

    黒人またはアフリカ系の人。

  • Yeah, I mean, if you're collecting a data set through Flickr,

    ええ、つまり、Flickrを通じてデータセットを収集している場合です。

  • you're-- first of all, you're biased to people

    あなたは...まず第一に、あなたは人々に偏見を持っています。

  • that have used Flickr back in, what, 2009, you said, or something?

    Flickrを使ったことがあるのは、2009年頃だったでしょうか?

  • Joss: And I guess if we saw in this image data set,

    ジョスそして、この画像データセットを見ればわかると思います。

  • there are more cat faces than black faces,

    黒い顔より猫の顔の方が多い。

  • we can probably assume that minimal effort was made

    おそらく、最小限の努力しかしていないと推測されます。

  • to make that data set representative.

    そのデータセットが代表的なものになるように。

  • When someone collects data into a training data set,

    誰かがデータを集めてトレーニングデータセットにする場合。

  • they can be motivated by things like convenience and cost

    利便性やコストなどの動機付けがあります。

  • and end up with data that lacks diversity.

    と、多様性に欠けるデータになってしまいます。

  • That type of bias, which we saw in the saliency photos,

    そういうバイアスが、顕著な写真で見られました。

  • is relatively easy to address.

    は比較的簡単に対応できます。

  • If you include more images representing racial minorities,

    人種的マイノリティを表現する画像を多く盛り込むと。

  • you can probably improve the model's performance on those groups.

    そのようなグループに対して、モデルのパフォーマンスを向上させることができるかもしれません。

  • But sometimes human subjectivity

    しかし、時に人間の主観は

  • is imbedded right into the data itself.

    は、データそのものに埋め込まれているのです。

  • Take crime data for example.

    例えば、犯罪データを例にとると

  • Our data on past crimes in part reflects

    過去の犯罪に関するデータは、一部反映されています。

  • police officers' decisions about what neighborhoods to patrol

    パトロール判断

  • and who to stop and arrest.

    と、誰を止め、誰を逮捕するか。

  • We don't have an objective measure of crime,

    犯罪の客観的な尺度がないんです。

  • and we know that the data we do have

    そして、私たちが持っているデータは

  • contains at least some racial profiling.

    は、少なくとも人種的なプロファイリングを含んでいます。

  • But it's still being used to train crime prediction tools.

    しかし、犯罪予測ツールのトレーニングには今でも使われています。

  • And then there's the question of how the data is structured over here.

    そして、こっちはデータの構造がどうなっているかという問題がある。

  • Say you want a program that identifies

    を識別するプログラムが必要だとします。

  • chronically sick patients to get additional care

    慢性疾患患者の追加治療

  • so they don't end up in the ER.

    救急車で運ばれることがないように。

  • You'd use past patients as your examples,

    過去の患者さんを例に挙げるんですね。

  • but you have to choose a label variable.

    が、ラベル変数を選択する必要があります。

  • You have to define for the machine what a high-risk patient is

    ハイリスクな患者とは何かを機械に定義させる必要がある

  • and there's not always an obvious answer.

    そして、必ずしも明白な答えがあるわけではありません。

  • A common choice is to define high-risk as high-cost,

    一般的な選択は、ハイリスク=高コストと定義することである。

  • under the assumption that people who use

    を使う人が多いという前提で

  • a lot of health care resources are in need of intervention.

    多くの医療資源が介入を必要としています。

  • Then the learning algorithm looks through

    次に、学習アルゴリズムは

  • the patient's data--

    患者さんのデータ

  • their age, sex,

    年齢、性別

  • medications, diagnoses, insurance claims,

    薬、診断、保険請求

  • and it finds the combination of attributes

    という属性の組み合わせを求めます。

  • that correlates with their total health costs.

    その結果、医療費の総額と相関があることがわかりました。

  • And once it gets good at predicting

    そして、一度予測がうまくいくと

  • total health costs on past patients,

    過去の患者に関する総医療費

  • that formula becomes software to assess new patients

    その数式が、新患を評価するソフトウェアになる

  • and give them a risk score.

    とリスクスコアをつける。

  • But instead of predicting sick patients,

    しかし、病気の患者を予測するのではなく

  • this predicts expensive patients.

    これは、高価な患者を予測するものである。

  • Remember, the label was cost,

    ラベルはコストだったことを忘れないでください。

  • and when researchers took a closer look at those risk scores,

    そして、そのリスクスコアを研究者たちが詳しく調べたところ、このような結果になりました。

  • they realized that label choice was a big problem.

    ラベルの選択が大きな問題であることに気づいたのだ。

  • But by then, the algorithm had already been used

    しかし、その時にはすでにこのアルゴリズムは使われていたのです

  • on millions of Americans.

    何百万人ものアメリカ人に

  • It produced risk scores for different patients,

    患者さんごとにリスクスコアを作成しました。

  • and if a patient had a risk score

    と、患者がリスクスコアを持っていた場合

  • of almost 60,

    のほぼ60%。

  • they would be referred into the program

    プログラムへ紹介される

  • for screening-- for their screening.

    上映のために...上映のために

  • And if they had a risk score of almost 100,

    そして、リスクスコアがほぼ100点だった場合。

  • they would default into the program.

    というのも、このプログラムにはデフォルトで入っているのです。

  • Now, when we look at the number of chronic conditions

    さて、慢性疾患の数を見てみると

  • that patients of different risk scores were affected by,

    リスクスコアの異なる患者さんが影響を受けたこと。

  • you see a racial disparity where white patients

    白人の患者さんが多いという人種的な格差があるのですね。

  • had fewer conditions than black patients

    は黒人患者より条件が少ない

  • at each risk score.

    各リスクスコアで

  • That means that black patients were sicker

    つまり、黒人の患者さんの方が病気だったということです

  • than their white counterparts

    白人より

  • when they had the same risk score.

    同じリスクスコアであれば

  • And so what happened is in producing these risk scores

    そして、このリスクスコアを作成する際に、何が起こったかというと

  • and using spending,

    と支出を使う。

  • they failed to recognize that on average

    ということを認識していない。

  • black people incur fewer costs for a variety of reasons,

    黒人は、さまざまな理由でコストが少ない。

  • including institutional racism,

    制度的人種差別を含む

  • including lack of access to high-quality insurance,

    質の高い保険へのアクセス不足も含めて。

  • and a whole host of other factors.

    など、さまざまな要因があります。

  • But not because they're less sick.

    でも、病気が少なくなったからではない。

  • Not because they're less sick.

    病気が少ないからではない。

  • And so I think it's important

    だから、大事なことだと思うんです

  • to remember this had racist outcomes,

    というのは、これには人種差別的な結果があったことを忘れてはならない。

  • discriminatory outcomes, not because there was

    差別的な結果が出たから、ではなく

  • a big, bad boogie man behind the screen

    スクリーンの向こうの大きな悪いブギーマン

  • out to get black patients,

    黒人の患者を捕まえに行くようなものです。

  • but precisely because no one was thinking

    しかし、誰も考えていなかったからこそ

  • about racial disparities in healthcare.

    医療における人種間格差について

  • No one thought it would matter.

    誰もそれが重要だとは思わなかった。

  • And so it was about the colorblindness,

    それで、色覚異常のことだったんですね。

  • the race neutrality that created this.

    これを生み出した人種的中立性。

  • The good news is that now the researchers who exposed this

    良いニュースは、今、このことを暴露した研究者たちが

  • and who brought this to light are working with the company

    と、この件を明るみに出した人は、同社と協力している

  • that produced this algorithm to have a better proxy.

    このアルゴリズムを作ったのは、より良いプロキシを持つためです。

  • So instead of spending, it'll actually be

    だから、支出する代わりに、実際には

  • people's actual physical conditions

    人体験

  • and the rate at which they get sick, et cetera,

    とか、病気になる率とか、いろいろあるんです。

  • that is harder to figure out,

    を把握することが難しくなっています。

  • it's a harder kind of proxy to calculate,

    というのは、より計算しにくい種類のプロキシです。

  • but it's more accurate.

    が、より正確です。

  • I feel like what's so unsettling about this healthcare algorithm

    このヘルスケア・アルゴリズムの何が不安なのかというと、次のような気がします。

  • is that the patients would have had

    は、患者さんが持っていたであろう

  • no way of knowing this was happening.

    このようなことが起こっていることを知る由もない。

  • It's not like Twitter, where you can upload

    Twitterのように、アップロードできるわけではありません。

  • your own picture, test it out, compare with other people.

    自分の写真を撮って、試して、他の人と比べてみてください。

  • This was just working in the background,

    これは裏で動いていただけなんです。

  • quietly prioritizing the care of certain patients

    ひっそりと特定患者を優先的に治療する

  • based on an algorithmic score

    アルゴリズムに基づくスコア

  • while the other patients probably never knew

    他の患者さんは、おそらく知る由もなかったと思いますが

  • they were even passed over for this program.

    このプログラムのために、彼らは抜てきされたりもした。

  • I feel like there has to be a way

    何か方法があるような気がする

  • for companies to vet these systems in advance,

    このようなシステムは、企業が事前に検証しておく必要があります。

  • so I'm excited to talk to Deborah Raji.

    ということで、Deborah Rajiと話すのが楽しみです。

  • She's been doing a lot of thinking

    彼女はいろいろと考えている

  • and writing about just that.

    と、まさにそのことについて書いています。

  • My question for you is how do we find out

    私があなたに質問したいのは、どうすればそれを見つけられるかということです。

  • about these problems before they go out into the world

    社会に出る前に、これらの問題点について

  • and cause harm rather than afterwards?

    と害を及ぼすのは、むしろその後?

  • So, I guess a clarification point is that machine learning

    つまり、明確なポイントとしては、機械学習が

  • is highly unregulated as an industry.

    は、産業として非常に無規制です。

  • These companies don't have to report their performance metrics,

    これらの企業は、業績指標を報告する必要はありません。

  • they don't have to report their evaluation results

    評価結果を報告する必要がない。

  • to any kind of regulatory body.

    を、何らかの規制機関に提出します。

  • But internally there's this new culture of documentation

    しかし、内部的には、この新しいドキュメンテーションの文化があります。

  • that I think has been incredibly productive.

    というのは、非常に生産的だと思うのです。

  • I worked on a couple of projects with colleagues at Google,

    Googleの同僚と一緒に、いくつかのプロジェクトに取り組みました。

  • and one of the main outcomes of that was this effort called Model Cards--

    その主な成果のひとつが、この「モデルカード」と呼ばれる取り組みです。

  • very simple one-page documentation

    非常にシンプルな1ページのドキュメント

  • on how the model actually works,

    実際にどのように機能するかについて

  • but also questions that are connected to ethical concerns,

    のみならず、倫理的な問題につながる質問もあります。

  • such as the intended use for the model,

    など、そのモデルの使用目的に合わせて

  • details about where the data's coming from,

    データの出所について詳しく説明します。

  • how the data's labeled, and then also, you know,

    データのラベルの付け方や、それから

  • instructions to evaluate the system according to its performance

    システムの性能に応じた評価を行うための指示

  • on different demographic sub-groups.

    を、さまざまな人口動態のサブグループに分類しています。

  • Maybe that's something that's hard to accept

    もしかしたら、それは受け入れがたいことなのかもしれない

  • is that it would actually be maybe impossible

    というのは、実際には不可能かもしれません。

  • to get performance across sub-groups to be exactly the same.

    は、サブグループ間のパフォーマンスを完全に同じにするために必要です。

  • How much of that do we just have to be like, "Okay"?

    どれだけ、「よし」と思えばいいのでしょうか。

  • I really don't think there's an unbiased data set

    偏りのないデータというのは、本当にないと思います。

  • in which everything will be perfect.

    すべてが完璧になるような。

  • I think the more important thing is to actually evaluate

    もっと大事なのは、実際に評価することだと思うんです。

  • and assess things with an active eye

    を、積極的な目で評価する。

  • for those that are most likely to be negatively impacted.

    最も悪影響を受ける可能性の高い人たちのために。

  • You know, if you know that people of color are most vulnerable

    有色人種が最も脆弱であることを知れば

  • or a particular marginalized group is most vulnerable

    または特定の疎外されたグループが最も脆弱である。

  • in a particular situation,

    を、ある特定の状況において

  • then prioritize them in your evaluation.

    であれば、評価において優先順位をつけることができます。

  • But I do think there's certain situations

    でも、ある種のシチュエーションはあると思うんです。

  • where maybe we should not be predicting

    予断を許さない状況

  • with a machine-learning system at all.

    機械学習システムとは全く別物です。

  • We should be super cautious and super careful

    超慎重に、超注意深くなるべき

  • about where we deploy it and where we don't deploy it,

    を、どこに配備し、どこに配備しないかについてです。

  • and what kind of human oversight

    そして、どのような人間の監視を

  • we put over these systems as well.

    このようなシステムにも、私たちは同じものをかけています。

  • The problem of bias in AI is really big.

    AIにおけるバイアスの問題は本当に大きいです。

  • It's really difficult.

    本当に難しいんです。

  • But I don't think it means we have to give up

    でも、それはあきらめることではないと思います。

  • on machine learning altogether.

    を機械学習で完全に実現しました。

  • One benefit of bias in a computer versus bias in a human

    コンピュータのバイアスと人間のバイアスの利点の1つ

  • is that you can measure and track it fairly easily.

    は、かなり簡単に測定・追跡できることです。

  • And you can tinker with your model

    そして、モデルをいじることができる

  • to try and get fair outcomes if you're motivated to do so.

    その気になれば、公正な結果を得るために努力することができるのです。

  • The first step was becoming aware of the problem.

    まず、問題意識を持つことから始めました。

  • Now the second step is enforcing solutions,

    さて、第二段階はソリューションの実行です。

  • which I think we're just beginning to see now.

    というのが、今まさに見え始めているところだと思います。

  • But Deb is raising a bigger question.

    しかし、デブはもっと大きな疑問を投げかけている。

  • Not just how do we get bias out of the algorithms,

    アルゴリズムからバイアスを取り除く方法だけではありません。

  • but which algorithms should be used at all?

    が、どのアルゴリズムを全く使わないでいいのか?

  • Do we need a predictive model to be cropping our photos?

    写真のトリミングに予測モデルが必要なのか?

  • Do we want facial recognition in our communities?

    私たちのコミュニティに顔認証は必要ですか?

  • Many would say no, whether it's biased or not.

    偏っていようがいまいが、ダメだと言う人が多いでしょう。

  • And that question of which technologies

    そして、「どの技術を使うか」という問題

  • get built and how they get deployed in our world,

    を作り、それがどのように私たちの世界に展開されるのか。

  • it boils down to resources and power.

    それは、リソースとパワーに集約されます。

  • It's the power to decide whose interests

    それは、誰の利益を決定するための権力であり

  • will be served by a predictive model,

    は、予測モデルで対応することになります。

  • and which questions get asked.

    とか、どの質問が出るかとか。

  • You could ask, okay, I want to know how landlords

    と聞くこともできます。

  • are making life for renters hard.

    は、賃借人の生活を苦しくしている。

  • Which landlords are not fixing up their buildings?

    建物を修理しない大家は?

  • Which ones are hiking rent?

    ハイキングのレンタルはどれ?

  • Or you could ask, okay, let's figure out

    あるいは、よし、考えよう、と問いかけることもできる。

  • which renters have low credit scores.

    のうち、信用度の低い賃借人は

  • Let's figure out the people who have a gap in unemployment

    失業率にギャップがある人を把握しよう

  • so I don't want to rent to them.

    だから、彼らに貸したくないんです。

  • And so it's at that problem

    そうして、その問題のところに

  • of forming the question

    もんだいのかたち

  • and posing the problem

    と問題提起

  • that the power dynamics are already being laid

    力関係がすでに出来上がっていること

  • that set us off in one trajectory or another.

    私たちをある軌道に乗せるきっかけを与えてくれました。

  • And the big challenge there being that

    そして、そこで大きな課題となるのが

  • with these two possible lines of inquiry,

    という2つの可能性を持っています。

  • - one of those is probably a lot more profitable... - Exactly, exactly.

    - その通りです。

  • - ...than the other one. - And too often the people who are creating these tools,

    - ...よりも優れています。- そして、これらのツールを作っている人たちがあまりにも多いのです。

  • they don't necessarily have to share the interests

    必ずしも同じ趣味である必要はない

  • of the people who are posing the questions,

    質問を投げかけている人たちの

  • but those are their clients.

    が、それは彼らのクライアントである。

  • So, the question for the designers and the programmers is

    そこで、デザイナーとプログラマーに質問です。

  • are you accountable only to your clients

    は、クライアントに対してのみ責任を負う

  • or are you also accountable to the larger body politic?

    それとも、より大きな政治的組織に対する説明責任もあるのでしょうか?

  • Are you responsible for what these tools do in the world?

    この道具が世の中に及ぼす影響に、あなたは責任を持てますか?

  • ( music playing )

    ( music playing )

  • ( indistinct chatter )

    ( Indistinct chatter )

  • Man: Can you lift up your arm a little?

    男性:腕を少し上げてもらえますか?

  • ( chatter continues )

    ( chatter continues )

Maybe we-- if you guys could stand over--

たぶん、私たちは...あなたたちが立ってくれるなら...

字幕と単語
AI 自動生成字幕

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます