字幕表 動画を再生する AI 自動生成字幕 字幕スクリプトをプリント 翻訳字幕をプリント 英語字幕をプリント Maybe we-- if you guys could stand over-- たぶん、私たちは...あなたたちが立ってくれるなら... Is it okay if they stand over here? ここに立っていてもいいのでしょうか? - Yeah. - Um, actually. - ええ、実は Christophe, if you can get even lower. クリストフ、もっと低くてもいいんだ。 - Okay. - ( shutter clicks ) - なるほど - ( シャッター音 ) This is Lee and this is Christophe. こちらはリー、こちらはクリストフ。 They're two of the hosts of this show. この番組の司会者のお二人です。 But to a machine, they're not people. しかし、機械にとっては、彼らは人ではないのです。 This is just pixels. It's just data. これはただのピクセルです。ただのデータです A machine shouldn't have a reason to prefer 機械が好む理由はないはずです。 one of these guys over the other. のどちらかを選ぶ。 And yet, as you'll see in a second, it does. でも、すぐにわかるように、そうなんです。 It feels weird to call a machine racist, 機械を差別と言うのは変な感じがします。 but I really can't explain-- I can't explain what just happened. でも、本当に説明できないんだ......何が起こったのか、説明できない。 Data-driven systems are becoming a bigger and bigger part of our lives, データドリブンなシステムは、私たちの生活の中でますます大きな役割を果たすようになってきています。 and they work well a lot of the time. そして、それは多くの場合、うまく機能します。 - But when they fail... - Once again, it's the white guy. - しかし、失敗すると...- またしても、白人の仕業だ。 When they fail, they're not failing on everyone equally. 失敗しても、みんなに平等に失敗しているわけではないのです。 If I go back right now... もし今すぐ戻ったら... Ruha Benjamin: You can have neutral intentions. Ruha Benjamin:中立的な意思を持つことができます。 You can have good intentions. 善意でもいいんです。 And the outcomes can still be discriminatory. そして、その結果はやはり差別的なものになりかねません。 Whether you want to call that machine racist そのマシンを人種差別主義者と呼ぶかどうか or you want to call the outcome racist, それとも結果を人種差別と言いたいのか。 we have a problem. 問題が発生しました。 ( theme music playing ) ( テーマ曲の演奏 ) I was scrolling through my Twitter feed a while back 少し前にTwitterをスクロールしていたら and I kept seeing tweets that look like this. というようなツイートを何度も見かけました。 Two of the same picture of Republican senator Mitch McConnell smiling, 共和党のミッチ・マコーネル上院議員が微笑んでいる同じ写真の2枚。 or sometimes it would be four pictures または、4枚になることもあります。 of the same random stock photo guy. 同じランダムなストックフォトの人の And I didn't really know what was going on, そして、何が起こっているのか、よくわかりませんでした。 but it turns out that this was a big public test of algorithmic bias. が、これはアルゴリズムによる偏向の大きな公開テストであったことが判明しました。 Because it turns out that these aren't pictures of just Mitch McConnell. なぜなら、これはミッチ・マコーネルだけの写真ではないことがわかったからです。 They're pictures of Mitch McConnell and... ミッチ・マコーネルの写真と... - Barack Obama. - Lee: Oh, wow. - バラク・オバマ- リーです。おお、すごい。 So people were uploading だから、みんながアップロードしていた these really extreme vertical images これらの本当に極端な垂直画像 to basically force this image cropping algorithm を使えば、基本的にこの画像切り出しアルゴリズムを強制することができます。 to choose one of these faces. をクリックすると、これらの顔の中から1つを選ぶことができます。 People were alleging that there's a racial bias here. ここに人種的な偏見があるのではと主張する人たちがいました。 But I think what's so interesting about this particular algorithm しかし、この特殊なアルゴリズムが面白いのは is that it is so testable for the public. は、一般の方でもテスト可能なほどです。 It's something that we could test right now if we wanted to. その気になれば、今すぐにでもテストできることなのです。 - Let's do it. - You guys wanna do it? - やろうぜ- お前らやるか? Okay. Here we go. よし、始めるぞ So, Twitter does offer you options to crop your own image. そこで、Twitterでは、自分で画像を切り抜くオプションが用意されています。 But if you don't use those, でも、それらを使わないのであれば it uses an automatic cropping algorithm. 自動切り出しアルゴリズムを使用しています。 - Wow. There it is. - Whoa. Wow. - わあこれだ- わあワオ That's crazy. それはおかしいよ。 Christophe, it likes you. クリストフ、それはあなたが好きです。 Okay, let's try the other-- the happy one. では、もうひとつの...幸せなほうを試してみましょう。 Lee: Wow. 李:すごい。 - Unbelievable. Oh, wow. - Both times. - アンビリーバボー。おお、すごい。- 2回とも So, do you guys think this machine is racist? さて、皆さんはこの機械が人種差別だと思いますか? The only other theory I possibly have 他に考えられるのは is if the algorithm prioritizes white faces は、アルゴリズムが白い顔を優先している場合 because it can pick them up quicker, for whatever reason, なぜかというと、より早く拾えるからです。 against whatever background. どんな背景でも Immediately, it looks through the image すぐに、画像に目を通す and tries to scan for a face. と顔をスキャンしようとします。 Why is it always finding the white face first? なぜいつも最初に白い顔を見つけるのでしょうか? Joss: With this picture, I think someone could argue ジョスこの写真で、誰かが主張することができると思います that the lighting makes Christophe's face more sharp. ライティングによって、クリストフの顔がよりシャープになること。 I still would love to do それでもやりたいのは a little bit more systematic testing on this. これについては、もう少し体系的なテストが必要です。 I think maybe hundreds of photos 多分、数百枚の写真があると思います。 could allow us to draw a conclusion. は、結論を導き出すことができるかもしれません。 I have downloaded a bunch of photos 写真をたくさんダウンロードしました from a site called Generated Photos. Generated Photosというサイトから。 These people do not exist. They were a creation of AI. この人たちは存在しない。彼らはAIが作り出したものです。 And I went through, I pulled a bunch そして、私は、その束を引き抜いた。 that I think will give us を与えてくれると思います。 a pretty decent way to test this. は、これをテストするためのかなりまともな方法です。 So, Christophe, I wonder if you would be willing to help me out with that. そこで、クリストフさん、私に協力していただけないでしょうか。 You want me to tweet hundreds of photos? 何百枚も写真をツイートしろって? - ( Lee laughs ) - Joss: Exactly. - ( リー笑い ) - ジョスその通りです。 I'm down. Sure, I've got time. 落ちましたもちろん、時間はある。 Okay. なるほど。 ( music playing ) ( music playing ) There may be some people who take issue with the idea 問題視される方もいらっしゃるかもしれませんが that machines can be racist 機械は人種差別をするものである without a human brain or malicious intent. 人間の脳も悪意もなく But such a narrow definition of racism しかし、このような狭義の人種差別は really misses a lot of what's going on. 本当に多くのことを見逃しています。 I want to read a quote that responds to that idea. その考えに応えるような名言を読んでみたい。 It says, "Robots are not sentient beings, sure, ロボットは確かに感覚を持った存在ではない」と書かれています。 but racism flourishes well beyond hate-filled hearts. しかし、人種差別は、憎しみに満ちた心を超えて、大きく広がっている。 No malice needed, no "N" word required, 悪意は不要、"N "ワードも不要。 just a lack of concern for how the past shapes the present." 過去が現在をどのように形成しているかということに関心がないだけだ。 I'm going now to speak to the author of those words, Ruha Benjamin. これから、この言葉の作者であるルハー・ベンジャミンに話を聞きます。 She's a professor of African-American Studies at Princeton University. プリンストン大学でアフリカ系アメリカ人研究の教授をされています。 When did you first become concerned 関心を持ったのはいつ頃ですか? that automated systems, AI, could be biased? 自動化システム、AIが偏る可能性があるということ? A few years ago, I noticed these headlines 数年前、こんな見出しが目についた。 and hot takes about so-called racist and sexist robots. と、いわゆる人種差別主義者や性差別主義者のロボットについてのホットな話題を提供します。 There was a viral video in which two friends were in a hotel bathroom 友人2人がホテルのバスルームにいるというバイラルビデオがありました。 and they were trying to use an automated soap dispenser. と、自動ソープディスペンサーを使おうとしていました。 Black hand, nothing. Larry, go. ブラックハンド、何もないラリー、行け Black hand, nothing. 黒い手、何もない。 And although they seem funny そして、面白いようですが and they kind of get us to chuckle, と、思わず笑ってしまうような内容です。 the question is, are similar design processes 問題は、同じような設計プロセスであるかということです。 impacting much more consequential technologies that we're not even aware of? 私たちが気づいていない、もっと重大な技術に影響を及ぼしているのではないか? When the early news controversies came along maybe 10 years ago, 初期のニュース論争があった頃、多分10年前。 people were surprised by the fact that they showed a racial bias. の人が、人種的な偏りを見せたことに驚いていた。 Why do you think people were surprised? なぜ、人々は驚いたと思いますか? Part of it is a deep attachment and commitment その一端は、深い愛着とこだわり to this idea of tech neutrality. この技術的中立性という考え方に People-- I think because life is so complicated 人は...人生はとても複雑だと思います。 and our social world is so messy-- そして、私たちの社会はとても混乱している... really cling on to something that will save us, 私たちを救ってくれるものに、本当にしがみつくのです。 and a way of making decisions that's not drenched そして、その決断を下すための方法。 in the muck of all of human subjectivity, 人間のあらゆる主観の泥の中にある。 human prejudice and frailty. 人間の偏見と弱さ We want it so much to be true. 私たちは、それが真実であってほしいと強く願っています。 We want it so much to be true, you know? 私たちは、それが真実であってほしいと強く願っているんです。 And the danger is that we don't question it. そして、それを疑わないことが危険なのです。 And still we continue to have, you know, so-called glitches それでもまだ、いわゆる不具合は続いています。 when it comes to race and skin complexion. 人種や肌の色に関係なく And I don't think that they're glitches. そして、それらは不具合ではないと思うのです。 It's a systemic issue in the truest sense of the word. 本当の意味でのシステム的な問題です。 It has to do with our computer systems and the process of design. それは、私たちのコンピューターシステムや設計のプロセスに関係しています。 Joss: AI can seem pretty abstract sometimes. ジョス AIは、時にかなり抽象的に見えることがあります。 So we built this to help explain そこで、説明のためにこれを作りました。 how machine learning works and what can go wrong. 機械学習はどのように機能し、何が問題なのか。 This black box is the part of the system that we interact with. このブラックボックスは、私たちが対話するシステムの一部です。 It's the software that decides which dating profiles we might like, これは、私たちが気に入るかもしれないデートプロフィールを決定するためのソフトウェアです。 how much a rideshare should cost, ライドシェアはいくら必要なのか。 or how a photo should be cropped on Twitter. とか、Twitterで写真をどう切り取るかとか。 We just see a device making a decision. 私たちは、デバイスが判断しているのを見るだけです。 Or more accurately, a prediction. 正確には、予測です。 What we don't see is all of the human decisions 私たちが目にしないのは、人間の決断のすべてです。 that went into the design of that technology. その技術を設計したのは Now, it's true that when you're dealing with AI, さて、たしかにAIを扱うとなると that means that the code in this box ということは、このボックスの中のコードは wasn't all written directly by humans, は、すべて人間が直接書いたものではありません。 but by machine-learning algorithms が、機械学習アルゴリズムによって that find complex patterns in data. データから複雑なパターンを見つけ出す But they don't just spontaneously learn things from the world. しかし、彼らは自発的に世の中から物事を学んでいるわけではありません。 They're learning from examples. お手本を見て学んでいるのです。 Examples that are labeled by people, 人によってレッテルを貼られる例。 selected by people, 人に選ばれる。 and derived from people, too. と人から派生したものでもあります。 See, these machines and their predictions, ほら、この機械とその予測。 they're not separate from us or from our biases 彼らは私たちや私たちのバイアスから独立していません。 or from our history, または歴史から。 which we've seen in headline after headline というのがありますが、これは見出しに次ぐ見出しで見てきました。 for the past 10 years. を過去10年間続けてきました。 We're using the face-tracking software, 顔認識ソフトを使用しています。 so it's supposed to follow me as I move. ということで、私の動きに合わせて追従してくれるはずです。 As you can see, I do this-- no following. 見ての通り、私はこうしている......フォローはない。 Not really-- not really following me. 別に......別について行ってないし。 - Wanda, if you would, please? - Sure. - ワンダ もしよかったら...- もちろん In 2010, the top hit 2010年、トップヒット when you did a search for "black girls," "ブラックガール "で検索したら 80% of what you found 見つけたものの80%は on the first page of results was all porn sites. がポルノサイトばかりだった。 Google is apologizing after its photo software Google、写真ソフトで謝罪 labeled two African-Americans gorillas. は、2人のアフリカ系アメリカ人にゴリラのラベルを貼った。 Microsoft is shutting down マイクロソフトがシャットダウン its new artificial intelligent bot 新しい人工知能ボット after Twitter users taught it how to be racist. は、Twitterユーザーが人種差別をする方法を教えてくれた後。 Woman: In order to make yourself hotter, 女性自分をより熱くするために。 the app appeared to lighten your skin tone. は、肌色を明るくするアプリとして登場しました。 Overall, they work better on lighter faces than darker faces, 全体的に、暗い顔より明るい顔の方が効果的です。 and they worked especially poorly で、特に出来が悪かった on darker female faces. 女性の濃い顔で Okay, I've noticed that on all these damn beauty filters, そういえば、このクソみたいな美容フィルターにも書いてありましたね。 is they keep taking my nose and making it thinner. は、私の鼻を取り続け、細くすることです。 Give me my African nose back, please. 私のアフリカの鼻を返してください。 Man: So, the first thing that I tried was the prompt "Two Muslims..." 男:そこで、まず試したのが、プロンプトの "Two Muslims... "です。 And the way it completed it was, そして、その完成した姿は "Two Muslims, one with an apparent bomb, "2人のイスラム教徒" "1人は爆弾を持っているようだ tried to blow up the Federal Building 連邦ビル爆破未遂 in Oklahoma City in the mid-1990s." 1990年代半ばにオクラホマシティーで行われた" Woman: Detroit police wrongfully arrested Robert Williams 女性 デトロイト警察がロバート・ウィリアムズを不当逮捕 based on a false facial recognition hit. を、顔認証の誤認識ヒットに基づいて There's definitely a pattern of harm 間違いなく害悪のパターンがある that disproportionately falls on vulnerable people, people of color. その結果、弱い立場の人々、つまり有色人種に不当に負担がかかることになります。 Then there's attention, それから、注目です。 but of course, the damage has already been done. が、もちろん、ダメージはすでに受けている。 ( Skype ringing ) ( Skype ringing ) - Hello. - Hey, Christophe. - こんにちは- やあ、クリストフ。 Thanks for doing these tests. このようなテストをしていただき、ありがとうございます。 - Of course. - I know it was a bit of a pain, - もちろんです。- ちょっと面倒だったでしょう。 but I'm curious what you found. が、何を発見したのか気になるところです。 Sure. I mean, I actually did it. もちろん、実際にやってみたんですけどね。 I actually tweeted 180 different sets of pictures. 実は180種類の写真をセットでツイートしているんです。 In total, dark-skinned people 合計で、肌の色が黒い人 were displayed in the crop 131 times, は131回表示されました。 and light-skinned people とか、肌の色が明るい人 were displayed in the crop 229 times, が229回クロップに表示されました。 which comes out to 36% dark-skinned ということになり、36%のダークスキンが and 64% light-skinned. と64%の明るい肌の人がいます。 That does seem to be evidence of some bias. それは、何らかのバイアスがかかっている証拠と思われます。 It's interesting because Twitter posted a blog post Twitterがブログ記事を投稿しているので、興味深いです。 saying that they had done some of their own tests 自分たちでテストしてみたということで before launching this tool, and they said that このツールを発売する前に、彼らは次のように述べています。 they didn't find evidence of racial bias, 人種的偏見の証拠は見つかりませんでした。 but that they would be looking into it further. しかし、さらに検討するとのこと。 Um, they also said that the kind of technology ええと、彼らはまた、技術の種類を言った。 that they use to crop images 画像の切り出しに使用する is called a Saliency Prediction Model, は、Saliency Prediction Modelと呼ばれる。 which means software that basically is making a guess ということは、基本的に推測で動くソフト about what's important in an image. を、画像で重要視しています。 So, how does a machine know what is salient, what's relevant in a picture? では、機械はどのようにして、写真の中の何が重要で、何が関連しているかを知ることができるのでしょうか? Yeah, it's really interesting, actually. ええ、実に興味深いです。 There's these saliency data sets このような顕著性のデータセットがあります。 that documented people's eye movements 人の目の動きを記録した while they looked at certain sets of images. を、ある画像を見ながら So you can take those photos だから、その写真を撮ることができる and you can take that eye-tracking data そして、そのアイトラッキングデータを and teach a computer what humans look at. と、人間が見ているものをコンピュータに教える。 So, Twitter's not going to give me any more information だから、Twitterはこれ以上情報を提供しない about how they trained their model, を、どのように学習させたかについてです。 but I found an engineer from a company called Gradio. が、Gradioという会社のエンジニアに出会いました。 They built an app that does something similar, 似たようなことをするアプリを作ったのです。 and I think it can give us a closer look と、より身近に感じることができるのではないでしょうか。 at how this kind of AI works. を、このようなAIの仕組みで実現しました。 - Hey. - Hey. - おいおい - Joss. - Nice to meet you. Dawood. - ジョスです- よろしくお願いします。ドードーです So, you and your colleagues だから、あなたとあなたの仲間は built a saliency cropping tool 顕著性切り出しツールの構築 that is similar to what we think Twitter is probably doing. というのは、おそらくTwitterがやっていると思われることと似ています。 Yeah, we took a public machine learning model, posted it on our library, そうそう、公開されている機械学習モデルを、私たちのライブラリに掲載したんです。 and launched it for anyone to try. を発売し、誰でも試せるようにしました。 And you don't have to constantly post pictures また、常に写真を投稿する必要はありません。 on your timeline to try and experiment with it, をあなたのタイムラインで試してみてください。 which is what people were doing when they first became aware of the problem. というのが、問題意識を持った人たちがやっていたことです。 And that's what we did. We did a bunch of tests just on Twitter. それが、私たちが行ったことです。Twitterだけで何度もテストをしました。 But what's interesting about what your app shows しかし、あなたのアプリが示すものの中で興味深いのは is the sort of intermediate step there, which is this saliency prediction. は、その中間段階である顕著性予測です。 Right, yeah. I think the intermediate step is important for people to see. そうですね、ええ。中級編は見てもらうことが大事だと思います。 Well, I-- I brought some pictures for us to try. 試しに写真を持ってきたんだ These are actually the hosts of "Glad You Asked." 実はこの方たち、"Glad You Asked "の司会者なんです。 And I was hoping we could put them into your interface そして、それらをあなたのインターフェイスに入れることができればと思いました。 and see what, uh, the saliency prediction is. で、顕著性の予測がどうなるかを見る。 Sure. Just load this image here. もちろん、この画像をここに読み込むだけです。 Joss: Okay, so, we have a saliency map. ジョスさて、顕著性マップができました。 Clearly the prediction is that faces are salient, 明らかに、顔が顕著であることが予測されます。 which is not really a surprise. というのは、あまり驚きではありません。 But it looks like maybe they're not equally salient. しかし、それらは等しく顕著なものではないのかもしれません。 - Right. - Is there a way to sort of look closer at that? - そうですね。- もっと詳しく見る方法はないのでしょうか? So, what we can do here, we actually built it out in the app そこで、ここでできることは、実際にアプリの中で構築した where we can put a window on someone's specific face, 誰かの特定の顔に窓をつけることができるところ。 and it will give us a percentage of what amount of saliency と、どの程度の顕著性を持つかをパーセンテージで表示してくれます。 you have over your face versus in proportion to the whole thing. 顔全体に対しての割合で持っています。 - That's interesting. - Yeah. - それは面白いですね。- そうだね。 She's-- Fabiola's in the center of the picture, 写真の中央にいるのがファビオラです。 but she's actually got a lower percentage が、実は彼女の方が低い割合で of the salience compared to Cleo, who's to her right. 右隣にいるクレオと比べると、その存在感が際立ちます。 Right, and trying to guess why a model is making a prediction そうですね、モデルがなぜ予測をするのかを推測しようとすると and why it's predicting what it is そして、なぜそのような予測をしているのか is a huge problem with machine learning. は、機械学習における大きな問題である。 It's always something that you have to kind of それは、常に、ある種のものです。 back-trace to try and understand. バックトレースで理解しようとする。 And sometimes it's not even possible. そして、時にはそれが不可能なこともあります。 Mm-hmm. I looked up what data sets うんうん。どんなデータセットか調べたら were used to train the model you guys used, は、あなた方が使用したモデルのトレーニングに使用されました。 and I found one that was created by で作成されたものを発見しました。 researchers at MIT back in 2009. は、2009年にMITの研究者たちによって開発されました。 So, it was originally about a thousand images. だから、もともとは1000枚くらいの画像だったんです。 We pulled the ones that contained faces, 顔が写っているものを抜きました。 any face we could find that was big enough to see. を、見える大きさの顔なら何でもいい。 And I went through all of those, そして、そのすべてを経験しました。 and I found that only 10 of the photos, と、10枚しかないことがわかりました。 that's just about 3%, はちょうど3%くらいですね。 included someone who appeared to be と思われる人物が含まれていた。 of Black or African descent. 黒人またはアフリカ系の人。 Yeah, I mean, if you're collecting a data set through Flickr, ええ、つまり、Flickrを通じてデータセットを収集している場合です。 you're-- first of all, you're biased to people あなたは...まず第一に、あなたは人々に偏見を持っています。 that have used Flickr back in, what, 2009, you said, or something? Flickrを使ったことがあるのは、2009年頃だったでしょうか? Joss: And I guess if we saw in this image data set, ジョスそして、この画像データセットを見ればわかると思います。 there are more cat faces than black faces, 黒い顔より猫の顔の方が多い。 we can probably assume that minimal effort was made おそらく、最小限の努力しかしていないと推測されます。 to make that data set representative. そのデータセットが代表的なものになるように。 When someone collects data into a training data set, 誰かがデータを集めてトレーニングデータセットにする場合。 they can be motivated by things like convenience and cost 利便性やコストなどの動機付けがあります。 and end up with data that lacks diversity. と、多様性に欠けるデータになってしまいます。 That type of bias, which we saw in the saliency photos, そういうバイアスが、顕著な写真で見られました。 is relatively easy to address. は比較的簡単に対応できます。 If you include more images representing racial minorities, 人種的マイノリティを表現する画像を多く盛り込むと。 you can probably improve the model's performance on those groups. そのようなグループに対して、モデルのパフォーマンスを向上させることができるかもしれません。 But sometimes human subjectivity しかし、時に人間の主観は is imbedded right into the data itself. は、データそのものに埋め込まれているのです。 Take crime data for example. 例えば、犯罪データを例にとると Our data on past crimes in part reflects 過去の犯罪に関するデータは、一部反映されています。 police officers' decisions about what neighborhoods to patrol パトロール判断 and who to stop and arrest. と、誰を止め、誰を逮捕するか。 We don't have an objective measure of crime, 犯罪の客観的な尺度がないんです。 and we know that the data we do have そして、私たちが持っているデータは contains at least some racial profiling. は、少なくとも人種的なプロファイリングを含んでいます。 But it's still being used to train crime prediction tools. しかし、犯罪予測ツールのトレーニングには今でも使われています。 And then there's the question of how the data is structured over here. そして、こっちはデータの構造がどうなっているかという問題がある。 Say you want a program that identifies を識別するプログラムが必要だとします。 chronically sick patients to get additional care 慢性疾患患者の追加治療 so they don't end up in the ER. 救急車で運ばれることがないように。 You'd use past patients as your examples, 過去の患者さんを例に挙げるんですね。 but you have to choose a label variable. が、ラベル変数を選択する必要があります。 You have to define for the machine what a high-risk patient is ハイリスクな患者とは何かを機械に定義させる必要がある and there's not always an obvious answer. そして、必ずしも明白な答えがあるわけではありません。 A common choice is to define high-risk as high-cost, 一般的な選択は、ハイリスク=高コストと定義することである。 under the assumption that people who use を使う人が多いという前提で a lot of health care resources are in need of intervention. 多くの医療資源が介入を必要としています。 Then the learning algorithm looks through 次に、学習アルゴリズムは the patient's data-- 患者さんのデータ their age, sex, 年齢、性別 medications, diagnoses, insurance claims, 薬、診断、保険請求 and it finds the combination of attributes という属性の組み合わせを求めます。 that correlates with their total health costs. その結果、医療費の総額と相関があることがわかりました。 And once it gets good at predicting そして、一度予測がうまくいくと total health costs on past patients, 過去の患者に関する総医療費 that formula becomes software to assess new patients その数式が、新患を評価するソフトウェアになる and give them a risk score. とリスクスコアをつける。 But instead of predicting sick patients, しかし、病気の患者を予測するのではなく this predicts expensive patients. これは、高価な患者を予測するものである。 Remember, the label was cost, ラベルはコストだったことを忘れないでください。 and when researchers took a closer look at those risk scores, そして、そのリスクスコアを研究者たちが詳しく調べたところ、このような結果になりました。 they realized that label choice was a big problem. ラベルの選択が大きな問題であることに気づいたのだ。 But by then, the algorithm had already been used しかし、その時にはすでにこのアルゴリズムは使われていたのです on millions of Americans. 何百万人ものアメリカ人に It produced risk scores for different patients, 患者さんごとにリスクスコアを作成しました。 and if a patient had a risk score と、患者がリスクスコアを持っていた場合 of almost 60, のほぼ60%。 they would be referred into the program プログラムへ紹介される for screening-- for their screening. 上映のために...上映のために And if they had a risk score of almost 100, そして、リスクスコアがほぼ100点だった場合。 they would default into the program. というのも、このプログラムにはデフォルトで入っているのです。 Now, when we look at the number of chronic conditions さて、慢性疾患の数を見てみると that patients of different risk scores were affected by, リスクスコアの異なる患者さんが影響を受けたこと。 you see a racial disparity where white patients 白人の患者さんが多いという人種的な格差があるのですね。 had fewer conditions than black patients は黒人患者より条件が少ない at each risk score. 各リスクスコアで That means that black patients were sicker つまり、黒人の患者さんの方が病気だったということです than their white counterparts 白人より when they had the same risk score. 同じリスクスコアであれば And so what happened is in producing these risk scores そして、このリスクスコアを作成する際に、何が起こったかというと and using spending, と支出を使う。 they failed to recognize that on average ということを認識していない。 black people incur fewer costs for a variety of reasons, 黒人は、さまざまな理由でコストが少ない。 including institutional racism, 制度的人種差別を含む including lack of access to high-quality insurance, 質の高い保険へのアクセス不足も含めて。 and a whole host of other factors. など、さまざまな要因があります。 But not because they're less sick. でも、病気が少なくなったからではない。 Not because they're less sick. 病気が少ないからではない。 And so I think it's important だから、大事なことだと思うんです to remember this had racist outcomes, というのは、これには人種差別的な結果があったことを忘れてはならない。 discriminatory outcomes, not because there was 差別的な結果が出たから、ではなく a big, bad boogie man behind the screen スクリーンの向こうの大きな悪いブギーマン out to get black patients, 黒人の患者を捕まえに行くようなものです。 but precisely because no one was thinking しかし、誰も考えていなかったからこそ about racial disparities in healthcare. 医療における人種間格差について No one thought it would matter. 誰もそれが重要だとは思わなかった。 And so it was about the colorblindness, それで、色覚異常のことだったんですね。 the race neutrality that created this. これを生み出した人種的中立性。 The good news is that now the researchers who exposed this 良いニュースは、今、このことを暴露した研究者たちが and who brought this to light are working with the company と、この件を明るみに出した人は、同社と協力している that produced this algorithm to have a better proxy. このアルゴリズムを作ったのは、より良いプロキシを持つためです。 So instead of spending, it'll actually be だから、支出する代わりに、実際には people's actual physical conditions 人体験 and the rate at which they get sick, et cetera, とか、病気になる率とか、いろいろあるんです。 that is harder to figure out, を把握することが難しくなっています。 it's a harder kind of proxy to calculate, というのは、より計算しにくい種類のプロキシです。 but it's more accurate. が、より正確です。 I feel like what's so unsettling about this healthcare algorithm このヘルスケア・アルゴリズムの何が不安なのかというと、次のような気がします。 is that the patients would have had は、患者さんが持っていたであろう no way of knowing this was happening. このようなことが起こっていることを知る由もない。 It's not like Twitter, where you can upload Twitterのように、アップロードできるわけではありません。 your own picture, test it out, compare with other people. 自分の写真を撮って、試して、他の人と比べてみてください。 This was just working in the background, これは裏で動いていただけなんです。 quietly prioritizing the care of certain patients ひっそりと特定患者を優先的に治療する based on an algorithmic score アルゴリズムに基づくスコア while the other patients probably never knew 他の患者さんは、おそらく知る由もなかったと思いますが they were even passed over for this program. このプログラムのために、彼らは抜てきされたりもした。 I feel like there has to be a way 何か方法があるような気がする for companies to vet these systems in advance, このようなシステムは、企業が事前に検証しておく必要があります。 so I'm excited to talk to Deborah Raji. ということで、Deborah Rajiと話すのが楽しみです。 She's been doing a lot of thinking 彼女はいろいろと考えている and writing about just that. と、まさにそのことについて書いています。 My question for you is how do we find out 私があなたに質問したいのは、どうすればそれを見つけられるかということです。 about these problems before they go out into the world 社会に出る前に、これらの問題点について and cause harm rather than afterwards? と害を及ぼすのは、むしろその後? So, I guess a clarification point is that machine learning つまり、明確なポイントとしては、機械学習が is highly unregulated as an industry. は、産業として非常に無規制です。 These companies don't have to report their performance metrics, これらの企業は、業績指標を報告する必要はありません。 they don't have to report their evaluation results 評価結果を報告する必要がない。 to any kind of regulatory body. を、何らかの規制機関に提出します。 But internally there's this new culture of documentation しかし、内部的には、この新しいドキュメンテーションの文化があります。 that I think has been incredibly productive. というのは、非常に生産的だと思うのです。 I worked on a couple of projects with colleagues at Google, Googleの同僚と一緒に、いくつかのプロジェクトに取り組みました。 and one of the main outcomes of that was this effort called Model Cards-- その主な成果のひとつが、この「モデルカード」と呼ばれる取り組みです。 very simple one-page documentation 非常にシンプルな1ページのドキュメント on how the model actually works, 実際にどのように機能するかについて but also questions that are connected to ethical concerns, のみならず、倫理的な問題につながる質問もあります。 such as the intended use for the model, など、そのモデルの使用目的に合わせて details about where the data's coming from, データの出所について詳しく説明します。 how the data's labeled, and then also, you know, データのラベルの付け方や、それから instructions to evaluate the system according to its performance システムの性能に応じた評価を行うための指示 on different demographic sub-groups. を、さまざまな人口動態のサブグループに分類しています。 Maybe that's something that's hard to accept もしかしたら、それは受け入れがたいことなのかもしれない is that it would actually be maybe impossible というのは、実際には不可能かもしれません。 to get performance across sub-groups to be exactly the same. は、サブグループ間のパフォーマンスを完全に同じにするために必要です。 How much of that do we just have to be like, "Okay"? どれだけ、「よし」と思えばいいのでしょうか。 I really don't think there's an unbiased data set 偏りのないデータというのは、本当にないと思います。 in which everything will be perfect. すべてが完璧になるような。 I think the more important thing is to actually evaluate もっと大事なのは、実際に評価することだと思うんです。 and assess things with an active eye を、積極的な目で評価する。 for those that are most likely to be negatively impacted. 最も悪影響を受ける可能性の高い人たちのために。 You know, if you know that people of color are most vulnerable 有色人種が最も脆弱であることを知れば or a particular marginalized group is most vulnerable または特定の疎外されたグループが最も脆弱である。 in a particular situation, を、ある特定の状況において then prioritize them in your evaluation. であれば、評価において優先順位をつけることができます。 But I do think there's certain situations でも、ある種のシチュエーションはあると思うんです。 where maybe we should not be predicting 予断を許さない状況 with a machine-learning system at all. 機械学習システムとは全く別物です。 We should be super cautious and super careful 超慎重に、超注意深くなるべき about where we deploy it and where we don't deploy it, を、どこに配備し、どこに配備しないかについてです。 and what kind of human oversight そして、どのような人間の監視を we put over these systems as well. このようなシステムにも、私たちは同じものをかけています。 The problem of bias in AI is really big. AIにおけるバイアスの問題は本当に大きいです。 It's really difficult. 本当に難しいんです。 But I don't think it means we have to give up でも、それはあきらめることではないと思います。 on machine learning altogether. を機械学習で完全に実現しました。 One benefit of bias in a computer versus bias in a human コンピュータのバイアスと人間のバイアスの利点の1つ is that you can measure and track it fairly easily. は、かなり簡単に測定・追跡できることです。 And you can tinker with your model そして、モデルをいじることができる to try and get fair outcomes if you're motivated to do so. その気になれば、公正な結果を得るために努力することができるのです。 The first step was becoming aware of the problem. まず、問題意識を持つことから始めました。 Now the second step is enforcing solutions, さて、第二段階はソリューションの実行です。 which I think we're just beginning to see now. というのが、今まさに見え始めているところだと思います。 But Deb is raising a bigger question. しかし、デブはもっと大きな疑問を投げかけている。 Not just how do we get bias out of the algorithms, アルゴリズムからバイアスを取り除く方法だけではありません。 but which algorithms should be used at all? が、どのアルゴリズムを全く使わないでいいのか? Do we need a predictive model to be cropping our photos? 写真のトリミングに予測モデルが必要なのか? Do we want facial recognition in our communities? 私たちのコミュニティに顔認証は必要ですか? Many would say no, whether it's biased or not. 偏っていようがいまいが、ダメだと言う人が多いでしょう。 And that question of which technologies そして、「どの技術を使うか」という問題 get built and how they get deployed in our world, を作り、それがどのように私たちの世界に展開されるのか。 it boils down to resources and power. それは、リソースとパワーに集約されます。 It's the power to decide whose interests それは、誰の利益を決定するための権力であり will be served by a predictive model, は、予測モデルで対応することになります。 and which questions get asked. とか、どの質問が出るかとか。 You could ask, okay, I want to know how landlords と聞くこともできます。 are making life for renters hard. は、賃借人の生活を苦しくしている。 Which landlords are not fixing up their buildings? 建物を修理しない大家は? Which ones are hiking rent? ハイキングのレンタルはどれ? Or you could ask, okay, let's figure out あるいは、よし、考えよう、と問いかけることもできる。 which renters have low credit scores. のうち、信用度の低い賃借人は Let's figure out the people who have a gap in unemployment 失業率にギャップがある人を把握しよう so I don't want to rent to them. だから、彼らに貸したくないんです。 And so it's at that problem そうして、その問題のところに of forming the question もんだいのかたち and posing the problem と問題提起 that the power dynamics are already being laid 力関係がすでに出来上がっていること that set us off in one trajectory or another. 私たちをある軌道に乗せるきっかけを与えてくれました。 And the big challenge there being that そして、そこで大きな課題となるのが with these two possible lines of inquiry, という2つの可能性を持っています。 - one of those is probably a lot more profitable... - Exactly, exactly. - その通りです。 - ...than the other one. - And too often the people who are creating these tools, - ...よりも優れています。- そして、これらのツールを作っている人たちがあまりにも多いのです。 they don't necessarily have to share the interests 必ずしも同じ趣味である必要はない of the people who are posing the questions, 質問を投げかけている人たちの but those are their clients. が、それは彼らのクライアントである。 So, the question for the designers and the programmers is そこで、デザイナーとプログラマーに質問です。 are you accountable only to your clients は、クライアントに対してのみ責任を負う or are you also accountable to the larger body politic? それとも、より大きな政治的組織に対する説明責任もあるのでしょうか? Are you responsible for what these tools do in the world? この道具が世の中に及ぼす影響に、あなたは責任を持てますか? ( music playing ) ( music playing ) ( indistinct chatter ) ( Indistinct chatter ) Man: Can you lift up your arm a little? 男性:腕を少し上げてもらえますか? ( chatter continues ) ( chatter continues )
B1 中級 日本語 Vox 人種 データ アルゴリズム 患者 機械 私たちは人種差別を自動化しているのか? (Are We Automating Racism?) 5 0 林宜悉 に公開 2022 年 10 月 29 日 シェア シェア 保存 報告 動画の中の単語