字幕表 動画を再生する AI 自動生成字幕 字幕スクリプトをプリント 翻訳字幕をプリント 英語字幕をプリント Let's play a game. ゲームをしよう Close your eyes and picture a shoe. 目を閉じて靴を思い浮かべてください。 OK. いいわよ Did anyone picture this? 誰かこれを想像した? This? これ? How about this? これはどうでしょうか? We may not even know why, but each of us 理由はわからないかもしれませんが、一人一人が is biased toward one shoe over the others. は片方の靴に偏っている。 Now, imagine that you're trying to teach a computer 今、あなたがコンピュータを教えようとしていると想像してみてください。 to recognize a shoe. 靴を認識するために。 You may end up exposing it to your own bias. 結局自分の偏見に晒されてしまうかもしれません。 That's how bias happens in machine learning. 機械学習で偏りが起こるのはそういうことです。 But first, what is machine learning? その前に、機械学習とは何か? Well, it's used in a lot of technology we use today. まあ、今の技術でもよく使われていますからね。 Machine learning helps us get from place to place, 機械学習は、場所から場所への移動を助けてくれます。 gives us suggestions, translates stuff, 提案をしてくれたり、翻訳してくれたり。 even understands what you say to it. あなたがそれに何を言っているかさえ理解していません。 How does it work? どうやって使うのか? With traditional programming, 従来のプログラミングで people hand code the solution to a problem, step by step. 人々は問題の解決策を一歩一歩手作業でコード化していきます。 With machine learning, computers learn the solution by finding patterns in data 機械学習では、コンピュータがデータからパターンを見つけて解決策を学習する ,so it's easy to think there's no human bias in that. だから人間のバイアスがないと考えるのは簡単だ But just because something is based on data doesn't automatically make it neutral. しかし、データに基づいているからといって、自動的に中立になるわけではありません。 Even with good intentions, it's impossible to separate ourselves from our own human biases, 善意であっても、人間の偏見と切り離すことはできません。 so our human biases become part of the technology we create in many different ways. 人間のバイアスは、様々な方法で創造する技術の一部になるのです。 There's interaction bias, like this recent game 最近のこのゲームのように相互作用に偏りがある where people were asked to draw shoes for the computer. パソコン用の靴の絵を描いてもらいました。 Most people drew ones like this. 大抵の人はこんな感じで描いていました。 So as more people interacted with the game, だからゲームと交流する人が増えれば増えるほど the computer didn't even recognize these. コンピューターはこれらを認識しなかった Latent bias-- for example, if you were training a computer 潜在的なバイアス...例えば、あなたがコンピュータを訓練していたとしたら on what a physicist looks like, and you're using pictures of past physicists, 過去の物理学者の写真を使っていますね your algorithm will end up with a latent bias skewing towards men. あなたのアルゴリズムは、男性に偏った潜在的なバイアスを持つことになります。 And selection bias-- say you're training a model to recognize faces. そして選択バイアス...顔を認識するモデルを訓練しているとしよう。 Whether you grab images from the internet or your own photo library, インターネットから画像を取得しても、自分のフォトライブラリから画像を取得しても。 are you making sure to select photos that represent everyone? みんなを代表するような写真を選ぶようにしていますか? Since some of our most advanced products use machine learning, 最先端の製品の中には機械学習を利用しているものもあるので we've been working to prevent that technology from perpetuating negative human bias-- 私たちは、その技術が人間の負のバイアスを永続させるのを 防ぐために働いてきました... from tackling offensive or clearly misleading information 誤解を招くような情報には手を出さないように from appearing at the top of your search results page 検索結果ページの上部に表示されることから to adding a feedback tool in the search bar 検索バーにフィードバックツールを追加する so people can flag hateful or inappropriate autocomplete suggestions. 憎むべき、あるいは不適切なオートコンプリートの提案にフラグを立てることができます。 It's a complex issue, and there is no magic bullet, それは複雑な問題で、魔法の弾丸はありません。 but it starts with all of us being aware of it, しかし、それは私たち全員が意識することから始まります。 so we can all be part of the conversation, 私たちは会話の一部になることができます。 because technology should work for everyone. なぜなら、技術は誰にでも通用するはずだからです。
B1 中級 日本語 米 Google バイアス 学習 機械 偏見 コンピュータ 機械学習と人間のバイアス 12156 692 Aniceeee に公開 2018 年 07 月 30 日 シェア シェア 保存 報告 動画の中の単語