Placeholder Image

字幕表 動画を再生する

AI 自動生成字幕
  • Let's play a game.

    ゲームをしよう

  • Close your eyes and picture a shoe.

    目を閉じて靴を思い浮かべてください。

  • OK.

    いいわよ

  • Did anyone picture this?

    誰かこれを想像した?

  • This?

    これ?

  • How about this?

    これはどうでしょうか?

  • We may not even know why, but each of us

    理由はわからないかもしれませんが、一人一人が

  • is biased toward one shoe over the others.

    は片方の靴に偏っている。

  • Now, imagine that you're trying to teach a computer

    今、あなたがコンピュータを教えようとしていると想像してみてください。

  • to recognize a shoe.

    靴を認識するために。

  • You may end up exposing it to your own bias.

    結局自分の偏見に晒されてしまうかもしれません。

  • That's how bias happens in machine learning.

    機械学習で偏りが起こるのはそういうことです。

  • But first, what is machine learning?

    その前に、機械学習とは何か?

  • Well, it's used in a lot of technology we use today.

    まあ、今の技術でもよく使われていますからね。

  • Machine learning helps us get from place to place,

    機械学習は、場所から場所への移動を助けてくれます。

  • gives us suggestions, translates stuff,

    提案をしてくれたり、翻訳してくれたり。

  • even understands what you say to it.

    あなたがそれに何を言っているかさえ理解していません。

  • How does it work?

    どうやって使うのか?

  • With traditional programming,

    従来のプログラミングで

  • people hand code the solution to a problem, step by step.

    人々は問題の解決策を一歩一歩手作業でコード化していきます。

  • With machine learning, computers learn the solution by finding patterns in data

    機械学習では、コンピュータがデータからパターンを見つけて解決策を学習する

  • ,so it's easy to think there's no human bias in that.

    だから人間のバイアスがないと考えるのは簡単だ

  • But just because something is based on data doesn't automatically make it neutral.

    しかし、データに基づいているからといって、自動的に中立になるわけではありません。

  • Even with good intentions, it's impossible to separate ourselves from our own human biases,

    善意であっても、人間の偏見と切り離すことはできません。

  • so our human biases become part of the technology we create in many different ways.

    人間のバイアスは、様々な方法で創造する技術の一部になるのです。

  • There's interaction bias, like this recent game

    最近のこのゲームのように相互作用に偏りがある

  • where people were asked to draw shoes for the computer.

    パソコン用の靴の絵を描いてもらいました。

  • Most people drew ones like this.

    大抵の人はこんな感じで描いていました。

  • So as more people interacted with the game,

    だからゲームと交流する人が増えれば増えるほど

  • the computer didn't even recognize these.

    コンピューターはこれらを認識しなかった

  • Latent bias-- for example, if you were training a computer

    潜在的なバイアス...例えば、あなたがコンピュータを訓練していたとしたら

  • on what a physicist looks like, and you're using pictures of past physicists,

    過去の物理学者の写真を使っていますね

  • your algorithm will end up with a latent bias skewing towards men.

    あなたのアルゴリズムは、男性に偏った潜在的なバイアスを持つことになります。

  • And selection bias-- say you're training a model to recognize faces.

    そして選択バイアス...顔を認識するモデルを訓練しているとしよう。

  • Whether you grab images from the internet or your own photo library,

    インターネットから画像を取得しても、自分のフォトライブラリから画像を取得しても。

  • are you making sure to select photos that represent everyone?

    みんなを代表するような写真を選ぶようにしていますか?

  • Since some of our most advanced products use machine learning,

    最先端の製品の中には機械学習を利用しているものもあるので

  • we've been working to prevent that technology from perpetuating negative human bias--

    私たちは、その技術が人間の負のバイアスを永続させるのを 防ぐために働いてきました...

  • from tackling offensive or clearly misleading information

    誤解を招くような情報には手を出さないように

  • from appearing at the top of your search results page

    検索結果ページの上部に表示されることから

  • to adding a feedback tool in the search bar

    検索バーにフィードバックツールを追加する

  • so people can flag hateful or inappropriate autocomplete suggestions.

    憎むべき、あるいは不適切なオートコンプリートの提案にフラグを立てることができます。

  • It's a complex issue, and there is no magic bullet,

    それは複雑な問題で、魔法の弾丸はありません。

  • but it starts with all of us being aware of it,

    しかし、それは私たち全員が意識することから始まります。

  • so we can all be part of the conversation,

    私たちは会話の一部になることができます。

  • because technology should work for everyone.

    なぜなら、技術は誰にでも通用するはずだからです。

Let's play a game.

ゲームをしよう

字幕と単語
AI 自動生成字幕

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます