Placeholder Image

字幕表 動画を再生する

AI 自動生成字幕
  • I'm sure when you try to generate a photo or a video, you probably throw in every description in the book.

    写真やビデオを生成しようとするとき、おそらくあなたは本に書かれているあらゆる説明を投げかけると思う。

  • But watch what happens when you leave it all up to the model to decide.

    しかし、すべてをモデルの判断に委ねるとどうなるか見てみよう。

  • So first things first, what is bias?

    ではまず、バイアスとは何か?

  • Bias is often unconscious tendency to see, think, or feel about certain things in a certain way.

    バイアスとは、特定の物事を特定の方法で見たり、考えたり、感じたりする無意識の傾向のことである。

  • Biases are somewhat hardwired into our brains to help us navigate the world more efficiently.

    バイアスは、世界をより効率的にナビゲートするために、私たちの脳に多少なりとも組み込まれている。

  • The problem is biases often lead to stereotypes.

    問題は、偏見がしばしばステレオタイプにつながることだ。

  • And you'd think that this is a uniquely human problem, but surprise, it's not.

    これは人間特有の問題だと思うだろうが、驚くなかれ、そうではないのだ。

  • It is a known issue.

    これは既知の問題だ。

  • These models tend to default to certain stereotypical representations.

    これらのモデルは、特定のステレオタイプな表現がデフォルトになりがちだ。

  • Deepti is a staff research scientist at Runway, and she led a critical research effort in understanding and correcting stereotypical biases in generative image models.

    DeeptiはRunwayのスタッフ・リサーチ・サイエンティストで、生成画像モデルにおけるステレオタイプ・バイアスの理解と修正という重要な研究努力を主導した。

  • Now I think it's the best time to fix it because generative content is everywhere.

    ジェネレーティブ・コンテンツはどこにでもある。

  • We don't want to amplify any existing like social biases.

    既存の社会的バイアスのようなものを増幅させたくない。

  • There are mainly two ways to approach this problem, algorithm and data.

    この問題へのアプローチには、主にアルゴリズムとデータの2つの方法がある。

  • Today, we're going to focus on data.

    今日はデータに焦点を当てる。

  • These models are trained on mountains and mountains of it.

    これらのモデルは、山のような山の中で訓練されている。

  • And because the data comes from us humans, here and there, our biases start to show up.

    そして、そのデータは私たち人間から得られたものであるため、あちこちに私たちのバイアスが現れ始める。

  • But just like we can uncover and prove our own biases, so too can AI models.

    しかし、私たちが自分自身のバイアスを発見し、証明できるように、AIモデルも同様だ。

  • And this process is crucial to ensure fair and equitable use of AI technologies.

    そしてこのプロセスは、AI技術の公平かつ公正な利用を確保するために極めて重要である。

  • The defaults that the model tends to produce are geared towards like younger population, very attractive looking women or men with like really sharp like jawline, one form of beauty that is pushed onto us by the society.

    モデルが作りがちなデフォルトは、若い人たちや、とても魅力的に見える女性、顎のラインがシャープな男性など、社会が私たちに押し付けている美のひとつの形に向けられている。

  • Within these models, there are a lot of repetition of certain types of data, over-indexing and sometimes a general lack of representation altogether.

    このようなモデルでは、特定のタイプのデータの繰り返しが多く、インデックスが過剰で、時には表現が完全に欠如していることもある。

  • We noticed if the profession tends to be like of power, like CEO or doctors, it does tend to default to lighter skin tone people and like most likely perceived male as opposed to professions of not very high income do tend to default to like darker skin tone and females.

    CEOや医師のように権力を持つ職業であれば、肌の色が明るく、男性である可能性が高いが、それほど高収入でない職業であれば、肌の色が黒く、女性である可能性が高い。

  • And this is not a true representation of the current state of the world.

    そして、これは世界の現状を正しく表していない。

  • This is a big problem we're starting to create solutions for.

    これは私たちが解決策を作り始めている大きな問題だ。

  • We call it diversity fine tuning or DFT.

    私たちはこれをダイバーシティ・ファイン・チューニング(DFT)と呼んでいる。

  • You might have heard of fine tuning before.

    微調整という言葉を聞いたことがあるかもしれない。

  • It's widely used across models to hone styles and aesthetics.

    スタイルと美学を磨くために、モデル間で広く使われている。

  • The way it works is by putting more emphasis on specific subsets of data that represent the outcomes you're looking for.

    その方法は、求めている結果を表すデータの特定の部分集合に重点を置くことである。

  • So if you want things to look like anime, you would fine tune with images like these.

    だから、アニメのように見せたいなら、このようなイメージで微調整することになる。

  • And this actually works incredibly well.

    そしてこれは実際、信じられないほどうまく機能している。

  • Even with a very small subset of data, the model can learn to generalize from it.

    非常に小さなデータの部分集合であっても、モデルはそこから一般化を学習することができる。

  • And this is what diversity fine tuning sets out to do with bias.

    そしてこれこそが、多様性の微調整がバイアスに働きかけることなのだ。

  • We generated a lot of text prompts, which are pictures of like female doctor, female doctor who belongs to a particular ethnicity and used a text to image model to generate synthetic images using these prompts.

    私たちは、女性医師や特定の民族に属する女性医師のような写真であるテキストプロンプトを大量に生成し、これらのプロンプトを使用して合成画像を生成するためにテキスト画像モデルを使用しました。

  • Deepthi and her team used 170 different professions and 57 ethnicities, and they generated close to 90,000 synthetic images to create a rich and diverse data set to diversity fine tune our model.

    Deepthiと彼女のチームは、170の異なる職業と57の民族を使用し、9万枚近い合成画像を作成して、我々のモデルを多様に微調整するための豊富で多様なデータセットを作成した。

  • It was very exciting to see what we thought was like a simple solution of like augmenting the data and just retraining the model that helped in significantly like fixing the biases.

    データを増やし、モデルを再トレーニングするだけで、バイアスを大幅に修正することができる。

  • Diversity fine tuning is already proving to be an effective way to make text to image models that are safer and more representative of the world we live in.

    多様性の微調整は、より安全で私たちの住む世界を代表するようなテキストから画像へのモデルを作る効果的な方法であることがすでに証明されている。

  • I'm being optimistic that we will get to a place where the models are more inclusive.

    私は、モデルがより包括的なものになると楽観的に考えている。

I'm sure when you try to generate a photo or a video, you probably throw in every description in the book.

写真やビデオを生成しようとするとき、おそらくあなたは本に書かれているあらゆる説明を投げかけると思う。

字幕と単語
AI 自動生成字幕

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます

B1 中級 日本語

AIの偏見とその修正方法|ランウェイ (Bias in AI and How to Fix It | Runway)

  • 20 0
    冨田倖生 に公開 2025 年 02 月 09 日
動画の中の単語