Placeholder Image

字幕表 動画を再生する

AI 自動生成字幕
  • How did you first find out that there were deepfakes of you?

    最初はどうやって自分の深顔があることを知ったんですか?

  • My husband actually told me.

    実際に夫に言われました。

  • Because he is friends with Ashton Kutcher.

    アシュトン・カッチャーと友達だから。

  • So he actually told him like, “Oh, by the way, there these things called deepfakes

    それで彼は実際に彼に言ったんです "ところで、ディープフェイクスと呼ばれるものがあります

  • and your wife is one of them."

    "あなたの奥様もその一人です"

  • Deepfakes use machine learning to fabricate events that never happened

    ディープフェイクは機械学習を使って、起こってもいない出来事を捏造する

  • like Bill Hader shape-shifting:

    ビル・ヘイダーの変身のように

  • And I said, “Seth Rogan was like, “It was amazing!

    そして、私は「セス・ローガンが『すごかった!』と言っていました。

  • He has like, a bike track in his back yard!

    裏庭に自転車のコースがあるんだ!

  • It's phenomenal.”

    驚異的だ"

  • And I did a Seth Rogan impression

    セス・ローガンを演じてみた

  • And it was like I did a magic trick, Tom Cruise was like, “Ahoooh!”

    手品をしたみたいに トム・クルーズが "アッホー!"って

  • And there's growing concern that in the wrong hands this technology

    この技術が悪用されることに 懸念が高まっています

  • can pose a very real national security threat.”

    "非常に現実的な国家安全保障上の脅威を 与える可能性がある"

  • could impact the 2020 election

    "2020年の選挙に影響を与える可能性がある"

  • could become a real and present danger to our democracy, Dana.”

    "我々の民主主義にとっては" "本当に危険な存在になるかもしれない"

  • But the most pressing, daily threat of deepfakes isn't politics.

    しかし、ディープフェイクの最も差し迫った脅威は政治ではない。

  • It's porn.

    ポルノだ

  • People are hijacking women's faces to make porn videos they never consented to be in.

    人は女の顔を乗っ取って、同意していないAVを作っている。

  • Which is why this kind of deepfake is harmful, even when people know it's not real.

    だからこそこの手のディープフェイクは害悪なんだよ、本物じゃないと分かっていても。

  • I was just shocked.

    ただただ衝撃を受けました。

  • Because this is my face, it belongs to me!

    これは私の顔だから!私のものだから!」と言っていました。

  • In a September 2019 survey, researchers at Deeptrace found that of the deepfake videos

    2019年9月の調査では、ディープトレースの研究者がディープフェイク動画のうち

  • they could identify online, 96% were pornographic.

    彼らはオンラインで識別することができ、96%がポルノだった。

  • And that more or less 100% percent of these videos are women and are not consensual.

    そしてその動画の多かれ少なかれ100%が女性であり、同意を得られていないということ。

  • Pornhub and other big porn streaming sites have policies banning deepfakes,

    Pornhubや他の大手ポルノストリーミングサイトは、ディープフェイクを禁止するポリシーを持っています。

  • though they don't seem to be enforcing them.

    施行していないようですが。

  • Mostly, these videos show up on separate sites dedicated to this kind of abuse.

    ほとんどの場合、これらのビデオは、この種の虐待に特化した別のサイトに表示されます。

  • It's not just celebrities anymore.

    もう芸能人だけじゃないんだよ。

  • Not that celebrities feel any less pain from these videos.

    芸能人がこれらの動画を見て痛みを感じなくなったわけではありません。

  • But the phenomenon is evolving at a rate where we're seeing deepfake pornography increasing

    しかし、この現象はディープフェイクポルノが増加する速度で進化しています。

  • in number and an increasing number of victims as well.

    数が増え、被害者も増えています。

  • I was at work and I got an email on my phone.

    仕事中に携帯にメールが来た。

  • In fact, I can even bring up the email.

    実際、メールを持ち出すこともできます。

  • 25th of May, 4:18 p.m.

    5月25日午後4時18分

  • "F.Y.I. There is a deepfake video of you on some porn sites.

    "F.Y.I. あなたのディープフェイク動画がいくつかのポルノサイトにあります。

  • It looks real."

    "本物のようだ"

  • I remember sitting down receiving that email.

    そのメールを受け取って座っていたのを覚えています。

  • I think it was like you're frozen for that moment of time.

    その瞬間だけ凍りついているような感じだったと思います。

  • It was depicting me having sexual intercourse, and the title of the video had my full name.

    私が性行為をしている様子が描かれていて、動画のタイトルには私のフルネームが入っていました。

  • And then I saw another video that was depicting me performing oral sex.

    そして、オーラルセックスをしている様子が描かれた別の動画を見た。

  • Noelle is an Australian law graduate.

    ノエルはオーストラリアの法学部を卒業しています。

  • She's not a celebrity.

    彼女は芸能人ではありません。

  • Someone took photos she shared on social media and first photoshopped them into nude images

    何者かが彼女がソーシャルメディアでシェアした写真を撮影し、最初にヌード画像にフォトショップで加工した。

  • then graduated to deepfake videos.

    その後、ディープフェイク動画を卒業しました。

  • What's happening in these videos is a specific kind of digital manipulation,

    これらの動画で起きていることは、特定の種類のデジタル操作です。

  • and it's unlike older face-swapping filters you might have used.

    と、あなたが使用しているかもしれない古い顔交換フィルターとは異なります。

  • Those tools let you put your face into your friend's head, but you still controlled it

    それらのツールは、あなたが友人の頭の中に顔を入れることができますが、あなたはまだそれを制御していました。

  • -- a sort of video Photoshop --

    -- ビデオ・フォトショップの一種である。

  • transferring both your facial features and your expressions.

    顔の特徴と表情の両方を転写する

  • But deepfakes can take the facial features alone,

    でもディープフェイクスは顔の特徴だけでも取ることができます。

  • and animate that face with the expressions of someone else.

    と、その顔を誰かの表情でアニメーション化してみましょう。

  • Tom Cruise was likeAhoooh!”

    "トム・クルーズは... アッホー!"

  • This is what makes deepfake porn videos so invasive.

    これがディープフェイクのポルノ動画の侵略性だよね。

  • The creator takes away a victim's control of her own face

    作り手が被害者の顔色をうかがう

  • and uses it for something she never wanted.

    彼女が望んでいなかったことのためにそれを使う

  • Transferring a mask of someone's facial features requires training a piece of software

    誰かの顔の特徴のマスクを転送するには、ソフトウェアの一部をトレーニングする必要があります。

  • called anautoencoderon hundreds of images of the same face from different angles

    オートエンコーダー」と呼ばれる、同じ顔の何百枚もの画像を異なる角度から撮影しています。

  • and in different lighting with different expressions until it learns what they all have in common.

    と照明を変えて表情を変えて、それぞれの共通点を覚えるまで。

  • That volume of images has long been available of celebrities, but increasingly it exists of...

    その画像のボリュームは、長い間、有名人の利用可能であったが、ますますそれは存在している...

  • anyone.

    誰でもいい

  • If you're someone not even with a very intense social media presence, but just a presence online,

    もしあなたが、ソーシャルメディア上での存在感が非常に強い人でもなく、オンライン上での存在感だけであれば、そのようなことはありません。

  • you have a few pictures.

    写真があるんだな

  • Maybe there's a video of you from a party or something like this.

    合コンの時の動画とかあるんじゃないの?

  • You have so many training images to take from that.

    そこからのトレーニング画像が多いですね。

  • At the moment, you do still need a fair bit of data to make a convincing deepfake.

    現時点では、説得力のあるディープフェイクを作るためには、かなりのデータが必要です。

  • But as the technology is improving, we're needing less data and the tools are becoming increasingly

    しかし、技術が向上しているので、必要なデータが少なくなり、ツールもどんどん

  • accessible and user-friendly.

    アクセシブルでユーザーフレンドリー。

  • And there's a growing infrastructure for deepfakes.

    ディープフェイクのインフラも充実してきたしな

  • It's not just about posting videos, it's also about forums discussing how to make them,

    動画を投稿するだけでなく、その作り方を議論しているフォーラムもあります。

  • how to target certain individuals.

    特定の個人をターゲットにする方法

  • In fact, the termdeepfakeoriginated as the name of a subreddit for swapping

    実際、「ディープフェイク」という言葉は、スワップのためのサブレッドディットの名前として生まれました。

  • celebrity faces onto porn stars.

    有名人の顔をポルノスターに

  • Reddit banned the page, but the conversation just moved to other sites.

    Redditはページを禁止したが、会話は他のサイトに移ってしまった。

  • You have almost directories about, "Okay, you want to make a deepfake of a certain celebrity.

    某芸能人のディープフェイクをしたい」ということについては、ほぼディレクトリを持っていますね。

  • Here are adult performers that will best suit that."

    それにぴったりの大人のパフォーマーがここにいる。"

  • There's a lot of money to be made from selling custom deepfakes.

    カスタムディープフェイクスを売って儲けようとしている人が多いですね。

  • Users pay for deepfakes of specific celebrities

    ユーザーは特定の芸能人のディープフェイクスにお金を払う

  • or even women they know personally.

    あるいは個人的に知っている女性であっても

  • And they discuss whether all of this is legal.

    そして、このすべてが合法かどうかを議論している。

  • Some think they can protect themselves by identifying the videos as fake.

    動画を偽物と特定することで身を守れると考えている人もいます。

  • But that's not true.

    しかし、それは事実ではありません。

  • If you live in the US and someone makes porn with your face, you can sue the creator

    アメリカに住んでいて、誰かが自分の顔を使ってポルノを作った場合、制作者を訴えることができます。

  • whether or not they've marked it as a deepfake.

    ディープフェイクとしてマークされているかどうかは別として

  • What is true is, it's very difficult to actually do that.

    本当のことを言うと、実際にそれをするのは非常に難しいです。

  • You'd need to pay to bring a lawsuit, with no certainty you'd be able to secure a punishment

    処分を確実に確保するためには金を払って訴訟を起こす必要があるだろう

  • or even find the creator, let alone stop the video from spreading.

    動画の拡散を止めることはおろか、制作者を見つけることすらできません。

  • Some people on these sites question the morality of what they're doing.

    この手のサイトでは、自分のやってることのモラルを疑う人もいる。

  • And disagree about how they'd feel if it happened to them.

    自分の身に起こったらどう感じるかについても意見が分かれる。

  • But it probably won't happen to them.

    でも、おそらく彼らの身には起こらないでしょう。

  • That's the point.

    そこがポイントです。

  • Taking a woman's face and putting it into this context is part of a long history

    女性の顔を取ってこの文脈に入れることは長い歴史の一部です。

  • of using sexual humiliation against women.

    女性に対して性的屈辱を利用することの

  • You know, we're having this gigantic conversation about consent and I don't consent.

    同意の話をしているのに同意しない

  • So that's why it's not OK.

    だからOKではないのです。

  • Even if it's labeled as, "this is not actually her."

    "これは彼女じゃない "ってレッテルを貼られてもね

  • It's hard to think about that.

    それを考えるのは難しいですね。

  • This is probably one of the most difficult things because

    これはおそらく、最も難しいことの一つであると思います。

  • fake porn and my name will be forever associated.

    偽物のポルノと私の名前は永遠に付きまとうだろう

  • My children, my future children, will have to see things.

    私の子供たち、未来の子供たちが見なければならないものがあります。

  • My future partner will have to see things.

    将来のパートナーは見なければならないものがあります。

  • And that's what makes me sad.

    それが悲しくて仕方がない。

  • I just, I wish that the Internet were a little bit more responsible and a little bit kinder.

    ただ、ネットがもう少し責任感を持って、もう少し優しくしてくれればいいのにと思う。

How did you first find out that there were deepfakes of you?

最初はどうやって自分の深顔があることを知ったんですか?

字幕と単語
AI 自動生成字幕

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます