Placeholder Image

字幕表 動画を再生する

審査済み この字幕は審査済みです
  • Hello.

    こんにちは。

  • Today I'm going to be talking to you about a new technology that's affecting famous people.

    今日は私がお話しするのは、有名人に影響を与えている新しいテクノロジーについてです。

  • - Remember when Obama called Trump a dipshit? -"Complete dipshit."

    覚えていますか?オバマ氏がトランプを馬鹿と呼んだときのことを。完璧に愚か者です。

  • Or the time Kim Kardashian rapped, "Because I'm always half naked"?

    それとも、キム・カーダシアンが「私はいつも半分裸だから」と言って叩かれた時?

  • Or when Arnold Schwarzenegger impersonated himself?

    それとも、アーノルド・シュワルツェネッガーが自分になりすましたとき?

  • "Get out of there! There's a bomb in there! Get out!"

    「そこから逃げて!爆弾があるよ!逃げて!」

  • Deepfake. Deepfake. Deepfake.

    ディープフェイク。ディープフェイク。ディープフェイク。

  • You gotta be kidding!

    冗談でしょ!

  • This is a deepfake, too.

    これもディープフェイクです。

  • I'm not Adele.

    私はアデルではないです。

  • But I am an expert in online manipulation.

    でも、オンラインを巧みに操る専門家です。

  • So deepfakes is a term that is used to describe video or audio files that have been created using artificial intelligence.

    ディープフェイクとは、人工知能を使用して作られたビデオやオーディオファイルを表す用語です。

  • My favorite is probably Lisa Vanderpump.

    私の好きなのは、おそらくリサ・ヴァンダーポンプです。

  • It started as a very basic face-swapping technology.

    顔を交換するという、基本的な技術のものから始まりました。

  • And now it's turned into film-level CGI.

    そして今では、映画レベルのCGIに変わってきました。

  • There's been this huge explosion of, "Oh my goodness, we can't trust anything."

    「なんてこった、もう何も信用できない」という気持ちが増してきます。

  • Yes, deepfakes are eerily dystopian.

    そうです、ディープフェイクは気味が悪いほど極悪です。

  • And they're only going to get more realistic and cheaper to make.

    そしてそれらは、より現実に近くさらに安価で制作できるようになっています。

  • But the panic around them is overblown.

    しかし、慌てふためきは度を越すようになっています。

  • In fact, the alarmist hype is possibly more dangerous than the technology itself.

    実際に、人騒がせで誇大な広告は、技術自体よりも危険かもしれません。

  • Let me break this down.

    詳しくお話ししていきます。

  • First, what everyone is freaking out about is actually not new.

    初めに誰もがびっくりするのが、これらのことは実は新しいことではないということです。

  • It's a much older phenomenon that I like to call the weaponization of context or shallowfakes with Photoshop and video editing software.

    これはもっと古い社会現象で、私はこれを コンテキストの武器化やフォトショップやビデオ編集ソフトを使ったシャローフェークと呼んでいます。

  • "There's so many needs . . ."

    とっても多くのニーズがあります。

  • How about the time Nancy Pelosi appeared to be drunk while giving a speech?

    ナンシー・ペロシがスピーチをしている間、まるで酔っ払ったように見えた時はどうでしょうか?

  • "But you never know."

    実際のところはわかりません。

  • "with this president of the United States."

    しかしアメリカの大統領が

  • Turns out that video was just slowed down at 75%.

    ビデオを見せる際に、速度を75%程度に落としていました。

  • "It was very, very strange."

    これはとっても奇妙です。

  • You can have a really simplistic piece of misleading content that can do huge damage.

    これは簡単に誤解を与えてしまうコンテンツで、大きなダメージを与えてしまいます。

  • For example, in the lead-up to the midterms, we saw lots of imagery around this caravan of people who were moving towards the U.S.

    例えば、中間選挙に向けた準備中に、私たちはアメリカに向けて移動している集団の画像を見かけました。

  • This photo was shared with captions demonizing the so-called migrant caravan at the U.S.-Mexico border in 2018.

    この写真は、2018年にアメリカとメキシコの国境でおこなわれた、移民の集団がデモを行っている姿として、悪魔のような見出しとともに共有されていました。

  • But a reverse image search showed it was actually Pakistani refugees in Greece.

    しかし、似ている画像で検索してみると、実際にはギリシャのパキスタン難民の画像でした。

  • You don't need deepfakes' A.I. technology to manipulate emotions or to spread misinformation.

    感情の操作や、誤った情報を広めるための人工知能技術によるディープフェイクは必要ありません。

  • This brings me to my second point.

    ここからが2番目のポイントになりますが。

  • What we should be really worried about is the liar's dividend.

    何が本当に心配なのかというと、嘘つきたちへの利益です。

  • The lies and actions people will get away with by exploiting widespread skepticism to their own advantage.

    嘘や行動によって、広い範囲の人に発言の真実性を自分たちに有利に働かせながら逃げていきます。

  • So, remember the "Access Hollywood" tape that emerged a few weeks before the 2016 election?

    2016年に行われた選挙の、数週間前に登場した「ハリウッドへのアクセス」テープを覚えていますか?

  • "When you're a star, they let you do it."

    「あなたが有名なら、みんなは何をしても許してくれる」

  • "You can do anything."

    「何をしてもいいんだよ」

  • Around that time, Trump apologized, but then more recently he's actually said, I'm not sure if I actually said that.

    当時、トランプは謝罪しましたが最近になって私は実際にそれを言ったかどうかわからない、と語っています。

  • When anything can be fake, it becomes much easier for the guilty to dismiss the truth as fake.

    なんでも偽物の可能性があるばあい、真実を捨てた偽物の方がより簡単になります。

  • What really keeps me awake at night is less the technology.

    何が私を夜の間起こし続けているかというと、テクノロジーではありません。

  • It's how we as a society respond to the idea that we can't trust what we see or what we hear.

    社会としての私たちは、見たり聞いたりしたものが信頼できないという考えに、どうやって反応するかです。

  • So if we are fearmongering, if we are hyperbolic, if we are waving our hands in the air, that itself can be part of the problem.

    したがって、自らの政策を有利に展開しようとしている場合、話が大げさな場合や空中に手をあげている場合、それ自体が問題の一部になる可能性があります。

  • You can see where this road leads.

    どのような話につなるか見当がつきます。

  • As public trust in institutions like the media, education and elections dwindles, then democracy itself becomes unsustainable.

    メディア、教育、選挙などの機関に対する大衆の信頼が低下していき、民主主義自体を維持することができなくなります。

  • The way that we respond to this serious issue is critical.

    こういった深刻な問題への対応方法は、とても重要と言えます。

  • Partly this is the platforms thinking very seriously about what they do with this type of content, how they label this kind of content.

    一部のプラットフォームでは、このタイプのコンテンツで何をするか、この種のコンテンツにどのようにラベルを付けるかについて非常に真剣に考えています。

  • Partly is the public recognizing their own responsibility.

    部分的にこのプラットフォームでは、こういったタイプのコンテンツで何をするかや、この種のコンテンツにどのようなレッテルを張るかについて、とても真剣に考えていると言えます。

  • And if you don't know 100%, hand on heart, "This is true," please don't share, because it's not worth the risk.

    もしあなたが心から100%「これは本当です」と確信できなければ、危険を冒してまでシェアをする価値はありません。

Hello.

こんにちは。

字幕と単語
審査済み この字幕は審査済みです

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます