字幕表 動画を再生する
“We're entering an era in which our enemies can make anyone say anything at any point in time.”
"敵はいつでも誰にでも何でも言わせる時代に突入している"
Jordan Peele created this fake video of President Obama to demonstrate how easy it was to put
ジョーダン・ピールは、このオバマ大統領のフェイクビデオを作成して、いかに簡単に
words in someone else's mouth-
くちのなかのことば
moving forward we need to be more vigilant with what we trust from the internet.
前進するには、インターネットから信頼するものをより警戒する必要があります。
not everyone bought it, but the technology behind it is rapidly improving, even as worries
誰もが買ったわけではないが、それを支える技術は急速に向上している。
increase about its potential for harm.
害の可能性についての増加。
This is your Bloomberg QuickTake on Fake Videos.
これはブルームバーグのフェイクビデオのクイックテイクです。
Deep fakes, or realistic-looking fake videos and audio, gained popularity as a means of
ディープフェイクと呼ばれるリアル感のあるフェイク動画や音声が人気を博したのは
adding famous actresses into porn scenes.
有名女優をAVシーンに加える
Despite bans on major websites, they remain easy to make and find.
大手のサイトでは禁止されているにもかかわらず、彼らは簡単に作ることができ、見つけることができることに変わりはありません。
They're named for the deep-learning AI algorithms that make them possible.
それらを可能にする深層学習型のAIアルゴリズムにちなんで名付けられています。
Input real audio or video of a specific person- the more, the better- and the software tries
特定の人の実際のオーディオまたはビデオを入力してください - より多くの、より良い - とソフトウェアは試してみます。
to recognize patterns in speech and movement.
発話や動きのパターンを認識できるようになる。
Introduce a new element like someone else's face or voice, and a deep fake is born.
誰かの顔や声のような新しい要素を導入して、深みのあるフェイクが生まれる。
Jeremy Kahn: It's actually extremely easy to make one of these things… there was just
Jeremy Kahn: こういうものを作るのは実は非常に簡単なんです。
some breakthroughs from academic researchers who work with this particular kind of machine
この種の機械を扱う学術研究者によるいくつかのブレークスルー
learning in the past few weeks, which would drastically reduce the amount of video you
ここ数週間の学習では、動画の量を大幅に減らすことができます。
need actually to create one of these.
実際にこれらの1つを作成する必要があります。
Programs like FakeApp, the most popular one for making deep fakes, need dozens of hours
深い偽物を作るための最も人気のあるFakeAppのようなプログラムは、数十時間を必要とします。
of human assistance to create a video that looks like this rather than this, but that's
人力ではなく、このような動画を作成することができますが、それは
changing.
変化しています。
In September researchers at Carnegie-Mellon revealed unsupervised software that accurately
9月にカーネギーメロン大学の研究者たちが、教師なしのソフトウェアが正確に
reproduced not just facial features, but changing weather patterns and flowers in bloom as well.
顔だけでなく、天候の変化や咲いている花も再現しています。
But with increasing capability comes increasing concern.
しかし、能力の増加に伴い、懸念が高まっています。
You know, this is kind of fake news on steroids potentially.
ステロイドのフェイクニュースだな
We do not know of a case yet where someone has tried to use this to perpetrate a kind
誰かがこれを使って、ある種の罪を犯そうとしたケースをまだ知らない。
of fraud or an information warfare campaign, or for that matter, to really damage someone's
詐欺や情報戦のキャンペーン、あるいは本当に誰かを傷つけるために
reputation, but it's the danger that everyone is really afraid of.
評判ですが、誰もが本当に恐れている危険性です。
In a world where fakes are easy to create- authenticity also becomes easier to deny.
偽物が簡単に作られる世界では、真正性を否定することも容易になります。
People caught doing genuinely objectionable things could claim evidence against them is
純粋に不愉快なことをして捕まった人は、自分たちに不利な証拠があると主張することができます。
bogus.
偽物だ
Fake videos are also difficult to detect, though researchers and the US Department of
偽物のビデオも検出するのは難しいが、研究者や米国の Department of the
Defense, in particular, have said they're working on ways to counter them.
特に防衛省は対策を練っていると言っています。
Deep Fakes do however have some positive potential- take CereProc, who creates digital voices
しかし、ディープフェイクにはポジティブな可能性があります-デジタルボイスを作成するCereProcを例に挙げてみましょう。
for people who lose theirs from disease…
病気で亡くなられた方のためにも
There are also applications that could be considered more value-neutral, like the many,
また、多くのような、より価値のあるものと考えられるアプリケーションもあります。
many deep fakes that exist solely to turn as many movies as possible into Nicolas Cage
一本でも多くの映画をニコラス・ケイジにするためだけに存在する多くの深い偽物
movies.
の映画を見てみましょう。