Placeholder Image

字幕表 動画を再生する

AI 自動生成字幕
  • This is a story involving Facebook

    これはフェイスブックが絡んだ話

  • and a company called Cambridge Analytica.

    とケンブリッジ・アナリティカという会社があります。

  • Which I know sounds like a Harry Potter spell

    ハリー・ポッターの呪文みたいだけど

  • that does your homework, but...

    宿題はやってくれるけど

  • it's actually a data analytics company

    実はデータ分析会社なんです

  • dedicated to one thing:

    一つのことに専念しています。

  • figuring out how to manipulate you at all costs.

    何としてでもあなたを操る方法を考え出した。

  • NEWSMAN: Beginning in 2014, many Facebook users were paid

    ニュースマン:2014年から、多くのFacebookユーザーが有料化

  • to take a personality test funded by Cambridge Analytica,

    ケンブリッジ・アナリティカが出資する性格検査を受けるために。

  • agreeing to give up some personal data.

    個人情報を提供することに同意する

  • But what they didn't know--

    しかし、彼らが知らなかったことは...

  • at the same time, the company was scooping up

    をスクープしていました。

  • all of their friends' private information, too.

    友達のプライベートな情報もすべて

  • So a survey that started with about 270,000 people

    ということで、約27万人から始まった調査

  • ultimately collected more than 50 million profiles.

    は最終的に5000万人以上のプロフィールを収集しました。

  • All right, I'm sorry, but that's some bullshit, right?

    わかったよ、悪いけど、それはちょっとしたデタラメだよね?

  • Because your friend took this dumbass quiz,

    あなたのお友達がこのアホみたいなクイズに出たからよ

  • this company you've never heard of got access to your account?

    聞いたこともない会社が アカウントにアクセスしたのか?

  • Yeah. It's like your friend boned someone,

    友達が誰かを骨抜きにしたみたいだな

  • and then you get the STD.

    そして性病になる

  • It's like, "What the (bleep) man."

    "なんだよ(ピッピッピッ)男 "って感じですね。

  • "It was totally worth it." "Not for me."

    "それだけの価値があった""私は違う"

  • (applause)

    (拍手)

  • Now...

    今は...

  • Now, you might be saying,

    さて、あなたはこう言うかもしれません。

  • "What do I care if Cambridge Analytica got my Facebook data?

    "ケンブリッジ・アナリティカが私のFacebookデータを手に入れても気にならない?

  • "I don't mind that people know

    "人に知られても気にしない

  • "that I like Ben Affleck's back tattoo.

    "ベン・アフレックの背中のタトゥーが好きだということ。

  • I think it brings out his eyes."

    "目が冴えると思います"

  • But the truth is, the truth is, in the wrong hands,

    しかし、本当のところは、間違った手の中にある

  • our data can be used to do some pretty sinister things.

    私たちのデータは、かなり不吉なことをするために使用することができます。

  • The level of what can be predicted about you,

    自分のことを予測できるレベル。

  • based on what you like on Facebook,

    Facebookでの「いいね!」に基づいて

  • is higher than that your wife would say about you,

    は奥さんが言うよりも高い。

  • what your parents or friends can say about you.

    ご両親やお友達に言われること

  • Cambridge Analytica will try to pick whatever mental weakness

    ケンブリッジ・アナリティカは、どんな精神的弱点でも摘み取ろうとするだろう。

  • or vulnerability that we think you have,

    あなたが持っていると思われる脆弱性や

  • and try to warp your perception of what's real around you.

    と、周りの現実の認識を歪めようとします。

  • Okay, now, that should scare you.

    さてさて、それはあなたを怖がらせる必要があります。

  • Because if you've seen movies, you know that when the person

    なぜなら、映画を見たことがある人ならば、その人が

  • with crazy hair gets stressed out,

    髪の毛が狂っているとストレスがたまる

  • something really bad is going down.

    何か本当に悪いことが起きている

  • It's like, "They hacked into the main frame.

    メインフレームにハッキングされた」って感じですね。

  • I wouldn't believe you but you got purple dreadlocks."

    信じられないだろうが、君は紫のドレッドヘアをしている。"

  • And this was really bad, because, sure,

    そして、これは本当に最悪だった、なぜなら、確かに。

  • some people might say this is just like advertising.

    これは広告のようなものだと言う人もいるかもしれません。

  • It sounds just like advertising, right?

    広告と同じように聞こえますよね?

  • They try to get you to buy something

    買ってもらおうとする

  • by tugging at your emotions.

    感情を引っ張ることで

  • But this is ten levels above that,

    しかし、これはその10段階上のレベルです。

  • because traditional advertisers

    なぜなら、従来の広告主は

  • don't know who you are, personally.

    個人的には誰だかわからない。

  • Like, imagine if Samsung knew from Facebook data

    サムスンがFacebookのデータから知っていた場合を想像するように

  • that you lost your dad last week,

    先週、お父さんを亡くしたことを

  • so they put a message on your feed that their new phone

    あなたのフィードにメッセージを送って 新しい携帯電話のことを知らせる

  • could contact your dad on the other side.

    向こう側のお父さんと連絡が取れるかもしれない

  • You would be way more likely to buy that phone.

    そのスマホを買った方がよっぽどお得なんだよな。

  • It would tug at your heartstrings. You'd be like,

    それはあなたの琴線に触れるでしょう。君はこうなるだろう

  • (crying): "Dad, is that you?

    (泣きながら)。"お父さん、あなたなの?

  • "Oh, my God, Dad, is that you?

    "あら、お父さん、あなたなの?

  • "Can you tell me where you left the keys for the Camaro, please?

    "カマロの鍵をどこに置いてきたか教えてくれないか?

  • "I, um, yeah, I can't find them.

    "私は、えーと、そうなんですが、見つからないんです。

  • All right, bye. I love you."

    じゃあね"愛してる"

  • Like, they could get to you.

    君に手を出すかもしれない

  • And we know, we know that Cambridge Analytica

    そして、私たちが知っているのは、ケンブリッジ・アナリティカが

  • got people's data from Facebook.

    Facebookから人々のデータを得た

  • We know that they figured out how to use this data

    このデータをどう使うかを考え出したのは知っている。

  • to manipulate people.

    人を操るために

  • What you may not know is who they gave all that power to.

    あなたが知らないかもしれないのは、彼らがすべての力を与えたのは誰かということです。

  • TV REPORTER: The data firm hired by Donald Trump's

    テレビリポーター:ドナルド・トランプ氏が雇ったデータ会社

  • presidential election campaign

    大統領選挙運動

  • used secretly obtained information

    密かに入手した情報

  • from tens of millions of unsuspecting Facebook users

    何千万人ものFacebookユーザーから

  • to directly target potential American voters.

    アメリカの潜在的な有権者を直接ターゲットにしています。

  • The entire operation centered around deception,

    欺瞞を中心とした全体の運営。

  • false grassroots support, and a strategy

    偽りの草の根支援、そして戦略

  • that seems to border on electronic brainwashing.

    それは電子的な洗脳の境界線上にあるようです。

  • You see, using Cambridge Analytica's tools,

    ほら、ケンブリッジ・アナリティカのツールを使って。

  • Trump's campaign figured out a way to manipulate people,

    トランプの選挙運動は、人々を操る方法を考え出した。

  • or as they called it, "electronic brainwashing."

    "電子的洗脳 "と呼ばれています

  • Which also happens to be the name of my favorite

    それはまた、私のお気に入りの名前でもあります。

  • Daft Punk album. Yeah.

    ダフトパンクのアルバム。そうだな

  • It's the one with that song that goes like,

    あの歌のような感じのやつですね。

  • (electronic-like vocalizing)

    エレクトロニック・ヴォーカル

  • No, no. It's the other one. The one that goes,

    いや、そうじゃない。それはもう一つのものです。行く方。

  • (electronic-like vocalizing)

    エレクトロニック・ヴォーカル

  • Is that the-- No, no. It's the one where it's like,

    それは...それは、それが似ているものだ。

  • (electronic-like vocalizing)

    エレクトロニック・ヴォーカル

  • Yeah, that one. That one.

    ああ、あれだあれだ

  • Here's an example, here's an example

    ここに一例があります、ここに一例があります

  • of how the Trump campaign used Cambridge Analytica's tools.

    トランプ陣営がケンブリッジ・アナリティカのツールをどのように使用したかについて

  • Cambridge Analytica figured out that the phrase

    ケンブリッジ・アナリティカは、そのフレーズが

  • "drain the swamp" made people angry

    "沼の水を引く

  • at career politicians, and this would make them want

    キャリアのある政治家を見ていて、これは彼らに

  • to vote for Donald Trump, and I'm not making this up.

    ドナルド・トランプに投票するために、これは作り話ではありません。

  • Trump told us this himself.

    トランプ氏が自ら語った。

  • It was a term that was actually given to me.

    実際に与えられた言葉です。

  • Usually, I like to think them up myself,

    普段は自分で考えるのが好きなんです。

  • but this was given to me.

    しかし、これは私に与えられたものです。

  • But they had this expression, "drain the swamp."

    "沼の水を抜く "という表現があったが

  • And I hated it.

    そして、私はそれが大嫌いでした。

  • I thought it was so hokey.

    凄くホカホカしていると思っていました。

  • I said that is the hokiest. Give me a break.

    それが一番ホカホカしてるって言ってるんだよ。勘弁してくれ

  • I'm embarrassed to say it.

    恥ずかしくて言えない。

  • And I was in Florida,

    そしてフロリダにいました。

  • where 25,000 people going wild.

    25,000人が暴れまわっているところ。

  • And I said, "And we will drain the swamp."

    そして私は言った "沼の水を抜く "と

  • The place went crazy.

    場所がおかしくなった。

  • I couldn't believe it.

    信じられませんでした。

  • Yeah, neither could we.

    ああ、俺たちもだ

  • You know, you always think it's unrealistic

    いつも非現実的だと思っていると

  • when Bond villains reveal their entire scheme,

    ボンドの悪党が計画の全貌を明らかにした時

  • and then you see this, and you're like, yeah.

    で、これを見て、ああ、そうなんだ、と。

  • (mimics Trump): "And you see, Mr. Bond, unless someone finds

    トランプの真似をする)。"そしてね、ボンドさん、誰かが見つけない限り

  • "the hidden switch under my castle,

    "私の城の下に隠されたスイッチ

  • "no one will be able to stop the bomb.

    "誰も爆弾を止められない

  • That's why-- Oh, he's gone. Oh, no."

    だから... ああ、彼は行ってしまった。"あぁ、ダメだ"

  • (normal voice): So thanks to Cambridge Analytica,

    (普通の声)。ケンブリッジ・アナリティカに感謝します。

  • Trump knew "drain the swamp"

    トランプは "沼の排水 "を知っていた

  • would drum up anti-establishment votes.

    反体制派の票を集めることになる

  • People who might have never voted before.

    今まで投票したことがないかもしれない人

  • But here's the thing, don't get it twisted.

    でも、ここからが本題なんですが、捻じ曲げてはいけません。

  • They might be able to use these tools

    これらのツールを使うことができるかもしれません。

  • to push you in a certain direction,

    を使って、あなたをある方向に押し出します。

  • but they couldn't completely trick you

    騙されても仕方がない

  • into voting for Donald Trump.

    ドナルド・トランプに投票するように

  • And you know how we know this?

    どうやって知ったかって?

  • Because of this:

    これがあるからです。

  • We haven't spoken about the fact that Ted Cruz,

    テッド・クルーズの事実については話していません。

  • who was also a presidential candidate,

    大統領候補にもなっていた

  • also used Cambridge Analytica.

    ケンブリッジ・アナリティカも使っていました。

  • His campaign was a disaster.

    彼の選挙運動は大失敗だった。

  • Yeah.

    そうだな

  • All the electric brainwashing in the world

    全世界の電脳洗脳

  • can't make people like Ted Cruz.

    テッドクルーズを好きになれない

  • All of it.

    全部だよ

  • -All of it. -(cheers and applause)

    -全部だ-(歓声と拍手)

  • Like, you could hypnotize someone.

    誰かに催眠術をかけるとか

  • You could you be like, You're a dog. (barks)

    あなたは犬のようになることができます。(バーク)

  • You're a chicken. (gobbles)

    チキンのくせに。(ガブリ)

  • You like Ted Cruz. I'm not hypnotized.

    テッド・クルーズが好きなのね催眠術にかかってない

  • This is bull. Like, this...

    これは、強気だ。これは...

  • Hypnosis doesn't even work, man.

    催眠術も効かないんだよ。

  • Basically, Trump didn't create new fears in people, right?

    基本的にトランプは人々の中に新たな恐怖を生み出していませんよね?

  • He found a way to appeal to fears and desires

    恐怖と欲望に訴える方法を見つけた

  • that already existed, you know?

    すでに存在していたものだよ

  • And they used Facebook,

    そしてフェイスブックを使っていた。

  • in the same way that Facebook will be like,

    フェイスブックと同じように

  • "Hey, remember your friend Steve from high school?"

    "高校時代のスティーブを覚えてるか?"

  • Except this time it was like, "Hey, remember

    今回は別として、「おい、覚えているか?

  • how you're scared of brown people? Yeah."

    茶色い人を怖がっているのか?"そうだよ"

  • And I'm gonna be honest with you.

    そして、正直に言うと

  • The fact that Donald Trump used Cambridge Analytica's tools

    ドナルド・トランプがケンブリッジ・アナリティカのツールを使ったという事実

  • isn't the worst thing that happened here.

    ここで起きた最悪の事態ではありません。

  • Every politician will use the tools

    どの政治家も道具を使う

  • at their disposal to get votes.

    票を得るために自由に使える

  • Obama did a similar thing himself.

    オバマ自身も似たようなことをしていた。

  • My problem is with Facebook.

    私の問題はフェイスブックです。

  • They need to be held accountable,

    彼らは責任を負う必要がある

  • because not only did they turn a blind eye

    見て見ぬふりをしただけでなく

  • to Cambridge Analytica using this data,

    このデータを使ってケンブリッジ・アナリティカに

  • but they also didn't tell their users that this was happening.

    しかし、彼らはまた、このようなことが起こっていることをユーザーに伝えていませんでした。

  • At the same time, though,

    同時に、しかし。

  • it's responsibility to be vigilant.

    警戒心を持つことが責任です。

  • Like, in the year 2018,

    2018年とか

  • you just have to assume everything you click online,

    ネットでクリックしたことを全て想定しておけばいいんだよ。

  • everything you watch, every website you visit,

    あなたが見ているすべてのもの、あなたが訪問するすべてのウェブサイト。

  • will be collecting data on you,

    あなたのデータを収集します。

  • and that data will be used eventually

    そして、そのデータは最終的に使用されます

  • to try and sell you something.

    何かを売ろうとしている

  • Even the people on the places you trust,

    信頼している場所の人でも

  • they're all just trying to sell you something.

    何かを売りつけようとしているだけです。

  • Never forget that.

    絶対に忘れないでください。

  • And now, a word from our sponsors.

    そして今、スポンサーからの一言。

This is a story involving Facebook

これはフェイスブックが絡んだ話

字幕と単語
AI 自動生成字幕

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます