Placeholder Image

字幕表 動画を再生する

  • I would like to tell you a story

    翻訳: Shigeto Oeda 校正: Tomoyuki Suzuki

  • connecting the notorious privacy incident

    今日は アダムとイブが巻き込まれた

  • involving Adam and Eve,

    今日は アダムとイブが巻き込まれた

  • and the remarkable shift in the boundaries

    有名なプライバシー事件と

  • between public and private which has occurred

    ここ10年間に起きた

  • in the past 10 years.

    公私の境界の 大きな変化を関連付けて

  • You know the incident.

    お話ししたいと思います

  • Adam and Eve one day in the Garden of Eden

    この事件はご存知の通りです

  • realize they are naked.

    エデンの園にいる アダムとイブはある日

  • They freak out.

    自分たちが 裸なのに気付きます

  • And the rest is history.

    彼らは ひどく あわてます

  • Nowadays, Adam and Eve

    その後の顛末は ご存知の通りです

  • would probably act differently.

    今日なら アダムとイブは

  • [@Adam Last nite was a blast! loved dat apple LOL]

    恐らく 違った行動を取るでしょう

  • [@Eve yep.. babe, know what happened to my pants tho?]

    [ @アダム :昨夜は楽しかった! あのリンゴは美味しかった(笑)]

  • We do reveal so much more information

    [ @イブ:本当に でも ズボンどうしたんだろう?]

  • about ourselves online than ever before,

    私たちは今までになく多くの

  • and so much information about us

    情報をオンラインで公開しています

  • is being collected by organizations.

    そして我々に関する情報は

  • Now there is much to gain and benefit

    様々な組織によって収集されています

  • from this massive analysis of personal information,

    この大量の個人情報

  • or big data,

    あるいはビッグデータから

  • but there are also complex tradeoffs that come

    非常に有用で 価値のあるものが得られますが

  • from giving away our privacy.

    同時にプライバシーを手放すことに伴う

  • And my story is about these tradeoffs.

    複雑なトレードオフも存在します

  • We start with an observation which, in my mind,

    今日は このような トレードオフについてお話しします

  • has become clearer and clearer in the past few years,

    まずここ数年の間に 私のなかで

  • that any personal information

    非常に明確になってきた

  • can become sensitive information.

    どんな個人情報でもプライバシー情報になり得る

  • Back in the year 2000, about 100 billion photos

    という洞察から話したいと思います

  • were shot worldwide,

    2000年の時点で 全世界で

  • but only a minuscule proportion of them

    1000億枚ほどの写真が撮られましたが

  • were actually uploaded online.

    ウェブにアップロードされたものの割合は

  • In 2010, only on Facebook, in a single month,

    非常に小さなものでした

  • 2.5 billion photos were uploaded,

    2010年には ファイスブックだけでも

  • most of them identified.

    25億枚の写真がひと月にアップされ

  • In the same span of time,

    そのほとんどが誰の写真か特定可能です

  • computers' ability to recognize people in photos

    同じ期間で

  • improved by three orders of magnitude.

    写真に写っている人を認識する

  • What happens when you combine

    コンピュータの能力は3桁上がりました

  • these technologies together:

    この2つの技術を組み合わせると

  • increasing availability of facial data;

    何が起こるでしょうか

  • improving facial recognizing ability by computers;

    顔写真がどんどん手に入るようになり

  • but also cloud computing,

    コンピュータの顔認識の能力が向上する

  • which gives anyone in this theater

    そしてクラウドコンピューティングが

  • the kind of computational power

    ここにいる誰に対しても

  • which a few years ago was only the domain

    数年前には政府の専門機関しか

  • of three-letter agencies;

    持てなかったような

  • and ubiquitous computing,

    コンピュータ能力を提供します

  • which allows my phone, which is not a supercomputer,

    ユビキタスコンピューティングによって

  • to connect to the Internet

    スーパーコンピュータではない私の携帯電話が

  • and do there hundreds of thousands

    インターネットに接続して

  • of face metrics in a few seconds?

    数十万の顔認識を

  • Well, we conjecture that the result

    数秒で実行することを可能にします

  • of this combination of technologies

    このような技術の組み合わせが

  • will be a radical change in our very notions

    プライバシーと匿名性に対する

  • of privacy and anonymity.

    私たちの基本的な理解を

  • To test that, we did an experiment

    大きく変えると推測します

  • on Carnegie Mellon University campus.

    この考えを検証するために

  • We asked students who were walking by

    カーネギーメロン大学で ある実験を行ないました

  • to participate in a study,

    キャンパスを歩いている学生に声を掛け

  • and we took a shot with a webcam,

    実験に参加してもらい

  • and we asked them to fill out a survey on a laptop.

    ウェブカメラで学生の顔写真を撮って

  • While they were filling out the survey,

    ノートパソコンに用意した アンケートに答えてもらいました

  • we uploaded their shot to a cloud-computing cluster,

    彼らがアンケートに答えている間に

  • and we started using a facial recognizer

    クラウドコンピューティングのクラスタに 写真をアップし

  • to match that shot to a database

    顔認識技術を使って

  • of some hundreds of thousands of images

    フェイスブックから取ってきた

  • which we had downloaded from Facebook profiles.

    数十万の画像データーベースと

  • By the time the subject reached the last page

    照合しました

  • on the survey, the page had been dynamically updated

    被験者の学生がアンケートの最後の

  • with the 10 best matching photos

    ページに到達する頃には そのページは動的に変更されていて

  • which the recognizer had found,

    顔認識エンジンが選んだ最も似ている

  • and we asked the subjects to indicate

    10枚の写真が表示されます

  • whether he or she found themselves in the photo.

    そこで 学生にその写真の中に

  • Do you see the subject?

    自分が映っているかどうか尋ねました

  • Well, the computer did, and in fact did so

    学生をみつけられますか?

  • for one out of three subjects.

    コンピュータは探せたわけです

  • So essentially, we can start from an anonymous face,

    実際3人中1人の割合で学生の特定が可能でした

  • offline or online, and we can use facial recognition

    基本的には 不特定の顔写真から始めて

  • to give a name to that anonymous face

    オンラインかオフラインかに関わらず 顔認識技術を使って

  • thanks to social media data.

    その写真の人物の名前を特定することが

  • But a few years back, we did something else.

    ソーシャルメディアのおかげで可能です

  • We started from social media data,

    数年前にこれとは異なる実験を行いました

  • we combined it statistically with data

    ソーシャルメディアのデータから始めて

  • from U.S. government social security,

    それを統計的に米国政府の

  • and we ended up predicting social security numbers,

    ソーシャルセキュリティー関連の データと組み合わせ

  • which in the United States

    最終的にソーシャルセキュリティー番号を 特定することが出来ました

  • are extremely sensitive information.

    ソーシャルセキュリティー番号は米国では

  • Do you see where I'm going with this?

    プライバシーに関する非常に重要な情報です

  • So if you combine the two studies together,

    この話の先に見えてくるものは何でしょう?

  • then the question becomes,

    この2つの実験を組み合わせると

  • can you start from a face and,

    ある疑問が浮かびます

  • using facial recognition, find a name

    顔の写真から始めて

  • and publicly available information

    顔認識技術によって名前を特定し

  • about that name and that person,

    その名前からその個人に対する

  • and from that publicly available information

    公開情報を取得し

  • infer non-publicly available information,

    次に公開情報から

  • much more sensitive ones

    よりプライベートな

  • which you link back to the face?

    非公開情報を参照し

  • And the answer is, yes, we can, and we did.

    それを元の顔と結びつけられるでしょうか?

  • Of course, the accuracy keeps getting worse.

    答えはイエスで 私たちはそれに成功しました

  • [27% of subjects' first 5 SSN digits identified (with 4 attempts)]

    もちろん精度は徐々に悪くなります [27%の被験者のソーシャルセキュリティ番号の 頭5桁が特定できました]

  • But in fact, we even decided to develop an iPhone app

    もちろん精度は徐々に悪くなります [27%の被験者のソーシャルセキュリティ番号の 頭5桁が特定できました]

  • which uses the phone's internal camera

    iPhoneのアプリも作ることにしました [27%の被験者のソーシャルセキュリティ番号の 頭5桁が特定できました]

  • to take a shot of a subject

    内蔵のカメラで

  • and then upload it to a cloud

    人物の写真を撮って

  • and then do what I just described to you in real time:

    それをクラウドにアップして

  • looking for a match, finding public information,

    先ほど説明した処理をリアルタイムで実行して

  • trying to infer sensitive information,

    該当する写真を探し 公開されている情報を探し

  • and then sending back to the phone

    そこからプライバシー情報を探し

  • so that it is overlaid on the face of the subject,

    それを携帯に送り返し

  • an example of augmented reality,

    その人物の写真と重ね合わせて表示する

  • probably a creepy example of augmented reality.

    なんかゾッとする 拡張現実の例だと思います

  • In fact, we didn't develop the app to make it available,

    なんかゾッとする 拡張現実の例だと思います

  • just as a proof of concept.

    このアプリは公開していません

  • In fact, take these technologies

    単に可能かやってみただけです

  • and push them to their logical extreme.

    このような技術の応用が

  • Imagine a future in which strangers around you

    最大限に進んだ場合を考えると

  • will look at you through their Google Glasses

    周りにいる他人が

  • or, one day, their contact lenses,

    あなたの顔を グーグルグラスや

  • and use seven or eight data points about you

    コンタクトレンズを通して見て

  • to infer anything else

    あなたに関する7、8個のデータから

  • which may be known about you.

    知り得るどんな個人情報にも

  • What will this future without secrets look like?

    アクセスできるような未来が想像できます

  • And should we care?

    このような秘密のない世界はどんな感じでしょうか?

  • We may like to believe

    このようなことに注意を払うべきでしょうか?

  • that the future with so much wealth of data

    私たちは

  • would be a future with no more biases,

    多くのデータにアクセスできる未来が

  • but in fact, having so much information

    偏見のない世界だと信じる傾向にあります

  • doesn't mean that we will make decisions

    でも 多くの情報があるからといって

  • which are more objective.

    より客観的な判断をするとは限りません

  • In another experiment, we presented to our subjects

    より客観的な判断をするとは限りません

  • information about a potential job candidate.

    もう1つの実験では 被験者に

  • We included in this information some references

    就職志望者の情報を見てもらいました

  • to some funny, absolutely legal,

    この情報のなかに 意図的に混ぜたのは

  • but perhaps slightly embarrassing information

    被験者自身がネットに投稿した

  • that the subject had posted online.

    完全に合法でありながら ちょっと具合の悪い

  • Now interestingly, among our subjects,

    情報に関することです

  • some had posted comparable information,

    被験者のなかには

  • and some had not.

    そのような情報を投稿したことがある人も

  • Which group do you think

    ない人もいました

  • was more likely to judge harshly our subject?

    どちらのグループが求職者を

  • Paradoxically, it was the group

    厳しく非難したと思いますか?

  • who had posted similar information,

    逆説的ですが 自分自身もそのような

  • an example of moral dissonance.

    情報を投稿したことがあるグループでした

  • Now you may be thinking,

    これは言動不一致の良い例です

  • this does not apply to me,

    皆さんは これは自分は当てはまらない

  • because I have nothing to hide.

    なぜなら隠しておきたいことは

  • But in fact, privacy is not about

    ないからと思っているかも知れません

  • having something negative to hide.

    しかしプライバシーとは

  • Imagine that you are the H.R. director

    ネガティブなことを隠すことではありません

  • of a certain organization, and you receivesumés,

    あなたがどこかの組織の

  • and you decide to find more information about the candidates.

    人事担当責任者で 就職希望者の 履歴書を受け取ったときに

  • Therefore, you Google their names

    応募者に関してもう少し調べたいと思ったとしましょう

  • and in a certain universe,

    候補者の名前をグーグルで検索したら

  • you find this information.

    あるサイトで こんな情報が 見つかったとします

  • Or in a parallel universe, you find this information.

    あるサイトで こんな情報が 見つかったとします

  • Do you think that you would be equally likely

    一方 どこかのパラレルワールドで この情報を見つけるとします

  • to call either candidate for an interview?

    あなたは両方の応募者と

  • If you think so, then you are not

    同じように面談をしたいと思うでしょうか

  • like the U.S. employers who are, in fact,

    もしそう思うのなら

  • part of our experiment, meaning we did exactly that.

    あなたは米国の雇用主とは違います

  • We created Facebook profiles, manipulating traits,

    私たちは実験の一部として 正にそのような状況を試してみました

  • then we started sending outsumés to companies in the U.S.,

    ファイスブックに人柄を操作した 架空のプロファイルを登録し

  • and we detected, we monitored,

    米国内の様々な企業に その人物の履歴書を送りました

  • whether they were searching for our candidates,

    そして企業がその人物に関する情報を

  • and whether they were acting on the information

    ソーシャルメディアで検索するかどうか

  • they found on social media. And they were.

    また そこで得た情報に影響されるか 観察すると

  • Discrimination was happening through social media

    影響されると分かりました

  • for equally skilled candidates.

    同じ能力の候補者間で

  • Now marketers like us to believe

    ソーシャルメディアを介した差別が発生していました

  • that all information about us will always

    マーケティングの人たちは

  • be used in a manner which is in our favor.

    私たち自身に関する情報が

  • But think again. Why should that be always the case?

    私たちのために使われると 信じさせようとしています

  • In a movie which came out a few years ago,

    でもよく考えてみてください 常にそうであるはずがありません

  • "Minority Report," a famous scene

    何年か前の「マイノリティー・レポート」という映画で

  • had Tom Cruise walk in a mall

    トム・クルーズがショッピング・モールを歩くと

  • and holographic personalized advertising

    個人に特化した広告がホログラフィックに

  • would appear around him.

    彼を取り巻くように表示される

  • Now, that movie is set in 2054,

    有名な場面がありました

  • about 40 years from now,

    映画の設定は2054年

  • and as exciting as that technology looks,

    40年後の未来となっていて

  • it already vastly underestimates

    その技術は素晴らしいもののように見えますが

  • the amount of information that organizations

    それはすでに

  • can gather about you, and how they can use it

    組織が集めることのできる個人情報と

  • to influence you in a way that you will not even detect.

    それが思いもよらない方法で利用され得る

  • So as an example, this is another experiment

    ということに関して過小評価をしています

  • actually we are running, not yet completed.

    そのような例として 現在私たちが行なっている

  • Imagine that an organization has access

    実験を紹介します

  • to your list of Facebook friends,

    企業があなたのフェイスブックの

  • and through some kind of algorithm

    友達リストにアクセスできると仮定してみて下さい

  • they can detect the two friends that you like the most.

    そして何らかのアルゴリズムで

  • And then they create, in real time,

    一番仲のいい友達を2人選ぶことが出来るとします

  • a facial composite of these two friends.

    そしてその2人の友達の顔の写真を

  • Now studies prior to ours have shown that people

    リアルタイムにで合成出来るとします

  • don't recognize any longer even themselves

    過去の研究から 合成された顔写真は

  • in facial composites, but they react

    本人自身もそれと認識は出来ないのですが

  • to those composites in a positive manner.

    何故かその写真の顔に親しみをもつ

  • So next time you are looking for a certain product,

    ということが分かっています

  • and there is an ad suggesting you to buy it,

    次に何か特定の商品を探しているとき

  • it will not be just a standard spokesperson.

    それを勧める広告があり

  • It will be one of your friends,

    勧めているのは見知らぬ人ではなく

  • and you will not even know that this is happening.

    あなたの友達の合成イメージで

  • Now the problem is that

    それに 全く気付かないかもしれません

  • the current policy mechanisms we have

    問題は

  • to protect ourselves from the abuses of personal information

    現在の法律では

  • are like bringing a knife to a gunfight.

    個人情報の悪用から 我々を保護する仕組みは

  • One of these mechanisms is transparency,

    銃撃戦にナイフで対抗するような ものだということです

  • telling people what you are going to do with their data.

    このような仕組みの一つが透明性で

  • And in principle, that's a very good thing.

    入手した情報をどの様に使うかを 明確するものです

  • It's necessary, but it is not sufficient.

    原理として それは良いことです

  • Transparency can be misdirected.

    必要ですが 充分ではありません

  • You can tell people what you are going to do,

    透明性は誤用される可能性があります

  • and then you still nudge them to disclose

    情報をどのように使うかを伝えた上で

  • arbitrary amounts of personal information.

    個人情報を提供するように

  • So in yet another experiment, this one with students,

    相手を誘導することが可能です

  • we asked them to provide information

    学生を対象に もう1つ実験を実施しました

  • about their campus behavior,

    学生達にキャンパスでの行ないに関して

  • including pretty sensitive questions, such as this one.

    情報を提供するように依頼しました

  • [Have you ever cheated in an exam?]

    試験でカンニングをしたことがありますか?

  • Now to one group of subjects, we told them,

    といった非常にプライベートな質問を含んでいます

  • "Only other students will see your answers."

    一つ目のグループには

  • To another group of subjects, we told them,

    回答は 他の学生だけが閲覧すると伝えました

  • "Students and faculty will see your answers."

    もう一つのグループには

  • Transparency. Notification. And sure enough, this worked,

    他の学生と教授陣が回答を閲覧すると伝えました

  • in the sense that the first group of subjects

    透明性と留意点が明確であり 当然期待した結果になりました

  • were much more likely to disclose than the second.

    最初のグループの方が

  • It makes sense, right?

    2番目のグループより情報を開示する可能性が 高いという結果です

  • But then we added the misdirection.

    妥当な結果だと思います

  • We repeated the experiment with the same two groups,

    次に誤った誘導を加えました

  • this time adding a delay

    同じ2つのグループで実験を行ないましたが

  • between the time we told subjects

    今度はどのように回答が利用されるかを

  • how we would use their data

    伝えるタイミングと

  • and the time we actually started answering the questions.

    実際に質問をするタイミングを

  • How long a delay do you think we had to add

    ずらしました

  • in order to nullify the inhibitory effect

    教授陣も回答を閲覧するという

  • of knowing that faculty would see your answers?

    抑止作用のある情報を

  • Ten minutes?

    忘れるのにどの位の時間が必要だったと思いますか?

  • Five minutes?

    10分?

  • One minute?

    5分?

  • How about 15 seconds?

    1分?

  • Fifteen seconds were sufficient to have the two groups

    15秒ではどうでしょう?

  • disclose the same amount of information,

    両方のグループに同じ量の情報を開示させるのには

  • as if the second group now no longer cares

    15秒あれば充分でした

  • for faculty reading their answers.

    2つ目のグループも教授陣が

  • Now I have to admit that this talk so far

    回答を見ることを気にしていないようでした

  • may sound exceedingly gloomy,

    ここまでの話で

  • but that is not my point.

    とても憂鬱な気分になるとは思います

  • In fact, I want to share with you the fact that

    でもそれがポイントではないのです

  • there are alternatives.

    実際には別のアプローチがある

  • The way we are doing things now is not the only way

    ということをお話したいのです

  • they can done, and certainly not the best way

    現在のやり方が唯一の方法ということは

  • they can be done.

    ありませんし ベストな方法でもありません

  • When someone tells you, "People don't care about privacy,"

    ありませんし ベストな方法でもありません

  • consider whether the game has been designed

    もし誰かが 「人々はプライバシーを気にしない」と言ったら

  • and rigged so that they cannot care about privacy,

    やり方が巧妙にデザインされていて

  • and coming to the realization that these manipulations occur

    プライバシーを 気にさせなくしているか疑って下さい

  • is already halfway through the process

    そのような操作が存在すると気付くことは

  • of being able to protect yourself.

    すでに自分自身を守る道を

  • When someone tells you that privacy is incompatible

    半分進んでいることを示しています

  • with the benefits of big data,

    もし誰かが プライバシーと

  • consider that in the last 20 years,

    ビッグデータから得られるメリットは 両立しないなどと言い放ったら

  • researchers have created technologies

    ここ20年間 研究者は

  • to allow virtually any electronic transactions

    理論上どんな電気的な通信に対しても

  • to take place in a more privacy-preserving manner.

    プライバシーを強化できる技術を

  • We can browse the Internet anonymously.

    開発してきたことを思い出すべきです

  • We can send emails that can only be read

    私たちは匿名のままインターネットを ブラウズすることができます

  • by the intended recipient, not even the NSA.

    メールを指定した受信者だけが

  • We can have even privacy-preserving data mining.

    読めるように送ることもできます 米国家安全保障局でさえ読めません

  • In other words, we can have the benefits of big data

    プライバシーに配慮したデータマイニングも可能です

  • while protecting privacy.

    言い換えれば ビッグデータのメリットを享受しながら

  • Of course, these technologies imply a shifting

    同時にプライバシーを守ることが可能です

  • of cost and revenues

    もちろんこのような技術は

  • between data holders and data subjects,

    情報を持つ者と 情報を利用する者の間の

  • which is why, perhaps, you don't hear more about them.

    コストと利益のあり方に 影響するかもしれません

  • Which brings me back to the Garden of Eden.

    これが理由であまりこのような話を 聞かないのかもしれません

  • There is a second privacy interpretation

    ここからエデンの園に話に戻ります

  • of the story of the Garden of Eden

    これはエデンの園の話を

  • which doesn't have to do with the issue

    プライバシーの観点からみたもう1つの解釈です

  • of Adam and Eve feeling naked

    これはアダムとイブが裸であることに

  • and feeling ashamed.

    気付いて恥ずかしいと思ったこととは

  • You can find echoes of this interpretation

    関係がありません

  • in John Milton's "Paradise Lost."

    同じような話を

  • In the garden, Adam and Eve are materially content.

    ジョン・ミルトンの「失楽園」にも 見ることができます

  • They're happy. They are satisfied.

    エデンの園で アダムとイブは 物質的には不自由なく

  • However, they also lack knowledge

    幸せで満足していました

  • and self-awareness.

    しかし同時に彼らは知識や

  • The moment they eat the aptly named

    自己認識に欠けていました

  • fruit of knowledge,

    彼らは 適切にも知恵の実と名付けられた

  • that's when they discover themselves.

    実を食べた瞬間

  • They become aware. They achieve autonomy.

    自分たちを発見しました

  • The price to pay, however, is leaving the garden.

    彼らは自分達を認識し 自主性を獲得しました

  • So privacy, in a way, is both the means

    しかしその代償は エデンの園を去ることでした

  • and the price to pay for freedom.

    プライバシーも自由のための

  • Again, marketers tell us

    手段でもあり 同時に払うべき代償でもあります

  • that big data and social media

    マーケッティングの人々は

  • are not just a paradise of profit for them,

    ビッグデータとソーシャルメディアは

  • but a Garden of Eden for the rest of us.

    彼らが利益を得るための場ではなく

  • We get free content.

    私たち全員のエデンの園だといいます

  • We get to play Angry Birds. We get targeted apps.

    私たちは無料でコンテンツを楽しみ

  • But in fact, in a few years, organizations

    アングリーバードを手に入れたり ほしいアプリを手に入れたりできます

  • will know so much about us,

    しかし実際には 数年の内に企業は

  • they will be able to infer our desires

    私たちを熟知し

  • before we even form them, and perhaps

    私たちの欲しいものを

  • buy products on our behalf

    意識する前に察知し

  • before we even know we need them.

    必要と思う前に 買い物まで してくれるようになるかもしれません

  • Now there was one English author

    必要と思う前に 買い物まで してくれるようになるかもしれません

  • who anticipated this kind of future

    このように私たちが自立性と自由を

  • where we would trade away

    快適さと引き換えに手放してしまう

  • our autonomy and freedom for comfort.

    このような未来を憂慮した

  • Even more so than George Orwell,

    英国の作家がいました

  • the author is, of course, Aldous Huxley.

    ジョージ・オーウェル以上に これを描いたのは

  • In "Brave New World," he imagines a society

    もちろん オルダス・ハクスリーです

  • where technologies that we created

    『すばらしい新世界』で彼は

  • originally for freedom

    もともとは自由のために私たちが

  • end up coercing us.

    作り上げた技術が 私たちを

  • However, in the book, he also offers us a way out

    支配する世界を創造しています

  • of that society, similar to the path

    しかし同時にその小説では その社会から

  • that Adam and Eve had to follow to leave the garden.

    逃げ出す経路 アダムとイブがエデンの園から

  • In the words of the Savage,

    出るために通らなければならなかった経路と 似たものを示しています

  • regaining autonomy and freedom is possible,

    小説のなかの未開人の言葉として

  • although the price to pay is steep.

    代償は高いが

  • So I do believe that one of the defining fights

    自立性と自由を手に入れることは可能だと言っています

  • of our times will be the fight

    我々の時代の独特の戦いは

  • for the control over personal information,

    個人情報のコントロールに対する

  • the fight over whether big data will become a force

    戦いであると私は信じています

  • for freedom,

    ビッグデータが自由のための力となるか

  • rather than a force which will hiddenly manipulate us.

    私たちを陰で操作するような 力となるかの戦いです

  • Right now, many of us

    私たちを陰で操作するような 力となるかの戦いです

  • do not even know that the fight is going on,

    現在はまだ 多くの人が

  • but it is, whether you like it or not.

    そのような戦いが始まっていることすら知りません

  • And at the risk of playing the serpent,

    しかし好むと好まないとにかかわらず 戦いは始まっています

  • I will tell you that the tools for the fight

    蛇の役割を演じてしまう危険を承知で

  • are here, the awareness of what is going on,

    戦いに必要な道具はここにある

  • and in your hands,

    何が起きているかを理解する力は

  • just a few clicks away.

    あなたの手のなかに

  • Thank you.

    ほんの数クリックしか離れていないところに あると伝えたいと思います

  • (Applause)

    ありがとうございます

I would like to tell you a story

翻訳: Shigeto Oeda 校正: Tomoyuki Suzuki

字幕と単語

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます

B1 中級 日本語 TED 情報 プライバシー イブ ソーシャル 写真

TED】Alessandro Acquisti: 秘密のない未来はどのようなものになるのか?秘密のない未来はどのようなものになるのか? (【TED】Alessandro Acquisti: What will a future without secrets look like? (What will a future without secrets look like? | Alessandro Acquisti))

  • 28 2
    Zenn に公開 2021 年 01 月 14 日
動画の中の単語