字幕表 動画を再生する
I would like to tell you a story
翻訳: Shigeto Oeda 校正: Tomoyuki Suzuki
connecting the notorious privacy incident
今日は アダムとイブが巻き込まれた
involving Adam and Eve,
今日は アダムとイブが巻き込まれた
and the remarkable shift in the boundaries
有名なプライバシー事件と
between public and private which has occurred
ここ10年間に起きた
in the past 10 years.
公私の境界の 大きな変化を関連付けて
You know the incident.
お話ししたいと思います
Adam and Eve one day in the Garden of Eden
この事件はご存知の通りです
realize they are naked.
エデンの園にいる アダムとイブはある日
They freak out.
自分たちが 裸なのに気付きます
And the rest is history.
彼らは ひどく あわてます
Nowadays, Adam and Eve
その後の顛末は ご存知の通りです
would probably act differently.
今日なら アダムとイブは
[@Adam Last nite was a blast! loved dat apple LOL]
恐らく 違った行動を取るでしょう
[@Eve yep.. babe, know what happened to my pants tho?]
[ @アダム :昨夜は楽しかった! あのリンゴは美味しかった(笑)]
We do reveal so much more information
[ @イブ:本当に でも ズボンどうしたんだろう?]
about ourselves online than ever before,
私たちは今までになく多くの
and so much information about us
情報をオンラインで公開しています
is being collected by organizations.
そして我々に関する情報は
Now there is much to gain and benefit
様々な組織によって収集されています
from this massive analysis of personal information,
この大量の個人情報
or big data,
あるいはビッグデータから
but there are also complex tradeoffs that come
非常に有用で 価値のあるものが得られますが
from giving away our privacy.
同時にプライバシーを手放すことに伴う
And my story is about these tradeoffs.
複雑なトレードオフも存在します
We start with an observation which, in my mind,
今日は このような トレードオフについてお話しします
has become clearer and clearer in the past few years,
まずここ数年の間に 私のなかで
that any personal information
非常に明確になってきた
can become sensitive information.
どんな個人情報でもプライバシー情報になり得る
Back in the year 2000, about 100 billion photos
という洞察から話したいと思います
were shot worldwide,
2000年の時点で 全世界で
but only a minuscule proportion of them
1000億枚ほどの写真が撮られましたが
were actually uploaded online.
ウェブにアップロードされたものの割合は
In 2010, only on Facebook, in a single month,
非常に小さなものでした
2.5 billion photos were uploaded,
2010年には ファイスブックだけでも
most of them identified.
25億枚の写真がひと月にアップされ
In the same span of time,
そのほとんどが誰の写真か特定可能です
computers' ability to recognize people in photos
同じ期間で
improved by three orders of magnitude.
写真に写っている人を認識する
What happens when you combine
コンピュータの能力は3桁上がりました
these technologies together:
この2つの技術を組み合わせると
increasing availability of facial data;
何が起こるでしょうか
improving facial recognizing ability by computers;
顔写真がどんどん手に入るようになり
but also cloud computing,
コンピュータの顔認識の能力が向上する
which gives anyone in this theater
そしてクラウドコンピューティングが
the kind of computational power
ここにいる誰に対しても
which a few years ago was only the domain
数年前には政府の専門機関しか
of three-letter agencies;
持てなかったような
and ubiquitous computing,
コンピュータ能力を提供します
which allows my phone, which is not a supercomputer,
ユビキタスコンピューティングによって
to connect to the Internet
スーパーコンピュータではない私の携帯電話が
and do there hundreds of thousands
インターネットに接続して
of face metrics in a few seconds?
数十万の顔認識を
Well, we conjecture that the result
数秒で実行することを可能にします
of this combination of technologies
このような技術の組み合わせが
will be a radical change in our very notions
プライバシーと匿名性に対する
of privacy and anonymity.
私たちの基本的な理解を
To test that, we did an experiment
大きく変えると推測します
on Carnegie Mellon University campus.
この考えを検証するために
We asked students who were walking by
カーネギーメロン大学で ある実験を行ないました
to participate in a study,
キャンパスを歩いている学生に声を掛け
and we took a shot with a webcam,
実験に参加してもらい
and we asked them to fill out a survey on a laptop.
ウェブカメラで学生の顔写真を撮って
While they were filling out the survey,
ノートパソコンに用意した アンケートに答えてもらいました
we uploaded their shot to a cloud-computing cluster,
彼らがアンケートに答えている間に
and we started using a facial recognizer
クラウドコンピューティングのクラスタに 写真をアップし
to match that shot to a database
顔認識技術を使って
of some hundreds of thousands of images
フェイスブックから取ってきた
which we had downloaded from Facebook profiles.
数十万の画像データーベースと
By the time the subject reached the last page
照合しました
on the survey, the page had been dynamically updated
被験者の学生がアンケートの最後の
with the 10 best matching photos
ページに到達する頃には そのページは動的に変更されていて
which the recognizer had found,
顔認識エンジンが選んだ最も似ている
and we asked the subjects to indicate
10枚の写真が表示されます
whether he or she found themselves in the photo.
そこで 学生にその写真の中に
Do you see the subject?
自分が映っているかどうか尋ねました
Well, the computer did, and in fact did so
学生をみつけられますか?
for one out of three subjects.
コンピュータは探せたわけです
So essentially, we can start from an anonymous face,
実際3人中1人の割合で学生の特定が可能でした
offline or online, and we can use facial recognition
基本的には 不特定の顔写真から始めて
to give a name to that anonymous face
オンラインかオフラインかに関わらず 顔認識技術を使って
thanks to social media data.
その写真の人物の名前を特定することが
But a few years back, we did something else.
ソーシャルメディアのおかげで可能です
We started from social media data,
数年前にこれとは異なる実験を行いました
we combined it statistically with data
ソーシャルメディアのデータから始めて
from U.S. government social security,
それを統計的に米国政府の
and we ended up predicting social security numbers,
ソーシャルセキュリティー関連の データと組み合わせ
which in the United States
最終的にソーシャルセキュリティー番号を 特定することが出来ました
are extremely sensitive information.
ソーシャルセキュリティー番号は米国では
Do you see where I'm going with this?
プライバシーに関する非常に重要な情報です
So if you combine the two studies together,
この話の先に見えてくるものは何でしょう?
then the question becomes,
この2つの実験を組み合わせると
can you start from a face and,
ある疑問が浮かびます
using facial recognition, find a name
顔の写真から始めて
and publicly available information
顔認識技術によって名前を特定し
about that name and that person,
その名前からその個人に対する
and from that publicly available information
公開情報を取得し
infer non-publicly available information,
次に公開情報から
much more sensitive ones
よりプライベートな
which you link back to the face?
非公開情報を参照し
And the answer is, yes, we can, and we did.
それを元の顔と結びつけられるでしょうか?
Of course, the accuracy keeps getting worse.
答えはイエスで 私たちはそれに成功しました
[27% of subjects' first 5 SSN digits identified (with 4 attempts)]
もちろん精度は徐々に悪くなります [27%の被験者のソーシャルセキュリティ番号の 頭5桁が特定できました]
But in fact, we even decided to develop an iPhone app
もちろん精度は徐々に悪くなります [27%の被験者のソーシャルセキュリティ番号の 頭5桁が特定できました]
which uses the phone's internal camera
iPhoneのアプリも作ることにしました [27%の被験者のソーシャルセキュリティ番号の 頭5桁が特定できました]
to take a shot of a subject
内蔵のカメラで
and then upload it to a cloud
人物の写真を撮って
and then do what I just described to you in real time:
それをクラウドにアップして
looking for a match, finding public information,
先ほど説明した処理をリアルタイムで実行して
trying to infer sensitive information,
該当する写真を探し 公開されている情報を探し
and then sending back to the phone
そこからプライバシー情報を探し
so that it is overlaid on the face of the subject,
それを携帯に送り返し
an example of augmented reality,
その人物の写真と重ね合わせて表示する
probably a creepy example of augmented reality.
なんかゾッとする 拡張現実の例だと思います
In fact, we didn't develop the app to make it available,
なんかゾッとする 拡張現実の例だと思います
just as a proof of concept.
このアプリは公開していません
In fact, take these technologies
単に可能かやってみただけです
and push them to their logical extreme.
このような技術の応用が
Imagine a future in which strangers around you
最大限に進んだ場合を考えると
will look at you through their Google Glasses
周りにいる他人が
or, one day, their contact lenses,
あなたの顔を グーグルグラスや
and use seven or eight data points about you
コンタクトレンズを通して見て
to infer anything else
あなたに関する7、8個のデータから
which may be known about you.
知り得るどんな個人情報にも
What will this future without secrets look like?
アクセスできるような未来が想像できます
And should we care?
このような秘密のない世界はどんな感じでしょうか?
We may like to believe
このようなことに注意を払うべきでしょうか?
that the future with so much wealth of data
私たちは
would be a future with no more biases,
多くのデータにアクセスできる未来が
but in fact, having so much information
偏見のない世界だと信じる傾向にあります
doesn't mean that we will make decisions
でも 多くの情報があるからといって
which are more objective.
より客観的な判断をするとは限りません
In another experiment, we presented to our subjects
より客観的な判断をするとは限りません
information about a potential job candidate.
もう1つの実験では 被験者に
We included in this information some references
就職志望者の情報を見てもらいました
to some funny, absolutely legal,
この情報のなかに 意図的に混ぜたのは
but perhaps slightly embarrassing information
被験者自身がネットに投稿した
that the subject had posted online.
完全に合法でありながら ちょっと具合の悪い
Now interestingly, among our subjects,
情報に関することです
some had posted comparable information,
被験者のなかには
and some had not.
そのような情報を投稿したことがある人も
Which group do you think
ない人もいました
was more likely to judge harshly our subject?
どちらのグループが求職者を
Paradoxically, it was the group
厳しく非難したと思いますか?
who had posted similar information,
逆説的ですが 自分自身もそのような
an example of moral dissonance.
情報を投稿したことがあるグループでした
Now you may be thinking,
これは言動不一致の良い例です
this does not apply to me,
皆さんは これは自分は当てはまらない
because I have nothing to hide.
なぜなら隠しておきたいことは
But in fact, privacy is not about
ないからと思っているかも知れません
having something negative to hide.
しかしプライバシーとは
Imagine that you are the H.R. director
ネガティブなことを隠すことではありません
of a certain organization, and you receive résumés,
あなたがどこかの組織の
and you decide to find more information about the candidates.
人事担当責任者で 就職希望者の 履歴書を受け取ったときに
Therefore, you Google their names
応募者に関してもう少し調べたいと思ったとしましょう
and in a certain universe,
候補者の名前をグーグルで検索したら
you find this information.
あるサイトで こんな情報が 見つかったとします
Or in a parallel universe, you find this information.
あるサイトで こんな情報が 見つかったとします
Do you think that you would be equally likely
一方 どこかのパラレルワールドで この情報を見つけるとします
to call either candidate for an interview?
あなたは両方の応募者と
If you think so, then you are not
同じように面談をしたいと思うでしょうか
like the U.S. employers who are, in fact,
もしそう思うのなら
part of our experiment, meaning we did exactly that.
あなたは米国の雇用主とは違います
We created Facebook profiles, manipulating traits,
私たちは実験の一部として 正にそのような状況を試してみました
then we started sending out résumés to companies in the U.S.,
ファイスブックに人柄を操作した 架空のプロファイルを登録し
and we detected, we monitored,
米国内の様々な企業に その人物の履歴書を送りました
whether they were searching for our candidates,
そして企業がその人物に関する情報を
and whether they were acting on the information
ソーシャルメディアで検索するかどうか
they found on social media. And they were.
また そこで得た情報に影響されるか 観察すると
Discrimination was happening through social media
影響されると分かりました
for equally skilled candidates.
同じ能力の候補者間で
Now marketers like us to believe
ソーシャルメディアを介した差別が発生していました
that all information about us will always
マーケティングの人たちは
be used in a manner which is in our favor.
私たち自身に関する情報が
But think again. Why should that be always the case?
私たちのために使われると 信じさせようとしています
In a movie which came out a few years ago,
でもよく考えてみてください 常にそうであるはずがありません
"Minority Report," a famous scene
何年か前の「マイノリティー・レポート」という映画で
had Tom Cruise walk in a mall
トム・クルーズがショッピング・モールを歩くと
and holographic personalized advertising
個人に特化した広告がホログラフィックに
would appear around him.
彼を取り巻くように表示される
Now, that movie is set in 2054,
有名な場面がありました
about 40 years from now,
映画の設定は2054年
and as exciting as that technology looks,
40年後の未来となっていて
it already vastly underestimates
その技術は素晴らしいもののように見えますが
the amount of information that organizations
それはすでに
can gather about you, and how they can use it
組織が集めることのできる個人情報と
to influence you in a way that you will not even detect.
それが思いもよらない方法で利用され得る
So as an example, this is another experiment
ということに関して過小評価をしています
actually we are running, not yet completed.
そのような例として 現在私たちが行なっている
Imagine that an organization has access
実験を紹介します
to your list of Facebook friends,
企業があなたのフェイスブックの
and through some kind of algorithm
友達リストにアクセスできると仮定してみて下さい
they can detect the two friends that you like the most.
そして何らかのアルゴリズムで
And then they create, in real time,
一番仲のいい友達を2人選ぶことが出来るとします
a facial composite of these two friends.
そしてその2人の友達の顔の写真を
Now studies prior to ours have shown that people
リアルタイムにで合成出来るとします
don't recognize any longer even themselves
過去の研究から 合成された顔写真は
in facial composites, but they react
本人自身もそれと認識は出来ないのですが
to those composites in a positive manner.
何故かその写真の顔に親しみをもつ
So next time you are looking for a certain product,
ということが分かっています
and there is an ad suggesting you to buy it,
次に何か特定の商品を探しているとき
it will not be just a standard spokesperson.
それを勧める広告があり
It will be one of your friends,
勧めているのは見知らぬ人ではなく
and you will not even know that this is happening.
あなたの友達の合成イメージで
Now the problem is that
それに 全く気付かないかもしれません
the current policy mechanisms we have
問題は
to protect ourselves from the abuses of personal information
現在の法律では
are like bringing a knife to a gunfight.
個人情報の悪用から 我々を保護する仕組みは
One of these mechanisms is transparency,
銃撃戦にナイフで対抗するような ものだということです
telling people what you are going to do with their data.
このような仕組みの一つが透明性で
And in principle, that's a very good thing.
入手した情報をどの様に使うかを 明確するものです
It's necessary, but it is not sufficient.
原理として それは良いことです
Transparency can be misdirected.
必要ですが 充分ではありません
You can tell people what you are going to do,
透明性は誤用される可能性があります
and then you still nudge them to disclose
情報をどのように使うかを伝えた上で
arbitrary amounts of personal information.
個人情報を提供するように
So in yet another experiment, this one with students,
相手を誘導することが可能です
we asked them to provide information
学生を対象に もう1つ実験を実施しました
about their campus behavior,
学生達にキャンパスでの行ないに関して
including pretty sensitive questions, such as this one.
情報を提供するように依頼しました
[Have you ever cheated in an exam?]
試験でカンニングをしたことがありますか?
Now to one group of subjects, we told them,
といった非常にプライベートな質問を含んでいます
"Only other students will see your answers."
一つ目のグループには
To another group of subjects, we told them,
回答は 他の学生だけが閲覧すると伝えました
"Students and faculty will see your answers."
もう一つのグループには
Transparency. Notification. And sure enough, this worked,
他の学生と教授陣が回答を閲覧すると伝えました
in the sense that the first group of subjects
透明性と留意点が明確であり 当然期待した結果になりました
were much more likely to disclose than the second.
最初のグループの方が
It makes sense, right?
2番目のグループより情報を開示する可能性が 高いという結果です
But then we added the misdirection.
妥当な結果だと思います
We repeated the experiment with the same two groups,
次に誤った誘導を加えました
this time adding a delay
同じ2つのグループで実験を行ないましたが
between the time we told subjects
今度はどのように回答が利用されるかを
how we would use their data
伝えるタイミングと
and the time we actually started answering the questions.
実際に質問をするタイミングを
How long a delay do you think we had to add
ずらしました
in order to nullify the inhibitory effect
教授陣も回答を閲覧するという
of knowing that faculty would see your answers?
抑止作用のある情報を
Ten minutes?
忘れるのにどの位の時間が必要だったと思いますか?
Five minutes?
10分?
One minute?
5分?
How about 15 seconds?
1分?
Fifteen seconds were sufficient to have the two groups
15秒ではどうでしょう?
disclose the same amount of information,
両方のグループに同じ量の情報を開示させるのには
as if the second group now no longer cares
15秒あれば充分でした
for faculty reading their answers.
2つ目のグループも教授陣が
Now I have to admit that this talk so far
回答を見ることを気にしていないようでした
may sound exceedingly gloomy,
ここまでの話で
but that is not my point.
とても憂鬱な気分になるとは思います
In fact, I want to share with you the fact that
でもそれがポイントではないのです
there are alternatives.
実際には別のアプローチがある
The way we are doing things now is not the only way
ということをお話したいのです
they can done, and certainly not the best way
現在のやり方が唯一の方法ということは
they can be done.
ありませんし ベストな方法でもありません
When someone tells you, "People don't care about privacy,"
ありませんし ベストな方法でもありません
consider whether the game has been designed
もし誰かが 「人々はプライバシーを気にしない」と言ったら
and rigged so that they cannot care about privacy,
やり方が巧妙にデザインされていて
and coming to the realization that these manipulations occur
プライバシーを 気にさせなくしているか疑って下さい
is already halfway through the process
そのような操作が存在すると気付くことは
of being able to protect yourself.
すでに自分自身を守る道を
When someone tells you that privacy is incompatible
半分進んでいることを示しています
with the benefits of big data,
もし誰かが プライバシーと
consider that in the last 20 years,
ビッグデータから得られるメリットは 両立しないなどと言い放ったら
researchers have created technologies
ここ20年間 研究者は
to allow virtually any electronic transactions
理論上どんな電気的な通信に対しても
to take place in a more privacy-preserving manner.
プライバシーを強化できる技術を
We can browse the Internet anonymously.
開発してきたことを思い出すべきです
We can send emails that can only be read
私たちは匿名のままインターネットを ブラウズすることができます
by the intended recipient, not even the NSA.
メールを指定した受信者だけが
We can have even privacy-preserving data mining.
読めるように送ることもできます 米国家安全保障局でさえ読めません
In other words, we can have the benefits of big data
プライバシーに配慮したデータマイニングも可能です
while protecting privacy.
言い換えれば ビッグデータのメリットを享受しながら
Of course, these technologies imply a shifting
同時にプライバシーを守ることが可能です
of cost and revenues
もちろんこのような技術は
between data holders and data subjects,
情報を持つ者と 情報を利用する者の間の
which is why, perhaps, you don't hear more about them.
コストと利益のあり方に 影響するかもしれません
Which brings me back to the Garden of Eden.
これが理由であまりこのような話を 聞かないのかもしれません
There is a second privacy interpretation
ここからエデンの園に話に戻ります
of the story of the Garden of Eden
これはエデンの園の話を
which doesn't have to do with the issue
プライバシーの観点からみたもう1つの解釈です
of Adam and Eve feeling naked
これはアダムとイブが裸であることに
and feeling ashamed.
気付いて恥ずかしいと思ったこととは
You can find echoes of this interpretation
関係がありません
in John Milton's "Paradise Lost."
同じような話を
In the garden, Adam and Eve are materially content.
ジョン・ミルトンの「失楽園」にも 見ることができます
They're happy. They are satisfied.
エデンの園で アダムとイブは 物質的には不自由なく
However, they also lack knowledge
幸せで満足していました
and self-awareness.
しかし同時に彼らは知識や
The moment they eat the aptly named
自己認識に欠けていました
fruit of knowledge,
彼らは 適切にも知恵の実と名付けられた
that's when they discover themselves.
実を食べた瞬間
They become aware. They achieve autonomy.
自分たちを発見しました
The price to pay, however, is leaving the garden.
彼らは自分達を認識し 自主性を獲得しました
So privacy, in a way, is both the means
しかしその代償は エデンの園を去ることでした
and the price to pay for freedom.
プライバシーも自由のための
Again, marketers tell us
手段でもあり 同時に払うべき代償でもあります
that big data and social media
マーケッティングの人々は
are not just a paradise of profit for them,
ビッグデータとソーシャルメディアは
but a Garden of Eden for the rest of us.
彼らが利益を得るための場ではなく
We get free content.
私たち全員のエデンの園だといいます
We get to play Angry Birds. We get targeted apps.
私たちは無料でコンテンツを楽しみ
But in fact, in a few years, organizations
アングリーバードを手に入れたり ほしいアプリを手に入れたりできます
will know so much about us,
しかし実際には 数年の内に企業は
they will be able to infer our desires
私たちを熟知し
before we even form them, and perhaps
私たちの欲しいものを
buy products on our behalf
意識する前に察知し
before we even know we need them.
必要と思う前に 買い物まで してくれるようになるかもしれません
Now there was one English author
必要と思う前に 買い物まで してくれるようになるかもしれません
who anticipated this kind of future
このように私たちが自立性と自由を
where we would trade away
快適さと引き換えに手放してしまう
our autonomy and freedom for comfort.
このような未来を憂慮した
Even more so than George Orwell,
英国の作家がいました
the author is, of course, Aldous Huxley.
ジョージ・オーウェル以上に これを描いたのは
In "Brave New World," he imagines a society
もちろん オルダス・ハクスリーです
where technologies that we created
『すばらしい新世界』で彼は
originally for freedom
もともとは自由のために私たちが
end up coercing us.
作り上げた技術が 私たちを
However, in the book, he also offers us a way out
支配する世界を創造しています
of that society, similar to the path
しかし同時にその小説では その社会から
that Adam and Eve had to follow to leave the garden.
逃げ出す経路 アダムとイブがエデンの園から
In the words of the Savage,
出るために通らなければならなかった経路と 似たものを示しています
regaining autonomy and freedom is possible,
小説のなかの未開人の言葉として
although the price to pay is steep.
代償は高いが
So I do believe that one of the defining fights
自立性と自由を手に入れることは可能だと言っています
of our times will be the fight
我々の時代の独特の戦いは
for the control over personal information,
個人情報のコントロールに対する
the fight over whether big data will become a force
戦いであると私は信じています
for freedom,
ビッグデータが自由のための力となるか
rather than a force which will hiddenly manipulate us.
私たちを陰で操作するような 力となるかの戦いです
Right now, many of us
私たちを陰で操作するような 力となるかの戦いです
do not even know that the fight is going on,
現在はまだ 多くの人が
but it is, whether you like it or not.
そのような戦いが始まっていることすら知りません
And at the risk of playing the serpent,
しかし好むと好まないとにかかわらず 戦いは始まっています
I will tell you that the tools for the fight
蛇の役割を演じてしまう危険を承知で
are here, the awareness of what is going on,
戦いに必要な道具はここにある
and in your hands,
何が起きているかを理解する力は
just a few clicks away.
あなたの手のなかに
Thank you.
ほんの数クリックしか離れていないところに あると伝えたいと思います
(Applause)
ありがとうございます