Placeholder Image

字幕表 動画を再生する

  • So, security is two different things:

    翻訳: Keiichi Kudo 校正: Akiko Hicks

  • it's a feeling, and it's a reality.

    セキュリティには 2 つの側面があります

  • And they're different.

    感情と現実です

  • You could feel secure even if you're not.

    両者は異なるものです

  • And you can be secure

    実際に安全ではなくとも

  • even if you don't feel it.

    安全だと感じることができます

  • Really, we have two separate concepts

    安全だと感じなくても

  • mapped onto the same word.

    安全であることもあります

  • And what I want to do in this talk is to split them apart --

    二つの別々の概念が

  • figuring out when they diverge and how they converge.

    安全という一つの言葉に対応付けてられています

  • And language is actually a problem here.

    本日私がお話ししたいことは

  • There aren't a lot of good words

    感情と現実を区別し

  • for the concepts we're going to talk about.

    どのような時に 別々の概念に別れ

  • So if you look at security from economic terms,

    どう一つに収束するかです

  • it's a trade-off.

    ここでは言葉が問題となります

  • Every time you get some security, you're always trading off something.

    これからお話しする概念に則した

  • Whether this is a personal decision --

    良い言葉があまりないのです

  • whether you're going to install a burglar alarm in your home --

    安全を

  • or a national decision,

    経済学の言葉で表現するなら

  • where you're going to invade a foreign country --

    「トレードオフ」となります

  • you're going to trade off something: money or time, convenience, capabilities,

    安全を得るときはいつも

  • maybe fundamental liberties.

    何かをトレードオフしています

  • And the question to ask when you look at a security anything

    個人的な判断で

  • is not whether this makes us safer,

    自宅に防犯ベルを設置するとき

  • but whether it's worth the trade-off.

    国家的な判断で外国に侵攻するとき

  • You've heard in the past several years, the world is safer

    何かをトレードオフすることになります

  • because Saddam Hussein is not in power.

    それはお金 時間 利便性 機能性

  • That might be true, but it's not terribly relevant.

    あるいは根本的な自由かもしれません

  • The question is: Was it worth it?

    安全を考えるときに問うべきは

  • And you can make your own decision,

    それが自身をより安全にするかではなく

  • and then you'll decide whether the invasion was worth it.

    トレードオフするに値するかです

  • That's how you think about security: in terms of the trade-off.

    ここ数年でこんなことを耳にしたでしょう

  • Now, there's often no right or wrong here.

    サダム・フセインが権力を振るっていないので世界はより安全だと

  • Some of us have a burglar alarm system at home and some of us don't.

    真実かもしれませんが関連性はごく僅かでしょう

  • And it'll depend on where we live,

    問うべきは その価値があったか ということです

  • whether we live alone or have a family,

    これは個人個人で結論が出せます

  • how much cool stuff we have,

    侵攻するに値したか 自分なりに判断するのです

  • how much we're willing to accept the risk of theft.

    これが安全を考える方法です

  • In politics also, there are different opinions.

    トレードオフという観点を用いるのです

  • A lot of times, these trade-offs are about more than just security,

    この判断に特に正しい答えはありません

  • and I think that's really important.

    自宅に防犯ベルを設置している人もいれば

  • Now, people have a natural intuition about these trade-offs.

    そうでない人もいます

  • We make them every day.

    住んでいる地域

  • Last night in my hotel room, when I decided to double-lock the door,

    一人暮らしか家族と住んでいるか

  • or you in your car when you drove here;

    どんな凄いものを所有しているか

  • when we go eat lunch

    窃盗のリスクをどの程度

  • and decide the food's not poison and we'll eat it.

    許容するかによるでしょう

  • We make these trade-offs again and again,

    政治でも

  • multiple times a day.

    さまざまな見解があります

  • We often won't even notice them.

    多くの場合 トレードオフは

  • They're just part of being alive; we all do it.

    安全に関するものに留まりません

  • Every species does it.

    これは重要なことです

  • Imagine a rabbit in a field, eating grass.

    人間はこういったトレードオフに対して

  • And the rabbit sees a fox.

    直感を持っており

  • That rabbit will make a security trade-off:

    日々それを使っています

  • "Should I stay, or should I flee?"

    昨晩ホテルの部屋で

  • And if you think about it,

    ドアを二重に施錠すると判断したとき

  • the rabbits that are good at making that trade-off

    皆さんがここまで運転してきたとき

  • will tend to live and reproduce,

    ランチに行き

  • and the rabbits that are bad at it

    食べ物に毒が混入していないと判断し食べるとき

  • will get eaten or starve.

    私たちはこういったトレードオフを

  • So you'd think

    一日に何回も判断しています

  • that us, as a successful species on the planet -- you, me, everybody --

    あまり意識することはないでしょう

  • would be really good at making these trade-offs.

    生存活動の一部に過ぎません 皆やっていることです

  • Yet it seems, again and again, that we're hopelessly bad at it.

    あらゆる種が行っていることです

  • And I think that's a fundamentally interesting question.

    野原で草を食べているウサギを想像してください

  • I'll give you the short answer.

    そのウサギはキツネを見つけます

  • The answer is, we respond to the feeling of security

    するとウサギは安全のトレードオフをするでしょう

  • and not the reality.

    「留まるべきか 逃げるべきか」

  • Now, most of the time, that works.

    こうして考えてみると

  • Most of the time,

    トレードオフの判断に長けたウサギは

  • feeling and reality are the same.

    生き延びて繁殖するでしょう

  • Certainly that's true for most of human prehistory.

    そうでないウサギは

  • We've developed this ability

    捕食されたり餓死するでしょう

  • because it makes evolutionary sense.

    では

  • One way to think of it is that we're highly optimized

    地球で成功している種である

  • for risk decisions

    皆さん 私 全員が

  • that are endemic to living in small family groups

    トレードオフの判断に長けていると考えるかもしれません

  • in the East African Highlands in 100,000 BC.

    にも関わらず

  • 2010 New York, not so much.

    私たちは絶望的に下手なようです

  • Now, there are several biases in risk perception.

    これは非常に興味深い疑問だと思います

  • A lot of good experiments in this.

    端的な回答をお出ししましょう

  • And you can see certain biases that come up again and again.

    私たちは安全の感覚に対応しているのであり

  • I'll give you four.

    安全の実態に反応しているのではないということです

  • We tend to exaggerate spectacular and rare risks

    多くの場合これは有効です

  • and downplay common risks --

    多くの場合

  • so, flying versus driving.

    感覚と実態は同じです

  • The unknown is perceived to be riskier than the familiar.

    先史時代においては

  • One example would be:

    まさしく真実でした

  • people fear kidnapping by strangers,

    私たちが感覚的に反応する能力を発達させてきたのは

  • when the data supports that kidnapping by relatives is much more common.

    進化的に正しかったからです

  • This is for children.

    一つの解釈は

  • Third, personified risks are perceived to be greater

    少数のグループで生活するときに

  • than anonymous risks.

    必要とされるリスク判断に

  • So, Bin Laden is scarier because he has a name.

    極めて適合していたということです

  • And the fourth is:

    これは紀元前10万年の東アフリカ高地でのことであり

  • people underestimate risks in situations they do control

    2010 年のニューヨークではまた別です

  • and overestimate them in situations they don't control.

    リスクの認知にはいくつものバイアスがかかるもので

  • So once you take up skydiving or smoking,

    それについては数多くの研究があります

  • you downplay the risks.

    特定のバイアスは繰り返し現れるものです

  • If a risk is thrust upon you -- terrorism is a good example --

    ここでは 4 つ紹介したいと思います

  • you'll overplay it,

    私たちは劇的なリスクや珍しいリスクを誇大化し

  • because you don't feel like it's in your control.

    一般的なリスクを過小評価しがちです

  • There are a bunch of other of these cognitive biases,

    例えば飛行機と車での移動の比較です

  • that affect our risk decisions.

    未知のリスクは

  • There's the availability heuristic,

    既知のリスクより大きく捉えられます

  • which basically means we estimate the probability of something

    例えば

  • by how easy it is to bring instances of it to mind.

    人々は見知らぬ人による誘拐を恐れますが

  • So you can imagine how that works.

    データによると顔見知りによる誘拐の方が断然多いのです

  • If you hear a lot about tiger attacks, there must be a lot of tigers around.

    これは子供の場合です

  • You don't hear about lion attacks, there aren't a lot of lions around.

    第三に 名前を持つものによるリスクは

  • This works, until you invent newspapers,

    匿名によるリスクより大きく捉えられます

  • because what newspapers do is repeat again and again

    ビン・ラディンは名を持つがゆえにより恐れられるということです

  • rare risks.

    第四に 人々は

  • I tell people: if it's in the news, don't worry about it,

    自分でコントロールできる状況での

  • because by definition, news is something that almost never happens.

    リスクを過小評価し

  • (Laughter)

    そうでない状況でのリスクを過大評価します

  • When something is so common, it's no longer news.

    スカイダイビングや喫煙をする人は

  • Car crashes, domestic violence --

    そのリスクを実際より低く捉えます

  • those are the risks you worry about.

    テロが良い例ですが そういったリスクに曝されると

  • We're also a species of storytellers.

    それを過大評価します 自分でコントロールできないと感じるからです

  • We respond to stories more than data.

    他にも私たちのリスク判断に影響する

  • And there's some basic innumeracy going on.

    多数の認知バイアスが存在します

  • I mean, the joke "One, two, three, many" is kind of right.

    利用可能性ヒューリスティックというものがあります

  • We're really good at small numbers.

    これは基本的に

  • One mango, two mangoes, three mangoes,

    想像の し易さから

  • 10,000 mangoes, 100,000 mangoes --

    その可能性を推測するというものです

  • it's still more mangoes you can eat before they rot.

    どういうことかお話ししましょう

  • So one half, one quarter, one fifth -- we're good at that.

    トラの襲撃をよく耳にする場合 周辺にはトラが沢山いるはずです

  • One in a million, one in a billion --

    ライオンの襲撃を耳にしないなら 周辺にライオンはあまりいないでしょう

  • they're both almost never.

    こう考えられるのも新聞が出回るまでです

  • So we have trouble with the risks that aren't very common.

    なぜなら新聞とは

  • And what these cognitive biases do

    繰り返し繰り返し

  • is they act as filters between us and reality.

    希なリスクを記すものだからです

  • And the result is that feeling and reality get out of whack,

    ニュースになるくらいなら心配はいらないと私はみんなに言っています

  • they get different.

    なぜなら定義によれば

  • Now, you either have a feeling -- you feel more secure than you are,

    ニュースとはほぼ起こらない出来事のことだからです

  • there's a false sense of security.

    (笑)

  • Or the other way, and that's a false sense of insecurity.

    ある出来事が一般的なら それはもはやニュースではないのです

  • I write a lot about "security theater,"

    自動車事故や家庭内暴力

  • which are products that make people feel secure,

    皆さんが心配するリスクはこういったものです

  • but don't actually do anything.

    また私たちは物語る種です

  • There's no real word for stuff that makes us secure,

    データより物語に敏感です

  • but doesn't make us feel secure.

    また根本的な数量に対する感覚も欠けています

  • Maybe it's what the CIA is supposed to do for us.

    「一つ 二つ 三つ たくさん」はある意味正しいということです

  • So back to economics.

    私たちは 小さい数にはとても強いです

  • If economics, if the market, drives security,

    一つのマンゴー 二つのマンゴー 三つのマンゴー

  • and if people make trade-offs based on the feeling of security,

    一万のマンゴー 十万のマンゴー

  • then the smart thing for companies to do for the economic incentives

    食べきる前に腐ってしまうほどの数です

  • is to make people feel secure.

    二分の一 四分の一 五分の一 こういうのも得意です

  • And there are two ways to do this.

    百万分の一 十億分の一

  • One, you can make people actually secure

    どちらも「ほぼありえない」です

  • and hope they notice.

    このように 私たちは

  • Or two, you can make people just feel secure

    珍しいリスクというものが苦手です

  • and hope they don't notice.

    そしてこの認知バイアスは

  • Right?

    私たちと実態の間のフィルターとして働きます

  • So what makes people notice?

    その結果

  • Well, a couple of things:

    感覚と実態が狂います

  • understanding of the security,

    異なるものとなるのです

  • of the risks, the threats,

    皆さんは実際より安全だと感じることがあります

  • the countermeasures, how they work.

    偽りの感覚です

  • But if you know stuff, you're more likely

    あるいは

  • to have your feelings match reality.

    偽りの不安感もあります

  • Enough real-world examples helps.

    私は「セキュリティシアター」

  • We all know the crime rate in our neighborhood,

    つまり人々に安心感を与えつつも

  • because we live there, and we get a feeling about it

    実効を持たないものについて沢山書いています

  • that basically matches reality.

    私たちに安全を提供しつつも

  • Security theater is exposed

    安心にはさせないというものを示す言葉はありません

  • when it's obvious that it's not working properly.

    CIA に是非やってもらいたいことです

  • OK. So what makes people not notice?

    では経済の話に戻りましょう

  • Well, a poor understanding.

    もし経済が 市場が 安全を促進するならば

  • If you don't understand the risks, you don't understand the costs,

    そして人々が安心感に基づいて

  • you're likely to get the trade-off wrong,

    トレードオフをするならば

  • and your feeling doesn't match reality.

    経済刺激のために

  • Not enough examples.

    会社が取れる良策は

  • There's an inherent problem with low-probability events.

    人々に安心感を与えることです

  • If, for example, terrorism almost never happens,

    それには二つ方法があります

  • it's really hard to judge the efficacy of counter-terrorist measures.

    実際に安全を提供し

  • This is why you keep sacrificing virgins,

    人々が気付くのに期待するか

  • and why your unicorn defenses are working just great.

    もしくは安心感を提供して

  • There aren't enough examples of failures.

    実態に気付かないことを期待するか です

  • Also, feelings that cloud the issues --

    では気付くには何が必要でしょう

  • the cognitive biases I talked about earlier: fears, folk beliefs --

    いくつかあります

  • basically, an inadequate model of reality.

    理解です

  • So let me complicate things.

    安全 リスク 脅威 対抗策

  • I have feeling and reality.

    それらを理解し そして仕組みを知ることです

  • I want to add a third element. I want to add "model."

    もし知っていれば

  • Feeling and model are in our head,

    感覚と実態は一致しているでしょう

  • reality is the outside world; it doesn't change, it's real.

    沢山の実例の知識も助けになるでしょう

  • Feeling is based on our intuition,

    私たちは皆 近隣の犯罪率を知っています

  • model is based on reason.

    なぜならそこに住んでいるからであり

  • That's basically the difference.

    基本的に実態と感覚は一致しています

  • In a primitive and simple world,

    セキュリティシアターに気付くのは

  • there's really no reason for a model,

    それらがうまく噛み合っていないときです

  • because feeling is close to reality.

    では実態に気付けない理由は何でしょう

  • You don't need a model.

    理解不足です

  • But in a modern and complex world,

    リスクやコストを理解していなければ

  • you need models to understand a lot of the risks we face.

    トレードオフの判断を誤るでしょう

  • There's no feeling about germs.

    感覚も実態とは ずれます

  • You need a model to understand them.

    経験不足です

  • This model is an intelligent representation of reality.

    そこには発生率の低さという

  • It's, of course, limited by science, by technology.

    固有の問題があります

  • We couldn't have a germ theory of disease

    もし仮に

  • before we invented the microscope to see them.

    テロがほとんど起きなければ

  • It's limited by our cognitive biases.

    テロ対策の有効性を

  • But it has the ability to override our feelings.

    判断するのはとても困難でしょう

  • Where do we get these models? We get them from others.

    これが儀式でいけにえを捧げる習慣が続いたり

  • We get them from religion, from culture, teachers, elders.

    突拍子もない責任転嫁がまかり通る理由です

  • A couple years ago, I was in South Africa on safari.

    失敗例が足りないのです

  • The tracker I was with grew up in Kruger National Park.

    また感情も問題を曇らせます

  • He had some very complex models of how to survive.

    先ほど触れた認知バイアス

  • And it depended on if you were attacked by a lion, leopard, rhino, or elephant --

    恐怖 迷信 等は

  • and when you had to run away, when you couldn't run away,

    基本的に不適切な現実のモデルなのです

  • when you had to climb a tree, when you could never climb a tree.

    ここを更に複雑化します

  • I would have died in a day.

    感覚と実態があります

  • But he was born there, and he understood how to survive.

    ここに第三の要素「モデル」を加えたいと思います

  • I was born in New York City.

    頭の中には感覚とモデルがあり

  • I could have taken him to New York, and he would have died in a day.

    外界に実態があります

  • (Laughter)

    実態は変わりません 現実です

  • Because we had different models based on our different experiences.

    感覚は私たちの直感に基づいています

  • Models can come from the media,

    モデルは理性に基づいています

  • from our elected officials ...

    これが基本的な違いです

  • Think of models of terrorism,

    原始的で単純な世界においては

  • child kidnapping,

    モデルを持つ理由など全くありません

  • airline safety, car safety.

    感覚が現実ととても近いからです

  • Models can come from industry.

    モデルは必要ないのです

  • The two I'm following are surveillance cameras,

    しかし現代の複雑な世界においては

  • ID cards,

    私たちが直面する

  • quite a lot of our computer security models come from there.

    数々のリスクを理解するためにモデルが必要です

  • A lot of models come from science.

    ばい菌についての感覚などありません

  • Health models are a great example.

    理解するためにはモデルがいるのです

  • Think of cancer, bird flu, swine flu, SARS.

    つまりモデルとは現実を知的に理解し

  • All of our feelings of security about those diseases

    違う形で表現した物です

  • come from models given to us, really, by science filtered through the media.

    モデルには当然科学 そしてテクノロジーによる

  • So models can change.

    限界があります

  • Models are not static.

    ばい菌を観察できる顕微鏡を開発する以前には

  • As we become more comfortable in our environments,

    病気の細菌説などありえません

  • our model can move closer to our feelings.

    認知バイアスによる限界もあります

  • So an example might be,

    ただこれには

  • if you go back 100 years ago,

    感覚を覆す力があります

  • when electricity was first becoming common,

    モデルはどこから得るのでしょう?他から得るのです

  • there were a lot of fears about it.

    宗教や文化

  • There were people who were afraid to push doorbells,

    教師や長老から得ます

  • because there was electricity in there, and that was dangerous.

    数年前 私は

  • For us, we're very facile around electricity.

    狩猟旅行で南アフリカに行っていました

  • We change light bulbs without even thinking about it.

    同行したトラッカーはクルーガー国立公園で育ちました

  • Our model of security around electricity is something we were born into.

    彼はサバイバルに関していくつか複雑なモデルを持っていました

  • It hasn't changed as we were growing up.

    それは何が襲ってきたのかによります

  • And we're good at it.

    ライオン、ヒョウ、サイ、ゾウ

  • Or think of the risks on the Internet across generations --

    また逃げなければならない場合 木に登らなければならない場合

  • how your parents approach Internet security,

    木に登れない場合もあります

  • versus how you do,

    私は一日と生きられないでしょうが

  • versus how our kids will.

    彼はそこで生まれ

  • Models eventually fade into the background.

    生存方法を理解していました

  • "Intuitive" is just another word for familiar.

    私はニューヨーク生まれです

  • So as your model is close to reality and it converges with feelings,

    ニューヨークに連れてきたら 彼は一日と持たないかもしれません

  • you often don't even know it's there.

    (笑)

  • A nice example of this came from last year and swine flu.

    というのも私たちはそれぞれの経験に基づいて

  • When swine flu first appeared,

    別々のモデルを持っているからです

  • the initial news caused a lot of overreaction.

    モデルはメディアや

  • Now, it had a name,

    役人から得られることもあります

  • which made it scarier than the regular flu,

    テロのモデルや

  • even though it was more deadly.

    子供の誘拐 航空安全

  • And people thought doctors should be able to deal with it.

    交通安全などのモデルを考えてみてください

  • So there was that feeling of lack of control.

    モデルは産業から出現することもあります

  • And those two things made the risk more than it was.

    私が興味を持っているのは監視カメラと

  • As the novelty wore off and the months went by,

    ID カードの二つで

  • there was some amount of tolerance; people got used to it.

    コンピュータセキュリティのモデルがこれらから沢山生まれています

  • There was no new data, but there was less fear.

    科学からも沢山のモデルが来ています

  • By autumn,

    健康モデルは素晴らしい例です

  • people thought the doctors should have solved this already.

    ガン、鳥インフルエンザ、豚インフルエンザ、SARS を考えてください

  • And there's kind of a bifurcation:

    こういった病気に関する

  • people had to choose between fear and acceptance --

    安全の感覚は全て

  • actually, fear and indifference --

    モデルから来ています

  • and they kind of chose suspicion.

    メディアのフィルターを通した科学からもたらされています

  • And when the vaccine appeared last winter,

    モデルは変化し得ます

  • there were a lot of people -- a surprising number --

    不変のものではありません

  • who refused to get it.

    私たちが環境に馴染むにつれ

  • And it's a nice example of how people's feelings of security change,

    モデルは私たちの感覚に近づいていきます

  • how their model changes,

    例としては

  • sort of wildly,

    100 年前に戻ってみましょう

  • with no new information, with no new input.

    電気が出現したばかりの頃で

  • This kind of thing happens a lot.

    沢山の懸念が持たれていました

  • I'm going to give one more complication.

    呼び鈴を鳴らすのを怖がっていた人がいました

  • We have feeling, model, reality.

    当時 危険だった電気が使われていたためにです

  • I have a very relativistic view of security.

    私たちは電気製品はお手の物です

  • I think it depends on the observer.

    電球の付け替えも

  • And most security decisions have a variety of people involved.

    さして考えることもなくできます

  • And stakeholders with specific trade-offs will try to influence the decision.

    電気にまつわる安全のモデルは

  • And I call that their agenda.

    私たちにとっては常識です

  • And you see agenda -- this is marketing, this is politics --

    生まれたときから特に変化もしていません

  • trying to convince you to have one model versus another,

    使い方は完全にマスターしています

  • trying to convince you to ignore a model

    世代毎の

  • and trust your feelings,

    インターネットにまつわるリスクを考えてみましょう

  • marginalizing people with models you don't like.

    ご両親のインターネットの安全に対する姿勢と

  • This is not uncommon.

    皆さんの姿勢

  • An example, a great example, is the risk of smoking.

    そして皆さんの子供はどうなるでしょう

  • In the history of the past 50 years,

    モデルは最終的に背景へと馴染んでいきます

  • the smoking risk shows how a model changes,

    直感は「慣れ」の言い換えに過ぎません

  • and it also shows how an industry fights against a model it doesn't like.

    つまりモデルが現実に近づくほど

  • Compare that to the secondhand smoke debate --

    そして感覚と一体になるほど

  • probably about 20 years behind.

    モデルの存在に気付かなくなります

  • Think about seat belts.

    この良い例は

  • When I was a kid, no one wore a seat belt.

    昨年の豚インフルエンザでしょう

  • Nowadays, no kid will let you drive if you're not wearing a seat belt.

    豚インフルエンザが最初現れたとき

  • Compare that to the airbag debate,

    初期情報は沢山の過剰反応を引き起こしました

  • probably about 30 years behind.

    名前が付いていたために

  • All examples of models changing.

    普通のインフルエンザより致死率が

  • What we learn is that changing models is hard.

    低いにも関わらず恐ろしげです

  • Models are hard to dislodge.

    人々は医者に何とかしてもらいたいと考えていました

  • If they equal your feelings,

    自分ではコントロールできない感覚があったわけです

  • you don't even know you have a model.

    名前と制御不能感が

  • And there's another cognitive bias

    リスクを実際以上のものに見せました

  • I'll call confirmation bias,

    新奇性が薄れ 月日が経ち

  • where we tend to accept data that confirms our beliefs

    ある程度 危機感も薄れ

  • and reject data that contradicts our beliefs.

    人々は慣れました

  • So evidence against our model, we're likely to ignore,

    新しいデータはなくとも恐れは薄れたのです

  • even if it's compelling.

    秋になると

  • It has to get very compelling before we'll pay attention.

    人々は

  • New models that extend long periods of time are hard.

    医者は既に解決していても良いはずだ と考えるようになりました

  • Global warming is a great example.

    ある種の分岐がありました

  • We're terrible at models that span 80 years.

    人々は

  • We can do "to the next harvest."

    恐怖か受容か--

  • We can often do "until our kids grow up."

    実際には、恐怖か無関心かでしょうか--を選ぶところで

  • But "80 years," we're just not good at.

    リスク自体を疑い始めたようなのです

  • So it's a very hard model to accept.

    冬にワクチンが出てきたときには

  • We can have both models in our head simultaneously --

    驚くほど沢山の人が

  • that kind of problem where we're holding both beliefs together,

    ワクチンを受けることを拒否したのです

  • the cognitive dissonance.

    以上は

  • Eventually, the new model will replace the old model.

    人々の安全の感覚やモデルが

  • Strong feelings can create a model.

    奔放に

  • September 11 created a security model in a lot of people's heads.

    新しい情報もなしに

  • Also, personal experiences with crime can do it,

    変化することの良い例です

  • personal health scare,

    こういったことはしばしば起こります

  • a health scare in the news.

    更にもう一つ問題を挙げます

  • You'll see these called "flashbulb events" by psychiatrists.

    感覚 モデル 実態とあります

  • They can create a model instantaneously,

    私は安全とは非常に相対的なものだと考えています

  • because they're very emotive.

    これは観察者次第だと思います

  • So in the technological world,

    またほとんどの安全に関する判断には

  • we don't have experience to judge models.

    多様な人々が関与しています

  • And we rely on others. We rely on proxies.

    特定のトレードオフで

  • And this works, as long as it's the correct others.

    利害を得る人達は

  • We rely on government agencies

    判断に関与しようとします

  • to tell us what pharmaceuticals are safe.

    それが彼らのアジェンダ(課題)だと私は呼んでいます

  • I flew here yesterday.

    アジェンダ、つまりこれが

  • I didn't check the airplane.

    マーケッティングだとか政治なのですが

  • I relied on some other group

    都合の良いモデルを選ばせたり

  • to determine whether my plane was safe to fly.

    モデルを無視して

  • We're here, none of us fear the roof is going to collapse on us,

    感覚で行動するようにしむけて

  • not because we checked,

    好みのモデルを持っていない人を排除しようとしているのです

  • but because we're pretty sure the building codes here are good.

    これは珍しいことではありません

  • It's a model we just accept

    その良い例は喫煙のリスクです

  • pretty much by faith.

    過去 50 年の歴史で 喫煙のリスクは

  • And that's OK.

    モデルがどのように変化していくかを示しています

  • Now, what we want is people to get familiar enough with better models,

    また産業が望まないモデルに対して

  • have it reflected in their feelings,

    どう戦っているかも分かります

  • to allow them to make security trade-offs.

    それを間接喫煙の議論と比較してください

  • When these go out of whack, you have two options.

    約 20 年遅れて出てきたものです

  • One, you can fix people's feelings, directly appeal to feelings.

    シートベルトはどうでしょう

  • It's manipulation, but it can work.

    私が子供の頃 誰もシートベルトを締めていませんでした

  • The second, more honest way

    今ではシートベルトを締めないと

  • is to actually fix the model.

    誰も運転させてくれません

  • Change happens slowly.

    エアーバッグはどうでしょう

  • The smoking debate took 40 years -- and that was an easy one.

    約 30 年遅れて出てきた議論です

  • Some of this stuff is hard.

    全てモデルの変化の例です

  • Really, though, information seems like our best hope.

    そこから分かるのは モデルを変えるのは困難だということです

  • And I lied.

    安定しているモデルを変えるのは難しいのです

  • Remember I said feeling, model, reality; reality doesn't change?

    モデルと感覚が等しいならば

  • It actually does.

    モデルを持っているということすら分かりません

  • We live in a technological world;

    また別の認知バイアスがあります

  • reality changes all the time.

    確証バイアスというもので

  • So we might have, for the first time in our species:

    私たちは自身の信念に沿う

  • feeling chases model, model chases reality, reality's moving --

    データを受け入れる傾向にあり

  • they might never catch up.

    そぐわない情報ははねのける傾向にあるというものです

  • We don't know.

    モデルに反する証拠は

  • But in the long term,

    そうだろうと思っても無視しがちです

  • both feeling and reality are important.

    注意を引くには よほど強い説得力を持つものでなければなりません

  • And I want to close with two quick stories to illustrate this.

    長期間をカバーする新しいモデルは難しいものです

  • 1982 -- I don't know if people will remember this --

    地球温暖化がよい例です

  • there was a short epidemic of Tylenol poisonings

    私たちは 80 年という

  • in the United States.

    長いスパンを持つモデルには向いていません

  • It's a horrific story.

    次の収穫まではいけます

  • Someone took a bottle of Tylenol,

    自分の子供が成長するまでも大丈夫でしょう

  • put poison in it, closed it up, put it back on the shelf,

    しかし 80 年ともなると上手くやれません

  • someone else bought it and died.

    従って地球温暖化のモデルは受け入れがとても難しいのです

  • This terrified people.

    私たちは頭の中で二つのモデルを同時に持つことが出来ます

  • There were a couple of copycat attacks.

    二つの概念をどちらも信じている

  • There wasn't any real risk, but people were scared.

    そういう場合の問題で

  • And this is how the tamper-proof drug industry was invented.

    認知的不協和があるときです

  • Those tamper-proof caps? That came from this.

    最終的には

  • It's complete security theater.

    新しいモデルが古いモデルに取って代わります

  • As a homework assignment, think of 10 ways to get around it.

    強い感情がモデルを作ることがあります

  • I'll give you one: a syringe.

    9.11 は大勢の人の頭の中に

  • But it made people feel better.

    安全モデルを作りました

  • It made their feeling of security more match the reality.

    また犯罪にあった個人的な経験や

  • Last story: a few years ago, a friend of mine gave birth.

    健康を害した経験

  • I visit her in the hospital.

    ニュースで知った健康被害などもモデルを作るでしょう

  • It turns out, when a baby's born now,

    以上は精神科医によると

  • they put an RFID bracelet on the baby, a corresponding one on the mother,

    フラッシュバルブ記憶と呼ばれるものです

  • so if anyone other than the mother takes the baby out of the maternity ward,

    モデルを一瞬で作り上げます

  • an alarm goes off.

    非常に感情価が高いためです

  • I said, "Well, that's kind of neat.

    科学技術の話となると

  • I wonder how rampant baby snatching is out of hospitals."

    モデルを評価するための経験を

  • I go home, I look it up.

    私たちは持っていません

  • It basically never happens.

    判断を他者に 代理に委ねています

  • (Laughter)

    これは信頼性のある他者に委ねる場合に限り有効です

  • But if you think about it, if you are a hospital,

    私たちは治療薬の安全性の判断を

  • and you need to take a baby away from its mother,

    政府機関に委ねています

  • out of the room to run some tests,

    私は昨日飛行機でここまで来たのですが

  • you better have some good security theater,

    飛行機を調べませんでした

  • or she's going to rip your arm off.

    自分が乗る飛行機の安全性の判断を

  • (Laughter)

    他の組織に委ねたのです

  • So it's important for us,

    この場にいる私たちは天井が落ちてくる心配なんてしていません

  • those of us who design security,

    調べたからではなく

  • who look at security policy --

    ここの建築規定は良いと

  • or even look at public policy in ways that affect security.

    私たちは確信しているからです

  • It's not just reality; it's feeling and reality.

    これは疑問も持たずに信じて

  • What's important

    受け入れているモデルです

  • is that they be about the same.

    それでいいのです

  • It's important that, if our feelings match reality,

    ここで私たちが望むのは

  • we make better security trade-offs.

    人々に より良いモデルに

  • Thank you.

    精通してもらい

  • (Applause)

    そしてそれを感覚に反映して

So, security is two different things:

翻訳: Keiichi Kudo 校正: Akiko Hicks

字幕と単語

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます