Placeholder Image

字幕表 動画を再生する

  • This is a photograph

    翻訳: Yasushi Aoki 校正: Yuki Okada

  • by the artist Michael Najjar,

    この写真は

  • and it's real,

    マイケル・ナジャーによるものです

  • in the sense that he went there to Argentina

    実際アルゼンチンに行って

  • to take the photo.

    撮ってきたという意味で

  • But it's also a fiction. There's a lot of work that went into it after that.

    本物の写真ですが

  • And what he's done

    フィクションでもあります 後でいろいろ手が加えられているからです

  • is he's actually reshaped, digitally,

    何をしたかというと

  • all of the contours of the mountains

    デジタル加工をして

  • to follow the vicissitudes of the Dow Jones index.

    山の稜線の形を

  • So what you see,

    ダウジョーンズのグラフにしたのです

  • that precipice, that high precipice with the valley,

    だからご覧いただいている

  • is the 2008 financial crisis.

    谷に落ち込んでいる絶壁は

  • The photo was made

    2008年の金融危機です

  • when we were deep in the valley over there.

    この写真は 私たちが

  • I don't know where we are now.

    谷の深みにいたときに作られました

  • This is the Hang Seng index

    今はどこにいるのか分かりません

  • for Hong Kong.

    こちらは香港の

  • And similar topography.

    ハンセン指数です

  • I wonder why.

    似たような地形ですね

  • And this is art. This is metaphor.

    どうしてなんでしょう?

  • But I think the point is

    これはアートであり メタファーです

  • that this is metaphor with teeth,

    でも重要なのは

  • and it's with those teeth that I want to propose today

    これが牙のあるメタファーだということです

  • that we rethink a little bit

    その牙のために 今日はひとつ

  • about the role of contemporary math --

    現代数学の役割を

  • not just financial math, but math in general.

    再考したいと思います

  • That its transition

    金融数学でなく もっと一般的な数学です

  • from being something that we extract and derive from the world

    ここにあるのは

  • to something that actually starts to shape it --

    世界から何かを ただ引き出していたものが

  • the world around us and the world inside us.

    世界を形作り始めるようになる という変化です

  • And it's specifically algorithms,

    私たちの周りの世界にせよ 私たちの中の世界にせよ

  • which are basically the math

    具体的に言うと それはアルゴリズムです

  • that computers use to decide stuff.

    アルゴリズムというのは

  • They acquire the sensibility of truth

    コンピュータが判断をするときに使う ある種数学的なものです

  • because they repeat over and over again,

    繰り返しの中で アルゴリズムは

  • and they ossify and calcify,

    真実への感覚を備えるようになり

  • and they become real.

    そして骨化し 石灰化して

  • And I was thinking about this, of all places,

    現実になるのです

  • on a transatlantic flight a couple of years ago,

    このことを考えるようになったのは

  • because I happened to be seated

    2、3年前に大西洋を渡る飛行機の中で

  • next to a Hungarian physicist about my age

    私と同年代のハンガリー出身の

  • and we were talking

    物理学者と隣り合わせ

  • about what life was like during the Cold War

    言葉を交わした時でした

  • for physicists in Hungary.

    冷戦時代のハンガリーの物理学者たちが

  • And I said, "So what were you doing?"

    どんなものだったのか聞いてみました

  • And he said, "Well we were mostly breaking stealth."

    「どんなことをしていたんでしょう?」

  • And I said, "That's a good job. That's interesting.

    「もっぱらステルスを見破るということです」

  • How does that work?"

    「いい仕事ですね 面白そうです

  • And to understand that,

    どういう仕組みなんですか?」

  • you have to understand a little bit about how stealth works.

    これを理解するためには

  • And so -- this is an over-simplification --

    ステルスの仕組みを知る必要があります

  • but basically, it's not like

    ものすごく単純化して説明しますが

  • you can just pass a radar signal

    空中の156トンの鋼鉄の塊が

  • right through 156 tons of steel in the sky.

    単にレーダーをくぐり抜けるというのは

  • It's not just going to disappear.

    基本的にできません

  • But if you can take this big, massive thing,

    消すことはできないのです

  • and you could turn it into

    しかし巨大なものを

  • a million little things --

    何百万という小さなものに

  • something like a flock of birds --

    何か鳥の大群のようなものに

  • well then the radar that's looking for that

    変えることはできます

  • has to be able to see

    するとそれを見たレーダーは

  • every flock of birds in the sky.

    鳥の群れだと

  • And if you're a radar, that's a really bad job.

    勘違いします

  • And he said, "Yeah." He said, "But that's if you're a radar.

    この点でレーダーというのは あまり有能ではないのです

  • So we didn't use a radar;

    それで彼は言いました 「ええ でもそれはレーダーの話です

  • we built a black box that was looking for electrical signals,

    だからレーダーは当てにしませんでした

  • electronic communication.

    電気的な信号 電子通信を見る

  • And whenever we saw a flock of birds that had electronic communication,

    ブラックボックスを作ったのです

  • we thought, 'Probably has something to do with the Americans.'"

    そして電子通信をしている鳥の群れを見たら

  • And I said, "Yeah.

    これはアメリカ人がかんでいるなと考えたわけです」

  • That's good.

    私は言いました

  • So you've effectively negated

    「そりゃいい

  • 60 years of aeronautic research.

    60年の航空学研究を

  • What's your act two?

    打ち消していたわけですね

  • What do you do when you grow up?"

    それで第二幕は何ですか?

  • And he said,

    その後はどんなことをしているんですか?」

  • "Well, financial services."

    彼は「金融業界です」

  • And I said, "Oh."

    と答えました

  • Because those had been in the news lately.

    「なるほど」

  • And I said, "How does that work?"

    最近ニュースでよく耳にしていたからです

  • And he said, "Well there's 2,000 physicists on Wall Street now,

    「どんな具合になっているんですか?」と聞くと

  • and I'm one of them."

    「ウォールストリートには物理学者が2千人います

  • And I said, "What's the black box for Wall Street?"

    私はその1人です」ということでした

  • And he said, "It's funny you ask that,

    「ウォールストリートのブラックボックスは何なんでしょう?」

  • because it's actually called black box trading.

    「そう聞かれたのは面白いですね

  • And it's also sometimes called algo trading,

    実際それはブラックボックス・トレーディングと呼ばれているからです

  • algorithmic trading."

    アルゴ・トレーディングとか

  • And algorithmic trading evolved in part

    アルゴリズム・トレーディングと言うこともあります」

  • because institutional traders have the same problems

    アルゴリズム・トレーディングが発展したのは

  • that the United States Air Force had,

    ある部分 金融機関のトレーダーたちが

  • which is that they're moving these positions --

    米国空軍と同じ問題を抱えていたからです

  • whether it's Proctor & Gamble or Accenture, whatever --

    動く点がたくさんあって

  • they're moving a million shares of something

    P&Gであれ アクセンチュアであれ

  • through the market.

    マーケットで百万という株を

  • And if they do that all at once,

    動かしています

  • it's like playing poker and going all in right away.

    それを全部同時にやるのは

  • You just tip your hand.

    ポーカーですぐに全財産賭けるようなものです

  • And so they have to find a way --

    手の内を明かすことになります

  • and they use algorithms to do this --

    だから彼らはその大きなものを

  • to break up that big thing

    ・・・アルゴリズムがここで出てくるのですが

  • into a million little transactions.

    百万という小さなトランザクションに

  • And the magic and the horror of that

    分割する必要があります

  • is that the same math

    そしてその魔術的で怖いところは

  • that you use to break up the big thing

    大きなものを

  • into a million little things

    百万の小さなものへと

  • can be used to find a million little things

    分割するのと同じ数学が

  • and sew them back together

    百万の小さなものを見つけてまとめ

  • and figure out what's actually happening in the market.

    マーケットで実際何が起きているのか

  • So if you need to have some image

    見極めるためにも使えるということです

  • of what's happening in the stock market right now,

    だから今株式市場で

  • what you can picture is a bunch of algorithms

    何が起きているのかのイメージがほしいなら

  • that are basically programmed to hide,

    それは隠そうとするたくさんのプログラムと

  • and a bunch of algorithms that are programmed to go find them and act.

    それを解き明かし 出し抜こうとする

  • And all of that's great, and it's fine.

    たくさんのプログラムのせめぎ合いということです

  • And that's 70 percent

    これは大変結構なことです

  • of the United States stock market,

    米国株式市場の

  • 70 percent of the operating system

    70%がそうなのです

  • formerly known as your pension,

    皆さんの年金とか

  • your mortgage.

    ローンといったものの

  • And what could go wrong?

    70%がそうやって動いているのです

  • What could go wrong

    それで何か悪いことがあるのでしょうか?

  • is that a year ago,

    一年前のことですが

  • nine percent of the entire market just disappears in five minutes,

    株式市場全体の9%が

  • and they called it the Flash Crash of 2:45.

    5分間で消えてなくなりました

  • All of a sudden, nine percent just goes away,

    「2時45分のフラッシュ・クラッシュ」と呼ばれています

  • and nobody to this day

    9%が突如消えてなくなり

  • can even agree on what happened

    今日に至るまで誰も

  • because nobody ordered it, nobody asked for it.

    本当のところ何が起きたのか分からないのです

  • Nobody had any control over what was actually happening.

    誰が仕組んだことでもありません

  • All they had

    誰かがコントロールしていたわけでもありません

  • was just a monitor in front of them

    彼らが持っていたのは

  • that had the numbers on it

    数字が表示されている

  • and just a red button

    モニタと

  • that said, "Stop."

    「停止」と書かれた

  • And that's the thing,

    赤いボタンだけです

  • is that we're writing things,

    私たちがやっているのは

  • we're writing these things that we can no longer read.

    もはや自分では読めないものを

  • And we've rendered something

    書くということです

  • illegible,

    判読できないものを

  • and we've lost the sense

    書いているのです

  • of what's actually happening

    自分たちの作った世界で

  • in this world that we've made.

    実際何が起きているのか

  • And we're starting to make our way.

    私たちは感覚を失っており

  • There's a company in Boston called Nanex,

    それでも前に進み続けています

  • and they use math and magic

    ボストンにNanexという会社があって

  • and I don't know what,

    数学や魔法や

  • and they reach into all the market data

    そのほかよく分からないものを使って

  • and they find, actually sometimes, some of these algorithms.

    あらゆるマーケットデータを見て

  • And when they find them they pull them out

    そこから実際アルゴリズムを見つけ出しており

  • and they pin them to the wall like butterflies.

    そして彼らが見つけ出したときには

  • And they do what we've always done

    引っ張り出して 蝶のように標本にするのです

  • when confronted with huge amounts of data that we don't understand --

    彼らがしているのは

  • which is that they give them a name

    私たちが理解していない巨大なデータに直面したときにすることです

  • and a story.

    つまり 名前とストーリーを

  • So this is one that they found,

    与えるのです

  • they called the Knife,

    これは彼らが見つけたものの例です

  • the Carnival,

    「ナイフ」に

  • the Boston Shuffler,

    「カーニバル」に

  • Twilight.

    「ボストンシャフラー」に

  • And the gag is

    「トワイライト」

  • that, of course, these aren't just running through the market.

    可笑しいのは もちろん

  • You can find these kinds of things wherever you look,

    そういったことはマーケットに限った話ではないということです

  • once you learn how to look for them.

    そういった類のことは 一度見方を覚えると

  • You can find it here: this book about flies

    至る所で目にするようになります

  • that you may have been looking at on Amazon.

    たとえばこれ あるハエに関する本を

  • You may have noticed it

    Amazonで見ていると

  • when its price started at 1.7 million dollars.

    値段が170万ドルだということに

  • It's out of print -- still ...

    気づくかもしれません

  • (Laughter)

    絶版になっています 今でも

  • If you had bought it at 1.7, it would have been a bargain.

    (笑)

  • A few hours later, it had gone up

    170万ドルで買っていたらお買い得でした

  • to 23.6 million dollars,

    数時間後には2,360万ドルまで

  • plus shipping and handling.

    上がったからです

  • And the question is:

    送料別で

  • Nobody was buying or selling anything; what was happening?

    疑問は 誰も買いもしなければ

  • And you see this behavior on Amazon

    売りもしていなかったということです

  • as surely as you see it on Wall Street.

    このAmazonで起きた現象は

  • And when you see this kind of behavior,

    ウォールストリートで起きたのと同じ現象です

  • what you see is the evidence

    そしてこのような挙動を見て分かるのは

  • of algorithms in conflict,

    それがアルゴリズムの衝突から

  • algorithms locked in loops with each other,

    生じたということです

  • without any human oversight,

    アルゴリズムが互いにループの中に捕らわれ

  • without any adult supervision

    常識的な観点でそれを監視する

  • to say, "Actually, 1.7 million is plenty."

    人間の目がなかったということです

  • (Laughter)

    「170万ドルはちと高くないか?」

  • And as with Amazon, so it is with Netflix.

    (笑)

  • And so Netflix has gone through

    Amazonでのことは Netflixでも同じです

  • several different algorithms over the years.

    Netflixはこれまでに何度となく

  • They started with Cinematch, and they've tried a bunch of others --

    アルゴリズムを変えてきました

  • there's Dinosaur Planet; there's Gravity.

    最初は「シネマッチ」で その後たくさんのアルゴリズムを試しています

  • They're using Pragmatic Chaos now.

    「ダイナソー・プラネット」に「グラビティ」

  • Pragmatic Chaos is, like all of Netflix algorithms,

    現在使っているのは「プラグマティック・ケイオス」です

  • trying to do the same thing.

    プラグマティック・ケイオスがしようとするのは

  • It's trying to get a grasp on you,

    他のNetflixのアルゴリズムと同じことです

  • on the firmware inside the human skull,

    ユーザの頭の中のファームウェアを

  • so that it can recommend what movie

    把握しようとするのです

  • you might want to watch next --

    ユーザが次に見たいであろう映画を

  • which is a very, very difficult problem.

    おすすめできるように

  • But the difficulty of the problem

    これはとても難しい問題です

  • and the fact that we don't really quite have it down,

    しかし問題の難しさや

  • it doesn't take away

    私たちによく分かっていないという事実が

  • from the effects Pragmatic Chaos has.

    プラグマティック・ケイオスの効果を

  • Pragmatic Chaos, like all Netflix algorithms,

    弱めることはありません

  • determines, in the end,

    プラグマティック・ケイオスは

  • 60 percent

    他のNetflixのアルゴリズム同様

  • of what movies end up being rented.

    最終的には借りられる映画の

  • So one piece of code

    60%を言い当てています

  • with one idea about you

    ユーザについての1つの考えを表す

  • is responsible for 60 percent of those movies.

    一片のコードが

  • But what if you could rate those movies

    映画レンタルの60%をもたらしているのです

  • before they get made?

    もし映画の評価を

  • Wouldn't that be handy?

    作る前にできたとしたらどうでしょう?

  • Well, a few data scientists from the U.K. are in Hollywood,

    便利ではないでしょうか?

  • and they have "story algorithms" --

    イギリスのデータ分析専門家がハリウッドにいて

  • a company called Epagogix.

    ストーリーを評価するアルゴリズムを作っています

  • And you can run your script through there,

    Epagogixという会社です

  • and they can tell you, quantifiably,

    脚本をそのアルゴリズムにかけると

  • that that's a 30 million dollar movie

    数値として

  • or a 200 million dollar movie.

    3千万ドルの映画だとか

  • And the thing is, is that this isn't Google.

    2億ドルの映画だと言い当てるのです

  • This isn't information.

    問題はこれはGoogleではないということ

  • These aren't financial stats; this is culture.

    情報でも 金融統計でもなく

  • And what you see here,

    文化なんです

  • or what you don't really see normally,

    ここで目にしているのは

  • is that these are the physics of culture.

    ・・・ まあ普通は目にしないかもしれませんが

  • And if these algorithms,

    文化の物理学だということです

  • like the algorithms on Wall Street,

    もしそれがある日

  • just crashed one day and went awry,

    ウォールストリートのアルゴリズムのように

  • how would we know?

    クラッシュしておかしくなったとしたら

  • What would it look like?

    どうやってそれが分かるのか?

  • And they're in your house. They're in your house.

    どんな風に見えるのか?

  • These are two algorithms competing for your living room.

    そしてこれは家庭の中にもあります

  • These are two different cleaning robots

    これはリビングで競い合っている2つのアルゴリズムです

  • that have very different ideas about what clean means.

    この2つのロボットは

  • And you can see it

    「きれい」ということについて随分違った考えを持っています

  • if you slow it down and attach lights to them,

    スローダウンして

  • and they're sort of like secret architects in your bedroom.

    電球をつけてやればそれがわかります

  • And the idea that architecture itself

    寝室の隠れた建築家のようなものです

  • is somehow subject to algorithmic optimization

    そして建築自体が

  • is not far-fetched.

    アルゴリズムによる最適化の対象となるという考えも

  • It's super-real and it's happening around you.

    突飛というわけではありません

  • You feel it most

    非常に現実的なことで 身の回りで起きていることなのです

  • when you're in a sealed metal box,

    一番よく分かるのは

  • a new-style elevator;

    密閉された金属の箱の中にいるときです

  • they're called destination-control elevators.

    行先制御エレベータと呼ばれる

  • These are the ones where you have to press what floor you're going to go to

    新式のエレベータです

  • before you get in the elevator.

    どの階に行きたいのか エレベータに乗る前に

  • And it uses what's called a bin-packing algorithm.

    指定する必要があります

  • So none of this mishegas

    ビンパッキングアルゴリズムが使われています

  • of letting everybody go into whatever car they want.

    みんなにエレベータを好き勝手に選ばせるような

  • Everybody who wants to go to the 10th floor goes into car two,

    馬鹿なことはしません