Placeholder Image

字幕表 動画を再生する

  • This is a photograph

    翻訳: Yasushi Aoki 校正: Yuki Okada

  • by the artist Michael Najjar,

    この写真は

  • and it's real,

    マイケル・ナジャーによるものです

  • in the sense that he went there to Argentina

    実際アルゼンチンに行って

  • to take the photo.

    撮ってきたという意味で

  • But it's also a fiction. There's a lot of work that went into it after that.

    本物の写真ですが

  • And what he's done

    フィクションでもあります 後でいろいろ手が加えられているからです

  • is he's actually reshaped, digitally,

    何をしたかというと

  • all of the contours of the mountains

    デジタル加工をして

  • to follow the vicissitudes of the Dow Jones index.

    山の稜線の形を

  • So what you see,

    ダウジョーンズのグラフにしたのです

  • that precipice, that high precipice with the valley,

    だからご覧いただいている

  • is the 2008 financial crisis.

    谷に落ち込んでいる絶壁は

  • The photo was made

    2008年の金融危機です

  • when we were deep in the valley over there.

    この写真は 私たちが

  • I don't know where we are now.

    谷の深みにいたときに作られました

  • This is the Hang Seng index

    今はどこにいるのか分かりません

  • for Hong Kong.

    こちらは香港の

  • And similar topography.

    ハンセン指数です

  • I wonder why.

    似たような地形ですね

  • And this is art. This is metaphor.

    どうしてなんでしょう?

  • But I think the point is

    これはアートであり メタファーです

  • that this is metaphor with teeth,

    でも重要なのは

  • and it's with those teeth that I want to propose today

    これが牙のあるメタファーだということです

  • that we rethink a little bit

    その牙のために 今日はひとつ

  • about the role of contemporary math --

    現代数学の役割を

  • not just financial math, but math in general.

    再考したいと思います

  • That its transition

    金融数学でなく もっと一般的な数学です

  • from being something that we extract and derive from the world

    ここにあるのは

  • to something that actually starts to shape it --

    世界から何かを ただ引き出していたものが

  • the world around us and the world inside us.

    世界を形作り始めるようになる という変化です

  • And it's specifically algorithms,

    私たちの周りの世界にせよ 私たちの中の世界にせよ

  • which are basically the math

    具体的に言うと それはアルゴリズムです

  • that computers use to decide stuff.

    アルゴリズムというのは

  • They acquire the sensibility of truth

    コンピュータが判断をするときに使う ある種数学的なものです

  • because they repeat over and over again,

    繰り返しの中で アルゴリズムは

  • and they ossify and calcify,

    真実への感覚を備えるようになり

  • and they become real.

    そして骨化し 石灰化して

  • And I was thinking about this, of all places,

    現実になるのです

  • on a transatlantic flight a couple of years ago,

    このことを考えるようになったのは

  • because I happened to be seated

    2、3年前に大西洋を渡る飛行機の中で

  • next to a Hungarian physicist about my age

    私と同年代のハンガリー出身の

  • and we were talking

    物理学者と隣り合わせ

  • about what life was like during the Cold War

    言葉を交わした時でした

  • for physicists in Hungary.

    冷戦時代のハンガリーの物理学者たちが

  • And I said, "So what were you doing?"

    どんなものだったのか聞いてみました

  • And he said, "Well we were mostly breaking stealth."

    「どんなことをしていたんでしょう?」

  • And I said, "That's a good job. That's interesting.

    「もっぱらステルスを見破るということです」

  • How does that work?"

    「いい仕事ですね 面白そうです

  • And to understand that,

    どういう仕組みなんですか?」

  • you have to understand a little bit about how stealth works.

    これを理解するためには

  • And so -- this is an over-simplification --

    ステルスの仕組みを知る必要があります

  • but basically, it's not like

    ものすごく単純化して説明しますが

  • you can just pass a radar signal

    空中の156トンの鋼鉄の塊が

  • right through 156 tons of steel in the sky.

    単にレーダーをくぐり抜けるというのは

  • It's not just going to disappear.

    基本的にできません

  • But if you can take this big, massive thing,

    消すことはできないのです

  • and you could turn it into

    しかし巨大なものを

  • a million little things --

    何百万という小さなものに

  • something like a flock of birds --

    何か鳥の大群のようなものに

  • well then the radar that's looking for that

    変えることはできます

  • has to be able to see

    するとそれを見たレーダーは

  • every flock of birds in the sky.

    鳥の群れだと

  • And if you're a radar, that's a really bad job.

    勘違いします

  • And he said, "Yeah." He said, "But that's if you're a radar.

    この点でレーダーというのは あまり有能ではないのです

  • So we didn't use a radar;

    それで彼は言いました 「ええ でもそれはレーダーの話です

  • we built a black box that was looking for electrical signals,

    だからレーダーは当てにしませんでした

  • electronic communication.

    電気的な信号 電子通信を見る

  • And whenever we saw a flock of birds that had electronic communication,

    ブラックボックスを作ったのです

  • we thought, 'Probably has something to do with the Americans.'"

    そして電子通信をしている鳥の群れを見たら

  • And I said, "Yeah.

    これはアメリカ人がかんでいるなと考えたわけです」

  • That's good.

    私は言いました

  • So you've effectively negated

    「そりゃいい

  • 60 years of aeronautic research.

    60年の航空学研究を

  • What's your act two?

    打ち消していたわけですね

  • What do you do when you grow up?"

    それで第二幕は何ですか?

  • And he said,

    その後はどんなことをしているんですか?」

  • "Well, financial services."

    彼は「金融業界です」

  • And I said, "Oh."

    と答えました

  • Because those had been in the news lately.

    「なるほど」

  • And I said, "How does that work?"

    最近ニュースでよく耳にしていたからです

  • And he said, "Well there's 2,000 physicists on Wall Street now,

    「どんな具合になっているんですか?」と聞くと

  • and I'm one of them."

    「ウォールストリートには物理学者が2千人います

  • And I said, "What's the black box for Wall Street?"

    私はその1人です」ということでした

  • And he said, "It's funny you ask that,

    「ウォールストリートのブラックボックスは何なんでしょう?」

  • because it's actually called black box trading.

    「そう聞かれたのは面白いですね

  • And it's also sometimes called algo trading,

    実際それはブラックボックス・トレーディングと呼ばれているからです

  • algorithmic trading."

    アルゴ・トレーディングとか

  • And algorithmic trading evolved in part

    アルゴリズム・トレーディングと言うこともあります」

  • because institutional traders have the same problems

    アルゴリズム・トレーディングが発展したのは

  • that the United States Air Force had,

    ある部分 金融機関のトレーダーたちが

  • which is that they're moving these positions --

    米国空軍と同じ問題を抱えていたからです

  • whether it's Proctor & Gamble or Accenture, whatever --

    動く点がたくさんあって

  • they're moving a million shares of something

    P&Gであれ アクセンチュアであれ

  • through the market.

    マーケットで百万という株を

  • And if they do that all at once,

    動かしています

  • it's like playing poker and going all in right away.

    それを全部同時にやるのは

  • You just tip your hand.

    ポーカーですぐに全財産賭けるようなものです

  • And so they have to find a way --

    手の内を明かすことになります

  • and they use algorithms to do this --

    だから彼らはその大きなものを

  • to break up that big thing

    ・・・アルゴリズムがここで出てくるのですが

  • into a million little transactions.

    百万という小さなトランザクションに

  • And the magic and the horror of that

    分割する必要があります

  • is that the same math

    そしてその魔術的で怖いところは

  • that you use to break up the big thing

    大きなものを

  • into a million little things

    百万の小さなものへと

  • can be used to find a million little things

    分割するのと同じ数学が

  • and sew them back together

    百万の小さなものを見つけてまとめ

  • and figure out what's actually happening in the market.

    マーケットで実際何が起きているのか

  • So if you need to have some image

    見極めるためにも使えるということです

  • of what's happening in the stock market right now,

    だから今株式市場で

  • what you can picture is a bunch of algorithms

    何が起きているのかのイメージがほしいなら

  • that are basically programmed to hide,

    それは隠そうとするたくさんのプログラムと

  • and a bunch of algorithms that are programmed to go find them and act.

    それを解き明かし 出し抜こうとする

  • And all of that's great, and it's fine.

    たくさんのプログラムのせめぎ合いということです

  • And that's 70 percent

    これは大変結構なことです

  • of the United States stock market,

    米国株式市場の

  • 70 percent of the operating system

    70%がそうなのです

  • formerly known as your pension,

    皆さんの年金とか

  • your mortgage.

    ローンといったものの

  • And what could go wrong?

    70%がそうやって動いているのです

  • What could go wrong

    それで何か悪いことがあるのでしょうか?

  • is that a year ago,

    一年前のことですが

  • nine percent of the entire market just disappears in five minutes,

    株式市場全体の9%が

  • and they called it the Flash Crash of 2:45.

    5分間で消えてなくなりました

  • All of a sudden, nine percent just goes away,

    「2時45分のフラッシュ・クラッシュ」と呼ばれています

  • and nobody to this day

    9%が突如消えてなくなり

  • can even agree on what happened

    今日に至るまで誰も

  • because nobody ordered it, nobody asked for it.

    本当のところ何が起きたのか分からないのです

  • Nobody had any control over what was actually happening.

    誰が仕組んだことでもありません

  • All they had

    誰かがコントロールしていたわけでもありません

  • was just a monitor in front of them

    彼らが持っていたのは

  • that had the numbers on it

    数字が表示されている

  • and just a red button

    モニタと

  • that said, "Stop."

    「停止」と書かれた

  • And that's the thing,

    赤いボタンだけです

  • is that we're writing things,

    私たちがやっているのは

  • we're writing these things that we can no longer read.

    もはや自分では読めないものを

  • And we've rendered something

    書くということです

  • illegible,

    判読できないものを

  • and we've lost the sense

    書いているのです

  • of what's actually happening

    自分たちの作った世界で

  • in this world that we've made.

    実際何が起きているのか

  • And we're starting to make our way.

    私たちは感覚を失っており

  • There's a company in Boston called Nanex,

    それでも前に進み続けています

  • and they use math and magic

    ボストンにNanexという会社があって

  • and I don't know what,

    数学や魔法や

  • and they reach into all the market data

    そのほかよく分からないものを使って

  • and they find, actually sometimes, some of these algorithms.

    あらゆるマーケットデータを見て

  • And when they find them they pull them out

    そこから実際アルゴリズムを見つけ出しており

  • and they pin them to the wall like butterflies.

    そして彼らが見つけ出したときには

  • And they do what we've always done

    引っ張り出して 蝶のように標本にするのです

  • when confronted with huge amounts of data that we don't understand --

    彼らがしているのは

  • which is that they give them a name

    私たちが理解していない巨大なデータに直面したときにすることです

  • and a story.

    つまり 名前とストーリーを

  • So this is one that they found,

    与えるのです

  • they called the Knife,

    これは彼らが見つけたものの例です

  • the Carnival,

    「ナイフ」に

  • the Boston Shuffler,

    「カーニバル」に

  • Twilight.

    「ボストンシャフラー」に

  • And the gag is

    「トワイライト」

  • that, of course, these aren't just running through the market.

    可笑しいのは もちろん

  • You can find these kinds of things wherever you look,

    そういったことはマーケットに限った話ではないということです

  • once you learn how to look for them.

    そういった類のことは 一度見方を覚えると

  • You can find it here: this book about flies

    至る所で目にするようになります

  • that you may have been looking at on Amazon.

    たとえばこれ あるハエに関する本を

  • You may have noticed it

    Amazonで見ていると

  • when its price started at 1.7 million dollars.

    値段が170万ドルだということに

  • It's out of print -- still ...

    気づくかもしれません

  • (Laughter)

    絶版になっています 今でも

  • If you had bought it at 1.7, it would have been a bargain.

    (笑)

  • A few hours later, it had gone up

    170万ドルで買っていたらお買い得でした

  • to 23.6 million dollars,

    数時間後には2,360万ドルまで

  • plus shipping and handling.

    上がったからです

  • And the question is:

    送料別で

  • Nobody was buying or selling anything; what was happening?

    疑問は 誰も買いもしなければ

  • And you see this behavior on Amazon

    売りもしていなかったということです

  • as surely as you see it on Wall Street.

    このAmazonで起きた現象は

  • And when you see this kind of behavior,

    ウォールストリートで起きたのと同じ現象です

  • what you see is the evidence

    そしてこのような挙動を見て分かるのは

  • of algorithms in conflict,

    それがアルゴリズムの衝突から

  • algorithms locked in loops with each other,

    生じたということです

  • without any human oversight,

    アルゴリズムが互いにループの中に捕らわれ

  • without any adult supervision

    常識的な観点でそれを監視する

  • to say, "Actually, 1.7 million is plenty."

    人間の目がなかったということです

  • (Laughter)

    「170万ドルはちと高くないか?」

  • And as with Amazon, so it is with Netflix.

    (笑)

  • And so Netflix has gone through

    Amazonでのことは Netflixでも同じです

  • several different algorithms over the years.

    Netflixはこれまでに何度となく

  • They started with Cinematch, and they've tried a bunch of others --

    アルゴリズムを変えてきました

  • there's Dinosaur Planet; there's Gravity.

    最初は「シネマッチ」で その後たくさんのアルゴリズムを試しています

  • They're using Pragmatic Chaos now.

    「ダイナソー・プラネット」に「グラビティ」

  • Pragmatic Chaos is, like all of Netflix algorithms,

    現在使っているのは「プラグマティック・ケイオス」です

  • trying to do the same thing.

    プラグマティック・ケイオスがしようとするのは

  • It's trying to get a grasp on you,

    他のNetflixのアルゴリズムと同じことです

  • on the firmware inside the human skull,

    ユーザの頭の中のファームウェアを

  • so that it can recommend what movie

    把握しようとするのです

  • you might want to watch next --

    ユーザが次に見たいであろう映画を

  • which is a very, very difficult problem.

    おすすめできるように

  • But the difficulty of the problem

    これはとても難しい問題です

  • and the fact that we don't really quite have it down,

    しかし問題の難しさや

  • it doesn't take away

    私たちによく分かっていないという事実が

  • from the effects Pragmatic Chaos has.

    プラグマティック・ケイオスの効果を

  • Pragmatic Chaos, like all Netflix algorithms,

    弱めることはありません

  • determines, in the end,

    プラグマティック・ケイオスは

  • 60 percent

    他のNetflixのアルゴリズム同様

  • of what movies end up being rented.

    最終的には借りられる映画の

  • So one piece of code

    60%を言い当てています

  • with one idea about you

    ユーザについての1つの考えを表す

  • is responsible for 60 percent of those movies.

    一片のコードが

  • But what if you could rate those movies

    映画レンタルの60%をもたらしているのです

  • before they get made?

    もし映画の評価を

  • Wouldn't that be handy?

    作る前にできたとしたらどうでしょう?

  • Well, a few data scientists from the U.K. are in Hollywood,

    便利ではないでしょうか?

  • and they have "story algorithms" --

    イギリスのデータ分析専門家がハリウッドにいて

  • a company called Epagogix.

    ストーリーを評価するアルゴリズムを作っています

  • And you can run your script through there,

    Epagogixという会社です

  • and they can tell you, quantifiably,

    脚本をそのアルゴリズムにかけると

  • that that's a 30 million dollar movie

    数値として

  • or a 200 million dollar movie.

    3千万ドルの映画だとか

  • And the thing is, is that this isn't Google.

    2億ドルの映画だと言い当てるのです

  • This isn't information.

    問題はこれはGoogleではないということ

  • These aren't financial stats; this is culture.

    情報でも 金融統計でもなく

  • And what you see here,

    文化なんです

  • or what you don't really see normally,

    ここで目にしているのは

  • is that these are the physics of culture.

    ・・・ まあ普通は目にしないかもしれませんが

  • And if these algorithms,

    文化の物理学だということです

  • like the algorithms on Wall Street,

    もしそれがある日

  • just crashed one day and went awry,

    ウォールストリートのアルゴリズムのように

  • how would we know?

    クラッシュしておかしくなったとしたら

  • What would it look like?

    どうやってそれが分かるのか?

  • And they're in your house. They're in your house.

    どんな風に見えるのか?

  • These are two algorithms competing for your living room.

    そしてこれは家庭の中にもあります

  • These are two different cleaning robots

    これはリビングで競い合っている2つのアルゴリズムです

  • that have very different ideas about what clean means.

    この2つのロボットは

  • And you can see it

    「きれい」ということについて随分違った考えを持っています

  • if you slow it down and attach lights to them,

    スローダウンして

  • and they're sort of like secret architects in your bedroom.

    電球をつけてやればそれがわかります

  • And the idea that architecture itself

    寝室の隠れた建築家のようなものです

  • is somehow subject to algorithmic optimization

    そして建築自体が

  • is not far-fetched.

    アルゴリズムによる最適化の対象となるという考えも

  • It's super-real and it's happening around you.

    突飛というわけではありません

  • You feel it most

    非常に現実的なことで 身の回りで起きていることなのです

  • when you're in a sealed metal box,

    一番よく分かるのは

  • a new-style elevator;

    密閉された金属の箱の中にいるときです

  • they're called destination-control elevators.

    行先制御エレベータと呼ばれる

  • These are the ones where you have to press what floor you're going to go to

    新式のエレベータです

  • before you get in the elevator.

    どの階に行きたいのか エレベータに乗る前に

  • And it uses what's called a bin-packing algorithm.

    指定する必要があります

  • So none of this mishegas

    ビンパッキングアルゴリズムが使われています

  • of letting everybody go into whatever car they want.

    みんなにエレベータを好き勝手に選ばせるような

  • Everybody who wants to go to the 10th floor goes into car two,

    馬鹿なことはしません

  • and everybody who wants to go to the third floor goes into car five.

    10階に行きたい人は2番エレベータに

  • And the problem with that

    3階に行きたい人は5番エレベータにという具合にやります

  • is that people freak out.

    これの問題は

  • People panic.

    みんながパニックを

  • And you see why. You see why.

    起こすということです

  • It's because the elevator

    なぜか分かりますか?

  • is missing some important instrumentation, like the buttons.

    このエレベータは

  • (Laughter)

    大事なものを欠いているからです ボタンみたいな

  • Like the things that people use.

    (笑)

  • All it has

    みんなが使い慣れているものです

  • is just the number that moves up or down

    このエレベータにあるのは

  • and that red button that says, "Stop."

    増えたり減ったりする数字と

  • And this is what we're designing for.

    「停止」と書かれた赤いボタンだけです

  • We're designing

    これが私たちのデザインしようとしているものです

  • for this machine dialect.

    私たちはこの機械の言葉に合わせて

  • And how far can you take that? How far can you take it?

    デザインしているのです

  • You can take it really, really far.

    そうやってどこまで行けるのでしょう?

  • So let me take it back to Wall Street.

    すごく遠くまで行けるのです

  • Because the algorithms of Wall Street

    ウォールストリートの話に戻りましょう

  • are dependent on one quality above all else,

    ウォールストリートのアルゴリズムは

  • which is speed.

    何よりも1つのこと

  • And they operate on milliseconds and microseconds.

    スピードに依存しています

  • And just to give you a sense of what microseconds are,

    ミリ秒とかマイクロ秒という単位で動いています

  • it takes you 500,000 microseconds

    マイクロ秒というのがどんなものかというと

  • just to click a mouse.

    マウスクリックには50万マイクロ秒かかる

  • But if you're a Wall Street algorithm

    と言えば 感覚としてわかるでしょう

  • and you're five microseconds behind,

    しかしウォールストリートのアルゴリズムでは

  • you're a loser.

    5マイクロ秒遅れたら

  • So if you were an algorithm,

    負けるのです

  • you'd look for an architect like the one that I met in Frankfurt

    だから皆さんがアルゴリズムなら

  • who was hollowing out a skyscraper --

    私がフランクフルトで出会った建築家のような人間を探すことでしょう

  • throwing out all the furniture, all the infrastructure for human use,

    彼は高層ビルを空洞にしています

  • and just running steel on the floors

    家具のような人間が使うためのインフラはすべて取り去って

  • to get ready for the stacks of servers to go in --

    床を鉄骨で補強し

  • all so an algorithm

    サーバの山を積み上げられるようにするのです

  • could get close to the Internet.

    それもすべて アルゴリズムが

  • And you think of the Internet as this kind of distributed system.

    インターネットに近づけるようにするためです

  • And of course, it is, but it's distributed from places.

    インターネットは分散システムだと皆さんお考えでしょう

  • In New York, this is where it's distributed from:

    もちろんそうですが それは場所として分散しています

  • the Carrier Hotel

    ニューヨークでは これが分散の元です

  • located on Hudson Street.

    コロケーションセンターが

  • And this is really where the wires come right up into the city.

    ハドソン通りにあります

  • And the reality is that the further away you are from that,

    ここはまさにケーブルがこの都市に出てくる場所です

  • you're a few microseconds behind every time.

    この場所から離れるたびに

  • These guys down on Wall Street,

    何マイクロ秒かずつ遅れることになります

  • Marco Polo and Cherokee Nation,

    ウォールストリートのこの辺にいる

  • they're eight microseconds

    「マルコポーロ」とか「チェロキーネーション」といった連中は

  • behind all these guys

    コロケーションセンターのまわりの

  • going into the empty buildings being hollowed out

    空洞化されたビルに入り込んだ

  • up around the Carrier Hotel.

    この連中に対して

  • And that's going to keep happening.

    8マイクロ秒遅れをとることになります

  • We're going to keep hollowing them out,

    そういうことが起き続けているのです

  • because you, inch for inch

    ビルが空洞にされています

  • and pound for pound and dollar for dollar,

    なぜなら

  • none of you could squeeze revenue out of that space

    どのような見地から見ても

  • like the Boston Shuffler could.

    その場所から「ボストンシャフラー」みたいに

  • But if you zoom out,

    利益を絞り出せる者は他にいないからです

  • if you zoom out,

    しかし

  • you would see an 825-mile trench

    ズームアウトしてみると

  • between New York City and Chicago

    ニューヨークとシカゴの間に

  • that's been built over the last few years

    825マイルのトンネルがあるのが分かります

  • by a company called Spread Networks.

    Spread Networksという会社によって

  • This is a fiber optic cable

    この何年かの間に作られたものです

  • that was laid between those two cities

    この2つの都市を結ぶ

  • to just be able to traffic one signal

    光ケーブルで

  • 37 times faster than you can click a mouse --

    マウスクリックの37倍の速さで

  • just for these algorithms,

    信号を伝えることができます

  • just for the Carnival and the Knife.

    それがすべてアルゴリズムのため

  • And when you think about this,

    カーニバルやナイフのためのものなのです

  • that we're running through the United States

    考えてみてください

  • with dynamite and rock saws

    私たちはアメリカ中を

  • so that an algorithm can close the deal

    ダイナマイトとロックソーで切り進んでいるのです

  • three microseconds faster,

    アルゴリズムが3マイクロ秒

  • all for a communications framework

    早く売買できるようにするために

  • that no human will ever know,

    人の知ることのない

  • that's a kind of manifest destiny;

    コミュニケーションフレームワークのために

  • and we'll always look for a new frontier.

    それが「明白なる使命」であるかのように

  • Unfortunately, we have our work cut out for us.

    常に新たなフロンティアを求めているのです

  • This is just theoretical.

    あいにくと 私たちには難しい仕事が待ち構えています

  • This is some mathematicians at MIT.

    これは単なる理論ですが

  • And the truth is I don't really understand

    MITの数学者によるもので

  • a lot of what they're talking about.

    正直なところ 彼らの言うことの

  • It involves light cones and quantum entanglement,

    多くは理解できません

  • and I don't really understand any of that.

    何か光円錐とか量子もつれがどうのという話で

  • But I can read this map,

    どれも私にはよくわかりません

  • and what this map says

    しかしこの地図ならわかります

  • is that, if you're trying to make money on the markets where the red dots are,

    この地図が表しているのは

  • that's where people are, where the cities are,

    赤い点で示される市場で儲けようと思ったら

  • you're going to have to put the servers where the blue dots are

    そこは人のいる所 都市ですが

  • to do that most effectively.

    最大の効率を得るためにサーバを

  • And the thing that you might have noticed about those blue dots

    青い点のところに置く必要があるということです

  • is that a lot of them are in the middle of the ocean.

    お気づきかもしれませんが

  • So that's what we'll do: we'll build bubbles or something,

    青い点の多くは海の真ん中にあります

  • or platforms.

    それが私たちのするであろうことです

  • We'll actually part the water

    泡かプラットフォームでも作るのでしょう

  • to pull money out of the air,

    水をどけて

  • because it's a bright future

    無からお金を引き出すのです

  • if you're an algorithm.

    輝かしい未来です

  • (Laughter)

    アルゴリズムにとっては

  • And it's not the money that's so interesting actually.

    (笑)

  • It's what the money motivates,

    実際に興味深い部分はお金ではなく

  • that we're actually terraforming

    お金が動機付けるものです

  • the Earth itself

    私たちは

  • with this kind of algorithmic efficiency.

    アルゴリズム的な効率で

  • And in that light,

    地球を変えつつあります

  • you go back

    そういう観点で

  • and you look at Michael Najjar's photographs,

    前に戻って

  • and you realize that they're not metaphor, they're prophecy.

    マイケル・ナジャーの写真を見れば

  • They're prophecy

    あれはメタファーではなく 予言だということに気づくでしょう

  • for the kind of seismic, terrestrial effects

    私たちが起こしている

  • of the math that we're making.

    地殻変動的な

  • And the landscape was always made

    数学の影響に対する予言です

  • by this sort of weird, uneasy collaboration

    地形はいつもこのような

  • between nature and man.

    奇妙で不安定な人間と自然の

  • But now there's this third co-evolutionary force: algorithms --

    コラボレーションによって作られてきました

  • the Boston Shuffler, the Carnival.

    しかし今では第三の共進化の勢力があります アルゴリズムです

  • And we will have to understand those as nature,

    ボストンシャフラーに カーニバル

  • and in a way, they are.

    そういったものを自然の一部として理解する必要があるでしょう

  • Thank you.

    ある意味では実際そうなのですから

  • (Applause)

    どうもありがとうございました

This is a photograph

翻訳: Yasushi Aoki 校正: Yuki Okada

字幕と単語

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます