Placeholder Image

字幕表 動画を再生する

自動翻訳
  • On the internet, the algorithms are all around you.

    インターネット上では、アルゴリズムはあなたの周りにあります。

  • You are watching this video because an algorithm brought it to you (among others) to click, which you did, and the algorithm took note.

    あなたがこのビデオを見ているのは、アルゴリズムがあなたにそれを持ってきたので(他の人の中で)クリックして、あなたがした、とアルゴリズムはメモを取った。

  • When you open the TweetBook, A the algorithm decides what you see.

    TweetBookを開くと、Aアルゴリズムが何を見るかを決定します。

  • When you search through your photos, A the algorithm does the finding.

    写真を検索すると、Aアルゴリズムが検索をしてくれます。

  • Maybe even makes a little movie for you.

    あなたのために映画を作ってくれるかもしれません。

  • When you buy something, A the algorithm sets the price and A the algorithm is at your bank watching transactions for fraud.

    あなたが何かを買うとき、Aアルゴリズムは価格を設定し、Aアルゴリズムはあなたの銀行で詐欺のために取引を監視しています。

  • The stock market is full of algorithms trading with algorithms.

    株式市場にはアルゴリズムを使った取引が溢れています。

  • Given this, you might want to know how these little algorithmic bots shaping your world work, especially when they don't.

    このことを考えると、あなたの世界を形作っている小さなアルゴリズム・ボットがどのように機能しているのか、特にそうでない場合はどうなっているのかを知りたいと思うかもしれません。

  • In Ye Olden Days, humans built algorithmic bots by giving them instructions the humans could explain.

    イェ・オールデン・デイズでは、人間が説明できる指示を与えることで、人間がアルゴリズム・ボットを作っていました。

  • "If this, then that."

    "これがあれば、あれがある"

  • But many problems are just too big and hard for a human to write simple instructions for.

    しかし、多くの問題は、人間が簡単な指示書を書くには大きすぎて難しいだけです。

  • There's a gazillion financial transactions a second, which ones are fraudulent?

    毎秒何千万件もの金融取引があるのに、どれが詐欺なんだ?

  • There's octillion videos on NetMeTube.

    NetMeTubeにはオクテリオンの動画があります。

  • Which eight should the user see as recommendations? Which shouldn't be allowed on the site at all?

    ユーザーはどの8つを推奨として見るべきか?サイト上では全く許可してはいけないものはどれか?

  • For this airline seat, what is the maximum price this user will pay right now?

    この航空会社のシートの場合、このユーザーが今すぐに支払う最高額はいくらになるのでしょうか?

  • Algorithmic bots give answers to these questions.

    アルゴリズムのボットは、これらの質問に答えてくれます。

  • Not perfect answers, but much better than a human could do.

    完璧な答えではないが、人間ができるよりはずっといい。

  • But how these bots work exactly, more and more, no one knows.

    しかし、これらのボットが正確にどのように機能するかは、ますます、誰も知らない。

  • Not even the humans who built them, or "built them", as we will see...

    それを作った人間、つまり「作ってしまった」人間でさえも、これから見るように......。

  • Now companies that use these bots don't want to talk about how they work because the bots are valuable employees.

    今やこれらのボットを利用する企業は、ボットは貴重な従業員であるため、彼らの仕事ぶりを語りたがらない。

  • Very, VERY valuable.

    非常に、非常に貴重なものです。

  • And how their brains are built is a fiercely-guarded trade secret.

    彼らの脳がどのように作られているかは、企業秘密として厳重に守られています。

  • Right now the cutting edge is most likely very "I hope you like linear algebra."

    今の最先端は "線形代数が好きなんだろうな "って感じだな

  • But what the current hotness is on any particular site and how the bots work, is a bit "I dunno," and always will be.

    しかし、今、どのサイトで何が話題になっているのか、ボットがどのような働きをしているのか、というのは、ちょっとした「わからない」ことであり、いつまでも「わからない」ことです。

  • So let's talk about one of the more quaint but understandable ways bots CAN be "built" without understanding how their brains work.

    そこで、ボットの脳の働きを理解しなくても、ボットを「作る」ことができるという、古風ではあるが理解しやすい方法の一つについて話してみよう。

  • Say you want a bot that can recognize what is in a picture.

    写真の中に何が写っているかを認識できるボットが欲しいとしましょう。

  • Is it a bee, or is it a three?

    蜂なのか、3なのか。

  • It's easy for humans (even little humans).

    人間(小さな人間でも)には簡単です。

  • But it's impossible to just tell a bot in bot language how to do it, because really we just know that's a bee and that's a three.

    しかし、ボット言語でボットに指示するのは不可能です。

  • We can say in words what makes them different, but bots don't understand words.

    何が違うかは言葉で言えますが、ボットは言葉を理解していません。

  • And it's the wiring in our brains that makes it happen anyway.

    とにかくそれを実現させるのは脳内の配線なんだよ

  • While an individual neuron may be understood, and clusters of neurons' general purpose vaguely grasped, the whole is beyond.

    個々のニューロンは理解できても、ニューロンの集合体の一般的な目的は漠然と把握できても、全体はその先にある。

  • Nonetheless, it works.

    それにもかかわらず、それは動作します。

  • So to get a bot that can do this sorting, you don't build it yourself.

    だから、この仕分けができるボットを手に入れるためには、自分で作るのではなく、自分で作ってしまうのです。

  • You build a bot that builds bots, and a bot that teaches bots.

    ボットを構築するボットと、ボットを教えるボットを構築します。

  • These bots' brains are simpler, something a smart human programmer can make.

    これらのボットの脳はもっとシンプルで、頭の良い人間のプログラマーが作ることができます。

  • The builder bot builds bots, though it's not very good at it.

    ビルダーボットはボットを構築しますが、それはあまり得意ではありません。

  • At first it connects the wires and modules in the bot brains almost at random.

    最初は、ほぼランダムにボットの脳内のワイヤとモジュールを接続します。

  • This leads to some very... "special" student bots sent to teacher bot to teach.

    これはいくつかの非常に..."特別な "生徒のボットが 教師のボットに送られてきました

  • Of course, teacher bot can't tell a bee from a three either.

    もちろん先生のボットも3を見分けることはできない

  • If the human could build teacher bot to do that, well, then, problem solved.

    人間がそれをするために教師用ボットを作ることができれば、問題は解決します。

  • Instead the human gives teacher bot a bunch of "bee" photos, and "three" photos, and an answer key to which is what.

    その代わりに人間は先生のボットに "蜂 "の写真と "3つの "写真の束を与え、どれが何であるかの答えのキーを与えます。

  • Teacher bot can't teach, but teacher bot can TEST.

    先生のボットは教えることができませんが、先生のボットはテストすることができます。

  • The adorkable student bots stick out their tongues, try very hard, but they are bad at what they do.

    舌を出して、一生懸命やっているが、下手くそな学生ロボ。

  • Very, VERY, bad.

    非常に、非常に、悪い。

  • And it's not their fault, really, they were built that way.

    それは彼らのせいではありません、本当に、彼らはそのように構築されています。

  • Grades in hand, the student bots take a march of shame back to builder bot.

    成績は手にして、学生ボットはビルダーボットに戻って恥の行進をする。

  • Those that did best are put to one side, the others recycled.

    最善を尽くしたものは片方に、他のものはリサイクルされる。

  • Builder bot still isn't good at building bots, but now it takes those left and makes copies with changes in new combinations.

    ビルダーボットはまだ得意ではありませんが、今では残っているものを取り、新しい組み合わせで変更を加えてコピーを作成します。

  • Back to school they go.

    学校に戻るんだ

  • Teacher bot teaches - er, tests again, and builder bot builds again.

    教師用ボットが教える - えー、再びテストして、ビルダー用ボットが再び構築します。

  • And again, and again.

    そして、何度も何度も。

  • Now a builder that builds at random, and a teacher that doesn't teach, just tests, and students who can't learn, they just are what they are, in theory shouldn't work, but in practice, it does.

    適当に作るビルダーと、教えない教師、テストだけの教師、学べない生徒は、理論的にはうまくいかないはずですが、実際にはうまくいきます。

  • Partly because in every iteration, builder bot's slaughterhouse keeps the best and discards the rest.

    ビルダーボットの屠殺場は、すべての反復において、最高のものを保持し、残りのものを廃棄するからです。

  • And partly because teacher bot isn't overseeing an old-timey, one-room schoolhouse with a dozen students, but an infinite warehouse with thousands of students.

    ボット先生は監督していない 昔ながらのワンルームの校舎ではなく 数十人の生徒がいる 無限の倉庫で 何千人もの生徒がいる

  • The test isn't ten questions, but a million questions.

    試験は10問ではなく100万問です。

  • And how many times does the test, build, test loop repeat?

    そして、テスト、ビルド、テストループを何回繰り返すのか?

  • As many as necessary.

    必要なだけ

  • At first students that survive are just lucky, but by combining enough lucky bots, and keeping only what works, and randomly messing around with new copies of that, eventually a student bot emerges that isn't lucky, that can perhaps barely tell bees from threes.

    生き残る最初の学生は幸運ですが、十分な幸運なボットを組み合わせることで、動作するものだけを維持し、ランダムにその新しいコピーをいじって、最終的には学生のボットは、おそらく辛うじて3から蜂を伝えることができます幸運ではありませんが出てきます。

  • As this bot is copied and changed, slowly the average test score rises.

    このボットがコピーされ、変更されると、ゆっくりとテストの平均スコアが上昇していきます。

  • And thus the grade needed to survive the next round gets higher and higher.

    そのため、次のラウンドを生き抜くために必要なグレードはどんどん高くなっていきます。

  • Keep this up and eventually from the infinite warehouse (slaughterhouse) a student bot will emerge, who can tell a bee from a three in a photo it's never seen before pretty well.

    これを維持し、最終的には無限倉庫(屠殺場)から学生ボットが出現し、それはかなりよく前に見たことがない写真の3から蜂を伝えることができます。

  • But how the student bot does this, neither the teacher bot nor the builder bot, nor the human overseer, can understand.

    しかし、学生ボットがどのようにこれを行うかは、教師ボットもビルダーボットも人間の監督も理解できません。

  • Nor the student bot itself.

    学生ボット自体も

  • After keeping so many useful random changes, the wiring in its head is incredibly complicated.

    多くの有用なランダムな変化を維持した後、その頭の中の配線は信じられないほど複雑です。

  • And while an individual line of code may be understood, and clusters of code's general purpose vaguely grasped, the whole is beyond, nonetheless, it works.

    そして、コードの個々の行は理解され、コードのクラスタの一般的な目的は漠然と把握されているかもしれませんが、全体はそれにもかかわらず、それは動作します。

  • But this is frustrating, especially as the student bot is very good at exactly only the kinds of questions it's been taught to.

    しかし、これが悔しいのは、特に学生ボットは、教えられた種類の問題だけを正確に得意としているからです。

  • It's great with photos, but useless with videos or baffled if the photos are upside down, or things that are obviously not bees, it's confident are.

    それは写真で素晴らしいですが、ビデオで役に立たないか、写真が逆さまになっている場合は困惑したり、明らかに蜂ではないものは、それは自信を持っています。

  • Since teacher bot can't teach, all the human overseer can do is give it more questions, to make the test even longer, to include the kinds of questions the best bots get wrong.

    教師用ボットは教えることができないので、人間の監督ができることは、より多くの問題を与え、テストをさらに長くし、最高のボットが間違えるような問題を含むようにすることです。

  • This is important to understand.

    これを理解することが重要です。

  • It's a reason why companies are obsessed with collecting data.

    企業がデータ収集にこだわるのには理由があります。

  • More data equals longer tests equals better bots.

    データが多ければ長いほど、テストが長ければ良いボットになる。

  • So when you get the "Are you human?" test on a website, you are not only proving that you are human, (hopefully), but you are also helping to build the test to make bots that can read, or count, or tell lakes from mountains, or horses from humans.

    つまり、あなたがウェブサイトで「あなたは人間ですか」というテストを受けるということは、あなたが人間であることを証明するだけではなく(できれば)、あなたが人間であることを証明しているということでもあります。

  • Seeing lots of questions about driving lately?

    最近、運転に関する質問が多いのを見ていますか?

  • Hmm...! What could that be building a test for?

    うーん......!何のためにテストを作っているのだろうか?

  • Now figuring out what's in a photo, or on a sign, or filtering videos, requires humans to make correct enough tests.

    写真の中に何が写っているか、看板に何が写っているか、動画のフィルタリングをするには、人間が十分に正しいテストをしなければなりません。

  • But there is another kind of test that makes itself.

    しかし、もう一つ、自分で作るテストがあります。

  • Tests ON the humans.

    人間をテストする

  • For example, say entirely hypothetical NetMeTube wanted users to keep watching as long as possible?

    例えば、完全に仮定のNetMeTubeは、ユーザーが可能な限り長く見続けることを望んでいたと言う?

  • Well, how long a user stays on the site is easy to measure.

    まあ、ユーザーがどれくらいの期間サイトに滞在しているかは簡単に測定できます。

  • So, teacher bot gives each student bot a bunch of NetMeTube users to oversee, the student bots watch what their user watches, looks at their files, and do their best to pick the videos that keep the user on the site.

    だから、教師のボットは、各学生のボットを監督するためにNetMeTubeのユーザーの束を与え、学生のボットは、彼らのユーザーが見ているものを見て、彼らのファイルを見て、サイト上のユーザーを維持する動画を選ぶために最善を尽くします。

  • The longer the average, the higher their test score.

    平均値が長ければ長いほど、テストの点数が高くなります。

  • Build, test, repeat.

    ビルド、テスト、繰り返し。

  • A million cycles later, there's a student bot who's pretty good at keeping the users watching, at least compared to what a human could build.

    100万サイクル後には学生のボットがいて ユーザーを監視するのが得意だ 少なくとも人間が作れるものに比べればね

  • But when people ask: "How does the NetMeTube algorithm select videos?"

    しかし、人々は、"NetMeTubeアルゴリズムはどのように動画を選択するのか?"と質問すると

  • Once again, there isn't a great answer other than pointing to the bot, and the user data it had access to.

    もう一度言いますが、ボットを指摘する以外に、素晴らしい答えはありません。それがアクセスしていたユーザーデータです。

  • And most vitally, how the human overseers direct teacher bot to score the test.

    そして最も重要なのは 人間の監督者がどのように教師のボットに テストのスコアを指示するかだ

  • That's what the bot is trying to be good at to survive.

    それはボットが生き残るために得意になろうとしていることです。

  • But what the bot is thinking, or how it thinks it, is not really knowable.

    しかし、ボットが何を考えているのか、どのように考えているのかは、実際には知ることができません。

  • All that's knowable is this student bot gets to be the algorithm, because it's point one percent better than the previous bot at the test the humans designed.

    この学生のボットは アルゴリズムになる 人間が設計したテストで 以前のボットよりも1%優れているからだ

  • So everywhere on the internet, behind the scenes, there are tests to increase user interaction, or set prices just right to maximize revenue, or pick the posts from all your friends you'll like the most, or articles people will share the most, or whatever.

    だから、インターネット上のどこでも、舞台裏では、ユーザーの相互作用を増やすためのテストがあったり、収益を最大化するためにちょうど良い価格を設定したり、あなたが最も好きになるだろうすべてのあなたの友人からの投稿を選択したり、人々が最も共有する記事、または何でもあります。

  • If it's testable, it's teachable. Well, "teachable," and a student bot will graduate from the warehouse to be the algorithm of its domain.

    テスト可能であれば、それはティーチャブルです。さて "教えられる "と 学生ボットは 倉庫から卒業して そのドメインのアルゴリズムになります

  • At least, for a little while.

    少なくとも少しの間は

  • We're used to the idea that the tools we use, even if we don't understand them, someone does.

    自分たちが使っている道具は、理解できなくても誰かが使っている、という考えに慣れているのです。

  • But with our machines that learn, we are increasingly in a position where we use tools, or are used by tools, that no one, not even their creators, understand.

    しかし、学習する機械があることで、私たちはますます、作り手でさえも誰にも理解されない、道具を使う、道具に使われる立場になってきています。

  • We can only hope to guide them with the tests we make.

    私たちが作ったテストで誘導することを期待するしかありません。

  • And we need to get comfortable with that, as our algorithmic bot buddies are all around, and not going anywhere.

    アルゴリズムのボット仲間は いたるところにいて どこにも行かないからね

  • OK. The bots are watching.

    よしロボットが見ている

  • You know what's coming.

    何が起こるかわかっているだろう。

  • This is where I need to ask you... to like... comment ...and subscribe.

    ここでお願いがあるのですが・・・「いいね!」「コメント」「購読」をお願いします。

  • And bell me.

    そして、ベルを鳴らしてくれ。

  • And share on the TweetBook.

    そしてTweetBookでシェア。

  • The algorithm is watching.

    アルゴリズムは見ています。

  • It won't show people the video... unless you do this.

    これをやらないと動画が表示されない...ということはないでしょう。

  • Look what you've reduced me to, bots.

    俺を見てみろよ ボットどもが

  • What do you want? Do you want watch time?

    何が欲しいの?時計の時間が欲しいのか?

  • Is that what you want?

    それでいいのか?

  • Fine. (sigh...)

    いいですよ。(ため息...)

  • Hey guys, did you know I also have podcasts you can listen to?

    みんな、あなたが聴けるポッドキャストもあるって知ってた?

  • Maybe even just in the background while you're tidying up your all room for hours? Or whatever?

    何時間も部屋を片付けている間、バックグラウンドでもいいんじゃないかな?それか何か?

  • There's hours of audio entertainment for you, and watch time for the bots overseeing your actions.

    あなたのためのオーディオエンターテイメントの時間があり、あなたの行動を監督するボットのための時間を見てください。

  • Go ahead and - and take a click. Entertain yourself.

    先に行ってクリックして自分を楽しませてください。

  • Help me.

    助けてくれ

  • Help the bots.

    ボットを助けろ

On the internet, the algorithms are all around you.

インターネット上では、アルゴリズムはあなたの周りにあります。

字幕と単語
自動翻訳

動画の操作 ここで「動画」の調整と「字幕」の表示を設定することができます

B1 中級 日本語 アルゴリズム テスト ユーザー ビルダー 教師 監督

機械の学習方法

  • 19665 801
    Samuel に公開 2018 年 04 月 10 日
動画の中の単語