Placeholder Image

字幕表 動画を再生する

  • This is a three. It's sloppily written and rendered at an extremely low resolution of 28 by 28 pixels.

    これは3です。これは、28ピクセル×28ピクセルの極端に低い解像度で作成され、書かれています。

  • But your brain has no trouble recognizing it as a three and I want you to take a moment to appreciate

    あなたの脳は問題なくそれを3と認識するでしょう。ここで、私はあなたに理解してもらうために少し時間をかけてほしいことがある。

  • How crazy it is that brains can do this so effortlessly?

    どのようにして脳が楽々と3だと認識することができたのか?

  • I mean this this and this are also recognizable as threes,

    これも、これも、そしてこれもまた3として認識される事を意味します、

  • even though the specific values of each pixel is very different from one image to the next.

    ある画像から次の画像に対して、各々のピクセルの特定の値が非常に異なる場合であっても。

  • The particular light-sensitive cells in your eye that are firing when you see this three

    この3を見た時にあなたの目の中で発火している特定の視細胞と

  • are very different from the ones firing when you see this three.

    この3を見たときに発火している視細胞は全く別物です。

  • But something in that crazy smart visual cortex of yours

    しかし、あなたの非常に高性能な視覚野の中の何かが

  • resolves these as representing the same idea while at the same time recognizing other images as their own distinct ideas

    これらを同じアイデアを表すものとして理解すると同時に、他のイメージを別個のアイデアとして認識します

  • But if I told you hey sit down and write for me a program that takes in a grid of 28 by 28

    しかし、もし私があなたにちょっと座って私のためにプログラムを書いてくれと言ったら。プログラムは、28×28ピクセルのグリッドを使用し、

  • pixels like this and outputs a single number between 0 and 10 telling you what it thinks the digit is

    0から10の間の単一の数値を出力し、数字が何であるかをあなたに伝えるものです

  • Well the task goes from comically trivial to dauntingly difficult

    まあ、仕事は馬鹿げて些細なことから、非常に難しいものに変わります

  • Unless you've been living under a rock

    あなたの知識が非常に限られていない限り、

  • I think I hardly need to motivate the relevance and importance of machine learning and neural networks to the present into the future

    私は機械学習と神経ネットワークの現在と将来の関連性と重要性を動機付けする必要はほとんどないと思う

  • But what I want to do here is show you what a neural network actually is

    しかし、私がここでやりたいことは、実際に神経ネットワークが何であるかを示すことです

  • Assuming no background and to help visualize what it's doing not as a buzzword but as a piece of math

    背景がないと仮定し、それが流行語としてではなく、数学的なものとして何をしているのかを視覚化するのを助ける

  • My hope is just that you come away feeling like this structure itself is

    私の希望は、あなたが次のように感じられる事です。この構造そのものによって動機づけられ、

  • Motivated and to feel like you know what it means when you read or you hear about a neural network quote-unquote learning

    あなたが「神経ネットワーク」学習に関して読んだり、聞いたりする際に、それが何を意味するかを知っているかのように感じる事です

  • This video is just going to be devoted to the structure component of that and the following one is going to tackle learning

    このビデオはそれの構造要素に専念するつもりであり、次のものは学習に取り掛かる予定です

  • What we're going to do is put together a neural network that can learn to recognize handwritten digits

    私たちがやろうとしていることは、手書きの数字を認識することを学ぶことができる神経ネットワークをまとめることです

  • This is a somewhat classic example for

    これはやや古典的な例です

  • Introducing the topic and I'm happy to stick with the status quo here because at the end of the two videos I want to point

    トピックを紹介して、私はここで現状を守る事を嬉しく思います。なぜなら2つのビデオの最後に、あなたに指摘したいのです

  • You to a couple good resources where you can learn more and where you can download the code that does this and play with it?

    これを行い、それを使って遊ぶ事ができるコードをどこでダウンロードし、どこで更に学べるかがわかるいくつかの良い素材を

  • on your own computer

    自分のコンピュータで

  • There are many many variants of neural networks and in recent years

    近年、神経ネットワークには多くの種類があります。

  • There's been sort of a boom in research towards these variants

    これらの種類に対する研究では、一種のブームがありました

  • But in these two introductory videos you and I are just going to look at the simplest plain-vanilla form with no added frills

    しかし、これらの2つの紹介ビデオでは、あなたと私は単純なフォームを見ようとしています

  • This is kind of a necessary

    これは必要な前提条件です

  • prerequisite for understanding any of the more powerful modern variants and

    より強力な現代の種類を理解するために

  • Trust me it still has plenty of complexity for us to wrap our minds around

    私の心を包み込むためにはまだまだ複雑です。

  • But even in this simplest form it can learn to recognize handwritten digits

    しかし、この最も単純な形式でも、手書きの数字を認識することを学ぶことができます

  • Which is a pretty cool thing for a computer to be able to do.

    これは、コンピュータが行うことができる非常にクールなものです。

  • And at the same time you'll see how it does fall short of a couple hopes that we might have for it

    それと同時に、あなたが抱いている可能性があるいくつかの要望にはかけている事がわかります

  • As the name suggests neural networks are inspired by the brain, but let's break that down

    名前が示唆するように、神経ネットワークは脳に触発されていますが、それを打破しましょう

  • What are the neurons and in what sense are they linked together?

    神経とは何ですか?どのような意味で、それらは一緒につながっていますか?

  • Right now when I say neuron all I want you to think about is a thing that holds a number

    今、私がニューロンと言うとき、あなたが考えて欲しいのは、数字を保持するものです

  • Specifically a number between 0 & 1 it's really not more than that

    具体的には、0と1の間の数字です

  • For example the network starts with a bunch of neurons corresponding to each of the 28 times 28 pixels of the input image

    例えば、ネットワークは、入力画像の28×28画素のそれぞれに対応する一群の神経から始まります

  • which is

    それは

  • 784 neurons in total each one of these holds a number that represents the grayscale value of the corresponding pixel

    合計784個の神経の各々は、対応するピクセルのグレースケール値を表す数を保持します

  • ranging from 0 for black pixels up to 1 for white pixels

    黒ピクセルを表す0から始まり、白ピクセルを表す1までの

  • This number inside the neuron is called its activation and the image you might have in mind here

    ニューロン内部のこの数字は活性化と呼ばれ、ここで想像しているかもしれないイメージです

  • Is that each neuron is lit up when its activation is a high number?

    その活性化が高い数字のときに各ニューロンが点灯していますか?

  • So all of these 784 neurons make up the first layer of our network

    したがって、これらの784個のニューロンのすべてが私たちのネットワークの第1層を構成します

  • Now jumping over to the last layer this has ten neurons each representing one of the digits

    最後のレイヤーにジャンプすると、10個のニューロンがそれぞれ数字の1つを表します

  • the activation in these neurons again some number that's between zero and one

    0と1の間の数に対するこれらの神経の活性化は、

  • Represents how much the system thinks that a given image?

    与えられたイメージがシステムにどのくらいあると考えるかを表します。

  • Corresponds with a given digit. There's also a couple layers in between called the hidden layers

    指定された桁に対応します。間には隠れたレイヤーと呼ばれる2つのレイヤーがあります

  • Which for the time being?

    それは当分の間ですか?

  • Should just be a giant question mark for how on earth this process of recognizing digits is going to be handled

    地球上でどのように数字を認識するかについての巨大な疑問符でなければなりません。

  • In this network I chose two hidden layers each one with 16 neurons and admittedly that's kind of an arbitrary choice

    このネットワークでは、それぞれ16個のニューロンを持つ2つの隠れたレイヤーを選択しましたが、これは任意の選択肢です

  • to be honest I chose two layers based on how I want to motivate the structure in just a moment and

    正直言って私はちょうどその瞬間に構造に動機づけをしたい、

  • 16 well that was just a nice number to fit on the screen in practice

    16はうまく実際に画面に収まるような素敵な数字でした

  • There is a lot of room for experiment with a specific structure here

    ここには特定の構造の実験のための余地がたくさんあります

  • The way the network operates activations in one layer determine the activations of the next layer

    ネットワークが1つの層で活性化を実行する方法は、次の層の活性化を決定します

  • And of course the heart of the network as an information processing mechanism comes down to exactly how those

    もちろん、情報処理の仕組みとしてのネットワークの核心は、

  • activations from one layer bring about activations in the next layer

    1つの層からの活性化が、どのように次の層の活性化を引き起こしますかによります

  • It's meant to be loosely analogous to how in biological networks of neurons some groups of neurons firing

    それは、神経の生物学的ネットワークにおいて、どのようにあるグループの神経点火がある他のグループを点火させるのかをゆるやかに比較する事を意味しています

  • cause certain others to fire

    今やネットワーク

  • Now the network

    私がここに示しているのは、既に数字を認識するように訓練されており、それにより私が意味するものをお見せしています

  • I'm showing here has already been trained to recognize digits and let me show you what I mean by that

    それは、もしあなたが画像内の各画素の輝度に応じて入力層の全ての784個の神経を輝かせた画像を与えたなら

  • It means if you feed in an image lighting up all

    その活性化のパターンは、次の層において非常に特異的なパターンを生じる

  • 784 neurons of the input layer according to the brightness of each pixel in the image

    どれが、一つのパターンの後の一つにおいて、いくつかのパターンを引き起こすのでしょうか?

  • That pattern of activations causes some very specific pattern in the next layer

    最終的には、どれが出力層にいくつかのパターンを与えるのでしょうか?そして

  • Which causes some pattern in the one after it?

    その出力層の最も明るい神経はネットワークの選択であり、言わば、この画像がどの桁を表しているかという事である

  • Which finally gives some pattern in the output layer and?

    どのようにして1つのレイヤーが次のレイヤーに影響するか、または、どのようにしてトレーニングが機能するのかについての数学に飛び込む前に、

  • The brightest neuron of that output layer is the network's choice so to speak for what digit this image represents?

    何故、このような階層化された構造が賢く動作すると期待する事が将に合理的であるかについて話しましょう

  • And before jumping into the math for how one layer influences the next or how training works?

    ここで何を期待していますか?それらの中間層が何をしているのかについての最適な望みは何ですか?

  • Let's just talk about why it's even reasonable to expect a layered structure like this to behave intelligently

    あなたや私が数字を認識する時、さまざまな構成要素を一つにします。9は丸が上にあり、右に縦線があります

  • What are we expecting here? What is the best hope for what those middle layers might be doing?

    8も上に丸がありますが、下にある他の丸と対になっています

  • Well when you or I recognize digits we piece together various components a nine has a loop up top and a line on the right

    4は基本的に3つの特定の行とそのようなものに分解されます

  • an 8 also has a loop up top, but it's paired with another loop down low

    完璧な世界では、2番目から最後の層の各神経は、これらの副構成品の一つとして対応する

  • A 4 basically breaks down into three specific lines and things like that

    それは、あなたが画像を入力する度に、9または8のような上の丸を言います

  • Now in a perfect world we might hope that each neuron in the second-to-last layer

    活性化が1に近づいているいくつの特定の神経があります

  • corresponds with one of these sub components

    私はこの特定の画像の丸を意味するわけではありません。

  • That anytime you feed in an image with say a loop up top like a 9 or an 8

    一般的には、上にある丸のパターンは第3層から最後の層に向かう神経を導きます

  • There's some specific

    サブコンポーネントのどの組み合わせがどの桁に対応するかを学習するだけでよい

  • Neuron whose activation is going to be close to one and I don't mean this specific loop of pixels the hope would be that any

    もちろん、それは道のりで問題を引き起こすだけです

  • Generally loopy pattern towards the top sets off this neuron that way going from the third layer to the last one

    あなたがこれらのサブコンポーネントをどのように認識するか、あるいは正しいサブコンポーネントがどんなものであるべきかを学ぶことさえあります。私はまだ説明していませんが

  • just requires learning which combination of sub components corresponds to which digits

    どの層が次の層にどのように影響しますか?

  • Of course that just kicks the problem down the road

    丸を認識することは、付随する問題に分解することもできます

  • Because how would you recognize these sub components or even learn what the right sub components should be and I still haven't even talked about

    これを行うための1つの合理的な方法は、最初にそれを構成する様々な小さな端を認識することです

  • How one layer influences the next but run with me on this one for a moment

    同様に、数字1または4または7において、そのような長い線をみる事でしょう

  • recognizing a loop can also break down into subproblems

    まあ、それは実際には長いエッジか多分あなたはいくつかの小さなエッジの特定のパターンとしてそれを考える

  • One reasonable way to do this would be to first recognize the various little edges that make it up

    だから、私たちの希望は、ネットワークの第2層の各ニューロン

  • Similarly a long line like the kind you might see in the digits 1 or 4 or 7

    様々な関連する小さなエッジに対応する

  • Well that's really just a long edge or maybe you think of it as a certain pattern of several smaller edges

    たぶん、このような画像が入ってくると、すべてのニューロンが点灯します

  • So maybe our hope is that each neuron in the second layer of the network

    約8〜10個の特定の小さなエッジに関連する

  • corresponds with the various relevant little edges

    それは上のループに関連するニューロンと長い垂直線を点灯させ、

  • Maybe when an image like this one comes in it lights up all of the neurons

    それらは9つのニューロンに関連している

  • associated with around eight to ten specific little edges

    それとも

  • which in turn lights up the neurons associated with the upper loop and a long vertical line and

    これが私たちの最終的なネットワークが実際にやっていることです。もう一つの質問です。ネットワークを鍛える方法を見たら、私は戻ってきます。

  • Those light up the neuron associated with a nine

    しかし、これは私たちが持つ可能性のある希望です。このような階層構造の目標

  • whether or not

    さらに、このようなエッジやパターンをどのように検出することが他の画像認識タスクにとって本当に役に立つか想像することができます

  • This is what our final network actually does is another question, one that I'll come back to once we see how to train the network

    さらに、画像認識以外にも、抽象化のレイヤーに分解することができる、あらゆる種類のインテリジェントなものがあります

  • But this is a hope that we might have. A sort of goal with the layered structure like this

    例えば、音声を解析するには、生の音声を取り出し、結合して特定の音節

  • Moreover you can imagine how being able to detect edges and patterns like this would be really useful for other image recognition tasks

    フレーズとより抽象的な思考を組み立てるために結合する単語を形成するために結合するもの

  • And even beyond image recognition there are all sorts of intelligent things you might want to do that break down into layers of abstraction

    しかし、これが実際にどのように実際に動作するかに戻ることは、現在自分自身を描いています

  • Parsing speech for example involves taking raw audio and picking out distinct sounds which combine to make certain syllables

    1つの層の活性化が次の層の活性化をどの程度正確に決定するか?

  • Which combine to form words which combine to make up phrases and more abstract thoughts etc

    目標は、ピクセルをエッジに組み合わせる可能性のあるメカニズムを持つことです

  • But getting back to how any of this actually works picture yourself right now designing

    パターンやパターンの辺へのエッジや、非常に具体的な例をズームインする

  • How exactly the activations in one layer might determine the activations in the next?

    希望が1つの特定のものだとしましょう

  • The goal is to have some mechanism that could conceivably combine pixels into edges

    2番目の層のニューロンは、画像がこの領域にエッジを持っているかどうかをここでピックアップします

  • Or edges into patterns or patterns into digits and to zoom in on one very specific example

    手元にある質問は、ネットワークがどのようなパラメータを持っているべきかということです

  • Let's say the hope is for one particular

    どのようなダイヤルやノブを微調整して、このパターンを潜在的に十分に表現できるようにするか、

  • Neuron in the second layer to pick up on whether or not the image has an edge in this region here

    他のピクセルパターンや、いくつかのエッジがループなどのことができるパターン?

  • The question at hand is what parameters should the network have

    さて、私たちがすることは、最初の層からのニューロンとニューロンとの間の接続のそれぞれに重みを割り当てることです

  • what dials and knobs should you be able to tweak so that it's expressive enough to potentially capture this pattern or

    これらの重みはちょうど数字です

  • Any other pixel pattern or the pattern that several edges can make a loop and other such things?

    最初のレイヤーからすべてのアクティベーションを取り、これらの重みIに従って重み付けされた合計を計算します

  • Well, what we'll do is assign a weight to each one of the connections between our neuron and the neurons from the first layer

    これらの重みを自分の小さなグリッドに編成していると考えると役立ちます

  • These weights are just numbers

    また、正の重みを示す緑のピクセルと負の重みを示す赤のピクセルを使用します

  • then take all those activations from the first layer and compute their weighted sum according to these weights I

    そのピクセルの明るさは、重み値の何らかの緩やかな描写であるか?

  • Find it helpful to think of these weights as being organized into a little grid of their own

    今では、ほとんどすべてのピクセルに関連付けられた重みをゼロ

  • And I'm going to use green pixels to indicate positive weights and red pixels to indicate negative weights

    この地域のいくつかの肯定的な重みを除いて

  • Where the brightness of that pixel is some loose depiction of the weights value?

    次に、

  • Now if we made the weights associated with almost all of the pixels zero

    すべてのピクセル値は実際には気になる領域のピクセル値を加算するだけです

  • except for some positive weights in this region that we care about

    そして、あなたが本当にそれがここにエッジがあるかどうかを拾うことを望むなら、あなたがするかもしれないことは、いくつかの負の重みを持つことです

  • then taking the weighted sum of

    周辺画素に関連する

  • all the pixel values really just amounts to adding up the values of the pixel just in the region that we care about

    その中間のピクセルが明るいときに合計が最大になりますが、周囲のピクセルはより暗くなります

  • And, if you really want it to pick up on whether there's an edge here what you might do is have some negative weights

    このような加重和を計算すると、任意の数

  • associated with the surrounding pixels

    しかし、このネットワークでは、活性化が0&1の間の値になるようにしたい

  • Then the sum is largest when those middle pixels are bright, but the surrounding pixels are darker

    そのため、一般的なことは、この加重和をポンピングすることです

  • When you compute a weighted sum like this you might come out with any number

    実数の線を0と1の間の範囲に縮めるいくつかの関数に

  • but for this network what we want is for activations to be some value between 0 & 1

    これを行う一般的な関数は、ロジスティック曲線とも呼ばれるシグモイド関数と呼ばれます

  • so a common thing to do is to pump this weighted sum

    基本的に非常に負の入力はゼロに近づく非常に正の入力は1に近づく

  • Into some function that squishes the real number line into the range between 0 & 1 and

    それはちょうど入力0の周りで着実に増加します

  • A common function that does this is called the sigmoid function also known as a logistic curve

    したがって、ここでのニューロンの活性化は、基本的に、関連する加重和がどのようにプラスであるかの尺度である

  • basically very negative inputs end up close to zero very positive inputs end up close to 1

    しかし、重み付けされた合計が0より大きい場合にニューロンを点灯させたいというわけではないかもしれません

  • and it just steadily increases around the input 0

    たぶんあなたは、合計が10より大きいときにアクティブにしたいだけかもしれません

  • So the activation of the neuron here is basically a measure of how positive the relevant weighted sum is

    それはあなたがそれが非アクティブであるためのいくつかのバイアスが欲しいです

  • But maybe it's not that you want the neuron to light up when the weighted sum is bigger than 0

    私たちがやることは、この加重和に負の10のような他の数を加えるだけです

  • Maybe you only want it to be active when the sum is bigger than say 10

    Sigmoid squishification機能を使ってプラグを差し込む前に

  • That is you want some bias for it to be inactive

    その追加数はバイアスと呼ばれます

  • what we'll do then is just add in some other number like negative 10 to this weighted sum

    したがって、ウェイトは、2番目のレイヤーのこのニューロンがどのピクセルパターンでピックアップしているかを示し、バイアス

  • Before plugging it through the sigmoid squishification function

    ニューロンが有意義にアクティブになる前に、加重合計がどれくらい高い必要があるかを示します

  • That additional number is called the bias

    それはただのニューロンです

  • So the weights tell you what pixel pattern this neuron in the second layer is picking up on and the bias

    この層の他のすべてのニューロンは、すべての

  • tells you how high the weighted sum needs to be before the neuron starts getting meaningfully active

    第1の層からの784ピクセルのニューロンおよびこれらの784個の接続の各々はそれに関連するそれ自体の重みを有する

  • And that is just one neuron

    また、それぞれにはいくつかのバイアスがあります。これは、シグモイドでそれを潰す前に加重合計に加算します。

  • Every other neuron in this layer is going to be connected to all

    この16個のニューロンの隠れたレイヤーについて考えておくと、

  • 784 pixels neurons from the first layer and each one of those 784 connections has its own weight associated with it

    それは合計で784回の16回の重みと16回の偏りです

  • also each one has some bias some other number that you add on to the weighted sum before squishing it with the sigmoid and

    そして、それはすべて、第1層から第2層への接続だけであり、他の層

  • That's a lot to think about with this hidden layer of 16 neurons

    また、それらに関連した重さと偏りの束

  • that's a total of 784 times 16 weights along with 16 biases

    すべてのことが言って、このネットワークを行ったほとんど正確に

  • And all of that is just the connections from the first layer to the second the connections between the other layers

    合計13,000の重みと偏り

  • Also, have a bunch of weights and biases associated with them

    このネットワークをさまざまな方法で動作させるために調整可能な13,000個のノブとダイヤル

  • All said and done this network has almost exactly

    だから私たちは学習について話すとき?

  • 13,000 total weights and biases

    それは、実際に解決されるように、これらの多くの数字のすべてのための有効な設定を見つけるためにコンピュータを取得させることです

  • 13,000 knobs and dials that can be tweaked and turned to make this network behave in different ways

    手元の問題

  • So when we talk about learning?

    思考

  • What that's referring to is getting the computer to find a valid setting for all of these many many numbers so that it'll actually solve

    すぐに楽しいと恐ろしいの実験は、座っていることを想像し、これらの重みと偏りのすべてを手で設定することです

  • the problem at hand

    意図的に数字を微調整して、2番目のレイヤーがエッジでピックアップし、3番目のレイヤーがパターンなどでピックアップするようにします。

  • one thought

    私は個人的には、ネットワーク全体をブラックボックスとして読むのではなく、

  • Experiment that is at once fun and kind of horrifying is to imagine sitting down and setting all of these weights and biases by hand

    ネットワークがあなたの

  • Purposefully tweaking the numbers so that the second layer picks up on edges the third layer picks up on patterns etc

    それらの重みや偏りが実際にあなたが出発点を持つことを意味するものと少しの関係を築き上げているかどうかを予測してください

  • I personally find this satisfying rather than just reading the network as a total black box

    ネットワークを改善するために、あるいはネットワークが機能するように構造を変更する方法を試してみてください。

  • Because when the network doesn't perform the way you

    しかし、あなたが期待する理由ではありません

  • anticipate if you've built up a little bit of a relationship with what those weights and biases actually mean you have a starting place for

    重みと偏りが何をしているのかを掘り下げることは、あなたの前提に挑戦し、可能な限り完全な空間を明らかにする良い方法です

  • Experimenting with how to change the structure to improve or when the network does work?

    ソリューション

  • But not for the reasons you might expect

    ところで、ここの実際の機能は書き留めるのが少し面倒です。あなたは思いませんか?

  • Digging into what the weights and biases are doing is a good way to challenge your assumptions and really expose the full space of possible

    ですから、これらの接続が表現されるより表記的にコンパクトな方法を私に教えてください。これはあなたがそれを見る方法です

  • solutions

    あなたがニューラルネットワークの詳細を読むことを選択した場合

  • By the way the actual function here is a little cumbersome to write down. Don't you think?

    1つのレイヤーからすべてのアクティベーションをベクトルとして列に整理する

  • So let me show you a more notationally compact way that these connections are represented. This is how you'd see it

    次に、すべての重みを行列として編成し、その行列の各行

  • If you choose to read up more about neural networks

    1つの層と次の層の特定のニューロンとの間の接続に対応する

  • Organize all of the activations from one layer into a column as a vector

    その意味は、これらの重みに従って第1層の活性化の加重和を取ることですか?

  • Then organize all of the weights as a matrix where each row of that matrix

    ここにあるすべてのものの行列ベクトル積の項の1つに対応します

  • corresponds to the connections between one layer and a particular neuron in the next layer

    ところで、機械学習の多くは、線形代数をよく理解することに帰着します

  • What that means is that taking the weighted sum of the activations in the first layer according to these weights?

    ですから、マトリックスの視覚的な理解を望む人や、行列ベクトルの乗算が線形代数で行ったシリーズ

  • Corresponds to one of the terms in the matrix vector product of everything we have on the left here

    特に第3章

  • By the way so much of machine learning just comes down to having a good grasp of linear algebra

    これらの値のそれぞれにバイアスを追加することについて話すのではなく、私たちの表現に戻ると、

  • So for any of you who want a nice visual understanding for matrices and what matrix vector multiplication means take a look at the series I did on linear algebra

    それらのバイアスを全てベクトル化し、ベクトル全体を前の行列ベクトル積に加える

  • especially chapter three

    次に、最終ステップとして

  • Back to our expression instead of talking about adding the bias to each one of these values independently we represent it by

    私はここの外側のSigmoidをラップします

  • Organizing all those biases into a vector and adding the entire vector to the previous matrix vector product

    そして、それが表すはずのものは、あなたがシグモイド関数をそれぞれの固有の関数に適用することです

  • Then as a final step

    結果として生じるベクトルの内部のコンポーネント

  • I'll rap a sigmoid around the outside here

    したがって、この重み行列とこれらのベクトルを独自の記号として書き留めると、次のことができます。

  • And what that's supposed to represent is that you're going to apply the sigmoid function to each specific

    非常にタイトできちんとした小さな表情で、あるレイヤーから次のレイヤーへのアクティベーションの完全な移行を伝え、

  • component of the resulting vector inside

    これにより、多くのライブラリが行列の乗算を最適化するので、関連するコードがずっと簡単で多く高速になります

  • So once you write down this weight matrix and these vectors as their own symbols you can

    私がこれらのニューロンが単に数字を保持するもの

  • communicate the full transition of activations from one layer to the next in an extremely tight and neat little expression and

    もちろん、それらが保持する特定の数値は、あなたがフィードした画像に依存します

  • This makes the relevant code both a lot simpler and a lot faster since many libraries optimize the heck out of matrix multiplication

    したがって、実際には、各ニューロンを

  • Remember how earlier I said these neurons are simply things that hold numbers

    前の層のすべてのニューロンの出力と0と1の間の数を吐き出す

  • Well of course the specific numbers that they hold depends on the image you feed in

    実際には、ネットワーク全体が機能しているだけです

  • So it's actually more accurate to think of each neuron as a function one that takes in the

    784個の数字を入力とし、10個の数字を出力として吐き出す

  • outputs of all the neurons in the previous layer and spits out a number between zero and one

    それはばかげている

  • Really the entire network is just a function one that takes in

    特定のパターンを拾い上げるこれらの重みおよび偏りの形で13,000のパラメータを含む複雑な関数1

  • 784 numbers as an input and spits out ten numbers as an output

    多くの行列ベクトル積とシグモイドスカッシュ喚起関数を反復する

  • It's an absurdly

    それにもかかわらず、それは単なる関数であり、ある意味では、それは複雑に見える

  • Complicated function one that involves thirteen thousand parameters in the forms of these weights and biases that pick up on certain patterns and which involves

    私たちが数字を認識することの挑戦に就くことができると思ったのは、もっと簡単なことでしたか?

  • iterating many matrix vector products and the sigmoid squish evocation function

    そしてそれはどのようにその挑戦にかかりますか?このネットワークは、データを見るだけで適切な重みとバイアスをどのように学習しますか?ああ?

  • But it's just a function nonetheless and in a way it's kind of reassuring that it looks complicated

    それは私が次のビデオで見せてくれるものです。私たちが見ているこの特定のネットワークが本当にやっていることをもう少し詳しく見ていきます

  • I mean if it were any simpler what hope would we have that it could take on the challenge of recognizing digits?

    今は、そのビデオや新しいビデオがいつ出てくるかを知らせてくれるように申し込むといいでしょう。

  • And how does it take on that challenge? How does this network learn the appropriate weights and biases just by looking at data? Oh?

    しかし、現実的にはほとんどの人が実際にYouTubeからの通知を受け取っていません。

  • That's what I'll show in the next video, and I'll also dig a little more into what this particular network we are seeing is really doing

    もっと正直なところ、私はサブスクリプションと言って、YouTubeの基盤となるニューラルネットワーク

  • Now is the point I suppose I should say subscribe to stay notified about when that video or any new videos come out

    推奨アルゴリズムは、あなたがこのチャンネルからのコンテンツをあなたに推薦されて見たいと思っている

  • But realistically most of you don't actually receive notifications from YouTube, do you ?

    とにかく続きを続ける

  • Maybe more honestly I should say subscribe so that the neural networks that underlie YouTube's

    これらのビデオをパトリオンでサポートしてくださったみなさん、本当にありがとう

  • Recommendation algorithm are primed to believe that you want to see content from this channel get recommended to you

    私はこの夏の確率シリーズでは少し遅れています

  • anyway stay posted for more

    しかし、私はこのプロジェクトの後にそれにジャンプしているので、あなたはそこにある更新を見極めることができます

  • Thank you very much to everyone supporting these videos on patreon

    私はここにいるものを閉じるには私と一緒にいるLisha Li

  • I've been a little slow to progress in the probability series this summer

    リー氏は、博士号を博士課程で学び、理論的な学習の面で仕事をしています。現在、ベンチャーキャピタルで働く

  • But I'm jumping back into it after this project so patrons you can look out for updates there

    誰がこのビデオのための資金の一部を親切に提供したのですか?Lishaのこと

  • To close things off here I have with me Lisha Li

    私はすぐにこのシグモイド関数を呼び出すべきだと思います

  • Lee who did her PhD work on the theoretical side of deep learning and who currently works at a venture capital firm called amplify partners

    私が理解しているように、初期のネットワークはこれを使って関連する加重和をゼロと1の間の区間

  • Who kindly provided some of the funding for this video so Lisha one thing

    あなたは、この生物学的なニューロンの類推によって動かされていることを知っています。 (Lisha) - まさに

  • I think we should quickly bring up is this sigmoid function

    しかし、現代のネットワークでは実際にシグモイドを実際に使用している人はほとんどいません(3B1B)。それは古い学校の権利のようなものですか? (Lisha) - そうか、むしろ

  • As I understand it early networks used this to squish the relevant weighted sum into that interval between zero and one

    ReLUは訓練がはるかに簡単だと思われる (3B1B) - そしてReLUは実際に整流されたリニアユニット

  • You know kind of motivated by this biological analogy of neurons either being inactive or active (Lisha) - Exactly

    (Lisha) - はい、この種の関数です。ここでは、最大値0をとり、

  • (3B1B) - But relatively few modern networks actually use sigmoid anymore. That's kind of old school right ? (Lisha) - Yeah or rather

    あなたがビデオで何を説明していたのか、これが何かの動機付けだったのは

  • ReLU seems to be much easier to train (3B1B) - And ReLU really stands for rectified linear unit

    部分的には生物学的

  • (Lisha) - Yes it's this kind of function where you're just taking a max of 0 and a where a is given by

    方法のアナロジー

  • what you were explaining in the video and what this was sort of motivated from I think was a

    ニューロンは活性化されていてもいなくてもよいので、ある閾値を超えると

  • partially by a biological

    アイデンティティ関数

  • Analogy with how

    しかし、そうでなければ、それは単に活性化されないのでゼロになるので、それは単純化の一種です

  • Neurons would either be activated or not and so if it passes a certain threshold

    シグモイドを使用しても訓練には役に立たなかったか、訓練するのが非常に困難でした

  • It would be the identity function

    それはある時点であり、人々はただ気分を変えようとしたばかりで、うまくいった

  • But if it did not then it would just not be activated so be zero so it's kind of a simplification

    非常にこれらの信じられないほどのために

  • Using sigmoids didn't help training, or it was very difficult to train

    深いニューラルネットワーク。 (3B1B) - すべての権利

  • It's at some point and people just tried relu and it happened to work

    ありがとうございますLisha

  • Very well for these incredibly

    背景の早い段階でパートナーを拡大するVCは、次世代の企業を構築する技術創業者に投資します

  • Deep neural networks. (3B1B) - All right

    あなたやあなたが知っている誰かがいつか会社を立ち上げることを考えていたらAIのアプリケーション

  • Thank You Lisha

    または、早い段階で作業している場合、Amplifyの人々はあなたからの声を聞きたいと思うでしょう

  • for background amplify partners in early-stage VC invests in technical founders building the next generation of companies focused on the

    彼らはこのビデオのための特定の電子メールを設定しました。[email protected]

  • applications of AI if you or someone that you know has ever thought about starting a company someday

    そのようにして

  • Or if you're working on an early-stage one right now the Amplify folks would love to hear from you

  • they even set up a specific email for this video 3blue1brown@amplifypartners.com

  • so feel free to reach out to them through that

This is a three. It's sloppily written and rendered at an extremely low resolution of 28 by 28 pixels.

これは3です。これは、28ピクセル×28ピクセルの極端に低い解像度で作成され、書かれています。

字幕と単語

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます