Placeholder Image

字幕表 動画を再生する

AI 自動生成字幕
  • (upbeat music)

    (アップビート・ミュージック)

  • - There have been a lot of news about ChatGPT lately

    - 最近、ChatGPTに関するニュースが多いですね。

  • like people using ChatGPT to write essays,

    ChatGPTを使ってエッセイを書く人のように。

  • ChatGPT hitting a hundred million users,

    ChatGPTのユーザー数が1億人を突破

  • Google launching Bard to compete against ChatGPT

    GoogleがChatGPTに対抗してBardを立ち上げ

  • and Microsoft integrating ChatGPT

    とマイクロソフトが統合したChatGPT

  • into all their products, and also the viral sensation

    を全製品に導入し、さらにバイラルセンセーションを巻き起こしました。

  • of CatGPT where it can answer all of your queries,

    CatGPTで、あなたの疑問にお答えします。

  • but as a cat, meow, meow, meow, meow, meow, meow.

    が、猫としては、ニャー、ニャー、ニャー、ニャー、ニャー、ニャー。

  • ChatGPT, if you don't know already, it's a chat bot

    ChatGPT、もう知らない人はいないだろうが、チャットボットである。

  • by OpenAI where you can ask it many things.

    を、OpenAIにいろいろなことを聞くことができます。

  • For example, explaining complex topics

    例えば、複雑なトピックを説明する

  • like explain why I'm a disappointment to my parents

    親に失望された理由を説明するように

  • or ask it more technical questions like,

    というような専門的な質問をすることもできます。

  • how do I inherit more money than my brother from my parents?

    親から兄より多くのお金を相続するにはどうしたらいいのでしょうか?

  • A lot of people are using it to write essays, draft emails,

    多くの人がエッセイやメールの下書きに使っています。

  • and even write code.

    とか、コードを書いたりすることもあります。

  • So I tried it myself, of course, as a YouTuber obviously,

    そこで、当然YouTuberである自分も試してみました。

  • my first question to it was, who is Joma Tech?

    私の最初の疑問は、「ジョマテックとは何者なのか」ということでした。

  • And it answered...

    そして、それは答えた...

  • Are you fucking--

    お前、何やってんだ...

  • You know, ChatGPT has a lot of limitations,

    ChatGPTにはいろいろな制約がありますよね。

  • like here we ask it to name colors

    このように、色に名前をつけるようにお願いしています。

  • that don't have the letter E in them,

    というように、Eを含まないものがあります。

  • and this is what they gave us.

    と、こんなことを言われました。

  • Orang, yllow, red, that's clearly wrong.

    オラン、イロイロ、レッド、明らかに間違ってますね。

  • In all seriousness,

    真面目な話、です。

  • this is to demonstrate how ChatGPT works.

    というのは、ChatGPTの仕組みを説明するためのものです。

  • It's a pre-trained large language model,

    あらかじめ訓練された大規模な言語モデルです。

  • meaning it was trained on text data

    テキストデータで学習させたという意味

  • from the internet until the end of 2021.

    を2021年末までインターネット上で公開します。

  • So it won't know anything

    だから、何もわからない

  • about things that happened recently.

    最近あった出来事について

  • It doesn't have access to the internet.

    インターネットにアクセスできない。

  • It'll only predict the answer based

    に基づいて答えを予測するだけです。

  • on what it has consumed already,

    すでに消費した分について

  • and the way it answers your question is

    と、質問に答えてくれるのは

  • by predicting each word that comes next.

    次に来る単語を予測することで

  • For example, if you ask GPT who Bard is,

    例えば、GPTにバルドの正体を聞く場合。

  • it's not going to know.

    を知ることはできません。

  • You might ask Joma, didn't your channel launch in 2017

    ジョマに聞くが、あなたのチャンネルは2017年に開設されたのではないのか?

  • and ChatGPT was trained on internet data until 2021,

    とChatGPTは2021年までインターネットデータでトレーニングしていました。

  • yet it doesn't know who you are?

    にもかかわらず、あなたが誰なのかわからないのですか?

  • Yeah, so there's actually a technical reason

    そう、実は技術的な理由もあるのです。

  • and fuck you.

    とファックする。

  • Recently ChatGPT hit a hundred million users.

    最近、ChatGPTのユーザー数が1億人を突破しました。

  • It launched November 30th, 2022,

    2022年11月30日に発売されました。

  • and this article came out February 3rd, 2023.

    と、この記事が出たのは2023年2月3日。

  • So it took two months to hit a hundred million users.

    だから、1億人のユーザーを獲得するのに2ヶ月かかった。

  • Who are these users and what are they doing with ChatGPT?

    そのようなユーザーはどのような方で、ChatGPTで何をされているのでしょうか?

  • Well, it's pretty obvious, they're cheating with it.

    まあ、わかりやすいですよね、それでごまかしてるんですから。

  • Everybody's cheating such that

    などなど、みんなズルズルしてます。

  • some school districts have banned access to ChatGPT.

    一部の学区では、ChatGPTへのアクセスを禁止しています。

  • If they can write essays, then they can pass exams.

    作文が書ければ、試験に合格することができるのです。

  • ChatGPT was able to pass exams from law school,

    ChatGPTは法学部から試験に合格することができました。

  • business school, and medical school.

    ビジネススクール、メディカルスクール

  • Three prestigious industries.

    三大名門産業。

  • Now, this is why I went into coding

    今、私がコーディングの世界に入った理由はこれです

  • because I always thought that law school,

    というのも、法学部はずっと思っていたんです。

  • business school, and medical school,

    ビジネススクール、メディカルスクール

  • it was too much about memorization

    暗記に走りすぎた

  • and you're bound to get replaced,

    と、入れ替わるに違いない。

  • it just wasn't intellectual enough, you know?

    は、知的さが足りなかったんですよ。

  • All right, well,

    そうか、そうか。

  • I guess engineering is getting replaced, too.

    エンジニアも入れ替わってきているんでしょうね。

  • ChatGPT passes Google coding interview,

    ChatGPTがGoogleのコーディング面接に合格。

  • which is known to be hard, but I guess not.

    というのは、難しいと言われていますが、違うようですね。

  • But note that it is for a L3 engineer,

    ただし、L3エンジニア向けであることに注意。

  • which means it's a entry level, for those not in tech,

    ということは、技術職でない人にとっては、エントリーレベルということになります。

  • there's no L2 and L1, it starts at L3,

    はL2もL1もなく、L3から始まるんです。

  • but this does raise questions about ChatGPT's ability

    しかし、これはChatGPTの能力に疑問を投げかけるものです。

  • to change engineering jobs behind it,

    を、その背後でエンジニアの仕事を変えていく。

  • and we're already seeing the change

    と、すでに変化を実感しています

  • as Amazon employees are already using ChatGPT

    Amazonの社員がすでにChatGPTを使用しているため

  • for coding even though that immediately after,

    その直後にもかかわらず、コーディングのために

  • they told them to stop, warning them not

    という警告を発し、停止を命じました。

  • to share confidential information with ChatGPT.

    ChatGPTと機密情報を共有するため。

  • What's happening is they're feeding ChatGPT

    ChatGPTに餌を与えているのが現状です。

  • internal documents, which are confidential,

    機密である内部文書

  • but OpenAI stores all that data.

    が、OpenAIはそのデータをすべて保存しています。

  • You know, it reminds me of when I used to intern

    昔、インターンをしていた頃を思い出すね。

  • at Microsoft and they didn't let us use Google

    マイクロソフトでは、Googleを使わせてもらえませんでした。

  • for searches because they think that they might spy on us.

    を検索するのは、「スパイされるかもしれない」と思っているからです。

  • I was like, relax, I'm an intern.

    私は、リラックスして、私はインターンです、という感じでした。

  • I'm not working on anything important.

    大事なことは何もしていない。

  • In fact, I actually wasn't working at all.

    実は、実は全然仕事をしていなかったんです。

  • You know, I was playing Overwatch all day,

    一日中オーバーウォッチをやっていたんですからね。

  • but yeah, anyways, they forced us to use Bing for searches.

    が、ええ、とにかく、検索にBingを使うことを強制されたんです。

  • One thing that's being underreported

    過小評価されている1つのポイント

  • in mainstream media is the success of GitHub Copilot.

    は、GitHub Copilotの成功がメインストリームメディアで紹介されています。

  • It's probably the most useful

    最も有用なものであろう

  • and most well executed AI product currently out there.

    と、現在最もよく実行されているAI製品です。

  • Have I used it?

    使ったことがあるのでしょうか?

  • No, I haven't coded in forever.

    いや、もうずっとコーディングしてないんですよ。

  • Now, here's how it works.

    さて、その仕組みはこうです。

  • The moment you write your code,

    コードを書く瞬間に

  • it's like auto complete on steroids, like this example,

    は、この例のように、ステロイドのオートコンプリートみたいなものです。

  • it helps you write the whole drawScatterplot function

    drawScatterplot関数全体を記述するのに役立ちます。

  • and it knows how to use a D3 library correctly.

    と、D3ライブラリの正しい使い方を知っています。

  • Another example here, you can write a comment

    ここでもう一つ例を挙げると、コメントを書くことができます

  • explaining what you want your function to do

    関数に何をさせるか

  • and it'll write the code for you.

    をクリックすると、コードを書いてくれます。

  • Sometimes even the name

    時には名前さえも

  • of the function will give it enough information

    この関数を使うことで、十分な情報を得ることができます。

  • to write the rest of the code for you.

    で、残りのコードを書いてくれます。

  • It's very powerful

    とてもパワフルです

  • because it's able to take your whole code base as context

    なぜなら、コードベース全体をコンテキストとして捉えることができるからです。

  • and with that, make more accurate predictions that way.

    と、その方がより正確な予測ができます。

  • For example, if you're building a trading bot

    例えば、トレーディングボットを作る場合

  • and you write the function get_tech_stock_prices,

    で、get_tech_stock_pricesという関数を書きます。

  • it'll suggest, hey, I know you're going

    を示唆することになる。

  • through a rough time,

    を、つらい時期を乗り越えて。

  • but building a trading bot is not going

    が、トレーディングボットを作るのは無理がある。

  • to fix your insecurities and maybe you should just accept

    を受け入れて、不安な気持ちを解消するのがいいと思います。

  • that you'll be a disappointment for the rest of your life.

    一生、残念な人になってしまうことを

  • Okay.

    そうですか。

  • How did all of this happen?

    どうしてこのようなことになったのでしょうか?

  • Why is AI so good suddenly?

    なぜAIは急に良くなったのか?

  • The answer is the transformer model

    答えは、トランスフォーマーモデル

  • which caused a paradigm shift

    という、パラダイムシフトを引き起こした

  • on how we build large language models, LLM.

    大規模な言語モデル「LLM」の構築方法について。

  • By the way, this diagram means nothing to me.

    ちなみに、この図には何の意味もありません。

  • It makes me look smart, so that's why I put it on there.

    スマートな印象になるので、それで載せています。

  • Before transformers,

    トランスフォーマーの前に。

  • the best natural language processing system used RNN,

    自然言語処理システムの最高峰はRNNだった

  • and then it used LSTM,

    といった具合に、LSTMを使用していました。

  • but then Google Brain published a paper

    が、その後、Google Brainが論文を発表した

  • in 2017 called "Attention is All You Need"

    2017年に "Attention is All You Need "と呼ばれる

  • which is also my life's motto because I'm a narcissist.

    というのは、ナルシストである私の人生のモットーでもあります。

  • The paper proposes a simple neural network model

    本論文では、シンプルなニューラルネットワークモデルを提案する

  • they call transformer, which is based

    トランスフォーマーと呼ばれるもので、ベースとなる

  • on the self attention mechanism

    自己注視のメカニズムについて

  • which I don't fully understand, so I'll pretend

    というのは、完全に理解できないので、フリ

  • like I don't have time to explain it

    説明する暇もないほど

  • but I also know that it allows for more parallelization

    が、より並列化が可能になることも知っている

  • which means you can throw more hardware,

    ということは、より多くのハードウェアを投げることができるということです。

  • more GPUs to make your training go faster

    より多くのGPUを搭載し、トレーニングの高速化を実現

  • and that's when things got crazy.

    と、そのときからおかしくなってしまった。

  • They kept adding more data and also added more parameters

    データを追加し続け、さらにパラメータを追加していく。

  • and the model just got better.

    と、モデルが良くなっただけです。

  • So what did we do?

    では、私たちは何をしたのか。

  • We made bigger models with more parameters

    より多くのパラメータを持つ、より大きなモデルを作りました

  • and shoved it a shit ton of data.

    と、クソほどデータを突っ込んだ。

  • Sorry, I'm trying my best here to make the model bigger.

    すみません、ここでは頑張ってモデルを大きくしています。

  • All right, fuck it.

    わかったよ、もういいよ。

  • Anyway, that gave us ready

    とにかく、これで準備が整いました。

  • to use pre-trained transformer models like Google's Bert,

    には、GoogleのBertのような事前に学習された変換モデルを使用します。

  • and OpenAI's GPT, generative pre-trained transformers.

    とOpenAIのGPT、generative pre-trained transformersの2つがあります。

  • They crawled the whole web to get text data

    ウェブ全体をクロールしてテキストデータを取得した

  • from Wikipedia and Reddit.

    Wikipedia、Redditより。

  • This graph shows you how many parameters each model has.

    このグラフは、各モデルが持つパラメータの数を示しています。

  • So as you can see, we've been increasing the number

    ということで、ご覧の通り、数を増やしてきました。

  • of parameters exponentially.

    のパラメータを指数関数的に変化させる。

  • So OpenAI kept improving their GPT model

    だからOpenAIはGPTモデルを改良し続けた

  • like how Goku kept becoming stronger each time

    悟空が毎回強くなっていくように

  • he reached a new Super Saiyan form.

    新たなスーパーサイヤ人形態に到達した。

  • While editing this,

    これを編集しながら。

  • I realized how unhelpful the "Dragon Ball" analogy was.

    ドラゴンボール」の例えがいかに役に立たなかったかを実感しました。

  • So I want to try again.

    だから、もう一度挑戦したいんです。

  • To recap, transformer was the model architecture,

    おさらいすると、transformerはモデル・アーキテクチャでした。

  • a type of neural network.

    は、ニューラルネットワークの一種である。

  • Other types of models would be like RNN and LSTM.

    他にも、RNNやLSTMのようなモデルもありますね。

  • Compared to RNN, transformers don't need

    RNNに比べ、トランスは必要ない

  • to process words one by one,

    で、単語を一つずつ処理する。

  • so it's way more efficient at training with lots of data.

    ということで、たくさんのデータを使ったトレーニングの効率が格段にアップしました。

  • OpenAI used the transformer model and pre-trained it

    OpenAIはトランスフォーマーモデルを使い、事前に学習させた

  • by feeding it a bunch of data from the internet

    ネット上のデータを大量に与えることで

  • and they called that pre-trained model GPT-1.

    で、その学習済みモデルをGPT-1と呼んでいます。

  • Back then, NLP models would be trained from scratch

    当時は、NLPモデルをゼロからトレーニングしていました。

  • for a specific task like translation or summarization.

    翻訳や要約のような特定のタスクのために。

  • Both transformer, we get to pre-train the model first

    両トランスフォーマー、最初にモデルをプリトレーニングしてもらう

  • then fine tune it for a specific task.

    そして、特定のタスクのために微調整する。