Placeholder Image

字幕表 動画を再生する

AI 自動生成字幕
  • We're starting a series of new models with the new name O1 and this is to highlight the fact that you might feel different when you use O1 as compared to previous models such as GPT-4-O.

    O1という新しい名前で新しいモデルのシリーズを始めますが、これは、GPT-4-Oのような以前のモデルと比較して、O1を使用したときに違いを感じるかもしれないという事実を強調するためです。

  • So, as others will explain later, O1 is a reasoning model, so it will think more before answering your question.

    だから、後で他の人が説明するように、O1は推論モデルだから、あなたの質問に答える前にもっと考える。

  • We are releasing two models, O1 Preview, which is to preview what's coming for O1, and O1 Mini, which is a faster, smaller and faster model that is trained with a similar framework as O1.

    私たちは2つのモデルをリリースしている。O1プレビューはO1の今後の展開をプレビューするためのもので、O1ミニはO1と同様のフレームワークでトレーニングされた、より小型で高速なモデルだ。

  • So, we hope you like our new naming scheme, O1.

    O1という新しいネーミングを気に入っていただければ幸いです。

  • So what is reasoning anyway?

    では、そもそも推論とは何なのか?

  • So one way of thinking of reasoning is that there are times where we ask questions and we need answers immediately because they're simple questions.

    だから、推論を考えるひとつの方法として、私たちは質問をして、それが単純な質問であるがゆえに、すぐに答えが必要な場合がある。

  • For example, if you ask what's the capital of Italy, you know the answer is Rome and you don't really have to think about it much.

    例えば、イタリアの首都はどこかと聞かれれば、ローマと答えが返ってくる。

  • But if you wonder about a complex puzzle or you want to write a really good business plan, you want to write a novel, you probably want to think about it for a while.

    しかし、複雑なパズルに疑問を感じたり、本当に良いビジネスプランを書きたいと思ったり、小説を書きたいと思ったりしたら、おそらくしばらく考えたくなるだろう。

  • And the more you think about it, the better the outcome.

    そして、考えれば考えるほど、結果は良くなる。

  • So reasoning is the ability of turning thinking time into better outcomes, whatever the task you're doing.

    つまり推論とは、どんな仕事であれ、考える時間をより良い結果に変える能力なのだ。

  • It's been going on for a long time, but I think what's really cool about research is there's that aha moment.

    それは長い間続いてきたことだけど、研究の本当に素晴らしいところは、ハッとさせられる瞬間があることだと思う。

  • There's that particular point in time where something surprising happens and things really click together.

    何か驚くようなことが起こり、物事がひとつにまとまる瞬間がある。

  • Are there any times for you all when you had that aha moment?

    皆さんにとって、ハッとさせられた瞬間はありますか?

  • There was a first moment when the moment was hot off the press.

    最初の瞬間、報道陣から熱い視線を浴びた瞬間があった。

  • We started talking to the model and people were like, wow, this model is really great and started doing something like that.

    そのモデルと話し始めたら、みんな、うわ、このモデルは本当に素晴らしい、そんなことをやり始めたんだ。

  • And I think that there was a certain moment in our training process where we put more computes in our L than before and trained first while generating coherent chains of thought.

    そして、トレーニングの過程で、以前よりも多くの計算機をLに入れ、首尾一貫した思考の連鎖を生み出しながら、まずトレーニングを行ったある瞬間があったと思う。

  • And we saw, wow, this looks like something meaningfully different than before.

    そして私たちは見た。

  • And I think for me, this is the moment.

    今がその瞬間だと思う。

  • I think related to that, when we think about training a model for reasoning, one thing that immediately jumps to mind is you could have humans write out their thought process and train on that.

    それに関連して、推論モデルのトレーニングについて考えるとき、すぐに思いつくのは、人間に自分の思考プロセスを書き出させて、それをもとにトレーニングすることだと思う。

  • When aha moment for me was when we saw that if you train the model using RL to generate and hone its own chain of thoughts, it can do even better than having humans write chains of thought for it.

    私にとってハッとした瞬間は、RLを使ってモデルを訓練し、それ自身の思考の連鎖を生成して磨きをかければ、人間がそのモデルのために思考の連鎖を書くよりもさらにうまくいくことがわかったときだった。

  • And that was an aha moment that you could really scale this and explore models reasoning that way.

    そして、このような方法で本当にスケールアップし、モデルの推論を探求することができるのだと、ハッとさせられた。

  • For a lot of the time that I've been here, we've been trying to make the models better at solving math problems, as an example.

    私がここにいる間、私たちは数学の問題を解くのに優れたモデルを作ろうとしてきた。

  • And we've put a lot of work into this.

    そして、私たちはこれに多くの労力を費やしてきた。

  • And we've come up with a lot of different methods.

    そして、私たちはさまざまな方法を考え出した。

  • But one thing that I kept, like, every time I would read these outputs from the models, I'd always be so frustrated that the model just would never seem to question what was wrong or when it was making mistakes or things like that.

    でも、ひとつだけ、モデルからの出力を読むたびに、モデルが何が間違っているのか、いつ間違いを犯しているのか、そういうことに疑問を抱かないことにいつも苛立っていたんだ。

  • But one of these early O1 models, when we trained it and we actually started talking to it, we started asking it these questions and it was scoring higher on these math tests we were giving it, we could look at how it was reasoning.

    しかし、初期のO1モデルのひとつは、私たちがそれを訓練し、実際にそれに話しかけ始め、私たちが与えた数学のテストでより高い得点を取るようになったとき、私たちはそれがどのように推論しているかを見ることができた。

  • And you could just see that it started to question itself and have really interesting reflection.

    そして、自問自答を始め、実に興味深い考察をしているのがわかった。

  • And that was a moment for me where I was like, wow, like, we've uncovered something different.

    そして、その瞬間は私にとって、うわあ、何か違うものを発見したんだ、というような瞬間だった。

  • This is going to be something new.

    これは新しいものになるだろう。

  • And it was just like one of these coming together moments that was really powerful.

    本当に力強かった。

  • Thank you and congrats on releasing this.

    ありがとう、そして発売おめでとう。

We're starting a series of new models with the new name O1 and this is to highlight the fact that you might feel different when you use O1 as compared to previous models such as GPT-4-O.

O1という新しい名前で新しいモデルのシリーズを始めますが、これは、GPT-4-Oのような以前のモデルと比較して、O1を使用したときに違いを感じるかもしれないという事実を強調するためです。

字幕と単語
AI 自動生成字幕

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます