字幕表 動画を再生する
The first example I have is very simple.
最初の例はとてもシンプルだ。
It's just counting the letter R's in a word strawberry.
ストロベリーという言葉のRの文字を数えているだけだ。
So let's start with the traditional, like existing model GPT-4.0.
では、伝統的な既存モデルGPT-4.0から始めよう。
So as you can see the model fails on this.
だから、このモデルは失敗している。
There are three R's, but the model says there are only two R's.
Rは3つあるが、モデルはRは2つしかないと言っている。
So why does this advanced model like GPT-4.0 make such a simple mistake?
では、なぜGPT-4.0のような先進的なモデルが、このような単純なミスを犯してしまうのだろうか?
That's because models like this are built to process the text, not with the characters or words.
このようなモデルは、文字や単語ではなく、テキストを処理するために作られているからだ。
It's somewhere between, sometimes called a sub-word.
サブワードと呼ばれることもある。
So if we ask the question to a model, a question that involves understanding the notion of characters and words, the model can really just make mistakes because it's not really built for that.
だから、文字や言葉の概念を理解するような質問をモデルにすると、モデルはそのために作られているわけではないので、ミスをする可能性がある。
So now let's go on to our new model and type in the same problem.
では、新しいモデルに移って、同じ問題を入力してみよう。
This is the O1 preview, which is a reasoning model.
これはO1プレビューで、推論モデルである。
So unlike the GPT-4.0, it starts thinking about this problem before outputting the answer.
だからGPT-4.0と違って、答えを出力する前にこの問題について考え始める。
And now it outputs the answer.
そして今、その答えが出た。
There are three R's in the word strawberry.
ストロベリーには3つのRがある。
So that's the correct answer.
だから、それが正解だ。
And this example shows that even for seemingly unrelated counting problem, having a reasoning built in can help avoiding the mistakes because it can maybe look at its own output and review it and more just be more careful and so on.
そしてこの例は、一見無関係に見える計数の問題でも、推論が組み込まれていれば、自分の出力を見て見直し、より慎重になるなどして、ミスを避けるのに役立つことを示している。