Placeholder Image

字幕表 動画を再生する

AI 自動生成字幕
  • Hello, welcome to the 12 days of OpenAI.

    こんにちは、OpenAIの12日間へようこそ。

  • We're going to try something that as far as we know, no tech company has done before, which is every day for the next 12, every weekday, we are going to launch or demo some new thing that we built.

    これから12日間、平日は毎日、私たちが作った新しいものを発表したり、デモをしたりします。

  • And we think we've got some great stuff for you starting today.

    そして、今日から素晴らしいものを用意したと思っている。

  • We hope you'll really love it.

    私たちは、あなたが本当に気に入ってくれることを願っています。

  • And you know, we'll try to make this fun and fast and not take too long, but it'll be a way to show you what we've been working on and a little holiday present from us.

    私たちが取り組んできたことをお見せし、私たちからのささやかなホリデー・プレゼントとするつもりだ。

  • So we'll jump right into this first day.

    では、さっそく初日に飛び込もう。

  • Today, we actually have two things to launch.

    今日、実は2つのことを発表する予定だ。

  • The first one is the full version of O1.

    最初のものはO1のフルバージョンだ。

  • We have been very hard at work.

    私たちは懸命に仕事をしてきた。

  • We've listened to your feedback.

    我々は皆さんの声に耳を傾けてきた。

  • You like O1 Preview, but you want it to be smarter and faster and be multimodal and be better at instruction following, a bunch of other things.

    あなたはO1プレビューを気に入っているが、より賢く、より速く、マルチモーダルであること、指示通りに動くこと、その他多くのことを望んでいる。

  • So we've put a lot of work into this.

    だから、私たちはこれに多くの労力を費やしてきた。

  • And for scientists, engineers, coders, we think they will really love this new model.

    そして科学者、エンジニア、コーダーにとって、この新しいモデルは本当に気に入ってもらえると思う。

  • I'd like to show you quickly about how it performs.

    そのパフォーマンスを手短にお見せしたい。

  • So you can see the jump from GPT-4.0 to O1 Preview across math, competition coding, GPQA, Diamond, and you can see that O1 is a pretty big step forward.

    GPT-4.0からO1プレビューへのジャンプは、数学、競技コーディング、GPQA、ダイヤモンドにまたがっており、O1がかなり大きな前進であることがおわかりいただけるだろう。

  • It's also much better in a lot of other ways, but raw intelligence is something that we care about.

    他の多くの点でもはるかに優れているが、生の知性は我々が重視するところだ。

  • Coding performance in particular is an area where people are using the model a lot.

    特にコーディング・パフォーマンスは、人々がこのモデルを多用している分野だ。

  • So in just a minute, these guys will demo some things about O1.

    では、すぐにO1についてのデモを行います。

  • They'll show you how it does at speed, how it does at really hard problems, how it does with multimodality.

    スピード、難しい問題、マルチモダリティでのパフォーマンスをお見せします。

  • But first, I want to talk just for a minute about the second thing we're launching today.

    その前に、今日発表する2つ目のことについて少しお話ししたいと思います。

  • A lot of people, power users of ChatGPT at this point, they really use it a lot and they want more compute than $20 a month can buy.

    ChatGPTのパワーユーザーは、本当にたくさん使っていて、月20ドルで買える以上の計算能力を求めている。

  • So we're launching a new tier, ChatGPT Pro.

    そこで、新しいティア、ChatGPT Proを立ち上げました。

  • And Pro has unlimited access to our models and also things like advanced voice mode.

    そしてプロは、私たちのモデルに無制限にアクセスでき、アドバンスド・ボイス・モードなども利用できる。

  • It also has a new thing called O1 Pro Mode.

    O1プロモードという新しいものもある。

  • So O1 is the smartest model in the world now, except for O1 being used in Pro Mode.

    つまり、O1がプロモードで使用されることを除けば、今、世界で最もスマートなモデルなのだ。

  • And for the hardest problems that people have, O1 Pro Mode lets you do even a little bit better.

    O1プロモードは、人々が抱える最も困難な問題に対して、少しでも良い結果を出すことを可能にする。

  • So you can see a competition math.

    だから、競争の計算が見える。

  • You can see a GPQA Diamond.

    GPQAダイヤモンドを見ることができる。

  • And these boosts may look small, but in complex workflows where you're really pushing the limits of these models, it's pretty significant.

    これらの向上は小さく見えるかもしれないが、モデルの限界に挑むような複雑なワークフローでは、かなり大きな意味を持つ。

  • I'll show you one more thing about the Pro Mode.

    プロモードについてもうひとつお見せしよう。

  • So one thing that people really have said they want is reliability.

    だから、みんなが本当に求めているのは信頼性だと言っている。

  • And here, you can see how the reliability of an answer from Pro Mode compares to O1.

    そして、プロモードからの回答の信頼性が、O1と比べてどうなのかがわかります。

  • And this is an even stronger delta.

    そして、これはさらに強いデルタだ。

  • And again, for our Pro users, we've heard a lot about how much people want this.

    そしてまた、プロ・ユーザーの皆さんには、これをどれほど望んでいるかということをよくお聞きしています。

  • ChatGPT Pro is $200 a month, launches today.

    ChatGPT Proは月額200ドルで、本日よりスタートします。

  • Over the course of these 12 days, we have some other things to add to it that we think you'll also really love.

    この12日間で、私たちは皆さんに気に入っていただけるようなものを追加する予定です。

  • But unlimited model use and this new O1 Pro Mode.

    しかし、モデル使用は無制限で、この新しいO1プロモードもある。

  • So I want to jump right in and we'll show some of those demos that we talked about.

    では、さっそく今お話ししたデモのいくつかをお見せしましょう。

  • And these are some of the guys that helped build O1 with many other people behind them on the team.

    そして、彼らはO1の創設に貢献した人たちであり、彼らの背後には多くのチーム関係者がいる。

  • Thanks, Sam.

    ありがとう、サム。

  • Hi, I'm Hyungwon.

    こんにちは、ヒョンウォンです。

  • I'm Jason.

    僕はジェイソンだ。

  • And I'm Max.

    僕はマックスだ。

  • We're all research scientists who worked on building O1.

    私たちは皆、O1の建設に携わった研究科学者だ。

  • O1 is really distinctive because it's the first model we've trained that thinks before it responds.

    O1は、私たちがトレーニングした中で、反応する前に考える初めてのモデルだからだ。

  • Meaning it gives much better and often more detailed and more correct responses than other models you might have tried.

    つまり、あなたが試したかもしれない他のモデルよりも、はるかに優れた、そしてしばしばより詳細でより正しい回答が得られるということだ。

  • O1 is being rolled out today to all Plus and soon-to-be Pro subscribers on ChatGPT, replacing O1 Preview.

    O1は、O1プレビューに代わって、ChatGPTのすべてのPlusとまもなくProになる加入者に本日から提供されます。

  • O1 model is faster and smarter than the O1 Preview model, which we launched in September.

    O1モデルは、9月に発表したO1プレビューモデルよりも高速でスマートだ。

  • After the launch, many people asked about the multi-modal input, so we added that.

    発売後、多くの人からマルチモーダル入力について質問があったので、それを追加した。

  • So now the O1 model live today is able to reason through both images and text jointly.

    つまり、現在生きているO1モデルは、画像とテキストの両方を共同で推論することができるのだ。

  • As Sam mentioned, today we're also going to launch a new tier of ChatGPT called ChatGPT Pro.

    サムが言ったように、今日、私たちはChatGPT Proと呼ばれるChatGPTの新しいティアを開始する予定です。

  • ChatGPT Pro offers unlimited access to our best models like O1, 4.0, and Advanced Voice.

    ChatGPT Proでは、O1、4.0、Advanced Voiceなどのベストモデルを無制限にご利用いただけます。

  • ChatGPT Pro also has a special way of using O1 called O1 Pro Mode.

    ChatGPT ProにはO1 Pro Modeと呼ばれる特別なO1の使用方法があります。

  • With O1 Pro Mode, you can ask the model to use even more compute to think even harder on some of the most difficult problems.

    O1プロモードでは、最も困難な問題に対して、より多くの計算量を使い、より難しく考えるようモデルに要求することができる。

  • We think the audience for ChatGPT Pro will be the power users of ChatGPT.

    ChatGPT Proの利用者はChatGPTのパワーユーザーだと思います。

  • Those who are already pushing the models to the limits of their capabilities on tasks like math, programming, and writing.

    数学、プログラミング、作文などのタスクで、すでにモデルの能力の限界に挑戦している人たち。

  • It's been amazing to see how much people are pushing O1 Preview, how much people who do technical work all day get out of this, and we're really excited to let them push it further.

    人々がO1プレビューをどれだけプッシュしているか、一日中技術的な仕事をしている人々がどれだけO1プレビューから得ているかということを目の当たりにするのは素晴らしいことだ。

  • We also really think that O1 will be much better for everyday use cases, not necessarily just really hard math and programming problems.

    また、O1は必ずしも難しい数学やプログラミングの問題だけでなく、日常的なユースケースにも適していると考えている。

  • In particular, one piece of feedback we received about O1 Preview constantly was that it was way too slow.

    特に、O1プレビューについて常に寄せられるフィードバックのひとつが、遅すぎるというものだった。

  • It would think for 10 seconds if you said hi to it, and we fixed that.

    挨拶すると10秒間考えてしまうんだ。

  • That was really annoying.

    あれは本当に腹が立った。

  • It was kind of funny, honestly.

    正直、ちょっと笑えたよ。

  • It really thought, it cared.

    本当に考えていたし、気にかけていた。

  • And so we fixed that.

    それでそれを修正した。

  • O1 will now think much more intelligently.

    これでO1は、より知的な思考をするようになるだろう。

  • If you ask it a simple question, it'll respond really quickly.

    簡単な質問をすれば、すぐに答えてくれる。

  • And if you ask it a really hard question, it'll think for a really long time.

    そして、本当に難しい質問をすれば、本当に長い間考えてくれる。

  • We ran a pretty detailed suite of human evaluations for this model, and what we found was that it made major mistakes about 34% less often than O1 Preview while thinking fully about 50% faster.

    このモデルについて、かなり詳細な人間による評価を実施したところ、O1プレビューよりも大きなミスを犯す頻度が約34%低い一方で、思考速度は約50%速いことがわかった。

  • And we think this will be a really, really noticeable difference for all of you.

    そしてこれは、皆さんにとって本当に、本当に顕著な違いになると考えています。

  • So I really enjoy just talking to these models.

    だから、モデルたちと話しているだけで本当に楽しい。

  • I'm a big history buff, and I'll show you a really quick demo of, for example, a sort of question that I might ask one of these models.

    私は大の歴史好きで、例えば、このモデルの一人に質問するような内容を、本当に簡単なデモでお見せしましょう。

  • So right here, on the left, I have O1.

    つまり、この左側にはO1がある。

  • On the right, I have O1 Preview, and I'm just asking it a really simple history question.

    右側はO1プレビューで、本当に簡単な履歴の質問をしているだけです。

  • List the Roman emperors of the 2nd century.

    2世紀のローマ皇帝を列挙せよ。

  • Tell me about their dates, what they did.

    二人のデート、何をしたか教えてくれ。

  • Not hard, but, you know, GPT-40 actually gets this wrong a reasonable fraction of the time.

    難しいことではないが、GPT-40は実際、かなりの割合でこれを間違えている。

  • And so I've asked O1 this.

    それで、O1にこう聞いてみたんだ。

  • I've asked O1 Preview this.

    O1プレビューにも聞いてみた。

  • I tested this offline a few times, and I found that O1, on average, responded about 60% faster than O1 Preview.

    何度かオフラインでテストしてみたが、O1はO1プレビューよりも平均して60%ほど反応が速かった。

  • This could be a little bit variable, because right now we're in the process of swapping all our GPUs from O1 Preview to O1.

    というのも、現在、すべてのGPUをO1プレビューからO1に交換している最中だからだ。

  • So actually, O1 thought for about 14 seconds.

    そう、実はO1は14秒ほど考えていたのだ。

  • O1 Preview, still going.

    O1プレビュー、まだ続く

  • There's a lot of Roman emperors.

    ローマ皇帝はたくさんいる。

  • There's a lot of Roman emperors.

    ローマ皇帝はたくさんいる。

  • Yeah, 40 actually gets this wrong a lot of the time.

    ああ、40歳は多くの場合、これを間違えている。

  • There are a lot of folks who rolled for, like, 6 days, 12 days, a month, and it sometimes forgets those.

    6日間、12日間、1カ月間とロールした人がたくさんいて、それを忘れてしまうこともある。

  • Can you do them all from memory, including the 6-day people?

    6日間の選手も含めて、全部記憶でできますか?

  • No.

    そうだ。

  • Yep, so here we go.

    そうだ。

  • O1 thought for about 14 seconds.

    O1は14秒ほど考えた。

  • O1 Preview thought for about 33 seconds.

    O1プレビューは約33秒間考えた。

  • These should both be faster once we finish deploying, but we want this to go live right now.

    どちらもデプロイを終えればもっと速くなるはずだが、今すぐ本番を迎えたい。

  • Exactly.

    その通りだ。

  • So, yeah, we think you'll really enjoy talking to this model.

    だから、このモデルとの会話は本当に楽しいと思うよ。

  • We found that it gave great responses.

    素晴らしい手応えを感じている。

  • It thought much faster.

    もっと早く考えていた。

  • It should just be a much better user experience for everyone.

    誰にとっても、より良いユーザーエクスペリエンスになるはずだ。

  • So one other feature we know that people really wanted for everyday use cases that we've had requested a lot is multimodal inputs and image understanding, and Hyungwon is going to talk about that now.

    日常的なユースケースで本当に必要とされている機能として、マルチモーダル入力と画像理解があります。

  • Yep.

    そうだね。

  • To illustrate the multimodal input and reasoning, I created this toy problem with some hand-drawn diagrams and so on.

    マルチモーダルな入力と推論を説明するために、私は手書きの図などを使ったこのおもちゃの問題を作った。

  • So here it is.

    だからここにある。

  • It's hard to see, so I already took a photo of this, and so let's look at this photo in a laptop.

    見づらいので、すでに写真を撮ったので、この写真をノートパソコンで見てみよう。

  • So once you upload the image into the chat GPT, you can click on it to see the zoomed-in version.

    ですから、チャットGPTに画像をアップロードしたら、それをクリックして拡大バージョンを見ることができます。

  • So this is a system of a data center in space.

    つまり、これは宇宙にあるデータセンターのシステムなのだ。

  • So maybe in the future we might want to train AI models in the space.

    だから将来的には、この空間でAIモデルを訓練したいと思うかもしれない。

  • I think we should do that, but the power number looks a little low.

    そうすべきだと思うが、パワーの数字が少し低く見える。

  • One gigawatt. Okay.

    1ギガワット。 そうか。

  • But the general idea, I think.

    でも、一般的な考えだと思う。

  • Rookie numbers.

    ルーキーナンバー

  • Yeah, rookie numbers.

    ああ、ルーキーの数字だ。

  • Yeah.

    そうだね。

  • So we have a sun right here taking power on this solar panel, and then there's a small data center here.

    このソーラーパネルで電力を取っているのが太陽で、ここに小さなデータセンターがある。

  • That's exactly what they look like.

    まさにその通りだ。

  • Yeah.

    そうだね。

  • GPU racks.

    GPUラック。

  • And then pump.

    そしてポンプ。

  • Nice pump here.

    ここはいいポンプだ。

  • And one interesting thing about operation in space is that on Earth we can do air cooling, water cooling to cool down the GPUs, but in space there's nothing there, so we have to radiate this heat into the deep space.

    宇宙での運用で興味深いのは、地上ではGPUを冷却するために空冷や水冷が可能ですが、宇宙には何もありません。

  • And that's why we need this giant radiator cooling panel.

    だからこそ、この巨大なラジエター冷却パネルが必要なのだ。

  • And this problem is about finding the lower bound estimate of the cooling panel area required to operate this one gigawatt data center.

    そしてこの問題は、この1ギガワットのデータセンターを運用するのに必要な冷却パネル面積の下限見積もりを求めるというものだ。

  • Probably going to be very big.

    おそらく非常に大きくなるだろう。

  • Yeah.

    そうだね。

  • Let's see how big it is.

    どのくらい大きいか見てみよう。

  • Let's see.

    見てみよう。

  • So that's the problem.

    それが問題なんだ。

  • I'm going to this prompt, and yeah, this is essentially asking for that.

    僕はこのプロンプトに行くんだけど、そう、これは本質的にそれを求めているんだ。

  • So let me hit go, and the model will think for seconds.

    だから、"go "を押せば、モデルは何秒か考えるだろう。

  • By the way, most people don't know.

    ところで、ほとんどの人は知らない。

  • I've been working with Hyungwon for a long time.

    ヒョンウォンとは長い付き合いだ。

  • Hyungwon actually has a Ph.D. in thermodynamics, which is totally unrelated to AI, and you always joke that you haven't been able to use your Ph.D. work in your job until today.

    ヒョンウォンは実はAIとは全く関係のない熱力学の博士号を持っていて、いつも冗談で「今日まで博士号の仕事を仕事に活かせなかった」と言っていましたね。

  • So you can trust Hyungwon on this analysis.

    だから、この分析についてはヒョンウォンを信頼していい。

  • Finally, finally.

    やっと、やっとだ。

  • Thanks for hyping up.

    盛り上げてくれてありがとう。

  • Now I really have to get this right.

    今、私は本当にこれを正しく理解しなければならない。

  • Okay, so the model finished thinking.

    さて、モデルは考え終えた。

  • Only 10 seconds.

    わずか10秒だ。

  • It's a simple problem.

    簡単な問題だ。

  • So let's see how the model did it.

    では、モデルがどうやったか見てみよう。

  • So power input.

    だからパワーインプットだ。

  • So first of all, this one gigawatt, that was only drawn in the paper.

    まず第一に、この1ギガワットというのは論文に描かれただけだ。

  • So the model was able to pick that up nicely, and then radiative heat transfer only.

    そのため、モデルはそれをうまく拾い上げることができた。

  • That's the thing I mentioned.

    それが私が言ったことだ。

  • So in space, nothing else, and then some simplifying choices.

    だから宇宙空間では、他には何もなく、それからいくつかの単純化された選択をする。

  • And one critical thing is that I intentionally made this problem underspecified, meaning that the critical parameter is the temperature of the cooling panel.

    つまり、重要なパラメーターは冷却パネルの温度なのだ。

  • I left it out so that we can test out the model's ability to handle ambiguity and so on.

    モデルの曖昧さへの対応能力などをテストするために省いたのだ。

  • So the model was able to recognize that this is actually an unspecified but important parameter, and it actually picked the right range of temperature, which is about the room temperature, and with that, it continues to the analysis and does a whole bunch of things and then found out the area, which is 2.42 million square meters.

    そのため、このモデルは、実際には未指定だが重要なパラメーターであることを認識することができ、実際に室温程度の適切な温度範囲を選んだ。そして、それをもとに解析を続け、さまざまなことを行って面積を割り出した。

  • Just to get a sense of how big this is, this is about 2% of the land area of San Francisco.

    サンフランシスコの国土面積の約2%である。

  • This is huge.

    これは大きい。

  • Not bad.

    悪くない。

  • Not bad, yeah.

    悪くないよ。

  • Oh, okay.

    ああ、そうか。

  • Yeah, so I guess this is reasonable.

    うん、だからこれは妥当だと思うよ。

  • I'll skip through the rest of the details, but I think the model did a great job making nice, consistent assumptions that make the required area as little as possible.

    残りの詳細は省くが、このモデルは、必要な面積をできるだけ小さくするために、一貫性のある素晴らしい仮定を立てたと思う。

  • And so, yeah, so this is the demonstration of the multimodal reasoning.

    そう、これがマルチモーダルな推論のデモンストレーションなんだ。

  • And this is a simple problem, but O1 is actually very strong, and on standard benchmarks like MMU and MathVista, O1 actually has the state-of-the-art performance.

    そしてこれは単純な問題だが、O1は実は非常に強力で、MMUやMathVistaのような標準的なベンチマークでは、O1は実際に最先端の性能を持っている。

  • Now Jason will showcase the Pro mode.

    今度はジェイソンがプロモードを披露する。

  • Great.

    素晴らしい。

  • So I want to give a short demo of ChatGPT-O1 Pro mode.

    そこで、ChatGPT-O1 Proモードの簡単なデモをしたいと思います。

  • People will find O1 Pro mode the most useful for, say, hard math, science, or programming problems.

    O1 Proモードは、例えば、難しい数学、科学、プログラミングの問題で最も役に立つ。

  • So here I have a pretty challenging chemistry problem that O1 preview gets usually incorrect, and so I will let the model start thinking.

    そこで、O1プレビューが通常不正解になるような、かなり難しい化学の問題がある。

  • One thing we've learned with these models is that for these very challenging problems, the model can think for up to a few minutes.

    これらのモデルでわかったことのひとつは、このような非常に難しい問題では、モデルは最大で数分間考えることができるということだ。

  • I think for this problem, the model usually thinks anywhere from one minute to up to three minutes.

    この問題の場合、モデルは通常、1分から最大3分まで考えていると思う。

  • And so we have to provide some entertainment for people while the model is thinking.

    だから、モデルが考えている間、人々に何らかのエンターテインメントを提供しなければならない。

  • So I'll describe the problem a little bit, and then if the model is still thinking when I'm done, I've prepared a dad joke for us to fill the rest of the time.

    だから、私は問題を少し説明し、私が終わったときにモデルがまだ考えていたら、残りの時間を埋めるためにオヤジギャグを用意した。

  • I hope it thinks for a long time.

    長く考えてほしい。

  • You can see the problem asks for a protein that fits a very specific set of criteria.

    この問題は、非常に特殊な条件に合致するタンパク質を求めていることがわかるだろう。

  • So there are six criteria, and the challenge is each of them asks for pretty chemistry domain-specific knowledge that the model would have to recall.

    つまり、6つの基準があり、それぞれの基準は、モデルが想起しなければならないような、かなり化学的な領域特有の知識を求めているのだ。

  • And the other thing to know about this problem is that none of these criteria actually give away what the correct answer is.

    そして、この問題に関して知っておくべきもう一つのことは、これらの基準のどれをとっても、実は正解が何であるかはわからないということだ。

  • So for any given criteria, there could be dozens of proteins that might fit that criteria, and so the model has to think through all the candidates and then check if they fit all the criteria.

    そのため、モデルはすべての候補を検討し、それらがすべての基準に適合するかどうかをチェックしなければならない。

  • Okay, so you can see the model actually was faster this time, so it finished in 53 seconds.

    さて、今回はモデルの方が速かったので、53秒でゴールしたことがわかるだろう。

  • You can click and see some of the thought process that the model went through to get the answer.

    クリックして、モデルが答えを導き出すまでの思考プロセスの一部を見ることができる。

  • You can see it's thinking about different candidates like neuroligin initially.

    最初はノイロリギンのような別の候補を考えているのがわかるだろう。

  • And then it arrives at the correct answer, which is retinochisin, which is great.

    そして、レチノシシンという正しい答えにたどり着く。

  • Okay, so to summarize, we saw from Max that O1 is smarter and faster than O1 preview.

    さて、要約すると、O1はO1プレビューよりも賢く、速いということがマックスからわかった。

  • We saw from Hyungwon that O1 can now reason over both text and images.

    ヒョンウォンから、O1がテキストと画像の両方で推論できるようになったことがわかった。

  • And then finally, we saw with ChatterBot Pro mode, you can use O1 to reason about the hardest science and math problems.

    そして最後に、チャッターボット・プロ・モードを使えば、O1を使って最も難しい科学や数学の問題を推論することができる。

  • Yep, there's more to come for the ChatterBot Pro tier.

    チャッターボット・プロ・ティアにはまだ続きがある。

  • We're working on even more compute-intensive tasks to power longer and bigger tasks for those who want to push the model even further.

    私たちは、このモデルをさらに推し進めたい人たちのために、より長く、より大きなタスクをこなせるよう、さらに計算負荷の高いタスクに取り組んでいます。

  • And we're still working on adding tools to the O1 model, such as web browsing, file uploads, and things like that.

    また、ウェブブラウジングやファイルのアップロードなど、O1モデルにツールを追加する作業も続けている。

  • We're also hard at work to bring O1 to the API.

    我々はまた、O1をAPIに導入するために懸命に取り組んでいる。

  • We're going to be adding some new features for developers, structured outputs, function calling, developer messages, and API image understanding, which we think you'll really enjoy.

    開発者向けの新機能、構造化出力、関数呼び出し、開発者メッセージ、APIイメージの理解などを追加する予定です。

  • We expect this to be a great model for developers and really unlock a whole new frontier of agentic things you guys can build.

    私たちは、これが開発者にとって素晴らしいモデルになり、皆さんが作ることのできるエージェント的なものの全く新しいフロンティアを解き放つことを期待しています。

  • We hope you love it as much as we do.

    私たちと同じように気に入っていただけることを願っています。

  • That was great.

    素晴らしかったよ。

  • Thank you guys so much.

    本当にありがとう。

  • Congratulations to you and the team on getting this done.

    おめでとう、あなたたち。

  • We really hope that you'll enjoy O1 and Pro tier.

    O1とプロ・ティアを楽しんでいただけることを心から願っています。

  • We have a lot more stuff to come.

    まだまだたくさんある。

  • Tomorrow we'll be back with something great for developers, and we'll keep going from there.

    明日は、開発者にとって素晴らしいものをお届けします。

  • Before we wrap up, can we hear your joke?

    最後に、あなたのジョークを聞かせてください。

  • Yes.

    そうだ。

  • So I made this joke this morning.

    だから今朝、こんなジョークを言ったんだ。

  • The joke is this.

    冗談はこうだ。

  • So Santa was trying to get his large language model to do a math problem, and he was prompting it really hard, but it wasn't working.

    だからサンタは、大きな言語モデルに数学の問題をやらせようとして、一生懸命促したんだけど、うまくいかなかったんだ。

  • How did he eventually fix it?

    結局、彼はどうやって解決したのですか?

  • No idea.

    分からない。

  • He used reindeer enforcement learning.

    彼はトナカイを使った強制学習を行った。

  • Thank you very much.

    ありがとうございました。

Hello, welcome to the 12 days of OpenAI.

こんにちは、OpenAIの12日間へようこそ。

字幕と単語
AI 自動生成字幕

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます