Placeholder Image

字幕表 動画を再生する

AI 自動生成字幕
  • The guide was also above, as you mentioned.

    ガイドもおっしゃる通り、上の方だった。

  • Now, earlier today, speaking of demand, I was talking to Amazon CEO Andy Jassy.

    さて、本日未明、需要といえば、私はアマゾンのアンディ・ジャッシーCEOと話していた。

  • He told me that as of now, if he had more AI resources to sell through AWS, he could sell more.

    今現在、AWSを通じて販売できるAIのリソースがもっとあれば、もっと売れるはずだと彼は言った。

  • That's kind of the short-term signal of demand that you talked about on the call.

    これが、あなたが電話会議で話していた短期的な需要のシグナルです。

  • Tell me more about the mid-term signals that investors should be aware of that give you confidence in the continued demand.

    需要の継続を確信させるような、投資家が注意すべき中期的なシグナルについて詳しく教えてください。

  • The scale-outs of data centers, AI factories, relative to what you've historically seen.

    データセンターやAI工場のスケールアウトは、これまで見てきたものに比べて相対的に大きい。

  • The short-term signal are just our POs and the forecasts.

    短期的なシグナルはPOと予想だけだ。

  • And on top of that, the things that are not forecasted are new startup companies that are spinning off.

    その上、予測されていないのは、スピンオフする新しい新興企業だ。

  • And some of these are quite famous.

    その中にはかなり有名なものもある。

  • And at the risk of forgetting any of them, I won't mention any of them, but there's some really, really fantastic startups that have come out as a result of new reasoning AI capabilities and artificial general intelligence capabilities that they have breakthroughs in.

    そして、そのうちのどれかを忘れてしまう恐れがあるので、そのうちのどれかを挙げることはしないが、新しい推論AI能力や人工的な一般知能能力が飛躍的な進歩を遂げた結果、本当に、本当に素晴らしい新興企業がいくつか誕生している。

  • And several of them, there's several of them that are related to agentic AIs, really exciting companies.

    そのうちのいくつかは、エージェント型AIに関連するもので、実にエキサイティングな企業だ。

  • And there's several of them related to physical AIs.

    物理的なAIに関連するものもいくつかある。

  • There's just handfuls of each one of them, and each one of them needs additional compute.

    そのひとつひとつはほんの一握りで、そのひとつひとつが追加の計算を必要とする。

  • And that's the type of things that Andy talks about, because they need to go to AWS and they have urgent need for more compute right away.

    アンディが話しているようなことは、AWSに行く必要があり、より多くのコンピュートに対する緊急のニーズがすぐにあるからだ。

  • And so that's on top of what we already knew to have POs and forecasts and such.

    それに加えて、POやフォーキャストなどもある。

  • The midterm comes from the fact that this year's capital investment for data centers is so much greater than last year's.

    中間期は、今年のデータセンターへの設備投資が昨年よりも非常に大きいという事実に由来する。

  • And of course, we had a very large year last year.

    もちろん、昨年は非常に大きな年だった。

  • We had a great year last year.

    昨年は素晴らしい年だった。

  • It stands to reason that with Blackwell and with all the new data centers going online, we're gonna have a fairly great year.

    ブラックウェルと新しいデータセンターがオンラインになることで、今年はかなり素晴らしい年になるだろう。

  • Now long-term, the thing that's really exciting is we're just at the beginning of the reasoning AI era.

    今、長期的に見ると、本当にエキサイティングなのは、我々は推論AIの時代の始まりにいるところだということだ。

  • This is the time when AI is thinking to itself before it answers a question, instead of just immediately generating an answer.

    これは、AIが答えを即座に生成するのではなく、質問に答える前に自分で考えるようになる時代だ。

  • They'll reason about it, maybe break it down step by step.

    彼らはそれを理屈で説明し、ステップごとに分解するかもしれない。

  • It'll do maybe some searching in its own mind before it creates and composes a smart answer for you.

    それは、あなたのためにスマートな答えを作り、構成する前に、おそらく自分の頭の中でいくつかの検索を行うだろう。

  • The amount of computation necessary to do that reasoning process is 100 times more than what we used to do.

    その推論を行うために必要な計算量は、私たちが以前行っていたことの100倍以上である。

  • So if you could imagine, we thought computation, the amount of compute necessary, was a lot last year.

    だから、想像してもらえればわかると思うが、私たちは昨年、必要な計算量、つまりコンピュート量が多いと考えていた。

  • And then all of a sudden, reasoning AI, DeepSeq was an example of that, ChatGPT 4.0 is an example of that, Grok 3 Reasoning's an example of that.

    そして突然、推論AI、DeepSeqはその一例であり、ChatGPT 4.0はその一例であり、Grok 3 Reasoningはその一例だ。

  • So all of these reasoning AI models now need a lot more compute than what we used to, used to, used to, we're expecting.

    つまり、これらの推論AIモデルはすべて、我々が以前、以前、以前、期待していたものよりも多くの計算能力を必要とするようになったのだ。

  • It puts even more load.

    さらに負荷がかかる。

  • Because some people took DeepSeq to mean actually that you need less compute, right?

    DeepSeqを、より少ないコンピュートで済むという意味だと受け取った人もいるだろう?

  • Because the initial report was that they were doing more with less.

    というのも、当初の報道では、より少ない人数でより多くのことをこなしているというものだったからだ。

  • But you're saying, in fact, some of what came out of DeepSeq was the opposite, that there's gonna be more compute demanded.

    しかし、実際には、DeepSeqから発表された内容の一部は、より多くの計算能力が要求されるという逆のものだったということですね。

  • Unpack that for me.

    私のためにそれを解きほぐしてくれ。

  • There are three phases in how AI works, how AI is developed largely.

    AIがどのように機能するか、AIがどのように開発されるかには、大きく分けて3つの段階がある。

  • Number one is pre-training.

    その1が事前トレーニングだ。

  • It's kind of like us going through high school.

    私たちが高校を卒業するようなものだ。

  • A lot of basic math, basic language, basic everything.

    多くの基本的な数学、基本的な言語、基本的なすべてだ。

  • That basic understanding of human knowledge is essential to do what is the next step, which is called post-training.

    人間の知識に関するその基本的な理解は、ポストトレーニングと呼ばれる次のステップを行うために不可欠である。

  • In post-training, you might get human feedback.

    ポストトレーニングでは、人間的なフィードバックが得られるかもしれない。

  • You know, it's like a teacher showing it to you.

    先生が見せてくれるようなものだよ。

  • We call it reinforcement learning human feedback.

    私たちはこれを強化学習と呼んでいる。

  • You might practice and do thought experiments.

    練習をしたり、思考実験をしたりするかもしれない。

  • You're preparing for a test.

    あなたはテストの準備をしている。

  • You're doing a whole lot of practices.

    たくさんの練習をこなしているね。

  • We call it reinforcement learning AI feedback.

    私たちはこれを強化学習AIフィードバックと呼んでいる。

  • You could either also do tests and practice, and we call it reinforcement learning verifiable reward feedback.

    テストや練習をすることもできるし、私たちはそれを強化学習と呼んでいる。

  • So now, basically, it's teaching AIs how to be better AIs.

    だから今、基本的には、より良いAIになる方法をAIに教えている。

  • That post-training process is where an enormous amount of innovation is happening right now.

    トレーニング後のプロセスこそ、今まさに膨大なイノベーションが起きている場所なのだ。

  • A lot of it happened with these reasoning models, and that computation load could be 100 times more than pre-training.

    その多くは推論モデルで起こり、その計算負荷は事前トレーニングの100倍にもなる。

  • And then here comes inference, the reasoning process.

    そしてここに推論、つまり推理のプロセスがやってくる。

  • Instead of just spewing out an answer, when prompted, it reasons about it.

    ただ答えを吐き出すのではなく、プロンプトが出されると、それについて理由を説明する。

  • It thinks about how best to answer that question, breaks it down step by step, might even reflect upon it, come up with several versions, pick the best one, and then presents it to you.

    その質問にどう答えるのがベストかを考え、ステップごとに分解し、反省し、いくつかのバージョンを考え、ベストなものを選び、そしてあなたに提示する。

  • So the amount of computation that we have to do even at inference time now is 100 times more than what we used to do when ChatGPT first came out.

    だから、推論時間でもやらなければならない計算量は、ChatGPTが登場したころの100倍になっている。

  • And so all of a sudden, the combination of all these ideas largely related to reinforcement learning and synthetic data generation and reasoning, all of this is just causing compute demand to go sky high.

    そして突然、強化学習や合成データ生成、推論に大きく関連するこれらすべてのアイデアが組み合わさり、コンピュート需要が急上昇しているのだ。

The guide was also above, as you mentioned.

ガイドもおっしゃる通り、上の方だった。

字幕と単語
AI 自動生成字幕

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます

B1 中級 日本語

NvidiaのCEOであるHuang氏:DeepSeek事件は、AIコンピュートパワーに対する大きな需要を強調した。 (Nvidia CEO Huang: DeepSeek incident underscored the substantial demand for AI compute power)

  • 9 0
    Jixing Yang に公開 2025 年 02 月 27 日
動画の中の単語