Placeholder Image

字幕表 動画を再生する

AI 自動生成字幕
  • Just last week, Google announced that they've put

    つい先週、グーグルは次のように発表した。

  • CUDF in the cloud and Accelerate Pandas.

    クラウド上のCUDFとAccelerate Pandas。

  • Pandas is the most popular data science library in the world.

    Pandasは世界で最も人気のあるデータサイエンスライブラリです。

  • Many of you in here probably already use Pandas.

    ここにいる多くの人はすでにパンダを使っているだろう。

  • It's used by 10 million data scientists in the world, downloaded 170 million times each month.

    毎月1億7000万回ダウンロードされ、世界で1000万人のデータサイエンティストに利用されている。

  • It is the Excel that is the spreadsheet of data scientists.

    データサイエンティストの表計算ソフトはエクセルである。

  • Well, with just one click, you can now use Pandas in Colab, which is Google's cloud data centers platform, accelerated by CUDF.

    ワンクリックで、CUDFによって加速されたGoogleのクラウド・データセンター・プラットフォームであるColabでPandasを使うことができる。

  • The speed up is really incredible.

    スピードアップは本当にすごい。

  • Let's take a look.

    見てみよう。

  • That was a great demo, right?

    素晴らしいデモだったでしょう?

  • Didn't take long.

    長くはかからなかった。

  • This is Earth 2.

    これが地球2だ。

  • The idea that we would create a digital twin of the Earth, that we would go and simulate the Earth so that we could predict the future of our planet to better avert disasters or better understand the impact of climate change so that we can adapt better, so that we could change our habits now.

    地球のデジタル・ツインを作り、地球をシミュレートすることで、地球の未来を予測し、災害を回避したり、気候変動の影響をよりよく理解し、適応できるようにする。

  • This digital twin of Earth is probably one of the most ambitious projects that the world's ever undertaken.

    この地球のデジタル・ツインは、おそらく世界で最も野心的なプロジェクトのひとつだろう。

  • And we're taking large steps every single year.

    そして私たちは毎年、大きなステップを踏んでいる。

  • And I'll show you results every single year.

    そして、毎年結果をお見せします。

  • But this year, we made some great breakthroughs.

    しかし今年、私たちは大きな飛躍を遂げた。

  • Let's take a look.

    見てみよう。

  • On Monday, the storm will veer north again and approach Taiwan.

    月曜日には、暴風雨は再び北上し、台湾に接近する。

  • There are big uncertainties regarding its path.

    進路については大きな不確定要素がある。

  • Different paths will have different levels of impact on Taiwan.

    道筋が違えば、台湾に与える影響のレベルも違ってくる。

  • Someday, in the near future, we will have continuous weather prediction at every square kilometer on the planet.

    いつの日か、近い将来、地球上のすべての平方キロメートルで連続的な天気予報ができるようになるだろう。

  • We will have continuous weather prediction at every square kilometer on the planet.

    地球上のすべての平方キロメートルで継続的な天気予報ができるようになる。

  • You will always know what the climate's going to be.

    気候がどうなるかはいつでもわかる。

  • You will always know.

    あなたはいつも知っている。

  • And this will run continuously because we've trained the AI.

    AIを訓練しているので、これは継続的に実行される。

  • And the AI requires so little energy.

    それにAIはエネルギーをほとんど必要としない。

  • In the late 1890s, Nikola Tesla invented an AC generator.

    1890年代後半、ニコラ・テスラは交流発電機を発明した。

  • We invented an AI generator.

    我々はAIジェネレーターを発明した。

  • The AC generator generated electrons.

    交流発電機は電子を発生させた。

  • NVIDIA's AI generator generates electrons.

    エヌビディアのAIジェネレーターが電子を生成。

  • The AI generator generates tokens.

    AIジェネレーターはトークンを生成する。

  • Both of these things have large market opportunities.

    どちらも大きな市場機会がある。

  • It's completely fungible in almost every industry.

    ほとんどすべての産業で、それは完全にカビだ。

  • And that's why it's a new industrial revolution.

    だからこそ、新たな産業革命なのだ。

  • And now we have a new factory, a new computer.

    そして今、新しい工場、新しいコンピューターがある。

  • And what we will run on top of this is a new type of software.

    そして、私たちがその上で実行するのは、新しいタイプのソフトウェアだ。

  • And we call it NIMS, NVIDIA Inference Microservices.

    私たちはこれをNIMS(NVIDIA Inference Microservices)と呼んでいます。

  • Now, what happens is the NIM runs inside this factory.

    さて、どうなるかというと、NIMはこの工場の中で動く。

  • And this NIM is a pre-trained model.

    そして、このNIMは事前に訓練されたモデルである。

  • It's an AI.

    AIだ。

  • Well, this AI is, of course, quite complex in itself.

    もちろん、このAIはそれ自体が非常に複雑だ。

  • But the computing stack that runs AIs are insanely complex.

    しかし、AIを実行するコンピューティング・スタックは非常に複雑だ。

  • When you go and use chat GPT, underneath their stack is a whole bunch of software.

    チャットGPTを使う場合、そのスタックの下にはたくさんのソフトウェアがある。

  • Underneath that prompt is a ton of software.

    そのプロンプトの下には、たくさんのソフトウェアがある。

  • And it's incredibly complex because the models are large, billions to trillions of parameters.

    数十億から数兆のパラメータを持つ大規模なモデルなので、信じられないほど複雑だ。

  • It doesn't run on just one computer.

    1台のコンピューターだけでは動かない。

  • It runs on multiple computers.

    複数のコンピューターで動作する。

  • It has to distribute the workload across multiple GPUs, tensor parallelism, pipeline parallelism, data parallelism, all kinds of parallelism, expert parallelism, all kinds of parallelism, distributing the workload across multiple GPUs, processing it as fast as possible.

    テンソル並列、パイプライン並列、データ並列、あらゆる種類の並列、エキスパート並列、あらゆる種類の並列、複数のGPUにワークロードを分散し、可能な限り高速に処理しなければならない。

  • Because if you are in a factory, if you run a factory, your throughput directly correlates to your revenues.

    工場を経営していれば、処理能力は収益に直結するからだ。

  • Your throughput directly correlates to quality of service.

    スループットはサービス品質に直結します。

  • And your throughput directly correlates to the number of people who can use your service.

    そしてスループットは、サービスを利用できる人の数に直結する。

  • We are now in a world where data center throughput utilization is vitally important.

    私たちは今、データセンターのスループット利用率が極めて重要な世界にいる。

  • It was important in the past, but not vitally important.

    昔は重要だったが、極めて重要というわけではなかった。

  • It was important in the past, but people don't measure it.

    昔は重要だったが、人々はそれを測らない。

  • Today, every parameter is measured.

    今日、あらゆるパラメーターが測定されている。

  • Start time, up time, utilization, throughput, idle time, you name it.

    起動時間、稼働時間、利用率、スループット、アイドル時間、何でもありだ。

  • Because it's a factory.

    工場だからだ。

  • When something is a factory, its operations directly correlate to the financial performance of the company.

    何かが工場である場合、その操業は会社の財務実績に直結する。

  • And so we realized that this is incredibly complex for most companies to do.

    そして、これはほとんどの企業にとって信じられないほど複雑なことだと気づいた。

  • So what we did was we created this AI in a box.

    そこで私たちが行ったのは、箱の中にAIを作ることだった。

  • And the container's an incredible amount of software.

    そして、コンテナには信じられないほどの量のソフトウェアが入っている。

  • Inside this container is CUDA, CUDNN, TensorRT,

    このコンテナの中には、CUDA、CUDNN、TensorRTが入っている、

  • Triton for inference services.

    推論サービスのトリトン。

  • It is cloud native, so that you could autoscale in a Kubernetes environment.

    クラウドネイティブなので、Kubernetes環境でオートスケールできる。

  • It has management services and hooks, so that you can monitor your AIs.

    管理サービスとフックを備えており、AIを監視することができる。

  • It has common APIs, standard APIs, so that you could literally chat with this box.

    一般的なAPI、標準的なAPIを備えているので、文字通りこのボックスでチャットができる。

  • We now have the ability to create large language models and pre-trained models of all kinds.

    私たちは現在、大規模な言語モデルやあらゆる種類の事前学習済みモデルを作成する能力を持っている。

  • And we have all of these various versions, whether it's language-based, or vision-based, or imaging-based.

    言語ベースであれ、視覚ベースであれ、画像ベースであれ、さまざまなバージョンがある。

  • We have versions that are available for health care, digital biology.

    私たちは、ヘルスケアやデジタル生物学に利用可能なバージョンを用意しています。

  • We have versions that are digital humans that I'll talk to you about.

    デジタルヒューマンのバージョンもあるので、それについてはまたお話しします。

  • And the way you use this, just come to AI.NVIDIA.com.

    AI.NVIDIA.comにお越しください。

  • And today, we just posted up in Hugging Face the LLAMA3 NIM, fully optimized.

    そして今日、Hugging FaceにLLAMA3 NIMを掲載したところだ。

  • It's available there for you to try.

    そこで試してみることができる。

  • And you can even take it with you.

    しかも持ち運びもできる。

  • It's available to you for free.

    無料で利用できる。

  • And finally, AI models that reproduce lifelike appearances, enabling real-time path traced subsurface scattering to simulate the way light penetrates the skin, scatters, and exits at various points, giving skin its soft and translucent appearance.

    そして最後に、リアルな外観を再現するAIモデル。リアルタイムでパストレースされたサブサーフェススキャッタリングを可能にし、光が肌を透過して散乱し、さまざまなポイントから抜ける様子をシミュレートすることで、肌に柔らかさと透明感を与えている。

  • NVIDIA ACE is a suite of digital human technologies packaged as easy-to-deploy, fully-optimized microservices, or NIMs.

    NVIDIA ACEは、展開が容易で、完全に最適化されたマイクロサービス(NIM)としてパッケージ化されたデジタルヒューマンテクノロジーのスイートである。

  • Developers can integrate ACE NIMs into their existing frameworks, engines, and digital human experiences.

    開発者は、ACE NIMを既存のフレームワーク、エンジン、デジタル・ヒューマン・エクスペリエンスに統合することができる。

  • Nemotron SLM and LLM NIMs to understand our intent and orchestrate other models.

    ネモトロンSLMとLLM NIMは、我々の意図を理解し、他のモデルを編成する。

  • Riva Speech NIMs for interactive speech and translation.

    リヴァスピーチNIMは、インタラクティブなスピーチと翻訳を実現します。

  • Audio-to-Face and Gesture NIMs for facial and body animation.

    顔と体のアニメーションのための音声対顔およびジェスチャーNIM。

  • And Omniverse RTX with DLSS for neural rendering of skin and hair.

    そして、肌や髪のニューラル・レンダリングのためのDLSSを搭載したオムニバースRTX。

  • And so we installed every single RTX GPU with Tensor Core processing.

    そして、Tensor Core処理を搭載したRTX GPUをすべて導入した。

  • And now we have 100 million GeForce RTX AI PCs in the world.

    そして今、世界に1億台のGeForce RTX AI PCがある。

  • And we're shipping 200.

    そして200本を出荷する。

  • And this Computex, we're featuring four new amazing laptops.

    そして今回のComputexでは、4つの新しい素晴らしいノートパソコンを紹介する。

  • All of them are able to run AI.

    彼ら全員がAIを動かすことができる。

  • Your future laptop, your future PC, will become an AI.

    未来のノートパソコン、未来のPCはAIになる。

  • It'll be constantly helping you, assisting you in the background.

    それは常にあなたを助け、バックグラウンドであなたをサポートする。

  • Ladies and gentlemen, this is Blackwell.

    皆さん、ブラックウェルです。

  • Blackwell is in production.

    ブラックウェルは生産中。

  • Incredible amounts of technology.

    信じられないほどの技術。

  • This is our production board.

    これが我々のプロダクションボードだ。

  • This is the most complex, highest performance computer the world's ever made.

    これは世界で最も複雑で高性能なコンピューターだ。

  • This is the gray CPU.

    これがグレーのCPUだ。

  • And these are, you could see, the CPUs are the most powerful, the most powerful, and these are, you could see, each one of these Blackwell dies, two of them connected together.

    そして、これらは、ご覧の通り、CPUが最も強力で、これらは、ご覧の通り、ブラックウェルのダイがそれぞれ2つずつ接続されている。

  • You see that?

    見えるか?

  • It is the largest die, the largest chip the world makes.

    世界が製造するチップの中で最大のダイであり、最大のチップである。

  • And then we connect two of them together with a 10 terabyte per second link.

    そして、そのうちの2つを毎秒10テラバイトのリンクで接続する。

  • So this is a DGX Blackwell.

    これがDGXブラックウェルか。

  • This has, this is air-cooled, has eight of these GPUs inside.

    これは空冷式で、8個のGPUを内蔵している。

  • Look at the size of the heat sinks on these GPUs.

    これらのGPUのヒートシンクの大きさを見てください。

  • About 15 kilowatts, 15,000 watts, and completely air-cooled.

    約15キロワット、15,000ワットで、完全空冷。

  • This version supports x86, and it goes into the infrastructure that we've been shipping hoppers into.

    このバージョンはx86をサポートしており、これまでホッパーを出荷してきたインフラに入る。

  • However, if you would like to have liquid cooling, we have a new system.

    しかし、液冷を希望されるのであれば、新しいシステムがあります。

  • And this new system is based on this board, and we call it MGX for modular.

    そしてこの新しいシステムはこのボードをベースにしており、モジュール式ということでMGXと呼んでいる。

  • And this modular system, you won't be able to see this.

    そして、このモジュラーシステムは、見ることができない。

  • Can they see this?

    彼らはこれを見ることができるだろうか?

  • Can you see this?

    これが見えるだろうか?

  • You can?

    できるのか?

  • Are you?

    そうなのか?

  • OK.

    OKだ。

  • I see.

    なるほど。

  • OK.

    OKだ。

  • And so this is the MGX system, and here's the two Blackwell boards.

    これがMGXシステムで、これが2枚のブラックウェル・ボードだ。

  • So this one node has four Blackwell chips.

    つまり、このノードには4つのブラックウェル・チップが搭載されている。

  • These four Blackwell chips, this is liquid cooled.

    この4つのブラックウェル・チップは液冷式だ。

  • Nine of them, nine of them, well, 72 of these, 72 of these GPUs, 72 of these GPUs are then connected together with a new NVLink.

    そのうちの9つ、9つ、まあ、72個、72個のGPU、72個のGPUが、新しいNVLinkで接続されます。

  • This is NVLink switch fifth generation.

    これはNVLinkスイッチの第5世代だ。

  • And the NVLink switch is a technology miracle.

    そしてNVLinkスイッチは奇跡的な技術だ。

  • This is the most advanced switch the world's ever made.

    これは世界で最も先進的なスイッチだ。

  • The data rate is insane.

    データレートは異常だ。

  • And these switches connect every single one of these Blackwells to each other so that we have one giant 72 GPU Blackwell.

    そしてこれらのスイッチは、72GPUの巨大なブラックウェルが1つになるように、すべてのブラックウェルを互いに接続する。

  • Well, the benefit of this is that in one domain, one GPU domain, this now looks like one GPU.

    この利点は、1つのドメイン、1つのGPUドメインで、これが1つのGPUに見えることだ。

  • This one GPU has 72 versus the last generation of eight, so we increased it by nine times.

    このGPUは72個で、前世代は8個だったので、9倍に増えたことになる。

  • The amount of bandwidth we've increased by 18 times.

    帯域幅は18倍になった。

  • The AI flops we've increased by 45 times, and yet the amount of power is only 10 times.

    AIのフロップ数は45倍に増えたのに、パワーは10倍にしかならない。

  • This is 100 kilowatts, and that is 10 kilowatts.

    これが100キロワットで、これが10キロワットだ。

  • This is one GPU.

    これはGPUの一つだ。

  • Ladies and gentlemen, DGX GPU.

    皆さん、DGX GPUです。

  • The back of this GPU is the NVLink spine.

    このGPUの背面はNVLinkスパインです。

  • The NVLink spine is 5,000 wires, two miles, and it's right here.

    NVLinkのスパインは5,000本、2マイルで、ここにある。

  • This is an NVLink spine, and it connects 72 GPUs to each other.

    これはNVLinkスパインで、72個のGPUを互いに接続する。

  • This is an electrical mechanical miracle.

    これは電気的、機械的な奇跡だ。

  • The transceivers makes it possible for us to drive the entire length in copper.

    トランシーバーのおかげで、全長を銅で駆動することが可能になった。

  • And as a result, this switch, the NVLink switch, driving the NVLink spine in copper makes it possible for us to save 20 kilowatts in one rack.

    その結果、このスイッチ(NVLinkスイッチ)が銅でNVLinkスパインを駆動することで、1ラックで20キロワットの節電が可能になりました。

  • 20 kilowatts can now be used for processing.

    20キロワットを処理に使えるようになった。

  • Just an incredible achievement.

    信じられないような偉業だ。

  • We have code names in our company, and we try to keep them very secret.

    私たちの会社にはコードネームがある。

  • Oftentimes, most of the employees don't even know.

    従業員のほとんどが知らないことも多い。

  • But our next generation platform is called Rubin.

    しかし、我々の次世代プラットフォームはルービンと呼ばれている。

  • The Rubin platform, I'm not going to spend much time on it.

    ルビンのプラットフォームについては、あまり時間をかけるつもりはない。

  • I know what's going to happen.

    何が起こるかは分かっている。

  • You're going to take pictures of it, and you're going to go look at the fine prints, and feel free to do that.

    写真を撮ったり、細かいプリントを見に行ったり、ご自由にどうぞ。

  • So we have the Rubin platform, and one year later, we'd have the Rubin Ultra platform.

    ルービンのプラットフォームがあり、その1年後にはルービンのウルトラ・プラットフォームがある。

  • All of these chips that I'm showing you here are all in full development, 100% of them.

    ここでお見せしているチップはすべて、100%開発中のものです。

  • And the rhythm is one year at the limits of technology, all 100% architecturally compatible.

    そしてそのリズムは、技術の限界における1年であり、すべて100%アーキテクチャーの互換性がある。

  • So this is basically what NVIDIA is building.

    つまり、これがNVIDIAが基本的に構築しているものだ。

  • A robotic factory is designed with three computers.

    ロボット工場は3台のコンピューターで設計されている。

  • Train the AI on NVIDIA AI.

    NVIDIA AIでAIをトレーニングする。

  • You have the robot running on the PLC systems for orchestrating the factories.

    ロボットはPLCシステム上で稼働し、工場をオーケストレーションする。

  • And then you, of course, simulate everything inside Omniverse.

    そしてもちろん、オムニバースの中ですべてをシミュレートする。

  • Well, the robotic arm and the robotic AMRs are also the same way, three computer systems.

    まあ、ロボットアームもロボットAMRも同じように3つのコンピューターシステムだ。

  • The difference is the two Omniverses will come together.

    違いは、2つのオムニバースが一緒になることだ。

  • So they'll share one virtual space.

    だから、彼らは1つの仮想空間を共有することになる。

  • When they share one virtual space, that robotic arm will become inside the robotic factory.

    それらがひとつの仮想空間を共有するとき、そのロボットアームはロボット工場の中に入ることになる。

  • And again, three computers, and we provide the computer, the acceleration layers, and pre-trained AI models.

    そしてまた3台のコンピューターで、我々はコンピューター、アクセラレーションレイヤー、そして事前に訓練されたAIモデルを提供する。

  • Well, I think we have some robots that we'd like to welcome.

    さて、歓迎したいロボットが何体かいるようだ。

  • Here we go.

    さあ、始めよう。

  • About my size.

    私のサイズについて

  • And we have some friends to join us.

    そして、何人かの友人も参加してくれる。

  • So the future of robotics is here, the next wave of AI.

    ロボット工学の未来はここにあり、AIの次の波はここにある。

  • And of course, Taiwan builds computers with keyboards.

    そしてもちろん、台湾はキーボード付きのコンピューターを製造している。

  • You build computers for your pocket.

    ポケットに入るコンピュータを作る。

  • You build computers for data centers in the cloud.

    クラウド上のデータセンター用にコンピューターを構築する。

  • In the future, you're going to build computers that walk and computers that roll around.

    将来的には、歩くコンピューターや転がるコンピューターを作ることになるだろう。

  • And so these are all just computers.

    つまり、これらはすべて単なるコンピューターなのだ。

  • And as it turns out, the technology is very similar to the technology of building all of the other computers that you already built today.

    そして結局のところ、このテクノロジーは、今日すでに作られている他のすべてのコンピューターを作るテクノロジーと非常によく似ている。

  • So this is going to be a really extraordinary journey for us.

    だから、これは私たちにとって本当に並外れた旅になるだろう。

Just last week, Google announced that they've put

つい先週、グーグルは次のように発表した。

字幕と単語
AI 自動生成字幕

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます