Placeholder Image

字幕表 動画を再生する

AI 自動生成字幕
  • I hope you realize this is not a concert.

    これはコンサートではないことを理解してほしい。

  • You have arrived at a developer's conference.

    あなたは開発者会議に到着した。

  • There will be a lot of science described, algorithms, computer architecture, mathematics.

    アルゴリズム、コンピューターアーキテクチャー、数学など、多くの科学が説明されるだろう。

  • Blackwell is not a chip.

    ブラックウェルはチップではない。

  • Blackwell is the name of a platform.

    ブラックウェルはプラットフォームの名前だ。

  • People think we make GPUs, and we do.

    我々はGPUを製造していると思われているが、そうなのだ。

  • But GPUs don't look the way they used to.

    しかし、GPUは以前のようには見えない。

  • This is Hopper.

    ホッパーだ。

  • Hopper changed the world.

    ホッパーは世界を変えた。

  • This is Blackwell.

    ブラックウェルだ。

  • It's OK, Hopper.

    大丈夫だよ、ホッパー。

  • 208 billion transistors.

    2080億トランジスタ。

  • And so you could see, I can see, there's a small line between two dies.

    2つの金型の間に小さな線があるのが見えるだろう。

  • This is the first time two dies have been abutted like this together in such a way that the two dies think it's one chip.

    このように2つの金型が1つのチップだと思うように接したのは初めてのことだ。

  • There's 10 terabytes of data between it, 10 terabytes per second, so that these two sides of the Blackwell chip have no clue which side they're on.

    その間に10テラバイトのデータがあり、毎秒10テラバイトだから、ブラックウェル・チップの両側は自分がどちらにいるのかまったくわからない。

  • There's no memory locality issues, no cache issues.

    メモリローカリティの問題もキャッシュの問題もない。

  • It's just one giant chip, and it goes into two types of systems.

    1つの巨大なチップで、2種類のシステムに搭載される。

  • The first one is form-fit function compatible to Hopper.

    最初のものは、ホッパーと互換性のあるフォームフィット機能である。

  • And so you slide on Hopper, and you push in Blackwell.

    そしてホッパーをスライドさせ、ブラックウェルを押し込む。

  • That's the reason why one of the challenges of ramping is going to be so efficient.

    それが、ランプアップの課題のひとつである効率化の理由だ。

  • There are installations of Hoppers all over the world, and they could be, you know, the same infrastructure, same design.

    ホッパーは世界中に設置されているし、同じインフラ、同じデザインかもしれない。

  • The power, the electricity, the thermals, the software, identical, push it right back.

    パワー、電気、熱、ソフトウェア、同じものが、それを後押しする。

  • And so this is a Hopper version for the current HGX configuration.

    というわけで、これは現在のHGXのコンフィギュレーションに対応したホッパー・バージョンだ。

  • And this is what the second Hopper looks like this.

    そしてこれが2代目ホッパーの姿だ。

  • Now, this is a prototype board.

    さて、これはプロトタイプのボードだ。

  • This is a fully functioning board, and I'll just be careful here.

    ここは完全に機能しているボードなので、ここだけは注意しておこう。

  • This right here is, I don't know, $10 billion?

    ここにあるのは100億ドルかな?

  • The second one's $5 billion.

    2つ目は50億ドルだ。

  • It gets cheaper after that, so any customers in the audience, it's okay.

    その後は安くなるから、観客の誰でも大丈夫だよ。

  • The Gray CPU has a super fast chip-to-chip link.

    グレイのCPUはチップ間リンクが超高速だ。

  • What's amazing is this computer is the first of its kind where this much computation, first of all, fits into this small of a place.

    驚くべきは、このコンピューターがこの種のものとしては初めて、これだけの計算量をこの小さな場所に収めたことだ。

  • Second, it's memory coherent.

    第二に、メモリーの首尾一貫性だ。

  • They feel like they're just one big happy family working on one application together.

    彼らは、ひとつのアプリケーションに一緒に取り組んでいる、ひとつの大きな幸せな家族のように感じている。

  • We created a processor for the generative AI era, and one of the most important parts of it is content token generation.

    私たちはジェネレーティブAI時代のためのプロセッサーを作りましたが、その中で最も重要な部分のひとつがコンテンツ・トークンの生成です。

  • We call it, this format is FP4.

    私たちはこれをFP4と呼んでいる。

  • The rate at which we're advancing computing is insane, and it's still not fast enough, so we built another chip.

    コンピュータの進歩の速さは異常で、それでもまだ十分な速さではないから、別のチップを作ったんだ。

  • This chip is just an incredible chip.

    このチップは本当にすごいチップだ。

  • We call it the NVLink Switch.

    私たちはこれをNVLinkスイッチと呼んでいます。

  • It's 50 billion transistors.

    500億トランジスタだ。

  • It's almost the size of Hopper all by itself.

    ホッパーとほぼ同じ大きさだ。

  • This switch chip has four NVLinks in it, each 1.8 terabytes per second, and it has computation in it, as I mentioned.

    このスイッチ・チップには4つのNVリンクが搭載されており、それぞれ毎秒1.8テラバイトで、先ほど申し上げたように計算機能を備えている。

  • What is this chip for?

    このチップは何に使うのですか?

  • If we were to build such a chip, we can have every single GPU talk to every other GPU at full speed at the same time.

    もしそのようなチップを作れば、すべてのGPUが他のGPUと同時にフルスピードで会話することができる。

  • You can build a system that looks like this.

    このようなシステムを構築することができる。

  • Now, this system is kind of insane.

    さて、このシステムはある意味狂っている。

  • This is one DGX.

    これがDGXだ。

  • This is what a DGX looks like now.

    これが今のDGXの姿だ。

  • Just so you know, there are only a couple, two, three Exaflops machines on the planet as we speak, and so this is an Exaflops AI system in one single rack.

    ご存知のように、エクサフロップスのマシンは地球上に2、3台しか存在しない。

  • I want to thank some partners that are joining us in this.

    この活動に参加してくれている何人かのパートナーに感謝したい。

  • AWS is gearing up for Blackwell.

    AWSはブラックウェルに向けて準備を進めている。

  • They're going to build the first GPU with secure AI.

    彼らは安全なAIを搭載した初のGPUを開発しようとしている。

  • They're building out a 222 Exaflops system for CUDA-accelerating SageMaker AI, for CUDA-accelerating Bedrock AI.

    彼らは、CUDAで加速するSageMaker AIやCUDAで加速するBedrock AI用に222エクサフロップスのシステムを構築している。

  • Amazon Robotics is working with us using NVIDIA Omniverse and Isaac Sim.

    アマゾン・ロボティクスは、エヌビディア・オムニバースとアイザック・シムを使って私たちと協力しています。

  • AWS Health has NVIDIA Health integrated into it, so AWS has really leaned into accelerated computing.

    AWS HealthにはNVIDIA Healthが統合されており、AWSはアクセラレーテッド・コンピューティングに傾倒している。

  • Google is gearing up for Blackwell.

    グーグルはブラックウェルのために準備を進めている。

  • GCP already has A100s, H100s, T4s, L4s, a whole fleet of NVIDIA CUDA GPUs, and they recently announced the GEMMA model that runs across all of it.

    GCPはすでにA100s、H100s、T4s、L4s、そしてNVIDIA CUDA GPUの全フリートを持っており、最近、それらすべてで動作するGEMMAモデルを発表した。

  • We're working to optimize and accelerate every aspect of GCP.

    私たちはGCPのあらゆる面を最適化し、加速させるために取り組んでいます。

  • We're accelerating Dataproc, which is for data processing, their data processing engine, JAX, XLA, Vertex AI, and MuJoCo for robotics, so we're working with Google and GCP across a whole bunch of initiatives.

    データ処理エンジンであるDataproc、JAX、XLA、Vertex AI、ロボット工学のためのMuJoCoを加速させています。

  • Oracle is gearing up for Blackwell.

    オラクルはブラックウェルに向けて準備を進めている。

  • Oracle is a great partner of ours for NVIDIA DGX Cloud, and we're also working together to accelerate something that's really important to a lot of companies, Oracle Database.

    オラクルは、NVIDIA DGX Cloudにおける私たちの素晴らしいパートナーであり、私たちはまた、多くの企業にとって本当に重要なOracle Databaseを加速させるために協力しています。

  • Microsoft is accelerating, and Microsoft is gearing up for Blackwell.

    マイクロソフトは加速しており、マイクロソフトはブラックウェルに向けて準備を進めている。

  • Microsoft and NVIDIA has a wide-ranging partnership.

    マイクロソフトとエヌビディアは幅広いパートナーシップを結んでいる。

  • We're accelerating CUDA-accelerating all kinds of services when you chat, obviously, and AI services that are in Microsoft Azure.

    私たちはCUDAを高速化し、チャットやMicrosoft AzureにあるAIサービスなど、あらゆるサービスを高速化しています。

  • It's very, very likely NVIDIA is in the back doing the inference and the token generation.

    NVIDIAが推論とトークン生成を裏で行っている可能性は非常に高い。

  • They built the largest NVIDIA InfiniBand supercomputer, basically a digital twin of ours or a physical twin of ours.

    彼らは最大のエヌビディア・インフィニバンド・スーパーコンピューターを構築した。基本的には我々のデジタル・ツイン、あるいは物理的ツインだ。

  • We're bringing the NVIDIA ecosystem to Azure, NVIDIA DGX Cloud to Azure, NVIDIA Omniverse is now hosted in Azure, NVIDIA Healthcare is in Azure, and all of it is deeply integrated and deeply connected with Microsoft Fabric.

    私たちはNVIDIAエコシステムをAzureに、NVIDIA DGX CloudをAzureに、NVIDIA OmniverseをAzureに、NVIDIA HealthcareをAzureに、そしてそれらすべてをMicrosoft Fabricと深く統合し、深く結びつけています。

  • And now, it's a pre-trained model, so it's pretty clever, and it is packaged and optimized to run across NVIDIA's installed base, which is very, very large.

    そして今、これは事前に訓練されたモデルであり、非常に賢く、非常に大規模なNVIDIAのインストールベース全体で動作するようにパッケージ化され、最適化されています。

  • What's inside it is incredible.

    その中身は信じられないようなものだ。

  • You have all these pre-trained, state-of-the-art open-source models.

    事前に訓練された最先端のオープンソースモデルがある。

  • They could be open-source.

    オープンソースかもしれない。

  • They could be from one of our partners.

    私たちのパートナーからかもしれない。

  • It could be created by us, like NVIDIA Moment.

    エヌビディア・モーメントのように、私たちが作ることもできる。

  • It is packaged up with all of its dependencies.

    これは、すべての依存関係とともにパッケージ化されている。

  • So CUDA, the right version, CUDNN, the right version, TensorRT, LLM, distributing across the multiple GPUs, Trident inference server, all completely packaged together.

    CUDA、適切なバージョン、CUDNN、適切なバージョン、TensorRT、LLM、複数のGPUへの分散、Trident推論サーバー、これらすべてが完全にパッケージ化されている。

  • It's optimized, depending on whether you have a single GPU, multi-GPU, or multi-node of GPUs, it's optimized for that, and it's connected up with APIs that are simple to use.

    シングルGPU、マルチGPU、マルチノードのGPUのどれを使うかに応じて最適化され、使いやすいAPIで接続されている。

  • These packages, incredible bodies of software, will be optimized and packaged, and we'll put it on a website, and you can download it, you can take it with you, you can run it in any cloud, you can run it in your own data center, you can run it in workstations if it fit, and all you have to do is come to ai.nvidia.com.

    これらのパッケージ、つまり信じられないようなソフトウェア群は最適化され、パッケージ化され、ウェブサイトに掲載される。

  • We call it NVIDIA Inference Microservice, but inside the company, we all call it NIMS.

    私たちはこれをNVIDIA Inference Microserviceと呼んでいますが、社内ではみんなNIMSと呼んでいます。

  • We have a service called NIMO Microservice that helps you curate the data, preparing the data so that you could teach this, onboard this AI, you fine-tune them, and then you guardrail it, you can even evaluate the answer, evaluate its performance against other examples.

    私たちはNIMOマイクロサービスというサービスを提供しており、データのキュレーション、データの準備、AIのティーチング、AIのオンボード、AIの微調整、AIのガードレール、AIの答えの評価、他の例に対する性能の評価などを行うことができます。

  • And so we are effectively an AI foundry.

    私たちは事実上、AIのファウンドリーなのだ。

  • We will do for you and the industry on AI what TSMC does for us building chips.

    われわれは、TSMCがわれわれのためにチップを製造してくれているのと同じことを、AIに関して皆さんと業界のために行うつもりだ。

  • And so we go to it with our, go to TSMC with our big ideas, they manufacture it, and we take it with us.

    そして、私たちは大きなアイデアを持ってTSMCに行き、彼らがそれを製造し、私たちはそれを持って行く。

  • And so exactly the same thing here, AI foundry, and the three pillars are the NIMS, NIMO Microservice, and DGX Cloud.

    AIファウンドリー、NIMS、NIMOマイクロサービス、DGXクラウドが3本柱です。

  • We're announcing that NVIDIA AI foundry is working with some of the world's great companies.

    私たちは、NVIDIA AIファウンドリーが世界の素晴らしい企業と協力していることを発表します。

  • SAP generates 87% of the world's global commerce.

    SAPは世界の商取引の87%を生み出している。

  • Basically, the world runs on SAP.

    基本的に、世界はSAPで動いている。

  • We run on SAP.

    我々はSAPで動いている。

  • NVIDIA and SAP are building SAP Jewel co-pilots using NVIDIA NIMO and DGX Cloud.

    NVIDIAとSAPは、NVIDIA NIMOとDGX Cloudを使ってSAP Jewel co-pilotsを構築している。

  • ServiceNow, they run, 85% of the world's Fortune 500 companies run their people and customer service operations on ServiceNow.

    ServiceNowは、世界のフォーチュン500社のうち85%がServiceNow上で従業員やカスタマーサービスを運営している。

  • And they're using NVIDIA AI foundry to build ServiceNow assist virtual assistants.

    また、NVIDIAのAIファウンドリーを利用して、ServiceNowアシストのバーチャル・アシスタントを構築している。

  • Cohesity backs up the world's data.

    コヒーシティは世界中のデータをバックアップする。

  • They're sitting on a goldmine of data.

    彼らはデータの宝庫なのだ。

  • Hundreds of exabytes of data, over 10,000 companies.

    何百エクサバイトものデータ、1万社以上の企業。

  • NVIDIA AI foundry is working with them, helping them build their Gaia generative AI agent.

    エヌビディアのAIファウンドリーは彼らと協力し、同社のGaia生成AIエージェントの構築を支援している。

  • Snowflake is a company that stores the world's digital warehouse in the cloud and serves over 3 billion queries a day for 10,000 enterprise customers.

    スノーフレークは、世界中のデジタル・ウェアハウスをクラウドに保管し、1万社の企業顧客に1日30億件以上のクエリーを提供している企業だ。

  • Snowflake is working with NVIDIA AI foundry to build co-pilots with NVIDIA NIMO and NIMS.

    スノーフレークはエヌビディアのAIファウンドリーと協力し、エヌビディアNIMOとNIMSでコ・パイロットを構築している。

  • NetApp, nearly half of the files in the world are stored on-prem on NetApp.

    ネットアップでは、世界中のファイルの約半数がオンプレミスでネットアップに保存されています。

  • NVIDIA AI foundry is helping them build chatbots and co-pilots like those vector databases and retrievers with NVIDIA NIMO and NIMS.

    NVIDIAのAIファウンドリーは、NVIDIA NIMOやNIMSを使ったベクターデータベースやリトリーバーのようなチャットボットやコパイロットの構築を支援している。

  • And we have a great partnership with Dell.

    デルとは素晴らしいパートナーシップを結んでいる。

  • Everybody who is building these chatbots and generative AI, when you're ready to run it, you're going to need an AI factory.

    チャットボットやジェネレーティブAIを構築している皆さん、それを実行する準備ができたら、AI工場が必要になるでしょう。

  • And nobody is better at building end-to-end systems of very large scale for the enterprise than Dell.

    そして、デルほど企業向けの大規模なエンド・ツー・エンド・システムの構築に長けている企業はない。

  • And so anybody, any company, every company will need to build AI factories.

    だから、誰でも、どんな企業でも、すべての企業がAI工場を建設する必要がある。

  • And it turns out that Michael is here.

    そしてマイケルがここにいることがわかった。

  • He's happy to take your order.

    彼は喜んで注文を受けてくれる。

  • We need a simulation engine that represents the world digitally for the robot so that the robot has a gym to go learn how to be a robot.

    ロボットがロボットであることを学ぶための体育館を持てるように、ロボットのためにデジタルで世界を表現するシミュレーション・エンジンが必要なのだ。

  • We call that virtual world Omniverse.

    私たちはその仮想世界をオムニバースと呼んでいる。

  • And the computer that runs Omniverse is called OVX.

    そして、オムニバースを動かすコンピューターはOVXと呼ばれている。

  • And OVX, the computer itself, is hosted in the Azure cloud.

    そしてOVXは、コンピュータ自体はAzureクラウドでホストされている。

  • The future of heavy industries starts as a digital twin.

    重工業の未来はデジタル・ツインから始まる。

  • The AI agents helping robots, workers and infrastructure navigate unpredictable events in complex industrial spaces will be built and evaluated first in sophisticated digital twins.

    ロボット、労働者、インフラが複雑な産業空間で予測不可能な出来事をナビゲートするのを助けるAIエージェントは、まず洗練されたデジタルツインで構築され、評価される。

  • Once you connect everything together, it's insane how much productivity you can get.

    ひとたびすべてをつなげれば、生産性の向上は計り知れない。

  • And it's just really, really wonderful.

    そして、本当に本当に素晴らしい。

  • All of a sudden, everybody's operating on the same ground truth.

    突然、誰もが同じ真実に基づいて行動するようになった。

  • You don't have to exchange data and convert data, make mistakes.

    データを交換したり、データを変換したり、ミスをする必要はない。

  • Everybody is working on the same ground truth.

    誰もが同じ真実を基に仕事をしている。

  • From the design department to the art department, the architecture department, all the way to the engineering and even the marketing department.

    デザイン部門からアート部門、建築部門、エンジニアリング部門、そしてマーケティング部門に至るまで。

  • Today, we're announcing that Omniverse cloud streams to the Vision Pro.

    本日、オムニバースのクラウドストリーミングがビジョン・プロに対応したことを発表します。

  • And it is very, very strange that you walk around virtual doors when I was getting out of that car.

    それに、私が車から降りようとしたときに、バーチャルドアの周りを歩いていたなんて、とてもとても奇妙なことだ。

  • And everybody does it.

    そして誰もがそうする。

  • It is really, really quite amazing.

    本当に、本当に素晴らしい。

  • Vision Pro, connected to Omniverse, portals you into Omniverse.

    ビジョン・プロはオムニバースに接続し、あなたをオムニバースへといざなう。

  • And because all of these CAD tools and all these different design tools are now integrated and connected to Omniverse, you can have this type of workflow.

    そして、これらのCADツールやさまざまなデザインツールがすべて統合され、オムニバースに接続されるようになったので、このようなワークフローが可能になったのです。

  • Really incredible.

    本当に信じられない。

  • This is NVIDIA Project Grid.

    これがNVIDIA Project Gridだ。

  • A general purpose foundation model for humanoid robot learning.

    ヒューマノイドロボット学習のための汎用基礎モデル。

  • The group model takes multimodal instructions and past interactions as input and produces the next action for the robot to execute.

    グループモデルは、マルチモーダルな指示と過去のインタラクションを入力とし、ロボットが実行すべき次のアクションを生成する。

  • We developed Isaac Lab, a robot learning application to train Grid on Omniverse Isaac Sim.

    私たちは、オムニバースのアイザック・シム上でグリッドを学習させるロボット学習アプリケーション、アイザック・ラボを開発しました。

  • And we scale out with Osmo, a new compute orchestration service that coordinates workflows across DGX systems for training and OVX systems for simulation.

    また、トレーニング用のDGXシステムとシミュレーション用のOVXシステム間でワークフローを調整する新しいコンピュート・オーケストレーション・サービスであるOsmoでスケールアウトします。

  • The group model will enable a robot to learn from a handful of human demonstrations so it can help with everyday tasks.

    このグループモデルによって、ロボットは人間の実演から学習することができるようになり、日常的な作業を支援できるようになる。

  • And emulate human movement just by observing us.

    そして、私たちを観察するだけで、人間の動きを模倣する。

  • All this incredible intelligence is powered by the new Jetson Thor robotics chips designed for Groot, built for the future.

    この驚異的な知性はすべて、グルートのために設計され、未来のために作られた新しいジェットソン・ソーのロボットチップによって駆動される。

  • With Isaac Lab, Osmo and Groot, we're providing the building blocks for the next generation of AI powered robotics.

    アイザック・ラボ、オスモ、グルートとともに、私たちはAIを搭載した次世代のロボット工学のためのビルディングブロックを提供しています。

  • About the same size.

    ほぼ同じ大きさだ。

  • The soul of NVIDIA.

    エヌビディアの魂。

  • The intersection of computer graphics, physics, artificial intelligence, it all came to bear at this moment.

    コンピューターグラフィックス、物理学、人工知能、そのすべてが交差する瞬間だった。

  • The name of that project, General Robotics 003.

    そのプロジェクト名は「ジェネラル・ロボティクス003」。

  • I know, super good.

    分かってるよ。

  • Super good.

    超良い。

  • Super good.

    超良い。

  • Well, I think we have some special guests.

    さて、特別ゲストがいるようだ。

  • Do we?

    そうだろうか?

  • Hey guys.

    やあ、みんな。

  • So I understand you guys are powered by Jetson.

    君たちはジェットソンを使っているんだね。

  • They're powered by Jetsons.

    ジェットソンが動力源だ。

  • Little Jetson robotics computers inside.

    内部にはリトル・ジェットソン・ロボット・コンピューターが搭載されている。

  • They learned to walk in Isaac Sim.

    彼らはアイザック・シムで歩くことを学んだ。

  • Ladies and gentlemen, this is Orange.

    皆さん、オレンジです。

  • And this is the famous Green.

    そしてこれが有名なグリーンだ。

  • They are the BDX robots of Disney.

    ディズニーのBDXロボットだ。

  • Amazing Disney research.

    驚くべきディズニーの研究。

  • Come on you guys, let's wrap up.

    さあ、君たち、まとめよう。

  • Let's go.

    行こう。

  • Five things.

    5つのことだ。

  • Where are you going?

    どこへ行くんだ?

  • I sit right here.

    私はここに座っている。

  • Don't be afraid.

    恐れることはない。

  • Come here, Green.

    こっちへおいで、グリーン。

  • Hurry up.

    急いでくれ。

  • What are you saying?

    何を言っているんだ?

  • No, it's not time to eat.

    いや、食事の時間じゃない。

  • It's not time to eat.

    食事の時間じゃない。

  • I'll give you a snack in a moment.

    すぐにおやつをあげるよ。

  • Let me finish up real quick.

    では、最後に一言。

  • Come on, Green.

    さあ、グリーン。

  • Hurry up.

    急いでくれ。

  • Stop wasting time.

    時間を無駄にするのはやめよう。

  • This is what we announced to you today.

    これが、本日発表した内容だ。

  • This is Blackwell.

    ブラックウェルだ。

  • This is the platform.

    これがプラットフォームだ。

  • Amazing processors.

    驚くべきプロセッサー

  • NVLink switches.

    NVLinkスイッチ。

  • Networking systems.

    ネットワークシステム。

  • And the system design is a miracle.

    そしてシステムデザインは奇跡的だ。

  • This is Blackwell.

    ブラックウェルだ。

  • And this to me is what a GPU looks like in my mind.

    そして、これが私の中でのGPUの姿だ。

I hope you realize this is not a concert.

これはコンサートではないことを理解してほしい。

字幕と単語
AI 自動生成字幕

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます