Placeholder Image

字幕表 動画を再生する

AI 自動生成字幕
  • Let's go talk about robotics, shall we?

    ロボット工学の話をしようじゃないか。

  • Let's talk about robots.

    ロボットについて話そう。

  • Well, the time has come, the time has come for robots.

    ロボットの時代が来たのだ。

  • Robots have the benefit of being able to interact with the physical world and do things that otherwise digital information cannot.

    ロボットには、物理的な世界と相互作用し、デジタル情報ではできないことができるという利点がある。

  • We know very clearly that the world has severe shortage of human laborers, human workers.

    私たちは、世界が深刻な人手不足に陥っていることをはっきりと知っている。

  • By the end of this decade, the world is going to be at least 50 million workers short.

    この10年の終わりまでに、世界では少なくとも5,000万人の労働者が不足することになる。

  • We'd be more than delighted to pay them each $50,000 to come to work.

    一人当たり5万ドルを支払って出勤してもらえたら、これほど嬉しいことはない。

  • We're probably gonna have to pay robots $50,000 a year to come to work, and so this is going to be a very, very large industry.

    おそらく、ロボットに年間5万ドルを支払って働きに来てもらわなければならなくなるだろう。

  • There are all kinds of robotic systems.

    あらゆる種類のロボットシステムがある。

  • Your infrastructure would be robotic.

    インフラはロボット化されるだろう。

  • Billions of cameras in warehouses and factories, 10, 20 million factories around the world.

    倉庫や工場にある数十億台のカメラ、世界中にある1千万台、2千万台の工場。

  • Every car is already a robot, as I mentioned earlier, and then now we're building general robots.

    先ほど申し上げたように、すべての自動車はすでにロボットであり、今は一般的なロボットを作っている。

  • Let me show you how we're doing that.

    その方法をお見せしよう。

  • Everything that moves will be autonomous.

    動くものはすべて自律する。

  • Physical AI will embody robots of every kind in every industry.

    物理的AIは、あらゆる産業のあらゆる種類のロボットを具現化する。

  • Three computers built by NVIDIA enable a continuous loop of robot AI simulation, training, testing, and real-world experience.

    エヌビディアが構築した3台のコンピュータは、ロボットAIのシミュレーション、トレーニング、テスト、実世界での体験の連続的なループを可能にします。

  • Training robots requires huge volumes of data.

    ロボットのトレーニングには膨大なデータが必要だ。

  • Internet-scale data provides common sense and reasoning, but robots need action and control data, which is expensive to capture.

    インターネット・スケールのデータは常識と推論を提供するが、ロボットは行動と制御のデータを必要とする。

  • With blueprints built on NVIDIA Omniverse and Cosmos, developers can generate massive amounts of diverse synthetic data for training robot policies.

    NVIDIA OmniverseとCosmos上に構築されたブループリントにより、開発者はロボットポリシーのトレーニングのために大量の多様な合成データを生成することができます。

  • First, in Omniverse, developers aggregate real-world sensor or demonstration data according to their different domains, robots, and tasks, then use Omniverse to condition Cosmos, multiplying the original captures into large volumes of photoreal diverse data.

    まずOmniverseで、開発者は実世界のセンサーやデモのデータをそれぞれのドメイン、ロボット、タスクに応じて集約し、Omniverseを使ってCosmosのコンディションを整え、オリジナルのキャプチャを大量のフォトリアルで多様なデータに増殖させる。

  • Developers use Isaac Lab to post-train the robot policies with the augmented dataset, and let the robots learn new skills by cloning behaviors through imitation learning, or through trial and error with reinforcement learning AI feedback.

    開発者はアイザック・ラボを使い、拡張されたデータセットを使ってロボットのポリシーを後教育し、模倣学習による行動のクローニングや、強化学習AIフィードバックによる試行錯誤によって、ロボットに新しいスキルを学ばせる。

  • Practicing in a lab is different than the real world.

    研究室での練習は実社会とは異なる。

  • New policies need to be field-tested.

    新しい政策は実地検証が必要だ。

  • Developers use Omniverse for software and hardware-in-the-loop testing, simulating the policies in a digital twin with real-world environmental dynamics, with domain randomization, physics feedback, and high-fidelity sensor simulation.

    開発者はオムニバースをソフトウェアとハードウェアのイン・ザ・ループ・テストに使用し、実環境のダイナミクスを持つデジタル・ツインで、領域のランダム化、物理フィードバック、高忠実度のセンサー・シミュレーションを行い、ポリシーをシミュレートする。

  • Real-world operations require multiple robots to work together.

    実世界での作業では、複数のロボットが協力して作業する必要がある。

  • Mega, an Omniverse blueprint, lets developers test fleets of post-train policies at scale.

    オムニバースの設計図であるメガは、開発者が大規模で列車後の政策の艦隊をテストすることができます。

  • Here, Foxconn tests heterogeneous robots in a virtual NVIDIA Blackwell production facility.

    ここでは、Foxconnが仮想のNVIDIA Blackwell生産施設で異種ロボットをテストしています。

  • As the robot brains execute their missions, they perceive the results of their actions through sensor simulation, then plan their next action.

    ロボット頭脳はミッションを実行する際、センサー・シミュレーションを通じて行動の結果を認識し、次の行動を計画する。

  • Mega lets developers test many robot policies, enabling the robots to work as a system, whether for spatial reasoning, navigation, mobility, or dexterity.

    Megaによって、開発者は多くのロボット・ポリシーをテストすることができ、空間的推論、ナビゲーション、移動、器用さなど、ロボットをシステムとして機能させることができる。

  • Amazing things are born in simulation.

    驚くべきことはシミュレーションの中で生まれる。

  • Today, we're introducing NVIDIA iZake Groot N1.

    本日は、NVIDIA iZake Groot N1をご紹介します。

  • Groot N1 is a generalist foundation model for humanoid robots.

    グルートN1は、ヒューマノイドロボットのためのジェネラリスト基礎モデルである。

  • It's built on the foundations of synthetic data generation and learning in simulation.

    合成データ生成とシミュレーション学習の基礎の上に構築されている。

  • Groot N1 features a dual-system architecture for thinking fast and slow, inspired by principles of human cognitive processing.

    グルートN1は、人間の認知処理の原理から着想を得た、速く考えたり遅く考えたりするためのデュアル・システム・アーキテクチャを備えている。

  • The slow thinking system lets the robot perceive and reason about its environment and instructions and plan the right actions to take.

    スローシンキング・システムは、ロボットに環境と指示を認識させ、推論させ、取るべき正しい行動を計画させる。

  • The fast thinking system translates the plan into precise and continuous robot actions.

    高速思考システムは、計画を正確かつ継続的なロボットの行動に変換する。

  • Groot N1's generalization lets robots manipulate common objects with ease and execute multi-step sequences collaboratively.

    グルートN1の汎化により、ロボットは一般的な物体を簡単に操作し、多段階のシーケンスを共同で実行することができる。

  • And with this entire pipeline of synthetic data generation and robot learning, humanoid robot developers can post-train Groot N1 across multiple embodiments and tasks across many environments.

    そして、この合成データ生成とロボット学習のパイプライン全体によって、ヒューマノイド・ロボットの開発者は、多くの環境における複数の実施形態とタスクにわたって、グルートN1を事後訓練することができる。

  • Around the world, in every industry, developers are using NVIDIA's three computers to build the next generation of embodied AI.

    世界中のあらゆる産業で、開発者たちがNVIDIAの3台のコンピュータを使って、次世代の具現化AIを構築しています。

  • Physical AI and robotics are moving so fast.

    物理的なAIとロボット工学の進歩はとても速い。

  • Everybody pay attention to this space.

    皆さん、このスペースに注目してください。

  • This could very well be the world's first and very well likely be the largest industry of all.

    これは世界初の、そしておそらく世界最大の産業となるだろう。

  • At its core, we have the same challenges.

    その核心は、私たちも同じ課題を抱えているということだ。

  • As I mentioned before, there are three that we focus on.

    前にも述べたように、私たちが重視しているのは3つある。

  • They are rather systematic.

    むしろシステマティックだ。

  • One, how do you solve the data problem?

    ひとつは、データの問題をどう解決するかだ。

  • How, where do you create the data necessary to train the AI?

    AIを訓練するために必要なデータをどこでどのように作成するのか?

  • Two, what's the model architecture?

    2つ目は、モデル・アーキテクチャについてだ。

  • And then three, what's the scaling loss?

    そして3つ目、スケーリングロスは?

  • How can we scale either the data, the compute, or both so that we can make AIs smarter and smarter and smarter?

    データ、コンピュート、あるいはその両方をどのように拡張すれば、AIをより賢く、より賢く、より賢くすることができるのでしょうか?

  • How do we scale?

    どうやって規模を拡大するのか?

  • And those two, those fundamental problems exist in robotics as well.

    そして、この2つの根本的な問題はロボット工学にも存在する。

  • In robotics, we created a system called Omniverse.

    ロボット工学では、オムニバースというシステムを作った。

  • It's our operating system for physical AIs.

    物理的なAIのためのオペレーティング・システムだ。

  • You've heard me talk about Omniverse for a long time.

    私がオムニバースについて話しているのを、長い間聞いてきただろう。

  • We added two technologies to it.

    私たちはそこに2つの技術を加えた。

  • Today, I'm gonna show you two things.

    今日は2つのことをお見せしよう。

  • One of them is so that we could scale AI with generative capabilities and generative model that understand the physical world.

    そのひとつは、物理世界を理解する生成能力と生成モデルを備えたAIを拡張するためだ。

  • We call it Cosmos.

    私たちはそれをコスモスと呼んでいる。

  • Using Omniverse to condition Cosmos and using Cosmos to generate an infinite number of environments allows us to create data that is grounded, grounded, controlled by us, and yet be systematically infinite at the same time.

    オムニバースを用いてコスモスを整え、コスモスを用いて無限の環境を生成することで、私たちは地に足をつけ、地に足をつけ、私たちによってコントロールされ、しかも同時に体系的に無限であるデータを作り出すことができる。

  • Okay, so you see Omniverse, we used candy colors to give you an example of us controlling the robot in the scenario perfectly, and yet Cosmos can create all these virtual environments.

    さて、オムニバースをご覧になって、私たちがシナリオの中でロボットを完璧にコントロールする例をキャンディカラーを使って説明しましたが、コスモスはこのようなバーチャルな環境をすべて作り出すことができるのです。

  • The second thing, just as we were talking about earlier, one of the incredible scaling capabilities of language models today is reinforcement learning, verifiable rewards.

    もうひとつは、先ほど話したように、今日の言語モデルの驚くべきスケーリング能力のひとつは、強化学習であり、検証可能な報酬である。

  • The question is what's the verifiable rewards in robotics?

    問題は、ロボット工学における検証可能な報酬は何かということだ。

  • And as we know very well, it's the laws of physics.

    そして私たちがよく知っているように、それが物理法則なのだ。

  • Verifiable physics rewards.

    検証可能な物理学的報酬。

  • And so we need an incredible physics engine.

    だから、すごい物理エンジンが必要なんだ。

  • Well, most physics engines have been designed for a variety of reasons.

    ほとんどの物理エンジンは、さまざまな理由から設計されている。

  • They can be designed because we want to use it for large machineries, or maybe we design it for virtual worlds, video games and such, but we need a physics engine that is designed for very fine-grained, rigid and soft bodies, designed for being able to train tactile feedback and fine motor skills and actuator controls.

    大型機械に使いたいから設計することもできるし、仮想世界やビデオゲームなどのために設計することもある。しかし、非常にきめ細かく、剛体や軟体用に設計され、触覚フィードバックや微細な運動技能、アクチュエータ制御を訓練できるように設計された物理エンジンが必要なのだ。

  • We need it to be GPU accelerated so that these virtual worlds could live in super linear time, super real time, and train these AI models incredibly fast.

    このような仮想世界を超リニアな時間、超リアルタイムで実現し、AIモデルを驚異的な速さで訓練するためには、GPUアクセラレーションが必要なのだ。

  • And we need it to be integrated harmoniously into a framework that is used by roboticists all over the world, Mojoco.

    そして、世界中のロボット工学者が使用しているモジョコというフレームワークに調和して統合される必要がある。

  • And so today we're announcing something really, really special.

    そして今日、私たちは本当に、本当に特別なことを発表する。

  • It is a partnership of three companies, DeepMind, Disney Research, and NVIDIA, and we call it Newton.

    ディープマインド、ディズニー・リサーチ、エヌビディアの3社によるパートナーシップで、私たちはこれをニュートンと呼んでいる。

  • Let's take a look at Newton.

    ニュートンを見てみよう。

  • Tell me that wasn't amazing.

    あれは素晴らしくないと言ってくれ。

  • Hey, Blue.

    ヘイ、ブルー。

  • How are you doing?

    お元気ですか?

  • How do you like your new physics engine?

    新しい物理エンジンはいかがですか?

  • You like it, huh?

    気に入ったかい?

  • Yeah, I bet.

    ああ、そうだろうね。

  • I know.

    分かっている。

  • Tactile feedback, rigid body, soft body, simulation, super real time.

    触覚フィードバック、剛体、軟体、シミュレーション、超リアルタイム。

  • Can you imagine just now what you were looking at as complete real-time simulation?

    今見ていたものが、完全なリアルタイムのシミュレーションだと想像できるだろうか?

  • This is how we're gonna train robots in the future.

    これが将来、私たちがロボットを訓練する方法だ。

  • Just so you know, Blue has two computers, two NVIDIA computers inside.

    ご存知のように、ブルーには2台のコンピューターがあり、その中には2台のエヌビディアのコンピューターがあります。

  • Look how smart you are.

    君は賢いね。

  • Yes, you're smart.

    そう、あなたは賢い。

  • Okay.

    オーケー。

  • All right.

    分かった。

  • Hey, Blue, listen.

    おい、ブルー、聞いてくれ。

  • How about let's take them home?

    家に持ち帰るのはどうだ?

  • Let's finish this keynote.

    この基調講演を終えよう。

  • It's lunchtime.

    ランチタイムだ。

  • Are you ready?

    準備はできているか?

  • Let's finish it up.

    終わりにしよう。

  • We have another announcement.

    もうひとつ発表がある。

  • You're good, you're good.

    君はいい、君はいい。

  • Just stand right here.

    ここに立っていてくれ。

  • Stand right here.

    ここに立って。

  • Stand right here.

    ここに立って。

  • All right, good.

    よし、いいぞ。

  • Right there.

    あそこだ。

  • That's good.

    それはいいことだ。

  • All right, stand.

    よし、立って。

  • Okay.

    オーケー。

  • We have another amazing news.

    もうひとつ驚くべきニュースがある。

  • I told you the progress of our robotics has been making enormous progress.

    ロボット工学の進歩は目覚ましいと申し上げた。

  • And today we're announcing that Group N1 is open sourced.

    そして今日、我々はグループN1がオープンソースであることを発表する。

  • Group N1 is open sourced.

    グループN1はオープンソースだ。

  • Did you see that?

    今の見た?

  • Were you surprised?

    驚きましたか?

  • The first thing that came to my mind was is Tesla dead?

    最初に頭に浮かんだのは、テスラは死んだのか?

  • We all know that Ultima is coming out.

    ウルティマが出ることはみんな知っている。

  • Have you seen that robot?

    あのロボット見たことある?

  • It's great.

    素晴らしいよ。

  • We all know that Tesla is not an electric car company.

    テスラが電気自動車の会社でないことは周知の通りだ。

  • Tesla is a robot company.

    テスラはロボット企業だ。

  • But as soon as Group N1 is open sourced, the first thing that comes to mind is is Tesla poor?

    しかし、グループN1がオープンソースになったとたん、真っ先に思い浮かぶのはテスラは貧乏なのか?

  • First of all, I have to say my own point of view.

    まず最初に、私自身の見解を言っておかなければならない。

  • NVIDIA is bound to be open sourced.

    エヌビディアはオープンソースになるに違いない。

  • NVIDIA is the brain of the robot.

    エヌビディアはロボットの頭脳である。

  • It doesn't do the body.

    ボディには効かない。

  • And a lot of people who do the body can't have a brain.

    そして、ボディをやっている人の多くは、脳を持つことができない。

  • So today he put this robot's brain model after being open sourced, what does that mean?

    今日、彼はこのロボットの脳モデルをオープンソースにしたわけだが、それはどういう意味なのか?

  • All these manufacturers that do the body or new companies new companies may be able to do it.

    ボディを手がけるこれらのメーカーや、新しい会社ならできるかもしれない。

  • He can also be a robot.

    彼はロボットにもなれる。

  • He can also be a robot.

    彼はロボットにもなれる。

  • It must rely on NVIDIA's open source.

    エヌビディアのオープンソースに頼らざるを得ない。

  • It means that NVIDIA can get the data that everyone does the experiment with him.

    つまり、エヌビディアは、誰もが彼と一緒に実験したデータを得ることができるということだ。

  • This is a terrible thing.

    これはひどいことだ。

  • Will Tesla be finished?

    テスラは終わるのか?

  • We talked about the development of Ultima I have finished talking about it.

    ウルティマの開発については、もう話し終えた。

  • In the last episode, I just mentioned this ISA Group N1.

    前回のエピソードで、このISAグループN1について触れたばかりだ。

  • After this open source comes out, there will be more competitors for Tesla.

    このオープンソースが登場すれば、テスラにとってライバルが増えることになる。

  • Manufacturers such as Huawei, Xiaomi, etc.

    ファーウェイ、シャオミなどのメーカー。

  • Ubisoft and Boston Power, etc.

    ユービーアイソフト、ボストン・パワーなど。

  • These manufacturers will use it to compete with Tesla.

    これらのメーカーは、テスラに対抗するためにこれを利用するだろう。

  • Tesla's stock price is very low.

    テスラの株価は非常に低い。

  • Although NVIDIA's stock price is very low, it has not broken the front foot of March.

    エヌビディアの株価は非常に低いが、3月の前足は崩れていない。

  • In other words, on this seal, the market is very unsatisfied with Tesla.

    つまり、このシールでは、市場はテスラに非常に満足していない。

  • It's not wrong at the moment.

    今のところ間違ってはいない。

  • But in the long run, I don't think Tesla must be so cruel.

    しかし、長い目で見れば、テスラがそれほど残酷である必要はないと思う。

  • Tesla's FSD has real world data.

    テスラのFSDには現実世界のデータがある。

  • NVIDIA is not running on the road.

    エヌビディアは道路を走っていない。

  • What he collects is virtual world data.

    彼が集めているのは仮想世界のデータだ。

  • It is a collaboration between the platform and Cosmos of ONUVERSE.

    プラットフォームとオヌバーゼのコスモスとのコラボレーションである。

  • So these two things are completely different.

    つまり、この2つはまったく違うものなのだ。

  • Who is good and who is bad?

    誰が善で誰が悪なのか?

  • I don't think I know now.

    今は分からないと思う。

  • I think open source can think of the Android system and Apple back then.

    オープンソースは、当時のアンドロイドシステムやアップルを思い浮かべることができると思う。

  • I said a long time ago that I think Tesla is like Apple.

    私はずいぶん前に、テスラはアップルのようなものだと思うと言った。

  • The open source system must be able to kill the closed system.

    オープンソースシステムはクローズドシステムを殺すことができなければならない。

  • It doesn't have to depend on the supporters of the closed system and the projects he wants to develop now.

    クローズドシステムの支持者や、彼が今開発したいプロジェクトに依存する必要はない。

  • So to a certain extent, Tesla still has an advantage.

    だから、ある程度はテスラがまだ優位に立っている。

  • But for the project of robot sales, Tesla really needs to pay attention.

    しかし、ロボット販売のプロジェクトでは、テスラは本当に注意を払う必要がある。

  • Especially now the innovation is very, very fast.

    特に今、技術革新のスピードは非常に速い。

  • I'm not sure how Tesla will deal with it.

    テスラがどう対処するかはわからない。

  • Deepsea was just starting to open up.

    ディープシーは開き始めたばかりだった。

  • In two months, the future pure competitors and partners have often come out.

    2ヶ月の間に、将来の純粋な競争相手やパートナーが出てくることが多い。

  • The changes will be very fast in two months.

    2カ月もあれば、変化は非常に速くなる。

  • We just have to remember one thing.

    ただひとつ覚えておかなければならないことがある。

  • Taiwan's supply chain will definitely be damaged.

    台湾のサプライチェーンは間違いなくダメージを受ける。

  • The US traditional supply chain will also be damaged.

    米国の伝統的なサプライチェーンもダメージを受けるだろう。

  • Tesla's part is uncertain.

    テスラの部分は不透明だ。

  • I temporarily think NVIDIA's FSD is still very good.

    私は一時的に、NVIDIAのFSDはまだ非常に優れていると思う。

  • This is what I will share with you after watching the GDC class.

    これが、GDCのクラスを見た後に皆さんにお伝えしたいことです。

  • I don't know what you saw.

    あなたが何を見たのかは知らない。

  • Also welcome to discuss with me.

    また、私との議論も歓迎する。

  • If you are interested in the topic of this robot series, welcome to join the member channel.

    このロボットシリーズのトピックに興味がある方は、ぜひメンバーチャンネルにご参加ください。

  • My link is at the bottom.

    私のリンクは一番下にある。

  • We will track the latest developments regularly to catch up with the companies that are really worth buying this time.

    我々は定期的に最新動向を追跡し、今回本当に買う価値のある企業をキャッチアップしていく。

  • I am JG.

    私はJGだ。

Let's go talk about robotics, shall we?

ロボット工学の話をしようじゃないか。

字幕と単語
AI 自動生成字幕

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます

B1 中級 日本語

中英字幕】NVIDIA GTC 2025發表機器人12分鐘全精華!黃仁勳 基調講演 點名的下一個大市場 (【中英字幕】NVIDIA GTC 2025發表機器人12分鐘全精華!黃仁勳 Keynote 點名的下一個大市場)

  • 17 0
    翔 に公開 2025 年 03 月 21 日
動画の中の単語