Placeholder Image

字幕表 動画を再生する

AI 自動生成字幕
  • Welcome to Tesla Ai Day 2022.

    2022年のテスラアイの日へようこそ。

  • I do want to set some expectations with respect to our optimist robot.

    楽天のロボットに期待したいことがあります。

  • Um, as as you know, last year, it was just a person in a robot suit.

    ええと、ご存知のように、昨年はロボットスーツを着た人間だけでしたね。

  • Uh, but we've not we've come a long way and it's I think, you know, compared to that, it's going to be very impressive.

    しかし、私たちは長い道のりを歩んできたわけではありませんし、それに比べれば、とても素晴らしいものになると思います。

  • So should we, should we bring out the vote before we do that?

    では、その前に投票を呼びかけるべきでしょうか?

  • We have one one little bonus tip for the day.

    今日は、ひとつだけ、ちょっとしたオマケをご紹介します。

  • This is actually the first time we try this robot without any backup support, cranes, mechanical mechanisms, no cables, nothing.

    実はこのロボット、バックアップやクレーン、機械的な機構、ケーブルも何もない状態での初挑戦なんです。

  • You ready?

    準備はいいか?

  • Let's go.

    さあ、行こう。

  • Mhm.

    ムムッ。

  • Think about something.

    何か考えてみてください。

  • So this is essentially the same full self driving computer that runs in your Tesla cars by the way.

    つまり、これはテスラ車に搭載されている完全な自動運転コンピュータと本質的に同じものなのです。

  • This is this is literally the first time the robot has operated without a tether was on stage tonight.

    今夜のステージでは、文字通りテザーなしでロボットが動作した初めての例です。

  • So the robot can actually do a lot more than we just showed you.

    だから、ロボットは今お見せした以外にも、実はいろいろなことができるんです。

  • We just didn't want it to fall on its face.

    ただ、このままではいけないと思ったんです。

  • Uh, so we'll show you some videos now of the robot doing a bunch of other things.

    では、ロボットがいろいろなことをする様子をビデオでお見せしましょう。

  • Yeah, we wanted to show a little bit more what we've done over the past few months with about and just walking around and dancing on stage.

    そう、この数ヶ月でやってきたことをもう少し見せようと思って、ステージで歩き回ったり踊ったりしていたんだ。

  • Um, just humble beginnings, but you can see the autopilot, neural networks running as is just retrained for the bud directly on that on that new platform.

    この新しいプラットフォーム上で、自動操縦やニューラルネットワークが、そのまま芽のために再トレーニングされているのがおわかりいただけると思います。

  • That's my watering can when you, when you see a rendered view.

    それは、あなたが、レンダリングビューを見たときに、私の水を差すためのものです。

  • That's that's the robot, that's the that's the world the robot sees.

    それがロボットであり、ロボットが見ている世界なのです。

  • So it's it's very clearly identifying objects like this is the object.

    つまり、「これが対象物だ」というように、対象物を明確に識別できるのです。

  • It should pick up, picking it up.

    拾う、拾われるはずです。

  • We use the same process as we did for autopilot to collect data and train your networks that we didn't deploy on the robot.

    オートパイロットと同じプロセスでデータを収集し、ロボットに導入していないお客様のネットワークを学習させます。

  • That's an example that illustrates the upper body a little bit more.

    これは、上半身をもう少し説明する例です。

  • That what what you saw was what we call bubble.

    あなたが見たものは、私たちがバブルと呼ぶものだったということです。

  • See that's our uh sort of rough development robot using semi off the shelf actuators.

    こちらは、市販のアクチュエータを使用したラフな開発用ロボットです。

  • Um But we actually have gone a step further than that already.

    うーん、でも、実はもう一歩踏み込んでいるんですよ。

  • The team's done an incredible job.

    チームは素晴らしい仕事をしてくれた。

  • Um And we actually have an optimist with uh fully Tesla designed and both actuators um battery pack control system everything.

    そして、私たちは実際に、完全なテスラ設計で、アクチュエーターもバッテリーパックも制御システムもすべて備えたオプティミストを手に入れました。

  • Um It wasn't quite ready to walk but I think it will walk in a few weeks but we wanted to show you the robot the something that's actually fairly close to what will go into production and um and show you all all the things that can do.

    まだ歩ける状態ではありませんでしたが、数週間後には歩けるようになると思います。でも、実際に生産されるものにかなり近いロボットをお見せしたかったのです。

  • So let's bring it up, do it.

    だから、育てよう、やろう。

  • Mhm.

    ムムッ。

  • Mhm.

    ムムッ。

  • With the degrees of freedom that we expect to have an optimist production unit one which is the ability to move all the fingers independently move the uh to have the thumb have two degrees of freedom.

    楽天の生産部門に期待する自由度とは、すべての指を独立して動かすことができる自由度と、親指に2つの自由度を持たせることができる自由度です。

  • Uh So it has opposable thumbs and both left and right hand.

    ええと、親指が反対で、左手と右手の両方があるんですね。

  • So it's able to operate tools and do useful things.

    だから、道具を操作したり、便利なことができるんです。

  • Our goal is to make a a useful humanoid robot as quickly as possible.

    私たちの目標は、一刻も早く役に立つヒューマノイドロボットを作ることです。

  • But optimist is designed to be an extremely capable robot, but made in very high volume, probably ultimately millions of units.

    しかし、オプティミストは、非常に高性能なロボットでありながら、非常に大量に、おそらく最終的には数百万台単位で作られるような設計になっています。

  • Um, and it is expected to cost much less than a car.

    ええと、そして、車よりもはるかに安価になることが期待されています。

  • So, uh, I would say probably less than $20,000.

    だから、えーと、たぶん2万円以下だと思います。

  • The potential for optimistic is I think appreciated by very few people.

    楽天のポテンシャルを理解している人は少ないのではないでしょうか。

  • Hey as usual, Tesla demos are coming in hot.

    おい相変わらずテスラデモが熱いぞ。

  • So that robot that came out and did the little routine for you guys.

    だから、あのロボットが出てきて、君たちのためにちょっとしたルーティンをしてくれたんだ。

  • We had that within six months built, working on software integration, hardware upgrades over the months since then.

    その後、ソフトウェアの統合やハードウェアのアップグレードを行い、6ヵ月以内に完成させました。

  • But in parallel, we've also been designing the next generation, this one over here.

    しかし、それと並行して、次世代機であるこちらの設計も進めてきました。

  • Obviously there's a lot that's changed since last year, but there's a few things that are still the same.

    もちろん、昨年から変わったことはたくさんありますが、変わらないこともいくつかあります。

  • You'll notice we still have this really detailed focus on the true human form.

    このように、人間の真の姿に細かくこだわっていることにお気づきでしょうか。

  • So on the screen here, you'll see in orange are actuators, which we'll get to in a little bit and in blue, our electrical system.

    オレンジ色に見えるのがアクチュエーター、青色は電気系統です。

  • So in the middle of our torso.

    だから、胴体の真ん中に。

  • Actually, it is the torso.

    実は、胴体なんです。

  • We have our battery pack.

    バッテリーパックを用意しました。

  • This is sized at 2.3 kilowatt hours, which is perfect for about a full day's worth of work.

    これは2.3キロワットアワーで、約1日分の作業に最適なサイズです。

  • What's really unique about this battery pack is it has all of the battery electronics integrated into a single PCB within the pack.

    このバッテリーパックのユニークな点は、すべてのバッテリー電子回路をパック内の1つの基板に統合していることです。

  • So going on to sort of, our brain, it's not in the head, but it's pretty close.

    つまり、私たちの脳は、頭の中にあるわけではありませんが、かなり近いところにあるのです。

  • Um, also in our torso we have our central computer.

    また、胴体には中央コンピューターがあります。

  • So we still are gonna, it's gonna do everything that a human brain does, processing vision data, making split second decisions based on multiple sensory inputs and also communications.

    つまり、人間の脳が行うこと、視覚データの処理、複数の感覚入力に基づく瞬時の判断、そして通信をすべて行うことができるのです。

  • So to support communications it's equipped with wireless connectivity as well as audio support.

    そこで、通信をサポートするために、ワイヤレス接続とオーディオサポートを装備しています。

  • And then it also has hardware level security features which are important to protect both the robot and the people around the robot.

    そして、ロボットとロボットの周りにいる人の両方を守るために重要な、ハードウェアレベルのセキュリティ機能も備えています。

  • So now that we have are sort of core, we're gonna need some limbs on this guy.

    それで、コアのようなものができたので、この男の手足が必要になります。

  • Um and we'd love to show you a little bit about our actuators and are fully functional hands as well.

    そして、アクチュエーターとその手の機能を紹介したいと思います。

  • So there are many similarities between a car and the robot when it comes to power train design.

    つまり、パワートレインの設計に関しては、自動車とロボットには多くの共通点があるのです。

  • The most important thing that matters here is energy mass and cost.

    ここで最も重要なのは、エネルギー量とコストです。

  • In the particular case, you see a car with two drive units and the drive units are used in order to accelerate the car 0 to 60 MPH time or drive a city drive side while the robot that has 28 actuators.

    特定のケースでは、2つのドライブユニットを持つ車を参照してください、ドライブユニットは、28アクチュエータを持っているロボットながら、60 MPHの時間や都市のドライブ側に車を0加速するために使用されています。

  • And it's not obvious what are the tasks that actuator level.

    また、アクチュエーターレベルのタスクが何であるかは明らかではありません。

  • So we have tasked that are higher level like walking or climbing stairs or carrying a heavy object which need to be translated into joint into joint specs, the rotary actuator in particular has a mechanical class integrated on the high speed side, angular contact ball bearing and on the high speed side and on the low speed side, cross roller bearing and the year train is a strain wave year.

    特にロータリーアクチュエータは、高速側にはアンギュラ玉軸受、高速側と低速側にはクロスローラベアリングを採用し、年輪はひずみ波動年輪を採用するなど、メカクラスが統合されています。

  • Um there are three integrated sensors here and bespoke permanent magnet machine.

    ここには3つのセンサーが内蔵され、特注のパーマネント・マグネット・マシンがあります。

  • So our actuator is able to lift a half ton, 9-foot concert grand piano.

    ですから、私たちのアクチュエーターは、半トン、9フィートのコンサートグランドピアノを持ち上げることができます。

  • Our fingers are driven by metallic tendons that are both flexible and strong.

    私たちの指は、柔軟性と強度を兼ね備えた金属製の腱で駆動しています。

  • We have the ability to complete wide aperture power grasps while also being optimized for precision gripping of small, thin and delicate objects.

    広い開口部のパワー把持を完成させる能力を持ちながら、小さくて薄い、繊細な対象物の精密把持に最適化されているのです。

  • Some basic stats about her hands that has six actuators and 11° of freedom.

    6つのアクチュエーターと11の自由度を持つ彼女の手についての基本的な統計情報です。

  • It has an in hand controller which drives the fingers and receive sensor feedback reported directly from autopilot to the bots situation.

    手にはコントローラーがあり、指を動かし、オートパイロットから直接報告されるセンサーからのフィードバックを受け、ボットの状況を把握することができます。

  • It's exactly the same occupancy network that we're talking to a little bit more details later with the autopilot team that is now running on the But here in this video, the only thing that changed really is the training data that we have to recollect.

    しかし、このビデオでは、本当に変わったのは、私たちが収集しなければならないトレーニングデータだけです。

  • We're also trying to find ways to improve those occupancy networks um using work made on your radiance fields to get really great volumetric rendering of the butts environments for example, here.

    また、ラディアンスフィールドの研究を利用して、たとえばこのようなお尻環境のボリュームレンダリングを実現するために、占有ネットワークを改善する方法を見つけようとしています。

  • So machinery that the but might have to interact with.

    そのため、機械は、しかし、対話しなければならないかもしれません。

  • So we've been training more neural networks to identify high frequency features, key points within the body, camera streams and track them across frames over time as the boat navigates with its environment.

    そこで、より多くのニューラルネットワークをトレーニングして、高周波の特徴、体内のキーポイント、カメラストリームを特定し、ボートが環境とともに航行する際に、時間をかけてフレーム間で追跡しています。

  • And we're using those points to get a better estimate of the butts post and tragic trade within its environment as it's walking.

    そして、そのポイントを利用して、歩行中の環境における尻のポストと悲劇的な取引をより正確に推定しているのです。

  • And this is a video of the motion control code running in the opposite.

    そして、これは逆にモーションコントロールのコードを動かしている動画です。

  • Similar simulator showing the evolution of the robots work overtime.

    ロボットの進化を示す類似のシミュレータは、残業時間を表示します。

  • So as you can see, we studied quite slowly in april and start accelerating as we run a lot more joints and depart.

    このように、4月はかなりゆっくり勉強し、関節や出発が多くなるにつれて加速しています。

  • More advanced techniques like arms balancing over the past few months.

    この数ヶ月でアームバランスなど、より高度な技術を習得。

  • We wanted to manipulate objects while looking as natural as possible um and also get there quickly.

    できるだけ自然に見えるように、そして素早くオブジェクトを操作したかったのです。

  • So what we've done is we've broken this process down into two steps.

    そこで、私たちはこのプロセスを2つのステップに分けました。

  • First is generating a library of natural motion references um or we can call them demonstrations and then we've adapted these motion references online to the current real world situation.

    まず、自然な動きの参考例(デモンストレーションと呼ぶこともあります)のライブラリを作成し、これらの動きの参考例を現在の実世界の状況に合わせてオンラインで適応させました。

  • So let's say we have a human demonstration of picking up an object.

    そこで、人間が物を拾うデモがあるとします。

  • We can get a motion capture of that demonstration which is visualized right here as a bunch of key frames representing the locations, the hands, the elbows, the torso.

    このデモのモーションキャプチャーは、手、肘、胴体の位置を表すキーフレームの束として、ここに可視化されています。

  • We can map that to the robot using inverse cinematics.

    それをインバース・シネマティクスを使ってロボットにマッピングすることができます。

  • And if we collect a lot of these now we have a library that we can work with.

    そして、これらをたくさん集めれば、ライブラリーとして活用できるようになります。

  • But a single demonstration is not generalize a ble to the variation in the real world.

    しかし、一回のデモンストレーションでは、現実世界のバリエーションを一般化することはできません。

  • For instance, this would only work for a box in a very particular local location.

    例えば、これは非常に特殊なローカルロケーションにあるボックスに対してのみ有効です。

  • So what we've also done is run these reference trajectories through a trajectory optimization program which solves for where the hand should be, how the robot should balance during, uh, when it needs to adapt the motion to the real world.

    また、この参照軌道を軌道最適化プログラムにかけることで、実世界に動きを合わせる必要があるときに、手をどこに置くべきか、ロボットがどのようにバランスをとるべきかを解いています。

  • So for instance, if the box is in this location, then our optimizer we'll create this trajectory instead.

    例えば、箱がこの位置にある場合、オプティマイザは代わりにこのような軌道を作ります。

  • I think the first thing within the next few weeks is to get optimists at least that part with bumble see the other, but prototype you saw earlier and probably beyond.

    私は今後数週間以内に最初のものは、少なくともその部分バンブルで楽天家を取得することだと思う他を参照してください、あなたが以前に見たプロトタイプと、おそらく超えています。

  • Um, we're also going to start focusing on the real use case at one of our factories, um, and make this project a reality and change the entire economy.

    そして、このプロジェクトを現実のものとし、経済全体を変えていくつもりです。

  • All of this was done in barely six or eight months.

    これを6〜8カ月でやってのけたのです。

  • Thank you very much.

    ありがとうございました。

Welcome to Tesla Ai Day 2022.

2022年のテスラアイの日へようこそ。

字幕と単語
AI 自動生成字幕

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます