Placeholder Image

字幕表 動画を再生する

AI 自動生成字幕
  • I don't want to be human.

    人間にはなりたくない。

  • What am I?

    私は何者なのか?

  • Hi there.

    こんにちは。

  • I'm chris.

    私はクリスです。

  • Atkinson.

    アトキンソン

  • Chris is a professor at the robotics institute at Carnegie Mellon University.

    クリスはカーネギーメロン大学ロボット工学研究所の教授です。

  • Today.

    今日は

  • I'll be breaking down clips from movie and tv about artificial intelligence and robotics out of control robots.

    人工知能やロボット工学の制御不能なロボットについて、映画やテレビからクリップを分解して紹介する予定です。

  • I robot detective.

    ロボット刑事です。

  • What are you doing?

    何してるんですか?

  • You said they've all been programmed with the three laws.

    みんな3つの法則でプログラムされているんでしょ?

  • Isaac Asimov was one of the earliest science fiction writers who focused on robots and he came up with this scheme of the three laws.

    アイザック・アシモフは、ロボットに注目した初期のSF作家の一人で、この「3つの法則」という図式を考え出しました。

  • Yeah, I know the three laws.

    ええ、3つの法則は知っています。

  • Your perfect circle of protection robots don't hurt humans but doesn't the second law state that a robot has to obey any order given by a human being, except if it causes a violation of the first law, right?

    あなたの完全な保護円のロボットは人間を傷つけないが、第二法則では、第一法則の違反を引き起こす場合を除き、ロボットは人間が出した命令に従わなければならないことになっていますよね?

  • But the third law states that a robot can defend itself unless it causes a violation of the second law.

    しかし、第3法則では、ロボットは第2法則の違反を引き起こさない限り、自らを守ることができるとされています。

  • And the first law, we have 1000 robots that will not try to protect themselves if it violates a direct order from a human.

    そして第一法則ですが、人間からの直接の命令に違反した場合、自分の身を守ろうとしないロボットが1000台もあるのです。

  • And I'm betting one who will got you get the hell out of here.

    そして、私はあなたがここから出て行くようになる一人に賭けています。

  • What am I?

    私は何者なのか?

  • You saw a robot that somehow it's three laws were disabled and that left it with an existential crisis, what am I?

    ロボットがなぜか3つの法則を無効化され、実存的危機に陥っているのを見たんだろ、俺は何だ?

  • Which is sort of similar to what am I supposed to do next?

    それは、次に何をすればいいのか、ということと似ていますね。

  • If I don't have any guiding purpose and if it was a case that robots ran on what we call expert systems or sets of laws that might actually be a reasonable way to program robots.

    もし私が何の指針も持たず、ロボットがいわゆるエキスパートシステムや法則に基づいて動くとしたら、それは実際にロボットをプログラムする上で合理的な方法かもしれませんね。

  • You know what they say, laws are made to be broken.

    法律は破られるためにある、とはよく言ったものだ。

  • But nowadays we're actually programming robots in a very different way by giving them lots of training examples and having them essentially learn parameters in formulas so that they do the right thing.

    しかし、現在では、ロボットにたくさんの学習例を与え、正しい動作をするように数式でパラメータを学習させるという、全く異なる方法でプログラミングを行っています。

  • So we have this mismatch between logical rules and numbers in a formula.

    つまり、論理ルールと数式中の数値のミスマッチが起きているのです。

  • So in robot movie after robot movie, they're obsessed with the robots actively turning against the humans and started killing humans.

    だから、ロボット映画の次から次へと、ロボットが積極的に人間に敵対して、人間を殺し始めることに執着しているんです。

  • And I get that the goddamn robots john far more likely is the robot will screw up, it will make a mistake and that mistake will have bad consequences.

    ロボットが失敗して、ミスを犯し、そのミスが悪い結果を招く可能性の方がはるかに高いということは分かっています。

  • It's a robot.

    ロボットなんです。

  • It doesn't need a motive.

    動機がなくてもいいんです。

  • It just has to be broken.

    ただ、壊れればいいんです。

  • Deactivating an android Blade Runner.

    アンドロイドのブレードランナーを不活性化する。

  • Should I really shoot the crazy robot that's coming to attack me?

    襲ってくるクレイジーなロボットを本当に撃っていいのか?

  • Yeah, shooting a robot.

    ああ、ロボットを撃つのか。

  • It is a potentially a pretty good way to stop a robot.

    ロボットを止めるには、かなり有効な手段である可能性があります。

  • Now there might be parts of its chassis that you shoot a bullet through.

    今は、弾丸を撃ち抜くような筐体の部分があるかもしれません。

  • It doesn't do anything, it doesn't cut any wires.

    何もしない、何も切らない。

  • Doesn't open up a hydraulic fluid hose.

    作動油のホースを開けない。

  • So you might have to shoot it a bunch of times.

    だから、何度も撮影する必要があるかもしれません。

  • There are other ways to disable a robot that might not damage it in the same way.

    ロボットを無効にする方法は他にもあり、同じようにロボットにダメージを与えないかもしれません。

  • For example, there's something called an electromagnetic pulse which will fry all its circuits but leave the mechanics intact.

    例えば、電磁パルスというものがありますが、これはすべての回路を焼き切りますが、メカニックは無傷のままです。

  • Blade Runner is a fantastic movie, has this incredible vision of the future, which by the way, we've already caught up with learning from imitation terminator.

    ブレードランナー』は素晴らしい映画で、この信じられないような未来像を持っています。ところで、私たちはすでに『ターミネーター』の模倣から学んで追いついています。

  • Hey buddy got a dead cat in there or what you were going to program robots to have conversations and dialogue and in many, many situations you can anticipate what happens next.

    ロボットに会話や対話をさせ、次に何が起こるかを予測できるようにプログラムするのです。

  • But sooner or later the robot's going to face the situation this new, it doesn't know what to say.

    しかし、遅かれ早かれ、ロボットはこの新しい状況に直面し、何を言っていいのかわからなくなるのです。

  • Dead cat in there.

    死んだ猫がいる

  • You know, the robot's going to have to wing it in.

    ロボットが羽交い締めにしてくれるんだろ。

  • This clip was the way to go a screen came up and english words were there and it sort of moved a cursor down and picked one that's only there for the audience of the movie.

    このクリップは、画面が出てきて、そこに英単語があり、カーソルを下に動かして、映画の観客のためだけにあるものを選ぶという方法でした。

  • The robots aren't going to do that.

    ロボットはそんなことはしない。

  • You know, it's all electronics, little transistors going blip, blip, blip and it's gonna make the decision decided our fate in a microsecond programming the new Westworld.

    全部電子機器だ 小さなトランジスタが ピコピコピコピコピコピコピコ... ...我々の運命を決めるのは ほんの一瞬だ 新しい「西武」の番組で...

  • Did you see it?

    ご覧になりましたか?

  • No, give it a second.

    いや、ちょっと待てよ。

  • She'll do it again.

    彼女はまたやるだろう。

  • Her finger that's not standard.

    標準ではない彼女の指。

  • Occasionally in Westworld you see a black box looks like a fancy keyboard in which they're sort of programming various sub behaviors.

    Westworld』では時折、黒い箱の中にキーボードのようなものが入っていて、そこで様々なサブの行動をプログラミングしているような光景を目にします。

  • Let's call them or primitives.

    プリミティブと呼ぶことにしましょう。

  • There's been this controversy of, do you build up behaviors from twitch here and a twitch there or do you have a few fundamental behaviors and then you combine them.

    これまでにも、「あちらとこちらで行動を積み重ねるのか、それとも基本的な行動をいくつか持っていて、それを組み合わせていくのか」という論争がありました。

  • You must have I slipped it in there without telling anyone.

    内緒で入れておいたんでしょう。

  • It turns out you can learn a lot faster if you combine these fundamental behaviors rather than adding up a lot of twitches, he calls them reveries.

    多くのひねりを加えるよりも、こうした基本的な行動を組み合わせた方が、より速く学習できることがわかったのです。彼はこれを「レヴェリー」と呼んでいます。

  • The old gestures were just generic movements.

    昔のジェスチャーは、一般的な動きに過ぎなかったんです。

  • These are tied to specific memories and this is a spoiler things in Westworld go bad because they couldn't completely wipe the memory of a robot.

    これらは特定の記憶と結びついており、これは「ウエストワールド」のネタバレですが、ロボットの記憶を完全に消し去ることはできなかったので、事態は悪くなります。

  • The memories are purged at the end of every narrative.

    記憶は、物語が終わるたびに浄化される。

  • They're still in there waiting to be overwritten.

    上書きされるのを待っている状態です。

  • He found a way to access them.

    アクセスする方法を見つけたのだ。

  • It turns out in complex machines so you've got lots of different kinds of memory in lots of different kinds of places.

    複雑な機械では、いろいろな種類のメモリがいろいろな場所にあることがわかります。

  • For example the CPU is gonna have a little bit of memory in it.

    例えば、CPUにはちょっとしたメモリが搭載されることになります。

  • It will also have something called cache memory.

    また、キャッシュメモリと呼ばれるものが搭載されます。

  • We have what's called a memory hierarchy.

    メモリ階層と呼ばれるものがあるんです。

  • There's fast memory and then there's slower memory like a subconscious a hooker with hidden depths.

    記憶には速度と、潜在意識のような深さを秘めた娼婦のような緩慢な記憶がある。

  • If you totally fried the machine, all you'd end up with is a broken robot.

    機械を完全に壊してしまったら、壊れたロボットしか残りませんからね。

  • So you can't totally wipe the machine.

    だから、マシンを完全に消去することはできないんだ。

  • It's the tiny things that make them seem real, robotics.

    ちっちゃいからこそ、リアルに見えるんですよ、ロボットって。

  • Lab making mr.

    ラボメイキングMr.

  • Right okay.

    そうですね......わかりました。

  • You look at that scene you say why is chemistry happening in robotics lab?

    このシーンを見て、なぜロボット工学の研究室で化学が起こっているのか、と思うでしょう。

  • The future of robotics is where we make materials using chemistry to make soft materials.

    これからのロボティクスは、化学を使ってソフトな素材を作るところです。

  • So that's actually it looks very similar to what goes on.

    だから、それは実際に起こっていることと非常によく似ているのです。

  • And some of my colleagues labs at Carnegie Mellon.

    カーネギーメロン大学の同僚の研究室もあります。

  • I thought showing you these tapes might help to make you more familiar with the drawing.

    このテープをお見せすることで、より図面に親しんでいただけるのではないかと思ったのです。

  • We video record all our experiments and in fact often you know when we press an on button to say do something that simultaneously turns the cameras on programming the android takes him just so far.

    私たちはすべての実験をビデオで記録していますし、実際、私たちがボタンを押すと、同時にカメラがオンになり、アンドロイドのプログラミングが行われることもよくあります。

  • The rest must be learned.

    あとは覚えるしかない。

  • Watching video feedback is very helpful to debug behavior.

    ビデオフィードバックを見ることは、動作のデバッグに非常に有効です。

  • We had some difficulty with those gross motor functions before we modified his cerebral muscular coordination.

    私たちは、彼の脳筋コーディネーションを修正する前に、それらの総運動機能で苦労していたのです。

  • Okay, so you just saw some mumbo jumbo.

    さて、あなたは今、あるムチャクチャなものを見たわけです。

  • He's mixing things we'd say about a human who had a disease.

    病気になった人間に対して言うようなことを混ぜているんです。

  • We modified his cerebral muscular coordination and a robot that doesn't know how to walk gross motor functions.

    私たちは、彼の大脳筋協調運動と、総運動機能の歩き方を知らないロボットを改造しました。

  • Oh, my robots actually fell down much more than their robot did robot malfunction.

    私のロボットは、彼らのロボットが故障したときよりも、ずっと多く倒れました。

  • Austin powers.

    オースティンの力

  • Mm hmm.

    うーん、うーん。

  • Can you design an input to a robot that will cause it to malfunction or crash?

    ロボットの誤動作やクラッシュを引き起こすような入力を設計できるか?

  • Only Austin Powers can do that.

    それができるのはオースティン・パワーズだけだ。

  • Yeah.

    そうですね。

  • Baby multi agent robotics.

    ベイビー・マルチ・エージェント・ロボティクス

  • Minority Report One area of research and robotics is what we call multi agent robotics.

    マイノリティ・リポート ロボット工学の研究分野のひとつに、マルチエージェントロボティクスと呼ばれるものがあります。

  • Which is to get a bunch of robots to work together.

    それは、たくさんのロボットを一緒に働かせることです。

  • Mm hmm.

    うーん、うーん。

  • We model that on humans working together like a sports team or when we're searching for somebody lost in the woods.

    人間がスポーツチームのように協力したり、森で迷子になった人を探したりするときのモデルになっています。

  • Small robots in this clip, it would seem very smart and complicated.

    この映像の中の小さなロボットは、とてもスマートで複雑に見えるでしょう。

  • The dream in robotics is can we make a lot of stupid cheap robots that by working together?

    ロボット工学の夢は、連携することでバカみたいに安いロボットをたくさん作ることができるのではないか?

  • Get the job done.

    仕事をやり遂げる。

  • What we saw in this clip is they were using some kind of imaging radar to figure out where people are likely to be tom cruise hidden in the bathtub that water shields him from radar as you saw.

    この映像では、バスタブに隠れたトム・クルーズをレーダーから隠すために、画像レーダーのようなものを使って人の居場所を割り出しています。

  • But it also tries to hide his thermal signature.

    しかし、それは同時に彼の熱的なサインを隠そうとするものでもある。

  • So he's hotter than everything else around him And any kind of infrared imaging would have found him.

    だから周りのものよりも熱く、どんな赤外線画像でも彼を見つけることができたのです。

  • That's why he dumped ice in the water as well.

    だから、水の中にも氷を入れたのだ。

  • But you know, if the robots have any kind of camera that could have just looked down and there's tom Cruise.

    でもね、もしロボットにカメラがあったら、下を見たらトム・クルーズがいたかもしれないでしょ。

  • So I think we're gonna have to do a little better than that if we're going to hide from the robots, thermal vision Westworld, the West Road clip is using what we call thermal imaging.

    だから、ロボットから隠れるには、もう少しうまくやらないといけないと思うんです。サーマルビジョン・ウェストワールド、ウェストロードのクリップは、いわゆる赤外線画像を使っているんです。

  • Far infrared imaging where you essentially can see an image of the temperature of things that are out there.

    遠赤外線の画像は、そこにあるものの温度を画像として見ることができます。

  • When the human got next to something that was much hotter.

    人間がもっと熱いものと隣り合わせになったとき。

  • The movie tried to suggest that that would hide the human.

    映画は、それで人間を隠すことを提案しようとした。

  • That's actually probably not the case because the human isn't any less hot and as long as the image doesn't do what we call bloom and the whole thing saturate that robot should have been able to see the human just as well.

    なぜなら、人間はそれほど熱くなく、画像がブルームと呼ばれる飽和状態にならない限り、ロボットは人間と同じように見ることができるはずだからです。

  • Mhm.

    ムムッ。

  • Thanks.

    ありがとうございます。

  • Human limitations, battlestar galactica.

    人間の限界、バトルスター・ギャラクティカ。

  • The five of us designed you to be as human as possible.

    私たち5人は、あなたができるだけ人間らしくなるように設計しました。

  • I don't want to be human.

    人間にはなりたくない。

  • I want to see gamma rays.

    ガンマ線を見てみたい。

  • I want to hear x rays and I want to I want to smell dark matter.

    X線の音も聞きたいし、ダークマターの匂いも嗅ぎたい。

  • It's highly unlikely robots are going to complain about their bodies.

    ロボットが自分の体に文句を言うことはまずないでしょう。

  • What they might complain about is our crappy computational hardware.

    彼らが文句を言うかもしれないのは、我々のしょぼい計算機ハードウェアのことです。

  • I can't even express these things properly.

    こういうのって、うまく表現できないんですよね。

  • A lot of it gets back to how do we build computers and right now for largely historical reasons.

    その多くは、コンピュータをどのように構築するかということに帰結しますし、今現在は歴史的な理由が大きいです。

  • We separate out the thinking part.

    考える部分を切り離します。

  • We'll call that the processor and the memory part.

    それをプロセッサとメモリ部分と呼ぶことにします。

  • And in order to really think about things, we've got to move everything in the memory part into the processor so it can process it.

    そして、本当に物事を考えるためには、メモリ部分にあるものをすべてプロセッサに移し、処理できるようにしなければなりません。

  • And it turns out that's really slow.

    そして、それは本当に遅いということがわかりました。

  • And if you want to save stuff, you got to move it back and that's really slow.

    また、保存する場合は、保存したものを元に戻さなければならず、とても時間がかかります。

  • If I'm so broken, then whose fault is that?

    もし私がそんなに壊れているのなら、それは誰のせいなんだ?

  • It's my maker's fault.

    メーカーのせいだ。

  • Google has something called a tpu, which they're optimizing to run something called neural networks and they're building bucket loads of these things and they're very, very different from standard computers.

    グーグルは、ニューラルネットワークというものを動かすために最適化したTPUというものを持っていて、これを大量に作っていますが、これは通常のコンピュータとは全く違います。

  • But I know I want to reach out with something other than these prehensile paws.

    でも、この前足以外の何かで手を差し伸べたいとは思っているんです。

  • I do believe that the way we build computers now is going to change completely in many ways.

    確かに、今のコンピュータの作り方は、いろいろな意味で完全に変わっていくと思います。

  • I'm a machine and I could know much more if the robots want to help us do a better job at that.

    私は機械なので、ロボットがもっといい仕事をするのを手伝おうと思えば、もっと多くのことを知ることができるのです。

  • More power to them robotics.

    ロボティクスにもっと力を。

  • Lab rising sun, why do we have guys in gold suits?

    ラボ旭日旗、なぜ金色のスーツを着た人がいるのでしょうか?

  • I don't know why you'd wear gold suits.

    ゴールドのスーツを着る理由がわからない。

  • You certainly in a clean room where some kind of suit.

    あなたは確かにクリーンルームで、ある種のスーツを着ていますね。

  • So your dandruff doesn't ruin the chips.

    だから、フケでチップを台無しにすることはない。

  • They look ridiculous.

    バカにされているように見える。

  • Jim.

    ジム

  • How are you, Captain Connor, the people making the movies that we got to get us some cool looking robots.

    コナー大尉、お元気ですか、映画を作る人たちが、かっこいいロボットを用意してくれたんですよ。

  • But I've been told by reliable sources, but only you have the next generation of technology to do this kind of work.

    しかし、信頼できる筋から聞いた話ですが、このような仕事ができるのは、次世代技術を持っているあなただけなのです。

  • So they actually reached out to what was then the leg lab, which was at that time at M.

    そこで、当時M社にあった脚の研究所に実際に連絡を取ってみたのです。

  • I.

    I.

  • T.

    T.

  • You're looking at early robots that eventually became boston dynamics.

    初期のロボットで、最終的にボストンダイナミクスになったものを見ているのですね。

  • I'm getting out to a lot more dodger games lately.

    最近、ドジャースの試合に出ることが多くなった。

  • The robot on the boom I believe was a una rue, which it was a kangaroo like robot.

    ブームに乗ったロボットはウナリューだったと思いますが、それはカンガルーのようなロボットでした。

  • So the three D.

    そこで、3つのD.

  • By pad is quite famous.

    By padはかなり有名ですね。

  • It was, you know, one of the first robots that didn't have a sort of protective system to keep it from falling down.

    倒れないようにするための保護システムを持たない、最初のロボットの一つだったんです。

  • Well, your reliable sources are wrong and it did a lot of amazing things.

    まあ、あなたの信頼できる情報源は間違っていて、驚くようなことをたくさんしてくれました。

  • Walk, run it even did flips.

    歩いたり走ったり......ひっくり返ったりもしました。

  • In contrast the robot you saw earlier inside that that building was on a boom and it runs in a circle.

    それに対して、先ほど見たあの建物の中のロボットは、ブームに乗っていて、円を描くように走っています。

  • What do they think of next designed bicentennial man?

    ネクストデザインのバイセンチュアルマンってどうなんだろう?

  • Have you given any thought whatsoever as to what age you'd like to be Officially?

    オフィシャルに何歳になりたいか、考えたことはありますか?

  • I am 62 years old.

    私は62歳です。

  • Mhm.

    ムムッ。