Placeholder Image

字幕表 動画を再生する

自動翻訳
  • When do you think the singularity is coming?

    特異点はいつ来るんだ?

  • Uh, Ray, Kurzweil says 2045.

    レイ、カーツワイルは2045年と言っています

  • Uh, I'll stick with that.

    私はそれにこだわるわ

  • He's 26 years.

    彼は26歳です。

  • Yeah, yeah, Yeah, it could be sooner.

    そうそう、そうそう、もっと早いかもしれない。

  • Could be later.

    後になるかもしれない

  • Could be 2030.

    2030年かもしれない

  • Could be 2070.

    2070年かもしれない

  • I don't think it's 20.

    20歳とは思えない。

  • 200.

    200.

  • I don't think it's 2020.

    2020年とは思えない。

  • It won't be 2030.

    2030年にはならないでしょう。

  • It's too soon.

    早すぎます。

  • I don't know, man.

    知らないよ。

  • Okay, I guess when it starts to happen, it happens real fast.

    始まったらすぐに起こるんだな

  • Well, that's sort of the point.

    まあ、そこがポイントですね。

  • If you suppose that as a thought experiment like supposing 2025 Google Deepmind or my own a team in singular eating that an open cog, like supposed by 2025 1 of us manages to creating a I that is essentially as smart as a human being, right?

    あなたは思考実験として、2025年にGoogle Deepmindや私自身のチームが、2025年までに想定されているようなオープンな歯車が、私たちの1人は、本質的に人間と同じくらいスマートである私を作成するために管理していることを食べる単数のチームを仮定するような場合は、右か?

  • So it can hold a conversation like a human being.

    だから、人間のように会話ができる。

  • And it can prove math rooms like human mathematician that can analyse a biology data set.

    そして、それは生物学のデータセットを分析することができる人間の数学者のような数学の部屋を証明することができます。

  • Right.

    そうだな

  • So we go and then they like your robots and you put it in the in the robot body.

    それで私たちが行って、彼らはあなたのロボットを気に入って、あなたはそれをロボットのボディの中に入れます。

  • I mean, that's a separate problem.

    というか、それは別問題です。

  • It could operate money, robot bodies all at once.

    お金を操作したり、ロボットの体を一斉に操作したり。

  • Right?

    だろ?

  • But unlike Sofia right now, it can really understand what it's seeing and what it's doing fully at the level of the human cancers.

    でも今のソフィアと違って、本当に人間の癌のレベルで何を見て何をしているのかを完全に理解することができる。

  • Suppose you get there.

    そこにたどり着いたとしましょう。

  • Like, how far are you from a true singularity?

    真の特異点からどれくらい離れているのか、みたいな?

  • Because this a I can then copy itself.

    この私はそれ自体をコピーすることができます。

  • You make a million of those right of itself.

    その権利を100万にするんだな

  • Yeah.

    そうだな

  • Yeah, right.

    ああ、そうだな。

  • Because you can once as a smart is a human.

    頭の良さは人間として一度はできることだから。

  • Okay, let's teach a computer science.

    よし、コンピュータサイエンスを教えよう。

  • I mean, we can send it to school.

    学校に送ればいいんだよ

  • What can learn?

    何が学べるのか?

  • Not they can learn.

    彼らは学ぶことができません。

  • Programming can learn hardware engineering, and then you can copy a million of those.

    プログラミングはハードウェア工学を学べるし、それを100万個コピーしてもいいよ。

  • Right?

    だろ?

  • So all million of those, maybe half of those were working on improving its own intelligence, but But they're not working in isolation.

    100万人のうちの半分は独自の知性向上に 取り組んでいましたが 単独では取り組んでいません

  • Like humans are taken.

    人間が連れて行かれるように

  • Share thoughts directly because they're all just running in the compute cloud.

    思考を直接共有するのは、全てコンピュートクラウドで動いているだけだからだ。

  • Right?

    だろ?

  • So it seems very plausible.

    だから、それは非常に信憑性が高いと思われます。

  • Within a few years of getting to that human level, I I it's going to invent all manner of amazing new things, and it doesn't mean that will be instantaneous.

    人間のレベルに到達するまでの数年の間に、あらゆる種類の驚くべき新しいものを発明するでしょうが、それがすぐにできるというわけではありません。

  • I mean, doing lab research still takes time.

    研究室での研究には時間がかかる

  • Building new hardware still takes time, but of course, it can be working on how to speed that up, right?

    新しいハードを作るのはまだ時間がかかりますが、もちろんそれをどうやってスピードアップさせるかという作業はできますよね?

  • Like having more fully automate manufacturing in laboratory research.

    研究室の研究で、より完全に自動化されたものづくりができるようになったとか。

  • So yet and then it could take us out of the process as well.

    だから、まだ、そして、それは私たちを同様にプロセスから連れ出すことができます。

  • Possibly it could mean that depends on the value system that the a g I has right?

    可能性としては、a g Iが右に持っている価値観に依存しているということかもしれませんね?

  • And I mean, this is This is why it's important to, you know, give values of kindness, compassion, tolerance, inclusiveness, love for all sentient beings.

    つまり、これが重要な理由です。 優しさ、思いやり、寛容さ、包摂性、すべての衆生への愛などの価値観を与えることが重要なのです。

  • We want to get these positive values into the i ast much as we can, and we think we can program that into a I.

    このようなポジティブな価値観をできる限りIASTに取り入れたいと考えていますし、それをIにプログラムすることもできると考えています。

  • I think you teach it, teach you programming with the ability to learn that, but then wanted on learned that if it doesn't suit it over, that's what we don't know.

    私はあなたがそれを教えると思う、あなたはそれを学ぶ能力を持つプログラミングを教えるが、その後、それはそれ以上のそれに合わない場合は、それは我々が知らないことだということを学んだ上で望んでいた。

  • I mean, it's very subtle because human values air a moving target, right?

    人間の価値観って空気が動く対象だから微妙だよね?

  • Like the values of suburban New Jersey in 1975 when I was in elementary school are not the same as the values in suburban New Jersey in the US right now, But I mean, back then, gay marriage was illegal on Dvir, violently opposed by by almost everybody, right and racism was very rampant.

    私が小学生だった1975年のニュージャージー郊外の価値観と今のアメリカのニュージャージー郊外の価値観は同じではありませんが、当時は同性婚は違法で、ほとんどの人から暴力的に反対されていましたし、人種差別が横行していました。

  • They're so I mean, human values of their evolving all the time by the values of medieval Europe, you and I, and probably almost everyone listening to us deserve to burn in hell for effort, right?

    中世ヨーロッパの価値観で常に進化してきた人間の価値観なんだから、お前も俺も、そしておそらく俺たちの話を聞いているほとんどの人は努力のために地獄で焼かれて当然だよな?

  • Yeah.

    そうだな

  • So I'm in.

    だから、私も参加します。

  • You don't.

    お前には無理だ

  • If you gave the AI exact even values from 2019 then by 2050 it's gonna be horrible.

    2019年からAIに正確な偶数値を与えたら2050年には恐ろしいことになるぞ

  • Would be like having a dictated with the values of 1950 America or something.

    1950年のアメリカか何かの価値観で独裁者がいるようなものだろう。

  • Right?

    だろ?

  • So so you want an AI that we'll have involving values in a way that somehow respects the ongoing evolution of human values and that hopefully, still respects it and doesn't just make its own?

    つまり、人間の価値観の継続的な進化を尊重して、うまくいけば、それを尊重して、自分だけのものにしないような、価値観を持ったAIが欲しいということですか?

  • Yeah, yeah, which is which is very subtle, right?

    そうそう、どっちが微妙なのかな?

  • So some of my friends who are vegans and animal rights activists are like, Well, what if the what if the it treats us the way we treat less intelligent animals?

    菜食主義者や動物愛護活動家の友人たちは、 知能の低い動物と同じように 私たちを扱っていたらどうするのか?

  • And you think of my legal?

    私のリーガルのことを考えてくれているのか?

  • We care about extinction of species, though I mean, not as much as we should, but in general, we don't want the extinct entire species of subhuman animals.

    種の絶滅は気にしています、というほどではありませんが、一般的には人間以下の動物の全種を絶滅させたくはありません。

  • But we don't care much about one cow, sheep, Iger, wolf.

    でも、1頭の牛、羊、アイガー、狼はあまり気にしていません。

  • More or less right.

    多かれ少なかれ正しい。

  • We care about like the genome.

    ゲノムのようなものを気にしています。

  • So if you took that analogy, the AI it would like to keep humans around.

    あなたがその例えを取ったなら AIは人間を維持したいと思うだろう

  • I mean, were the creators were the ancestors.

    つまり、創造主は先祖代々の人たちだったのです。

  • We have our own unique aesthetic value, but by that analogy it may not give a crap about one human more or less any more than we care about one wolf for pig More.

    我々は独自の美的価値を持っていますが、その類推によって、それは我々が豚のための1匹のオオカミを気にするよりも、より多くのまたはより少ない1人の人間についてのたわごとを与えることはないかもしれません もっと。

  • So when we didn't keep the Neanderthals around, no.

    だからネアンデルタール人がいなかった時は、ダメだった。

  • But we weren't as reflectively intelligent then as we are now.

    しかし、当時の私たちは今のように反射的に知的ではありませんでした。

  • And I think that there is an argument that as human cultures advanced more and more toward abundance, away from scarcity, there's more caring about the environment.

    そして、人間の文化が希少性から離れて豊かさに向かって進んでいくと、環境への思いやりが増していくという議論があると思います。

  • There's there's, there's more compassion toward toward non human animals.

    あるある、人間以外の動物への思いやりがある。

  • I mean, there was a lot in, so they age society, and it sort of went down in the industrial Revolution, and now now it's It's certainly going up again.

    つまり、そこには多くのことがありました 彼らの年齢社会では、産業革命の頃には下がっていましたが、今では確実にまた上昇しています。

  • But I guess the point is we are iis not only to be super intelligent, we want them to be super compassionate, like we want them to be more compassionate to us.

    しかし、私が思うに、ポイントは、私たちは超知的であることだけではなく、私たちは彼らが私たちにもっと思いやりを持って欲しいように、彼らに超思いやりを持って欲しいと思っています。

  • Way are to each other because we're killing each other.

    ウェイはお互いに殺し合ってるからな

  • Humans are killing each other for no good reason all the time.

    人間は常に意味もなく殺し合いをしています。

  • So we want them to be morally better than us in it.

    だから、その中で自分たちよりも道徳的に優れていることを求めているのです。

  • In some sense, right?

    ある意味ではね?

  • Well, they are, you know, we're not set.

    まあ、彼らはね、決まってないんだよ。

  • Were not.

    そうではありませんでした。

  • On the whole, we're not setting the best example in terms of the way human society is being regulated right now.

    全体としては、今の人間社会が規制されているという点では、一番のお手本にはなっていません。

  • Nor the way we treat nonhuman life forms on the planet nor the applications that were deploying.

    地球上の人間以外の生命体の扱い方も、展開していたアプリケーションも。

When do you think the singularity is coming?

特異点はいつ来るんだ?

字幕と単語
自動翻訳

動画の操作 ここで「動画」の調整と「字幕」の表示を設定することができます

B1 中級 日本語 価値 思いやり ai ロボット 動物 ニュージャージー

2045年のシンギュラリティ:人間と同じような生活を体験できるロボットをつくる|ベン・ゲーツェル博士 (SINGULARITY IN 2045: Creating Robots That Can Experience Life Like A Human | Dr. Ben Goertzel)

  • 9 1
    林宜悉 に公開 2020 年 09 月 08 日
動画の中の単語