Placeholder Image

字幕表 動画を再生する

自動翻訳
  • positive outcomes.

    肯定的な結果をもたらします。

  • But there are certainly some risks.

    しかし、確かにいくつかのリスクがあります。

  • Certainly, we've heard from folks like you on on Nick Boast Room, concerned about a eyes potential outpaced our ability to understand it.

    確かに、私たちはあなたのような人々から聞いたことがありますニックBoastルームで、目の可能性を心配して、それを理解するために私たちの能力を上回った。

  • What about those concerns?

    それらの懸念はどうなのか?

  • And how do we think about that move for to protect not only ourselves but humanity at scale.

    そして、自分たちだけでなく、人類を守るために、その動きをどのように考えるのか。

  • So let me start with what I think is the more immediate concern.

    そこで、私が最も身近な問題だと思うことから始めようと思います。

  • That's a solvable problem, but we have to be mindful of it.

    それは解決可能な問題ですが、心掛けなければなりません。

  • And that is this category of specialized ai.

    そして、それがこの特化型AIというカテゴリーです。

  • If you've got a computer that can play, go is pretty complicated game with a lot of variations.

    あなたがプレイできるコンピュータを持っている場合は、碁はかなり複雑なゲームで、多くのバリエーションを持っています。

  • Developing an algorithm that simply says maximize profits on the New York Stock Exchange is probably within sight.

    単純にニューヨーク証券取引所の利益を最大化すると言うアルゴリズムを開発することは、おそらく目の前にあります。

  • And if one person or one organization got there first, they could bring down the stock market pretty quickly.

    そして、一人か一組織が先にそこに着いた場合、彼らはかなり速く株式市場をダウンさせることができます。

  • Or at least they could, um, you know, raise questions about the integrity of the financial markets.

    少なくとも、金融市場の完全性に疑問を呈する可能性があります。

  • Um a.

    1つは...

  • An algorithm that said, Go figure out how to launch, penetrate the nuclear code in the country and figure out how to launch some missiles.

    国の核コードを貫通してミサイルを発射する方法を考えろと言ったアルゴリズム。

  • That's their only job.

    それが彼らの唯一の仕事だ

  • It's very narrow.

    とても狭いです。

  • It doesn't require a super intelligence.

    超知性を必要としない

  • It just requires a really effective algorithm, then on itself teaching.

    それはちょうど本当に効果的なアルゴリズムを必要とし、それ自体が教えています。

  • Then you got problems.

    それから問題が出てきました。

  • So So part of I think my directive toe my national security team is, um don't worry as much yet about machines taking over the world do worry about the capacity of either non state actors or hostile actors to penetrate systems.

    だから、私が国家安全保障チームに指示していることの一部は、機械が世界を乗っ取ることについては、まだそれほど心配しなくても良いのですが、非国家的な行為者や敵対的な行為者がシステムに侵入する能力については心配してください。

  • And in that sense, it's not, um, it is not conceptually different.

    そういう意味では、うーん、概念的には違うんじゃないかな。

  • You are, uh, different in a legal sense than a lot of the cybersecurity work that we're doing.

    あなたは、あー、法律的な意味では、私たちがやっているサイバーセキュリティの仕事の多くとは違います。

  • It just means that we're gonna have to be better, because those who might deploy these systems are going to be a lot better.

    それは、これらのシステムを展開する可能性のある人は、もっと良くならないといけないということを意味しているだけです。

  • Now.

    今だ

  • I think, as a precaution, all of us have spoken folks like Elon Musk who are concerned about uh yeah, the, uh, the super Intelligent Machine.

    予防策として 我々全員が話しました エロン・ムスクのような人が心配しています ええと ええと 超インテリジェント・マシンを

  • There's some prudence in thinking about benchmarks that would indicate some general intelligence developing on the horizon.

    地平線上で発展する一般的な知性を示すようなベンチマークを考えることには慎重さがあります。

  • And if we can see that coming over the course of three decades, five decades, you know, whatever the latest estimates are, if ever, because they're also arguments that this thing is a lot more complicated than people make it out to be.

    30年、50年の間にそれが実現するとしたら、最新の推定値がどうであれ、もし実現したとしても

  • Ben.

    ベン

  • Uh, no future generations were our kids or grandkids were gonna be ableto see it coming and figure it out.

    未来の世代の子供や孫は、それが来るのを見て、それを理解することができませんでした。

  • Um, but But I do worry right now about all right.

    でも今は心配なのよ

  • Specialized ai.

    特化したAI。

  • I was on the West Coast.

    西海岸にいました。

  • Some kid looked like he was 25.

    25歳に見える子がいた

  • Shows me a laptop.

    ノートパソコンを見せてくれ

  • He's this.

    彼はこれだ

  • This is not a laptop.

    これはノートパソコンではありません。

  • An iPad says this.

    iPadはこう言う。

  • This is the future of radiology, right?

    これが放射線科の未来ですね。

  • And he's got an algorithm that is teaching enough sufficient pattern recognition that over time it's gonna be a better identify her of disease than a radiologist would be.

    彼のアルゴリズムは十分なパターン認識を教えてくれていて時間が経てば放射線科医よりも彼女の病気を識別できるようになるわ

  • And if that's already happening today on an iPad invented by some kid at M i t.

    それが今日、M i tの子供が発明したiPadで既に起きているとしたら。

  • Then you know the vulnerability of a lot of our systems is gonna be coming around pretty quick on.

    我々のシステムの脆弱性がすぐに 露呈することを知っているだろう

  • We're gonna have toe have some preparation for that.

    そのための準備をしておく必要がある

  • But joy may have worst nightmares generally agree.

    しかし、喜びは最悪の悪夢を持っている可能性があります一般的に同意します。

  • I think the only caveat is I would say there are a few people who believe that generally I will happen at some fairly high percentage chance in the next 10 years, people who are smart.

    唯一の注意点は、私は一般的に私は次の10年間でいくつかのかなり高い割合の確率で起こるだろうと信じている人、頭の良い人が数人いると言うことだと思います。

  • So I do think that being keeping aware, but the way I look at it is that there's a dozen or two different breakthroughs that need to happen for each of the pieces, so you can kind of monitor.

    意識しておくことが大切だと思いますが、私の見方では、それぞれの作品に必要なブレークスルーが十数個、二十数個あるので、それを監視することができます。

  • It's sort of and you don't know exactly when they're gonna happen because there, by definition, breakthroughs.

    それは一種のものであり、あなたは彼らがいつ起こるか正確にはわからない なぜなら、定義によって、ブレイクスルーがそこにあるからです。

  • And I think it's kind of when you think these breakthroughs will happen and you just have to have somebody close to the power cord right when you said about the Oh, wait, I'm completely with president that its short term, it's going to be bad people using a eyes for bad things will be an extension of of of us.

    そして私は、それはあなたがこれらのブレークスルーが起こるだろうと思うときのようなものだと思いますし、あなたはちょうどあなたがについて言ったときに電源コードの近くに誰かを持っている必要があります ああ、待って、私は完全に大統領と一緒にその短期的な、それは悪いことのために目を使用して悪い人々になるだろうということを私たちの延長線上にあると思います。

  • And then there's this other meta thing which happens, which is a group of people.

    そして、もう一つのメタなことが起こるのですが、それは集団であるということです。

  • So So if you look at all of the hate, the Internet, it's not.

    だから、ネットでのヘイトを見てみると

  • One person doesn't control that, but it's a thing.

    一人の人間ではどうしようもないことだが、それはそれで仕方がない。

  • It is pointed.

    尖っています。

  • It points at things.

    物事を指し示しています。

  • It's definitely fueling some political activity right now, but it's kind of that a life of its own, it's not even code, it's a culture and you see that also in the Middle East, right?

    確かに今は政治活動を活発にしていますが、それはそれ自身の生活のようなもので、コードでさえなく、文化であり、それは中東でも見られますよね?

  • So why it's so hard to prevent yet because it actually gets stronger than when you attack it and And to me, what's curious and interesting is going to be the relationship between an A.

    だから、なぜそれはまだ防ぐのが難しいので、それは実際にあなたがそれを攻撃するときよりも強くなるので、そして私には、好奇心と興味深いことは、Aの間の関係になるだろう。

  • I say, a service that runs like that.

    私が言うのは、そんな風に動くサービスです。

  • And then you throw in Bitcoin, which is the ability to move money around by a machine anonymously and so to me, it will be this weird.

    そして、ビットコインを投入します。匿名で機械でお金を移動させることができるので、私にとっては、このような奇妙なものになります。

  • And again, this is where I think it could be embedded if you if you if you gave this sort of mob more tools to cause that they are actually fairly, uh, coordinated in their own peculiar way, and them and the good side is you can imagine.

    もう一度言いますが、この種の暴徒にもっと多くのツールを与えれば、この種の暴徒は、実際には公平に、あー、彼ら自身の奇妙な方法で調整されていて、彼らと良い面を想像することができます。

  • You know, I was talking to some politicians like Michael Johnson in Colorado.

    コロラドのマイケル・ジョンソンみたいな政治家と話をしていて

  • He's trying to figure out How can we harness these things to inform and engaged citizens So so to me that the trick is if the problems, if you suppress it because of fear, the bad guys are still use it, and what is important is to get people who want to use it for good communities and leaders and figure out how to get them to use it so that they that that's where we start to lean.

    彼はどのようにしてこれらのことを市民に情報を提供するために 利用できるかを考えようとしています 私にとってのトリックは 問題があるならば 恐怖のためにそれを抑えれば 悪者はまだ利用します 重要なのは 良いコミュニティやリーダーのために それを利用したいと思う人を 捕まえることです 彼らに利用してもらうにはどうすれば良いかを 考えることです

  • Yeah, this may not be a precise analogy.

    ええ、これは正確な例えではないかもしれません。

  • Traditionally, when we think about security and protecting ourselves, we think in terms of we need armor or walls from swords, blunt instruments, etcetera.

    伝統的に、私たちがセキュリティや身を守ることを考えるとき、私たちは剣や鈍器などから鎧や壁が必要だと考えています。

  • And increasingly, um, I find myself looking to medicine and thinking about viruses.

    ますます医学に目を向けるようになり ウイルスについて考えるようになった

  • Antibodies, right?

    抗体だよね?

  • How do you create healthy systems back him word off, destructive elements distributed and in a distributed way.

    どのように健全なシステムを作成するには、彼の言葉オフ、破壊的な要素を分散して作成します。

  • And that requires more imagination.

    そして、それにはもっと想像力が必要です。

  • And we're not, vary it.

    そして、我々はそれを変えていない。

  • It's part of the reason why cybersecurity continues to be so hard is because the threat is not a bunch of tanks rolling at you, but a whole bunch of systems that may be vulnerable.

    サイバーセキュリティが難しい状況が続いている理由の一つは、脅威が戦車の群れではなく、脆弱性を持つ可能性のあるシステムの全体の群れだからです。

  • Toe a warm didn't in there.

    つま先が温まっていなかった。

  • It means that we've got to think differently about our security, make different investments that may not be as sexy, but actually may end up being as important as anything.

    それは、私たちが安全について別の方法で考えるようになったことを意味します。セクシーではないかもしれないが、実際には何よりも重要であることになるかもしれない別の投資を行う。

  • And part of the reason I think about this good is because I also think that what I spend a lot of time worrying about are things like pandemic.

    そして、私がこの良さを考える理由の一部は、私が多くの時間をかけて心配しているのは、パンデミックのようなものだと思うからです。

  • You can't build walls in order to prevent, you know, the next airborne, uh, lethal flu from landing on our shores.

    次の空気感染を防ぐために 壁は作れないんだ 致死性のインフルエンザが上陸しても

  • Instead, what we have to do is be able to set up systems toe, create public health systems and all parts of the world quick triggers that tell us when we see something emerging.

    代わりに、私たちがしなければならないことは、システムのつま先を設定し、公衆衛生システムや世界のあらゆる部分を作成し、私たちが何かが出現しているのを見たときに私たちに教えてくれる迅速なトリガーを作成することです。

  • Make sure we've got quick protocols.

    迅速なプロトコルを確認してください。

  • Systems that allow us toe make that vaccines a lot smarter.

    ワクチンをもっと賢くするためのシステムだ

  • So if you think, uh, if you take that model a public health model and you think about how we can deal with the, uh, the problems of cybersecurity, a lot of that may end up being really helpful in thinking about the I threats.

    このモデルを公衆衛生モデルとし、サイバーセキュリティの問題にどう対処するかを考えれば、その多くは第一次世界大戦の脅威を考える上で非常に役立つでしょう。

  • And just one thing that I think is interesting is when we start to look at microbiome and microbes everywhere.

    そして、一つだけ面白いと思うのは、マイクロバイオームや微生物をあらゆるところで見始めたときです。

  • There's a lot of evidence to show that introducing good bacteria to fight against the bad bacteria is the strategy and not to sterilize.

    悪玉菌と戦うために善玉菌を導入することが戦略であり、除菌をしないことを示す証拠はたくさんあります。

  • And I think that will sunny and bo like me when I wear.

    そして、私はそれが私が着るときに私のような晴れとボーになると思います。

  • When I walked them in the South Lawn, some things I see them that way.

    南芝生の中を歩いていると、そのように見えるものもあります。

  • Researcher.

    研究員です。

  • Just reading the shine that actually opening windows in hospitals, Prince there sits sterilizing there may actually limit, so we have to rethink what clean means, and it's similar whether you're talking about cyber security or national security.

    ただ、実際に病院で窓を開けている輝きを読んで、そこに座っているプリンスは、実際にそこに滅菌を制限する可能性がありますので、我々はクリーンな意味を再考する必要がありますし、それはあなたがサイバーセキュリティや国家安全保障について話しているかどうかに似ています。

  • I think that the notion that you can make strict borders or that you could eliminate every possible pathogen is difficult.

    厳格な国境を作るとか、ありとあらゆる病原体を排除できるという考え方は難しいと思います。

  • And I think I think that in that sense you're in your position to be able to see medicine and cyber, and I think that's a so they're distributed threats.

    そういう意味では、医療やサイバーを見ることができる立場にいると思いますし、それは分散型の脅威であるということだと思います。

  • But is there also the risk that this creates a new kind of arms race?

    しかし、これは新しい種類の軍拡競争を生み出す危険性もあるのではないでしょうか?

  • Look, I I think there's no doubt that developing international norms rules protocols, verification mechanisms around cybersecurity generally on a I in particular is in its infancy.

    見て、私は、国際的な規範のルールプロトコル、特に私は一般的にサイバーセキュリティの周りの検証メカニズムを開発することは間違いないと思いますが、その幼児期である。

  • Um, and part of the reason for that is as joy identified, you got a lot of non state actors who are the biggest players.

    その理由の一部は、ジョイが指摘したように、非国家的な行為者の多くが最大のプレーヤーであるということです。

  • Part of the problem is, is that identify us buying who's doing what is much more difficult if you're building a bunch of I C B m, we see him, Uh, if somebody sitting at a keyboard, we don't And so we've begun this conversation.

    問題の一部は、私たちは何をしているのかを購入している私たちを識別することです あなたがI C B mの束を構築している場合、私たちは彼を見て、ええと、誰かがキーボードの前に座っている場合、私たちはしません だから私たちはこの会話を始めました。

  • A lot of the conversation right now is not at the level of no dealing with real sophisticated AI, but has more to do with essentially states establishing norms about how they use their cyber capabilities.

    今、話題になっているのは、実際の高度なAIを扱わないというレベルではなく、国家がサイバー能力をどのように使うかという規範を確立することに関係しています。

  • Part of what makes this an interesting problem.

    これを面白い問題にしている部分もあります。

  • This is that the line between offense and defense is pretty blurred.

    これは、オフェンスとディフェンスの線引きがかなり曖昧になっているということです。

  • Um, you know the truth, The matter is and part of the reason why, for example, the debate here about cybersecurity Who are you more afraid of Big brother in the state or the guy was trying to empty out your bank account?

    うーん、あなたは真実を知っている、問題は、問題と理由の一部は、例えば、サイバーセキュリティについてのここでの議論は、誰がより多くの州のビッグブラザーを恐れているか、または男はあなたの銀行口座を空にしようとしていたのですか?

  • Part of reason that's so difficult is that if we're going to police this Wild West, whether it's the Internet or a I or any of these other areas, then by definition the government's gotta have capabilities of its got capabilities, then they're subject to abuse.

    それが難しい理由の一部は このワイルド・ウェストを警察しようとしているならば インターネットであろうとIIであろうと 他の分野であろうと 定義上は政府が持っている能力を持っていなければならない その能力は悪用の対象になります

  • And, uh, at a time when there's been a lot of mistrust built up about government that makes it difficult.

    政府への不信感が高まっている時でそれが難しくなっている

  • And when you have countries around the world who see America as the preeminent cyber power, now is the time for us to say we're willing to restrain ourselves if you are willing to restrain yourselves.

    アメリカをサイバー大国と見ている世界中の国々がいる今こそ自制してもいいと言う時だ君たちが自制するならば

  • The challenge is the most sophisticated state actors.

    課題は、最も洗練された国家アクターである。

  • Russia, China, Iran, uh, don't always embody the same norms or values that we do, but we're gonna have to surface this as an international issue in order for us to be effective because it's effectively.

    ロシア、中国、イランは我々と同じ規範や価値観を 持っているとは限らない しかし、我々が効果を発揮するためには 国際的な問題として表面化させる必要がある なぜなら、効果的だからだ

  • It's a borderless problem, and ultimately all states are gonna have to worry about this.

    ボーダーレスの問題だから最終的には全ての州が悩むことになるんだよね

  • The it is very short sighted.

    非常に近視眼的である。

  • If there's a statement, thinks that it can develop, uh, super capacities in this area without some 25 year old kid in a basement somewhere, figuring that out pretty quick.

    もし声明があるなら、それが開発できると考えている、ええと、この地域のスーパー能力は、地下室のどこかにいる25歳の子供なしで、かなり早くそれを見つけ出す。

positive outcomes.

肯定的な結果をもたらします。

字幕と単語
自動翻訳

動画の操作 ここで「動画」の調整と「字幕」の表示を設定することができます

B1 中級 日本語 サイバー セキュリティ システム 問題 アルゴリズム ai

AI時代の国家のセキュリティとは? | バラク・オバマ×伊藤穰一 | Ep3 | WIRED.jp

  • 5 1
    林宜悉 に公開 2020 年 08 月 06 日
動画の中の単語