Placeholder Image

字幕表 動画を再生する

AI 自動生成字幕
  • Inside a nondescript building in the heart of San Francisco, one of the world's buzziest startups is making our AI-powered future feel more real than ever before.

    サンフランシスコの中心部にある何の変哲もないビルの中で、世界で最も話題の新興企業のひとつが、AIを活用した未来をかつてないほどリアルなものにしようとしている。

  • They're behind two monster hits, ChatGPT and Ali, and somehow beat the biggest tech giants to market, kicking off a competitive race that's forced them all to show us what they've got.

    彼らはChatGPTとAliという2つの大ヒット商品を開発し、どうにかして大手ハイテク企業を抑えて市場に投入した。

  • But how did this under-the-radar startup pull it off?

    しかし、この水面下の新興企業はどうやってそれを成し遂げたのだろうか?

  • We're inside OpenAI, and we're going to get some answers.

    我々はOpenAIの中にいて、いくつかの答えを得ようとしている。

  • Is it magic?

    マジックなのか?

  • Is it just algorithms?

    アルゴリズムだけなのか?

  • Is it going to save us or destroy us?

    それは我々を救うのか、それとも滅ぼすのか?

  • Let's go find out.

    それを確かめに行こう

  • I love the plants.

    植物が大好きなんだ。

  • It feels so alive.

    生きている感じがする。

  • So amazing.

    とても素晴らしい。

  • I love it here.

    私はここが大好きだ。

  • It's giving me very Westworld spa vibes.

    ウエストワールドのスパのような雰囲気だ。

  • It's almost like suspended in space and time a little bit.

    時空が少し宙に浮いたような感じだ。

  • Yeah, it is a little bit of futuristic feel.

    ああ、ちょっと未来的な感じだね。

  • This is one of the most introspective minds at OpenAI.

    OpenAIで最も内省的なマインドの持ち主の一人だ。

  • We all know Sam Altman, the CEO.

    CEOのサム・アルトマンのことはみんな知っている。

  • But Mira Moradi is a chief architect behind OpenAI's strategy.

    しかし、ミラ・モラディはオープンAIの戦略を支えるチーフ・アーキテクトである。

  • This looks like the OpenAI logo.

    これはOpenAIのロゴのようだ。

  • It is.

    そうだ。

  • Ilya actually painted this.

    イリヤが実際に描いたものだ。

  • Ilya, the chief scientist.

    チーフ・サイエンティストのイリヤだ。

  • Yes.

    そうだ。

  • What is the flower meant to symbolize?

    この花は何を象徴しているのか?

  • My guess is that it's AI that loves humanity.

    私の推測では、人類を愛しているのはAIだと思う。

  • We're very focused on dealing with the challenges of hallucination, truthfulness, reliability, alignment of these models.

    私たちは、幻覚、真実性、信頼性、これらのモデルの整合性といった課題に対処することに非常に重点を置いている。

  • Has anyone left because they're like, you know what, I disagree?

    誰か、私は反対だ、と言って辞めた人はいる?

  • There have been, over time, people that left to start other organizations because of disagreements on the strategy around deployment.

    配備をめぐる戦略の不一致のために、他の組織を立ち上げるために去っていった人たちが、時とともに何人もいた。

  • And how do you find common ground when disagreements do arise?

    また、意見の相違が生じた場合、どのようにして共通の基盤を見つけるのか?

  • You want to be able to have this constant dialogue and figure out how to systematize these concerns.

    常に対話し、これらの懸念をどのように体系化するかを考えたい。

  • What is the job of a CTO?

    CTOの仕事とは?

  • It's a combination of guiding the teams on the ground, thinking about longer-term strategy, figuring out our gaps, and making sure that the teams are well-supported to succeed.

    現場のチームを指導し、より長期的な戦略を考え、我々のギャップを把握し、チームが成功するようしっかりとサポートする。

  • Yeah.

    そうだね。

  • Sounds like a big job.

    大仕事のようだ。

  • Solving impossible problems.

    不可能な問題を解決する

  • Solving impossible problems, yeah.

    不可能な問題を解決する。

  • When you were making the decision about releasing Chat GPT into the wild, I'm sure there was like a go or no-go moment.

    チャットGPTの公開を決断したとき、ゴーかノーかのような瞬間があったと思います。

  • Take me back to that day.

    あの日に戻してくれ。

  • We had Chat GPT for a while, and we sort of hit a point where we could really benefit from having more feedback from how people are using it, what are the risks, what are the limitations, and learn more about this technology that we have created and start bringing it in the public consciousness.

    私たちはしばらくの間、Chat GPTを使用していたが、人々がどのように使用しているのか、どのようなリスクがあるのか、どのような制限があるのかなど、より多くのフィードバックを得ることで、私たちが作り上げたこの技術についてより多くのことを学び、一般の人々の意識に浸透させることができるという点に到達した。

  • It became the fastest-growing tech product in history.

    史上最も急成長したハイテク製品となった。

  • It did.

    そうだ。

  • Did that surprise you?

    驚いた?

  • I mean, what was your reaction to the world's reaction?

    つまり、世界の反応にどう反応したか、ということだ。

  • We were surprised by how much it captured the imaginations of the general public and how much people just loved spending time talking to this AI system and interacting with it.

    私たちは、このAIシステムが一般の人々の想像力をかき立て、人々がこのAIシステムと対話する時間をとても楽しんでいることに驚きました。

  • Chat GPT can now mimic a human.

    チャットGPTは人間を模倣できるようになった。

  • It can write.

    と書くことができる。

  • It can code.

    コードも書ける。

  • At the most basic level, how does this all happen?

    最も基本的なレベルでは、これはどのようにして起こるのだろうか?

  • So, Chat GPT is a neural network that has been trained on a huge amount of data on a massive supercomputer, and the goal during this training process was to predict the next word in a sentence, and it turns out that as you train larger and larger models and more and more data, the capabilities of these models also increase.

    つまり、Chat GPTは、巨大なスーパーコンピューター上の膨大なデータで訓練されたニューラルネットワークであり、この訓練過程での目標は、文中の次の単語を予測することだった。そして、より大きなモデルを訓練し、より多くのデータを訓練すればするほど、これらのモデルの能力も向上することが判明した。

  • They become more powerful, more helpful, and as you invest more on alignment and safety, they become more reliable and safe over time.

    アライメントと安全性に投資すればするほど、時間とともに信頼性と安全性が高まっていく。

  • Open AI has kind of turbocharged this competitive frenzy.

    オープンAIは、この競争熱に拍車をかけているようなものだ。

  • Do you think you can beat Google at its own game?

    グーグルに勝てると思いますか?

  • Do you think you can take significant market share in search?

    検索で大きなシェアを獲得できると思いますか?

  • We didn't set out to dominate search.

    私たちは検索を支配しようとしたわけではない。

  • What Chat GPT offers is a different way to understand information, and you could be, you know, searching, but you're searching in a much more intuitive way versus keyword-based.

    チャットGPTが提供するのは、情報を理解するための別の方法であり、検索することは可能だが、キーワードベースではなく、もっと直感的な方法で検索することになる。

  • I think the whole world is sort of now moving in this direction.

    今、世界中がこの方向に向かっていると思う。

  • The air of confidence, obviously, that Chat GPT sometimes delivers an answer with.

    明らかに、チャットGPTが時折見せる自信に満ちた空気。

  • Why not just sometimes say, I don't know?

    なぜ、ときどき「わからない」と言わないのか?

  • The goal is not to predict the next word reliably or safely.

    ゴールは次の単語を確実に、あるいは安全に予測することではない。

  • When you have such general capabilities, it's very difficult to handle some of the limitations, such as what is correct.

    そのような一般的な能力を持っている場合、何が正しいかなど、いくつかの制限を扱うのは非常に難しい。

  • Some of these texts and some of the data is biased.

    これらの文章やデータの中には偏ったものもある。

  • Some of it may be incorrect.

    その一部は間違っているかもしれない。

  • Isn't this going to accelerate the misinformation problem?

    誤報問題を加速させることにならないか?

  • I mean, we haven't been able to crack it on social media for like a couple of decades.

    つまり、私たちは数十年もの間、ソーシャルメディア上でそれを解読することができなかった。

  • Misinformation is a really complex, hard problem.

    誤報は本当に複雑で難しい問題だ。

  • Right now, one of the things that I'm most worried about is the ability of models like GPT-4 to make up things.

    今、私が最も心配していることの一つは、GPT-4のようなモデルのでっち上げ能力だ。

  • We refer to this as hallucinations.

    私たちはこれを幻覚と呼んでいる。

  • So they will convincingly make up things and it requires being aware and just really knowing that you cannot fully, blindly rely on what the technology is providing as an output.

    だから、彼らは説得力のある作り話をするだろうし、テクノロジーがアウトプットとして提供するものを完全に、盲目的に信頼することはできないということを自覚し、本当に知る必要がある。

  • I want to talk about this term hallucination because it's a very human term.

    この幻覚という言葉について話したい。

  • Why use such a human term for basically an AI that's just making mistakes?

    基本的にミスを犯すだけのAIに対して、なぜそのような人間的な言葉を使うのか?

  • A lot of these general capabilities are actually quite human-like.

    このような一般的な能力の多くは、実際には極めて人間的なものだ。

  • Sometimes when we don't know the answer to something, we will just make up an answer.

    答えがわからないとき、私たちは答えをでっち上げることがある。

  • We will rarely say, I don't know.

    私たちが「わからない」と言うことはほとんどない。

  • And so, there is a lot of human hallucination in a conversation and sometimes we don't do it on purpose.

    だから、会話の中には人間の幻覚がたくさんある。

  • Should we be worried about AI though that feels more and more human?

    私たちは、より人間らしく感じられるAIを心配すべきなのだろうか?

  • Like, should AI have to identify itself as artificial when it's interacting with us?

    例えば、AIが我々と相互作用する際に、人工物であることを識別する必要があるのだろうか?

  • I think it's a different kind of intelligence.

    それは違う種類の知性だと思う。

  • It is important to distinguish output that's been provided by a machine versus another human.

    機械が出した出力と人間が出した出力を区別することは重要だ。

  • But we are moving towards a world where we're collaborating with these machines more and more and so output will be hybrid.

    しかし、私たちはこれらの機械とますます協力する世界へと向かっており、そのためアウトプットはハイブリッドになるだろう。

  • All of the data that you're training this AI on, it's coming from writers, it's coming from artists.

    あなたがこのAIをトレーニングしているデータはすべて、作家やアーティストのものです。

  • How do you think about giving value back to those people when these are also people who are worried about their jobs going away?

    仕事がなくなることを心配している人たちがいる中で、その人たちに価値を還元することをどう考えるか。

  • I don't know exactly how it would work in practice that you can sort of account for information created by everyone on the internet.

    インターネット上のすべての人が作成した情報を勘定に入れるということが、実際にどのように機能するのか正確にはわからない。

  • I think there are definitely going to be jobs that will be lost and jobs that will be changed as AI continues to advance and integrate in the workforce.

    AIが進歩し、労働力に統合され続けるにつれて、失われる仕事と変化する仕事が間違いなく出てくると思う。

  • Prompt engineering is a job today.

    迅速なエンジニアリングは今日の仕事である。

  • That's not something that we could have predicted.

    それは私たちが予測できたことではない。

  • Think of prompt engineers like AI whisperers.

    プロンプト・エンジニアは、AIのささやきのようなものだと考えてほしい。

  • They're highly skilled at selecting the right words to coax AI tools into generating the most accurate and illuminating responses.

    彼らは、AIツールに最も正確で有益な回答を生成させるために適切な言葉を選ぶことに長けている。

  • It's a new job born from AI that's fetching hundreds of thousands of dollars a year.

    それはAIから生まれた新しい仕事で、年間数十万ドルの値がつく。

  • What are some tips to being an ace prompt engineer?

    エース級のプロンプト・エンジニアになるための秘訣は?

  • You know, it's this ability to really develop an intuition for how to get the most out of the model.

    モデルを最大限に活用するための直感を養う能力なんだ。

  • How to prompt it in the right ways, give it enough context for what you're looking for.

    適切な方法でそれを促し、求めているものに十分な文脈を与える方法。

  • One of the things that we talked about earlier was hallucinations and these large language models not having the ability to always be highly accurate.

    先ほど話したことのひとつに、幻覚や、大規模な言語モデルが常に高い精度を持つとは限らないということがある。

  • So I'm asking the model with a browsing plugin to fact check this information.

    だから、この情報を事実確認するために、閲覧プラグインを持つモデルに頼んでいるんだ。

  • And it's now browsing the web.

    そして今、ウェブをブラウズしている。

  • So there's this report that these workers in Kenya were getting paid $2 an hour to do the work on the backend to make answers less toxic.

    つまり、ケニアの労働者たちは、回答が有害でないようにするためのバックエンドの作業で時給2ドルをもらっていたという報告だ。

  • And my understanding is this work is, it can be difficult, right?

    私の理解では、この仕事は難しいものなんだろう?

  • Because you're reading texts that might be disturbing and trying to clean them up.

    不穏な文章を読んで、それを片付けようとしているからだ。

  • So we need to use contractors sometimes to scale.

    だから、規模を拡大するためには、時には契約社員を使う必要がある。

  • We chose that particular contractor because of their known safety standards.

    私たちがその業者を選んだのは、安全基準が知られていたからだ。

  • And since then we've stopped working with them.

    それ以来、私たちは彼らとの仕事を止めた。

  • But as you said, this is difficult work and we recognize that and we have mental health standards and wellness standards that we share with contractors.

    しかし、あなたが言ったように、これは難しい仕事であり、私たちはそれを認識している。

  • I think a lot about my kids and them having relationships with AI someday.

    私は自分の子供たちや、彼らがいつかAIと関係を持つことについていろいろ考えている。

  • How do you think about what the limits should be and what the possibilities should be when you're thinking about a child?

    子供について考えるとき、限界はどうあるべきか、可能性はどうあるべきか、どう考える?

  • I think we should be very careful in general with putting very powerful systems in front of more vulnerable populations.

    私たちは一般的に、非常に強力なシステムをより脆弱な人々の前に置くことに非常に注意を払うべきだと思う。

  • There are certainly checks and balances in place because it's still early and we still don't understand all the ways in which this could affect people.

    まだ初期段階であり、これが人々にどのような影響を与えうるのか、まだすべてを理解しているわけではないので、チェックとバランスは確実に行われている。

  • There's all this talk about, you know, relationships and AI.

    人間関係やAIの話もある。

  • Like, could you see yourself developing a relationship with an AI?

    例えば、AIとの関係を発展させることができると思いますか?

  • I'd say yes as a reliable tool that enhances my life, makes my life better.

    私の生活を向上させ、より良いものにしてくれる信頼できるツールとして、イエスと言いたい。

  • As we ponder the existential idea that we might all have relationships with AI someday, there's an AI gold rush happening in Silicon Valley.

    いつの日か私たち全員がAIと関係を持つようになるかもしれないという実存的な考えについて熟考しているとき、シリコンバレーではAIのゴールドラッシュが起きている。

  • Venture capitalists are pouring money into anything AI startups, hoping to find the next big thing.

    ベンチャーキャピタルは、次なる大物を見つけようと、あらゆるAI新興企業に資金を投入している。

  • Reid Hoffman, the co-founder of LinkedIn and an early investor in Facebook, knows a thing or two about striking gold.

    リンクトインの共同設立者であり、フェイスブックの初期投資家でもあるリード・ホフマンは、金鉱を掘り当てるということを知り尽くしている。

  • He was an early open AI backer and is, in a way, trying to take society's hand and guide us all through the age of AI.

    彼は早くからオープンAIの支援者であり、ある意味、社会の手を取り、AIの時代を通して私たち全員を導こうとしている。

  • I mean, gosh, 12 years we've been talking.

    もう12年も話をしているんだ。

  • Maybe longer.

    もっと長いかもしれない。

  • That's awesome.

    すごいね。

  • A long time.

    長い時間だ。

  • You have been on the ground floor of some of the biggest tech platform shifts in history.

    あなたは、歴史上最も大きな技術プラットフォームのシフトの現場にいた。

  • The beginnings of the internet, mobile.

    インターネットの始まり、モバイル。

  • Do you think AI is gonna be even bigger?

    AIはさらに大きくなると思いますか?

  • I think so.

    私はそう思う。

  • It builds on the internet, mobile, cloud, data.

    インターネット、モバイル、クラウド、データを基盤としている。

  • All of these things come together to make AI work.

    AIを機能させるためには、これらすべてが必要なのだ。

  • And so that causes it to be the crescendo, the addition to all of this.

    そして、それがクレッシェンドとなり、このすべてに拍車をかけることになる。

  • I mean, one of the problems with the current discourse is that it's too much of the fear-based versus hope-based.

    つまり、現在の言説の問題点のひとつは、恐怖に基づくもの対希望に基づくものが多すぎるということだ。

  • Imagine a tutor on every smartphone for every child in the world.

    世界中のすべての子どもたちのために、すべてのスマートフォンに家庭教師がいることを想像してみてほしい。

  • That's possible.

    それは可能だ。

  • That's line of sight from what we see with current AI models today.

    それは、現在のAIのモデルから見れば、目線の高さだ。

  • You coined this term, blitzscaling.

    ブリッツスケーリングという言葉を作ったのはあなただ。

  • Blitzscaling, in its precise definition, is prioritizing speed over efficiency in an environment of uncertainty.

    ブリッツ・スケーリングとは、正確な定義では、不確実な環境において効率よりもスピードを優先することである。

  • How do you go as fast as possible in order to be the first to scale?

    最初に規模を拡大するために、可能な限り速く進むにはどうすればいいのか?

  • Does AI blitzscale?

    AIはブリッツスケールするのか?

  • Well, it certainly seems like it today, doesn't it?

    まあ、確かに今日はそう見えるね。

  • I think the speed at which we will integrate it into our lives will be faster than we integrated the iPhone into our lives.

    私たちがそれを生活に取り入れるスピードは、iPhoneを生活に取り入れた時よりも速くなると思う。

  • There's gonna be a co-pilot for every profession.

    どの職業にも副操縦士がいるものだ。

  • And if you think about that, that's huge.

    そう考えると、これはとても大きなことだ。

  • And not professional activities, because it's gonna write my kids' papers, right?

    プロとしての活動ではなく、子供の論文を書くことになるからね。

  • My kids' high school papers?

    子供たちの高校時代のレポート?

  • Yes, although the hope is that in the interaction with it, they'll learn to create much more interesting papers.

    そうだね。でも、この論文に触れることで、彼らがもっと面白い論文を書くことを学んでくれることを期待している。

  • You and Elon Musk go way back.

    あなたとイーロン・マスクは昔からの友人だ。

  • He co-founded OpenAI with Sam Altman, the CEO of OpenAI.

    OpenAIのCEOであるサム・アルトマンと共同でOpenAIを設立。

  • You and I have talked a lot over the years about how you have been sort of this node in the PayPal mafia, and you can talk to everyone and maybe you disagree, but you are all still friends.

    あなたとは何年もの間、ペイパルマフィアのノードのようなもので、誰とでも話すことができ、もしかしたら意見が合わないかもしれないけれど、それでもみんな友達だということをよく話してきた。

  • What did Elon say that got you interested so early?

    イーロンは何を言って早くから興味を持ったのですか?

  • Part of the reason I got back into AI, and I was part of sitting around the table in the crafting of OpenAI, was that Elon came to me and said, look, this AI thing is coming.

    私がAIの世界に戻った理由のひとつは、イーロンが私のところにやってきて、AIがやってくるぞ、と言ったからです。

  • Once I started digging into it, I realized that this pattern, that we're gonna see the next generation of amazing capabilities coming from these computational devices.

    このパターンを掘り下げ始めたら、次世代の驚くべき能力がこれらの計算デバイスから生み出されることに気づいたんだ。

  • And then, one of the things I had been arguing with Elon at the time about, was that Elon was constantly using the word robocalypse, which we, as human beings, tend to be more easily and quickly motivated by fear than by hope.

    当時、私がイーロンと議論していたことのひとつに、イーロンは常にロボカリプスという言葉を使っていたということがあった。

  • So you're using the term robocalypse, and everyone imagines the Terminator and all the rest.

    だからロボカリプスという言葉を使い、誰もがターミネーターやその他もろもろを想像する。

  • Sounds pretty scary.

    かなり怖そうだ。

  • It sounds very scary.

    とても怖そうだ。

  • Robocalypse doesn't sound like something we want.

    ロボカリプスは私たちが望むものではなさそうだ。

  • Yeah, stop saying that.

    ああ、そう言うな。

  • Because actually, in fact, the chance that I could see anything like a robocalypse happening is so de minimis relative to everything else.

    というのも、実際のところ、ロボカリプスのようなことが起こる可能性は、他のすべてのことに比べて、とても小さいからだ。

  • So you did come together on OpenAI.

    OpenAIで一緒になったわけですね。

  • How did that happen?

    どうしてそうなったのか?

  • I think it started with Elon and Sam having a bunch of conversations.

    イーロンとサムが何度も会話を交わしたことが始まりだったと思う。

  • And then, since I know both of them quite well, I got called in.

    そして、私は二人のことをよく知っているので、呼ばれたんだ。

  • And I was like, look, I think this could really make sense.

    そして、これは本当に意味があることだと思ったんだ。

  • Something should be the counterweight to all of the natural work that's gonna happen within commercial realms.

    商業的な領域で起こるであろう自然な仕事すべてに対抗する何かが必要だ。

  • How do we make sure that one company doesn't dominate the industry, but the tools are provided across the industry so innovation can benefit from startups and all the rest?

    1つの企業が業界を支配するのではなく、業界全体にツールが提供され、新興企業やその他のすべての企業がイノベーションの恩恵を受けられるようにするにはどうすればいいのだろうか?

  • I was like, great.

    私は「素晴らしい」と思った。

  • And let's do this thing, OpenAI.

    そして、OpenAIというものをやろう。

  • I did ask ChatGPT what questions I should ask you.

    ChatGPTにどんな質問をすればいいか聞いたんだ。

  • I thought its questions were pretty boring.

    その質問はかなり退屈だと思った。

  • Yes.

    そうだ。

  • Your answers were pretty boring, too.

    あなたの答えもかなり退屈だった。

  • So we're not getting replaced anytime soon.

    だから、すぐに交代することはない。

  • But clearly, this has really struck a nerve.

    しかし、これは明らかに神経を逆なでした。

  • There are people out there who are gonna fall for it.

    世の中にはそれに騙される人がいるんだ。

  • Yes.

    そうだ。

  • Shouldn't we be worried about that?

    それを心配すべきではないのか?

  • Okay, so everyone's encountered a crazy person who's drunk off their ass at a cocktail party who says really odd things, or at least every adult has.

    さて、カクテルパーティーで酔っ払って変なことを言うおかしな人に遭遇したことは誰にでもあるだろう。

  • And, you know, that's not like the world didn't end.

    それに、世界が終わらなかったわけでもない。

  • Right?

    そうだろう?

  • We do have to pay attention to areas that are harmful.

    有害な部分には注意を払わなければならない。

  • Like, for example, someone's depressed, they're thinking about self-harm.

    例えば、誰かが落ち込んでいて、自傷行為を考えているとする。

  • You want all channels by which they could get in the self-harm to be limited.

    彼らが自傷行為に及ぶ可能性のあるすべての経路を制限してほしい。

  • That isn't just chatbots.

    それはチャットボットだけではない。

  • That could be communities of human beings.

    それは人間の共同体かもしれない。

  • That could be search engines.

    それは検索エンジンかもしれない。

  • You have to pay attention to all the dimensions of it.

    すべての次元に注意を払わなければならない。

  • How are we overestimating AI?

    我々はどのようにAIを過大評価しているのか?

  • It still doesn't really do something that I would say is original to an expert.

    それでも、専門家のオリジナルと言えるようなことはしていない。

  • So, for example, one of the questions I asked was how would Reid Hoffman make money by investing in artificial intelligence?

    例えば、リード・ホフマンは人工知能に投資してどのように儲けるだろうか?

  • And the answer he gave me was a very smart, very well-written answer that would have been written by a professor at a business school who didn't understand venture capital.

    そして彼が私に出した答えは、ベンチャー・キャピタルを理解していないビジネススクールの教授が書いたような、とてもスマートでよくできたものだった。

  • Right?

    そうだろう?

  • So it seems smart.

    だから賢いと思う。

  • Would study large markets.

    大きな市場を研究する

  • Would realize what products would be substituted in the large markets.

    大市場では、どのような製品が代替品になるかを実感できるだろう。

  • Would find teams to go do that and invest in them.

    そのためにチームを探し、投資する。

  • And this was all written, very credible, and completely wrong.

    そして、これはすべて書かれたもので、非常に信憑性が高く、完全に間違っていた。

  • The newest edge of the information is still beyond these systems.

    情報の最新エッジはまだこれらのシステムを超えていない。

  • Billions of dollars are going into AI.

    AIには何十億ドルもの資金が投入されている。

  • My inbox is filled with AI pitches.

    私の受信箱はAIの売り込みでいっぱいだ。

  • Last year it was crypto and Web3.

    昨年は暗号とWeb3だった。

  • How do we know this isn't just the next bubble?

    これが次のバブルでないとどうしてわかるのか?

  • I do think that the generative AI is the thing that has the broadest touch of everything.

    ジェネレーティブAIは、あらゆるものの中で最も幅広いタッチを持つものだと思う。

  • Now, which places are the right places to invest?

    さて、どの場所が投資に適しているのだろうか?

  • I think those are still things we're working on now, obviously, as venture capitalists.

    ベンチャー・キャピタリストとして、それらは今も取り組んでいることだと思う。

  • Part of what we do is we try to figure that out in advance, you know, years before other people see it coming.

    私たちがやっていることのひとつは、他の人たちがそれを察知する何年も前から、事前にそれを察知しようとすることなんだ。

  • But I think that there will be massive new companies built.

    しかし、私は大規模な新会社が設立されると思う。

  • It does seem, in some ways, like a lot of AI is being developed by an elite group of companies and people.

    ある意味、多くのAIがエリート集団の企業や人々によって開発されているように見える。

  • Is that something that you see happening?

    そのようなことが起きていると思いますか?

  • In some ideal universe, you'd say, for a technology that would impact billions of people, somehow billions of people should directly be involved in creating it.

    ある理想的な世界では、何十億人もの人々に影響を与える技術であれば、何十億人もの人々がその創造に直接関わるべきだと言うだろう。

  • But that's not how any technology anywhere in history gets built.

    しかし、歴史上どのような技術も、そうやって構築されたわけではない。

  • And there's reasons you have to build it at speed.

    そして、スピードで作らなければならない理由がある。

  • But the question is, how do you get the right conversations and the right issues on the table?

    しかし問題は、どうすれば適切な会話と適切な問題をテーブルに並べることができるかということだ。

  • So do you see an AI mafia forming?

    では、AIマフィアが形成されると思いますか?

  • I definitely think that there is, because you're referring to the PayPal mafia.

    ペイパルマフィアのことだから、間違いなくあると思う。

  • Of course.

    もちろんだ。

  • I definitely think that there's a network of folks who have been deeply involved over the last few years will have a lot of influence on how the technology happens.

    ここ数年、深く関わってきた人たちのネットワークが、技術がどうなるかに大きな影響力を持つことは間違いないと思う。

  • Do you think AI will shake up the big tech hierarchy significantly?

    AIは大手ハイテク企業のヒエラルキーを大きく揺るがすと思いますか?

  • What it certainly does is it creates a wave of disruption.

    それが破壊の波を引き起こすのは確かだ。

  • For example, with these large language models in search, what do you want?

    例えば、検索におけるこのような大規模な言語モデルについて、あなたは何を望んでいるのだろうか?

  • Do you want 10 blue links?

    青いリンクが10本欲しいですか?

  • Or do you want an answer?

    それとも答えが欲しいのか?

  • In a lot of search cases, you want an answer.

    多くの検索ケースでは、答えが欲しい。

  • And a generated answer that's like a mini Wikipedia page is awesome.

    そして、ミニ・ウィキペディアのページのような生成された答えは素晴らしい。

  • That's a shift.

    それがシフトだ。

  • So I think we'll see a profusion of startups doing interesting things in this.

    だから、この分野で面白いことをする新興企業がたくさん出てくると思う。

  • But can the next Google or Facebook really emerge if Google and Facebook or Meta and Apple and Amazon are running the Playbook and Microsoft?

    しかし、グーグルとフェイスブック、あるいはメタとアップルとアマゾンがプレイブックとマイクロソフトを動かしている場合、次のグーグルやフェイスブックが本当に出現するのだろうか?

  • Do I think that we'll be another one to three companies that will be the size of the five big tech giants emerging, possibly from AI?

    おそらくAIから、5大巨頭のような規模の企業がまた1社から3社出てくるのではないでしょうか?

  • Absolutely, yes.

    もちろん、そうだ。

  • Now, does that mean that one of them is gonna collapse?

    ということは、どちらかが倒れるということか?

  • No, not necessarily.

    いや、必ずしもそうではない。

  • And it doesn't need to.

    その必要もない。

  • The more that we have, the better.

    多ければ多いほどいい。

  • So what are the next big five?

    では、次のビッグ5は何か?

  • Well, that's what we're trying to invest in.

    まあ、それが我々が投資しようとしていることだ。

  • You're on the board of Microsoft.

    あなたはマイクロソフトの役員ですね。

  • Obviously, Microsoft is making a big AI push.

    マイクロソフトがAIを大々的に推進しているのは明らかだ。

  • Did you bring Satya and Sam or have any role in bringing Satya and Sam closer together?

    サティヤとサムを引き合わせた、あるいはサティヤとサムの距離を縮める役割を果たしたのですか?

  • Because Microsoft obviously has $10 billion now in open AI.

    マイクロソフトがオープンAIに100億ドルを投じているのは明らかだからだ。

  • Well, I think I could, I probably have a, you know, both of them are close to me and know me and trust me well.

    まあ、たぶん、2人とも私と親しいし、私のことをよく知っていて、よく信頼してくれているから、できると思う。

  • So I think I've helped facilitate understanding and communications.

    だから、私は理解とコミュニケーションを促進する手助けをしたと思う。

  • Elon left open AI years ago and pointed out that it's not as open as it used to be.

    イーロンは数年前にオープンAIを離れ、以前ほどオープンになっていないと指摘した。

  • He said he wanted it to be a nonprofit counterweight to Google.

    彼は、グーグルに対抗する非営利団体にしたいと言った。

  • Now, it's a closed source maximum profit company effectively controlled by Microsoft.

    今では、マイクロソフトに実質的に支配されたクローズドソースの最大利益企業だ。

  • Does he have a point?

    彼に一理あるのだろうか?

  • Well, he's wrong on a number of levels there.

    まあ、彼は多くの点で間違っている。

  • So one is it's run by a 501c3.

    つまり、ひとつは501c3によって運営されているということだ。

  • It is a nonprofit.

    非営利団体だ。

  • But it does have a for-profit part.

    しかし、営利目的の部分もある。

  • The commercial system, which is all carefully done is to bring in capital to support the nonprofit mission.

    商業的なシステムは、非営利的な使命を支えるために資本を呼び込むために慎重に行われている。

  • Now, get to the question of, for example, open.

    では、例えばオープンの問題だ。

  • So Dolly was ready for four months before it was released.

    だから『ドリー』は発売の4カ月前から準備していた。

  • Why did it delay for four months?

    なぜ4ヶ月も遅れたのか?

  • Because it was doing safety training.

    安全訓練をしていたからだ。

  • It said, well, we don't wanna have this being used to create child sexual material.

    これは、児童の性的資料の作成に使用されることは避けたいということだ。

  • We don't wanna have this being used for assaulting individuals or doing deep fakes.

    個人への暴行やディープフェイクに使われるのは避けたい。

  • So we're not gonna open source it.

    だから、オープンソースにするつもりはない。

  • We're gonna release it through an API so we can be seeing what the results are and making sure it doesn't do any of these harms.

    APIを通じてリリースする予定なので、結果を確認し、これらの害がないことを確認することができる。

  • So it's open because it has open access to the APIs, but it's not open because it's open source.

    つまり、APIへのアクセスがオープンだからオープンなのであって、オープンソースだからオープンなのではない。

  • There are folks out there who are angry actually about open AIs branching out from nonprofit to for-profit.

    実際に、オープンAIが非営利から営利へと枝分かれしていくことに怒っている人たちがいる。

  • Is there a bit of a bait and switch there?

    おとり商法か?

  • The cleverness that Sam and everyone else figured out is they could say, look, we can do a market commercial deal where we say we'll give you commercial licenses to parts of our technology in various ways.

    サムや他のみんなが考え出した賢いやり方は、私たちの技術の一部をさまざまな方法で商業ライセンスしてあげるという市場商業取引ができる、というものだ。

  • And then we can continue our mission of beneficial AI.

    そうすれば、有益なAIの使命を続けることができる。

  • The AI graveyard is filled with algorithms that got into trouble.

    AIの墓場は、問題を起こしたアルゴリズムで埋め尽くされている。

  • How can we trust open AI or Microsoft or Google or anyone to do the right thing?

    オープンAIやマイクロソフト、グーグル、あるいは誰であれ、正しいことをすることを信用できるだろうか?

  • Well, we need to be more transparent.

    まあ、もっと透明性を高める必要がある。

  • But on the other hand, of course, a problem exactly as you're alluding to is people say, well, the AI should say that or shouldn't say that.

    しかし、その一方で、もちろん、まさにあなたがおっしゃるような問題があります。

  • We can't even really agree on that ourselves.

    その点については、私たち自身も納得していない。

  • So we don't want that to be litigated by other people.

    だから、それを他の人たちに訴訟してほしくないんだ。

  • We want that to be a social decision.

    それは社会的な決定であってほしい。

  • So how does this shake out globally?

    では、世界的にはどうなのだろうか?

  • We should be trying to build the industries of the future.

    私たちは未来の産業を築こうとしている。

  • That's what's the most important thing.

    それが最も重要なことだ。

  • And it's one of the reasons why I tend to very much speak against people like, oh, we should be slowing down.

    それが、私が「もっとスピードを落とすべきだ」というような意見に反対する理由のひとつでもある。

  • Do you have any intention of slowing down?

    ペースを落とすつもりはないのか?

  • We've been very vocal about these risks for many, many years.

    私たちは何年も何年も、こうしたリスクについて声を上げてきた。

  • One of them is acceleration.

    そのひとつが加速だ。

  • And I think that's a significant risk that we as a society need to grapple with.

    これは社会として取り組むべき重大なリスクだと思う。

  • Building safe AI systems that are general is very complex.

    一般的で安全なAIシステムの構築は非常に複雑だ。

  • It's incredibly hard.

    信じられないほど難しいよ。

  • So what does responsible innovation look like to you?

    では、あなたにとって責任あるイノベーションとはどのようなものだろうか?

  • Would you support, for example, a federal agency like the FDA that vets technology like it vets drugs?

    例えば、FDAのような連邦機関が、医薬品を審査するようにテクノロジーを審査することを支持しますか?

  • I think some sort of trusted authority that can audit the systems based on some agreed upon principles would be very helpful.

    私は、合意された原則に基づいてシステムを監査できる、ある種の信頼された権威が非常に役に立つと思う。

  • I've heard AI experts talk about the potential for the good future versus the bad future.

    AIの専門家が、良い未来と悪い未来の可能性について話しているのを聞いたことがある。

  • In the bad future, there's talk about this leading human extinction.

    悪い未来では、これが人類絶滅につながるという話もある。

  • Are those people wrong?

    その人たちは間違っているのか?

  • There is certainly a risk that when we have these AI systems that are able to set their own goals, they decide that their goals are not aligned with ours.

    このような独自の目標を設定できるAIシステムを導入した場合、その目標が我々と一致しないと判断するリスクは確かにある。

  • And they do not benefit from having us around.

    私たちがいても、彼らには何のメリットもない。

  • And could lead to human extinction.

    そして人類を絶滅に導くかもしれない。

  • That is a risk.

    それはリスクだ。

  • I don't think this risk has gone up or down from the things that have been happening in the past few months.

    ここ数カ月で起きていることから、このリスクが上がったり下がったりしたとは思わない。

  • I think it's certainly been quite hyped.

    確かにかなり宣伝されていると思う。

  • And there is a lot of anxiety around it.

    そして、その周辺には多くの不安がある。

  • If we're talking about the risk for human extinction, have you had a moment where you're just like, wow, this is big?

    人類滅亡のリスクについて話しているのであれば、「うわ、これは大きい」と感じた瞬間はありますか?

  • I think a lot of us at OpenAI joined because we thought that this would be the most important technology that humanity would ever create.

    OpenAIに参加した私たちの多くは、これが人類が創造する最も重要なテクノロジーになると考えたからだと思います。

  • But of course, the risks on the other hand are also pretty significant.

    しかしもちろん、一方でリスクもかなり大きい。

  • And this is why we're here.

    だから私たちはここにいる。

  • Do OpenAI employees still vote on AGI and when it will happen?

    OpenAIの社員は、AGIとその時期についてまだ投票しているのですか?

  • I actually don't know.

    実はよくわからないんだ。

  • What is your prediction about AGI now?

    今、AGIについてどのような予想をしていますか?

  • And how far away it really is?

    本当に遠いのか?

  • We're still quite far away from being at a point where these systems can make decisions autonomously and discover new knowledge.

    これらのシステムが自律的に意思決定を行い、新しい知識を発見できるようになるには、まだかなり遠い。

  • But I think I have more certainty around the advent of having powerful systems in our future.

    しかし、将来的に強力なシステムが登場することに関しては、より確かな確信を持っていると思う。

  • Should we even be driving towards AGI?

    私たちはAGIを目指すべきなのだろうか?

  • And do humans really want it?

    そして、人間はそれを本当に望んでいるのだろうか?

  • Advancements in society come from pushing human knowledge.

    社会の進歩は、人間の知識を推し進めることから生まれる。

  • Now that doesn't mean that we should do so in careless and reckless ways.

    だからといって、軽率で無謀なことをしてはいけない。

  • I think there are ways to guide this development versus bring it to a screeching halt because of our potential fears.

    私たちの潜在的な不安のために、この開発を急停止させるのではなく、誘導する方法があると思う。

  • So the train has left the station and we should stay on it.

    だから、列車は駅を出発した。

  • That's one way to put it.

    そういう言い方もできる。

Inside a nondescript building in the heart of San Francisco, one of the world's buzziest startups is making our AI-powered future feel more real than ever before.

サンフランシスコの中心部にある何の変哲もないビルの中で、世界で最も話題の新興企業のひとつが、AIを活用した未来をかつてないほどリアルなものにしようとしている。

字幕と単語
AI 自動生成字幕

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます

B1 中級 日本語

ChatGPTのアーキテクト、ミラ・ムラーティが語るOpenAIの内側|The Circuit with Emily Chang (Inside OpenAI, the Architect of ChatGPT, featuring Mira Murati | The Circuit with Emily Chang)

  • 119 1
    松崎洋介 に公開 2025 年 01 月 02 日
動画の中の単語