字幕表 動画を再生する
The deadline to apply for the first YC Spring Batch is February 11th.
第1回YCスプリング・バッチへの応募締め切りは2月11日。
If you're accepted, you'll receive $500,000 in investment, plus access to the best startup community in the world.
合格すれば、50万ドルの投資と、世界最高のスタートアップ・コミュニティへのアクセスが提供される。
So apply now and come build the future with us.
今すぐ応募して、私たちと一緒に未来を築きましょう。
If you ask people what AGI was, they would say it's a model that you can actually interact with.
AGIとは何かと聞けば、実際に対話できるモデルだと答えるだろう。
It passes the Turing test.
チューリング・テストに合格している。
It can look at things.
物事を見ることができる。
It can write code.
コードを書くことができる。
It can even draw an image for you.
イメージを描くこともできる。
Way there.
そこまでの道のり
Yeah.
そうだね。
And like we've had this for years.
もう何年もこうしているようなものだ。
And if you said, okay, well, what happens when you get all those capabilities?
そして、もしそうだとしたら、その能力をすべて手に入れたらどうなる?
Say, well, everybody's out of a job and game over for humanity.
みんな職を失い、人類はゲームオーバーだ。
And none of that is happening.
そして、そのどれも実現していない。
I think in the big picture, we're reaching that bottleneck for pre-training and data.
大局的に見れば、事前トレーニングとデータのボトルネックに達していると思う。
But now we have this new mechanism with reasoning and test time compute.
しかし今、私たちは推論とテスト時間の計算という新しいメカニズムを手に入れた。
What we're going to see out of reasoning is that it's really going to unlock the possibility of agents to do actions on your behalf, which has sort of always been possible, but it's just never been quite good enough.
推論から見えてくるのは、あなたの代わりにエージェントが行動する可能性を解き放つということだ。
You really need a lot of reliability.
あなたは本当に多くの信頼性を必要としている。
I think that is now in sight.
それが見えてきたと思う。
Hey guys, we have a real treat today.
やあ、みんな、今日はとっておきのプレゼントがあるんだ。
Bob McGrew, formerly chief research officer at OpenAI.
元OpenAIのチーフ・リサーチ・オフィサー、ボブ・マックグルー。
You were a part of building a lot of the research team.
あなたは多くの研究チームを作る一端を担った。
What was that like early at OpenAI?
OpenAIの初期はどんな感じでしたか?
The really interesting thing about OpenAI is that I did not originally intend to go to a research lab.
OpenAIについて本当に興味深いのは、私はもともと研究所に行くつもりはなかったということだ。
When I left Palantir, I wanted to start a company.
パランティアを辞めたとき、私は会社を立ち上げたかった。
I had a thesis that robotics would be the first real business that was built out of deep learning.
私は、ロボット工学がディープラーニングから構築される最初の実際のビジネスになるだろうという論文を持っていた。
This was back in 2015.
これは2015年のことだった。
And I talked my way into a friend's nonprofit.
そして、友人の非営利団体に入るように説得した。
I never had a badge, but I would go in, he'd open the door for me.
バッジは持っていなかったが、中に入ると彼がドアを開けてくれた。
And I learned deep learning by teaching a robot how to play checkers from vision.
そして私は、ロボットに視覚からチェッカーの遊び方を教えることで、ディープラーニングを学んだ。
And in the process of doing this, I learned a lot about robotics.
そしてその過程で、私はロボット工学について多くを学んだ。
And I learned that robotics was definitely not the right startup to start in 2015 or 2016.
そして私は、ロボット工学は2015年や2016年に始めるべきスタートアップではないことを学んだ。
I ended up going to OpenAI basically because it was a place full of very smart people and it had big ambitions.
私がOpenAIに行くことになったのは、基本的にとても頭のいい人たちが集まっていて、大きな野心を持っている場所だったからだ。
It was a place where I could really learn.
本当に学べる場所だった。
I had all this management experience from Palantir, but it was just a place for me to really become an expert in deep learning.
私はパランティアでマネジメントの経験を積んだが、それはディープラーニングのエキスパートになるための場所だった。
And from there, figure out what it could actually be used and applied for.
そしてそこから、それが実際に何に使われ、応用されうるかを見つけ出す。
What were some of the earliest things that you remember working on?
最初に取り組んだ仕事にはどんなものがありましたか?
And how did that play into what everyone knows OpenAI to be now?
そして、それが現在のOpenAIのあり方にどのように影響しているのでしょうか?
Yeah.
そうだね。
When OpenAI started, the goal was always to build AGI.
オープンAIがスタートしたとき、目標は常にAGIを構築することだった。
But the theory early on was that we would build AGI by doing a lot of research and writing a lot of papers.
しかし、初期の段階では、多くの研究を行い、多くの論文を書くことでAGIを構築するという理論だった。
And we knew that this was a bad theory.
そして、それが間違った理論であることもわかっていた。
I think for a lot of the early people who were startup people, Sam, Greg, myself, it felt painful and a little academic.
サム、グレッグ、そして私自身、スタートアップだった初期の人たちの多くにとって、それは苦痛であり、少しアカデミックなものだったと思う。
But at the same time, it was what we could do at the time.
でも同時に、それが当時の僕らにできることだった。
And so some of the early projects, I worked on a robotics project where we took a robot hand, a humanoid robot hand, and we taught it to solve Rubik's Cube.
初期のプロジェクトでは、ロボットハンド(人型ロボットハンド)を使ってルービックキューブを解かせるというロボット工学のプロジェクトに携わりました。
The idea in doing that was that if we could make the environments complicated enough, the artificial intelligence would be able to generalize out of the narrow domain it was taught and learn something more complicated, which was one of the ideas that later we see coming back with LLMs.
環境を十分に複雑にすることができれば、人工知能は教えられた狭い領域から汎化して、より複雑なことを学習できるようになるだろうというのがその考え方だった。
The other really early big project was solving Dota 2.
もうひとつの本当に初期の大きなプロジェクトは、Dota 2を解決することだった。
So there's a long history of solving games as a path towards building better AI, from Othello to Go.
オセロから囲碁に至るまで、より優れたAIを構築するための道筋としてゲームを解いてきた長い歴史があるわけだ。
And after beating Go, the next hardest set of games are actually video games.
囲碁の次に難しいのは、実はビデオゲームだ。
They're not very classy, but they're a lot of fun.
あまり上品ではないが、とても楽しい。
And I can assure you that mathematically, they were harder.
そして、数学的にはもっと難しかったと断言できる。
And so DeepMind went after StarCraft, OpenAI went after Dota 2.
そしてディープマインドはスタークラフトを、オープンAIはDota 2を狙った。
And there was real insight that was generated there, which was that it really strengthened our belief that scale was the path to improving artificial intelligence.
そして、そこで生まれた真の洞察があった。それは、スケールこそが人工知能を向上させる道であるという私たちの信念を、より強固なものにしたということだ。
That with Dota 2, the secret idea was that we could take huge amounts of experience and feed it into a neural network, and that the neural network would actually learn and generalize from that.
Dota 2の秘密のアイデアは、膨大な量の経験をニューラルネットワークに送り込み、ニューラルネットワークがそこから実際に学習して汎化するというものだった。
And later, we actually went back and applied this to the robot hand, and that became the key idea for the robot hand.
そして後日、私たちは実際に戻ってこれをロボットハンドに応用し、それがロボットハンドの重要なアイデアとなった。
And at the same time as these two big projects were going on, Alec Radford was experimenting with language.
そして、この2つの大きなプロジェクトが進行しているのと同時に、アレック・ラドフォードは言語の実験を行っていた。
And the core idea behind GPT-1 is that if you have a transformer, and you apply this super simple objective of guessing the next token, guessing the next word, that that would be enough signal that you could actually have something that would be able to generate coherent text.
GPT-1の核となるアイデアは、もしトランスフォーマーがあり、次のトークンを推測し、次の単語を推測するという超シンプルな目的を適用すれば、首尾一貫したテキストを生成することができるものを実際に作るのに十分なシグナルになるということだ。
And in retrospect, it sounds sort of obvious, right?
今にして思えば、当たり前のことだと思うだろう?
Like, you know, clearly this was going to work, but no one thought this would work at the time.
明らかにうまくいきそうだったのに、当時は誰もうまくいくとは思っていなかった。
Alec really had to persevere for years in order to make this work, and that became GPT-1.
アレックはこれを成功させるために何年も辛抱しなければならなかった。
And then after GPT-1 seemed successful, we brought in the ideas from Dota and from the robot hand of training at larger and larger amounts of scale, and training on a really diverse set of data, and looking for generalization.
GPT-1が成功したように見えた後、私たちはDotaとロボットハンドから、より大規模なスケールでのトレーニング、本当に多様なデータセットでのトレーニング、そして汎化を探すというアイデアを取り入れた。
And together, that brings you to GPT-2, and GPT-3, and GPT-4.
そしてGPT-2、GPT-3、GPT-4と続く。
So one of the things that OpenAI really pioneered and sort of figured out was this concept of scale.
だから、オープンAIが本当に先駆的で、ある種解明したことのひとつは、このスケールの概念だった。
How is it that it was OpenAI that made the right decisions and sort of found large language models first?
正しい決断を下し、大規模な言語モデルを最初に見つけたのがOpenAIだったというのは?
Early on, there were sort of a couple big projects, as I said, and then some room for exploratory research.
初期には、私が言ったように、2、3の大きなプロジェクトがあり、それから探索的な研究の余地があった。
And at the very earliest days, the exploratory research was really about what the researcher wanted to do, but also it was about sort of the company's opinion.
そして、最も初期の頃の探索的調査は、研究者が何をしたいかということであると同時に、ある種の会社の意見でもあった。
And in this, it was primarily formed by Ilya, with influence from a lot of people, but I think Ilya was really the guiding light here early on.
その中で、主にイリヤによって形成され、多くの人たちから影響を受けたが、イリヤは本当に早い段階からここでの導き手だったと思う。
Sometimes I think about the OpenAI culture, and I like to oppose it to sort of Google Brain and to DeepMind.
時々、私はOpenAIの文化について考えることがあるが、Google BrainやDeepMindのようなものと対立させたい。
And so early on, the DeepMind culture was a caricature.
だから、ディープマインドの文化は初期には風刺画のようなものだった。
Demis had a big plan, and he wanted to hire a bunch of researchers so he could tell them to move forward with his plan.
デミスは大きな計画を持っていて、研究者を大勢雇い、自分の計画を進めるように指示したかった。
And Google Brain said, let's rebuild academia.
そしてグーグル・ブレインは、アカデミアを再建しようと言った。
Let's like bring in all these super talented researchers.
超優秀な研究者を集めよう。
Let's not tell them anything.
彼らには何も言わないでおこう。
Let's just let them figure out what they want to do, give them lots of resources and hope that amazing products pop out.
彼らが何をしたいのかを考えさせ、多くのリソースを与え、素晴らしい製品が生まれることを期待しよう。
And of course they did, but they didn't necessarily happen at Google.
もちろんそうだが、それは必ずしもグーグルで起こったことではない。
And we took a different approach, which was really more like a startup, where there was no sort of big centralized plan, but at the same time, people didn't have, it wasn't just sort of, let's let a thousand flowers bloom.
そして私たちは、よりスタートアップに近い、中央集権的な大掛かりな計画はないけれども、同時に、ただ千の花を咲かせようというようなアプローチはとらなかった。
Instead, we had opinions about what needed to be done and things like, how do you show scale as a way of making your idea get better?
その代わり、何をすべきかについて意見を出し合い、アイデアをより良くする方法としてスケールをどう見せるか、といったようなことを考えた。
And that opinion was set by the research leadership.
そして、その意見は研究指導者によって決められた。
Again, early on, people like Ilya, people like Dario, that was how we made sure that we didn't just sort of throw resources at everybody, but neither did we have just one set of ideas that were there.
繰り返しになるが、イリヤやダリオのような人たちが初期にいたからこそ、私たちは皆にリソースを投じるだけでなく、ひとつのアイデアだけを持つこともなかった。
We found this sort of happy medium between the two.
私たちは、この2つの中間のようなものを見つけた。
I guess one of the critiques of maybe pure academia or some of the AI research labs, we don't have to name any of them, but we've heard stories about looking at the number of researchers on any given paper, there might be way more people on it.
純粋なアカデミアやAIの研究所に対する批判のひとつは、名前を挙げる必要はないのですが、ある論文の研究者の数を見ると、もっと多くの人が参加しているかもしれないという話を聞いたことがあります。
And if you really dig into some of the papers there, they look like maybe a little bit of this plus a little bit of that.
そして、その論文のいくつかを本当に掘り下げてみると、たぶん、これとあれを少し足したようなものに見える。
And that sort of reflected the nature of that's what it took to get compute.
そして、それがコンピュートを手に入れるために必要なことの本質を反映したようなものだった。
And this is at other AI labs.
そして、これは他のAI研究所でのことだ。
I mean, what was it about open AI where you were able to sort of avoid that?
つまり、オープンAIでそれを回避できたのはなぜか?
Well, I think the paper example is a really interesting example, because I think that's sort of both good and bad.
まあ、論文の例は本当に興味深い例だと思う。
I am hugely positive on academics and researchers, but actually pretty negative on academia.
私は学者や研究者に対しては大いに肯定的だが、実は学問に対してはかなり否定的だ。
I think academia is good for this very narrow thing of small groups, trying out crazy ideas, but academia has a lot of incentives that prevent people from collaborating.
アカデミアは、少人数でクレイジーなアイデアを試すという非常に狭い範囲での活動には適していると思うが、アカデミアには人々が協力することを妨げるインセンティブがたくさんある。
And in particular in academia, there's this obsession with credit.
特に学問の世界では、単位に執着する傾向がある。
One of the things that's interesting about the way that papers have turned out in big labs is that early on we made the decision that we would try to be as Catholic as possible in putting everybody's name on it.
大きな研究室での論文の出来上がり方について興味深いことのひとつは、早い段階から、できるだけカトリック的に全員の名前を載せるようにしようと決めていたことだ。
And one of the early robotics papers, we actually said cite as open AI because we didn't wanna get into a fight.
初期のロボット工学の論文の1つで、私たちは喧嘩になりたくなかったので、オープンAIとして引用すると言ったんだ。
The first author is the one who gets cited and their name shows up every single time.
最初の著者が引用され、その名前が毎回表示される。
So we said, we're not gonna try to have this fight.
だから私たちは、この試合をするつもりはないと言ったんだ。
We're not gonna say who is the person who really did it.
誰が本当にやったのかは言わない。
We're just gonna say cite as open AI.
私たちはオープンAIと言うだけだ。
And I think that is actually a really important cultural piece, the ability to accept that people want credit, but to be able to channel it into, it's your internal reputation, not the position you have on the paper that really matters.
人々が信用を欲しがっていることを受け入れ、その信用を紙面上の地位ではなく、社内での評判に振り向けることができるかどうかが本当に重要なのです。
And for a long time, open AI didn't really have any titles except for always a CEO title, right?
そして長い間、オープンAIにはCEOという肩書き以外、何の肩書きもなかったよね?
But didn't really have a lot of titles within the organization itself.
しかし、組織内ではあまり肩書きがなかった。
People always knew who the great researchers were.
偉大な研究者が誰なのか、人々は常に知っていた。
Once you have the scaling laws and certainly how AI research is being done now, there's sort of this shift where basically scale is all you need for increasingly more and more AI domains.
スケーリングの法則が確立され、AI研究がどのように行われているかが明らかになれば、ますます多くのAI領域で、基本的にスケールさえあればいいというシフトが起こります。
It's sort of potentially coming true in image diffusion models or in earlier to bring it back to what you're starting out with.
画像拡散モデルや、より早い段階で、あなたが最初に始めたことに戻すことで、それが実現する可能性があるんだ。
There's some sense that similar principles to scaling laws actually do apply in the right domains in robotics.
スケーリングの法則と似たような原理が、ロボット工学の適切な領域で実際に適用されるという感覚はある。
Is that sort of one of the things that you're seeing or how would you respond to that?
それはあなたが見ていることの一つですか、それともそれに対してどう対応しますか?
I think if you look at AI progress, you see scaling laws all over the place.
AIの進歩を見ると、スケーリング法則があちこちに見られると思う。
And so the interesting question is, well, if scaling laws exist and they're commonplace, what does that mean?
スケーリング法が存在し、それが一般的なものだとしたら、それは何を意味するのか?
What does that mean for you if you're a company, if you're a researcher, if you're trying to make things better?
もしあなたが企業であり、研究者であり、物事をより良くしようとするのであれば、それはあなたにとって何を意味するのだろうか?
Why didn't we take advantage of scaling laws earlier in these other domains?
なぜ、他の領域でもっと早くスケーリング法則を利用しなかったのだろうか?
Well, I think we were really trying to.
まあ、私たちは本当にそうしようとしていたと思う。
Usually in order to, the first step is actually getting to a scaling law.
通常、そのためには、まずスケーリングの法則に到達する必要がある。
To take an example that's not LLMs.
LLM以外の例を挙げるとすれば。
If you think about Dolly, which was how do you take text and make an image out of it?
ドリーについて考えてみると、テキストをどうやって画像にするのか?
I think Aditya Ramesh who built that model spent 18 months, maybe two years just getting to the first version that clearly worked.
あのモデルを作ったアディティヤ・ラメッシュは、明らかに機能する最初のバージョンを完成させるのに18カ月か、2年ぐらい費やしたと思う。
So I remember he'd be working on this and Ilya would come and show me, he'd be like, Aditya's been working on this for a year.
イリヤがやってきて僕に見せてくれたんだ。
He's trying to make a pink panda.
彼はピンクのパンダを作ろうとしている。
That's skating on ice because it's something that's clearly not in the training set.
それは氷上のスケートで、明らかにトレーニングセットにはないものだからだ。
And here's an image and you can see it's like pink up there and white down there.
これがその画像で、上がピンクで下が白いのがわかるだろう。
It's really beginning to work.
本当にうまくいき始めている。
And I would look at that.
そして、私はそれを見るだろう。
I'd be like, really?
本当に?
I mean, maybe, maybe, I don't know.
つまり、多分、多分、分からない。
But just getting to that point where it's sort of plausibly begins to work is a huge difficult problem.
しかし、それがもっともらしく機能し始めるところまで到達するだけでも、非常に難しい問題なのだ。
And it's completely separate from using scaling laws.
そしてそれは、スケーリング法則を使うこととはまったく別のことだ。
Now, once you get it to work, that's when scaling laws come into play.
さて、それが機能するようになれば、スケーリングの法則が効いてくる。
And with scaling laws, you have two hard things that you can do.
そしてスケーリング法では、2つの難しいことがある。
One of them is just the pure scale itself.
そのひとつは、純粋なスケールそのものだ。
Scaling is not easy.
スケーリングは簡単ではない。
It is in fact, probably the practical problem in any sort of model building.
実際、これはあらゆる模型製作における現実的な問題だろう。
And it's a systems problem.
これはシステムの問題だ。
It's a data problem.
データの問題だ。
It's an algorithmic problem.
アルゴリズムの問題だ。
Even if you're just trying to scale the same architecture.
同じアーキテクチャーを拡張しようとしているだけでもね。
The second thing you can do is you can try to change the slope of the scaling law or just bump it up a little bit.
もうひとつは、スケーリング則の傾きを変えてみるか、少し上げてみることだ。
And that is searching for better architectures, searching for better optimization algorithms, all of the algorithmic improvements that you can do.
そしてそれは、より優れたアーキテクチャーの探求であり、より優れた最適化アルゴリズムの探求であり、あなたができるすべてのアルゴリズムの改良なのです。
And if you put all of those together, that is what explains the very fast progress that we're seeing in AI today.
そして、それらをすべて合わせると、今日のAIの急速な進歩が説明できる。
I guess that is one of the bigger debates that's ongoing certainly out there in the community.
それは、コミュニティーの中で現在進行形で行われている大きな議論のひとつだと思う。
Are the scaling laws going to continue to hold or are we hitting some sort of bottlenecks?
スケーリングの法則はこのまま維持されるのか、それとも何らかのボトルネックにぶつかっているのか。
I don't know how much you can talk about it, but what's your view at this point on maybe LLM scaling, but certainly other domains too?
どこまで話せるかわかりませんが、LLMのスケーリングについて、あるいは他の領域についても、現時点ではどのようにお考えですか?
It is definitely the case that there is a data wall and that if you take the same techniques that we were using to scale LLMs, at some point you're going to run into that.
データの壁があるのは確かで、LLMのスケールに使っていたのと同じテクニックを使えば、ある時点でその壁にぶつかることになる。
The thing that's been really exciting, of course, is going from the LLM scaling of pre-training where you're just bringing bigger and bigger corpuses and trying to predict the next token and shifting gears and using techniques like reasoning, which OpenAI has shipped and it's 01 and 03 models and Gemini has now also shipped in Gemini Flash thinking.
もちろん、本当にエキサイティングだったのは、より大きなコーパスを持ち込んで次のトークンを予測しようとする、LLMのスケーリングによる事前学習からシフトチェンジして、推論のようなテクニックを使うようになったことです。
If you think about Moore's law, with Moore's law, Moore's law is one big exponential curve, but it's actually the sum of a bunch of little S-curves.
ムーアの法則について考えてみると、ムーアの法則は1つの大きな指数曲線ですが、実際には小さなS字曲線の束の総和です。
And you start off with Dennard scaling and at some point that breaks.
そしてデナードのスケーリングでスタートし、ある時点でそれが崩れる。
But if you think about how NVIDIA has gone, Moore's law has continued.
しかし、エヌビディアの歩みを考えると、ムーアの法則は続いている。
It's just come through a different mechanism.
ただ、違うメカニズムで来ただけだ。
So you solve some bottleneck, but then you S-curve that particular solution.
つまり、あるボトルネックを解決し、その特定の解決策をS字カーブさせるわけだ。
But there are other places where there are other bottlenecks.
しかし、他にもボトルネックになっている場所がある。
And then you have a new bottleneck and you have to go attack that.
そして新たなボトルネックが生まれ、そこを攻めなければならない。
And so, I think in the big picture, we're reaching that bottleneck for pre-training and data.
だから、全体像としては、事前トレーニングとデータのボトルネックに到達していると思う。
Are we exactly there?
我々はまさにそこにいるのだろうか?
It's a little hard to say.
ちょっと言いにくいんだ。
But now we have this new mechanism with reasoning and test-time compute.
しかし今は、推論とテストタイム・コンピュートという新しいメカニズムがある。
I think if you go back and you think about what it took for AI, for building AGI, for, I would say the last five years, people have thought that, people at the big frontier labs have felt that, you know, step one was pre-training and that the remaining gap to have something that could scale all the way to AGI was reasoning.
過去5年間、AIやAGIを構築するために何が必要だったかを考えてみると、大きなフロンティア研究所の人たちは、第1段階は事前訓練であり、AGIまで拡張できるものを作るための残りのギャップは推論だと考えてきました。
Some ability to take the same pre-trained model and have the ability to give it more time to think or more compute of various kinds and get a better answer at the other end.
同じように事前に訓練されたモデルを使って、考える時間を増やしたり、さまざまな種類の計算をさせたりして、より良い答えを得ることができる。
And now that that has been cracked, at this point, I think we actually have a very clear path to just focus on scaling.
そして今、その問題は解決され、私たちはスケーリングに集中することができるようになった。
You know, we were, you know, talking about that, you know, the zero to one part that's not about scaling.
私たちは、スケーリングについてではなく、ゼロからイチへの部分について話していたんだ。
I think there's a really strong case to be made that in LLMs, that's not relevant anymore.
LLMでは、それはもう関係ないというのが本当に強い主張だと思います。
And that now we're in the pure scaling regime.
そして、今は純粋なスケーリング体制に入っている。
I'm pretty impressed by the five levels of AGI and that it feels like things are basically playing out the way that original post on the OpenAI website sort of described it.
AGIの5つのレベルと、OpenAIのウェブサイトに掲載されたオリジナルの記事のような形で、基本的に物事が進んでいるように感じられることに、私はかなり感銘を受けている。
It's, you know, reasoners are here.
理性派がここにいるんだ。
And then I'm hearing a ton about innovators.
それから、イノベーターについてもよく耳にする。
So taking a thing like O3 or, you know, maybe when O3 Pro comes out, that'll be a real moment where you can hook that up to a bio lab and have, you know, sort of autonomous exploration of, you know, scientific spaces.
O3のようなもの、あるいはO3 Proが発売されれば、バイオラボに接続して、科学的な空間を自律的に探索できるようになる。
What can you say about that stuff?
そんなものについて何が言える?
The really interesting thing about that is we're probably going to be blocked for now on the ability of the models to work in the physical world.
それに関して本当に興味深いのは、物理的な世界で機能するモデルの能力については、おそらく今のところブロックされているということだ。
It's going to be a little strange.
少し奇妙なことになりそうだ。
We're probably going to have a model that can explore scientific hypotheses and figure out how to run experiments with them before we have something that can actually run the experiments themselves.
私たちはおそらく、科学的仮説を探求し、それを使って実験を行う方法を見つけ出すことができるモデルを、実際に実験そのものを行えるものができる前に手に入れることになるだろう。
And so maybe that's one of those new S-curves.
それが新しいS字カーブのひとつなのかもしれない。
We're back to robotics then.
では、ロボット工学に戻ろう。
Yeah, exactly.
ああ、その通りだ。
And we're back to robotics.
そしてロボット工学に戻る。
The other thing that I think is really interesting that the reasoning models enable is agents.
もうひとつ、推論モデルが可能にすることで本当に面白いと思うのは、エージェントだ。
And it's a very generic term.
そして、それは非常に一般的な言葉だ。
It's probably a little overplayed.
少しオーバープレーだろう。
But, you know, fundamentally what reasoning is, is it's the ability for a model to have a coherent chain of thought that is steadily making progress on a problem over a long period of time.
しかし、基本的に推論とは何かというと、それはモデルが首尾一貫した思考の連鎖を持ち、長い時間をかけて着実に問題を解決していく能力なんだ。
And the techniques that give that to you in terms of thinking harder also apply to taking action, you know, in the real world, in the virtual world.
そして、より難しく考えるという点で、そのテクニックは行動を起こす際にも応用できる。
I think what we're going to see out of reasoning, out of long thinking, is that it's really going to unlock the possibility of agents to do actions on your behalf, which, you know, has sort of always been possible, but it's just never been quite good enough.
推論や長い思考から見えてくるのは、自分の代わりに行動するエージェントの可能性が解き放たれるということだ。
And you really need a lot of reliability.
そして、あなたは本当に多くの信頼性を必要としている。
And in order for you to be willing to wait five minutes or five hours in order for something to happen, it's got to actually work at the end.
そして、何かが起こるために5分でも5時間でも待つことを厭わないためには、最後にそれが実際に機能しなければならない。
And I think that is now in sight.
そして今、それが見えてきたと思う。
The thing that prevents people from trusting an agent to do the action is that mainly a frequency of how often is that action the correct action versus the wrong action.
人々がエージェントの行動を信頼するのを妨げるものは、主にその行動が正しい行動か間違った行動かという頻度である。
Yeah.
そうだね。
There's a rule of thumb that I like, if you want to go, if you want to add a nine, if you want to go from 90 to 99 percent or 99 to 99.9 percent, that's maybe an order of magnitude increase in compute.
私が好きな経験則があるのだが、もし90%から99%、あるいは99%から99.9%にしたいのであれば、計算量は1桁増えることになる。
And historically, we've only been able to make order of magnitude increases in compute by training bigger models.
そして歴史的には、より大きなモデルをトレーニングすることでしか、桁違いの計算量の増加を実現できなかった。
And now with reasoning, we're able to do that by letting the models think for longer.
そして今、推論によって、モデルに長い時間考えさせることでそれが可能になった。
And look, letting the models think for longer, this is a really hard problem.
モデルにはもっと長い時間考えさせなければならないが、これは本当に難しい問題だ。
With O1, with O3, you know, you're getting longer and longer chains.
O1でもO3でも、チェーンはどんどん長くなっている。
It requires more scaling.
もっとスケーリングが必要だ。
We just talked about scaling is, you know, the central problem.
今、スケーリングが中心的な問題だと話したばかりだ。
So this is not easy.
だから、これは簡単なことではない。
It's not done by any means.
決して終わってはいない。
But there's a very clear path now that allows you to get to those higher and higher levels of reliability.
しかし、今はより高いレベルの信頼性を得るための明確な道筋がある。
And I think that unlocks so many things downstream.
そして、そのことが川下で多くのことを解き放つのだと思う。
What do you think's happening with like distillation?
蒸留で何が起きていると思う?
I was looking at some of these sort of capability graphs of some of the mini models, and it sounds like basically the mini models increasingly are getting better and better.
いくつかのミニモデルの能力グラフを見ていたのですが、基本的にミニモデルはますます良くなっているようですね。
Is that like sort of a function of parent models teaching, sort of child models or, you know, what's happening there and what can people expect?
それは、親モデルが教えることなのか、子供モデルなのか、それともそこで何が起きていて、人々は何を期待できるのか?
Yeah, I think over the last year, the big frontier labs and a lot of other people have figured out the tricks to take big models and, you know, take a very particular distribution of user input and train a model that is that is almost as good as the big model, but much, much smaller and much, much faster.
昨年、大手フロンティア・ラボや他の多くの人たちが、大きなモデルを使い、ユーザー入力の非常に特殊な分布を利用して、大きなモデルとほぼ同等の性能を持ちながら、はるかに小さく、はるかに高速なモデルを訓練するトリックを発見したと思う。
And so I think we're going to see this a lot going forward, especially if you look at, the Sonnet versus Haiku, you know, Gemini versus Gemini Flash, you know, O1 versus O1 mini, 4.0 mini.
特に、ソネット対俳句、ジェミニ対ジェミニ・フラッシュ、O1対O1ミニ、4.0ミニなどを見れば、今後、このような光景を目にすることが多くなると思う。
Every lab has really focused on this.
どの研究室も、この点に本当に力を入れている。
And in fact, you see distillation as a service coming.
そして実際、サービスとしての蒸留が始まっている。
What would you say to people watching who are trying to make AI startups right now?
今、AIスタートアップを作ろうとしている人たちに一言お願いします。
Often they're vertical startups, but some of them are consumer too, actually.
縦割りの新興企業が多いが、実は消費者向けの企業もある。
Yeah, I would say if you're a founder, the right approach is to start with the very best model you can because, you know, your startup is only going to be successful if it exploits something about AI that realistically is going to be on, you know, the frontier.
もしあなたが創業者なら、できる限り最高のモデルから始めるのが正しいアプローチだと言えるでしょう。なぜなら、あなたのスタートアップが成功するのは、現実的にフロンティアになりそうなAIに関する何かを利用する場合だけだからです。
So start with the very best model that you can and get it to work.
だから、できる限り最高のモデルから始めて、それを使えるようにする。
And once you've gotten it to work, then you can use distillation.
そして、それがうまくいくようになったら、蒸留を使えばいい。
You can take a dumber model and you can try prompting it.
もっと間抜けなモデルを使って、それを促してみることもできる。
You can try to have the frontier model, train the smaller model.
フロンティアモデルを持ち、より小さなモデルを訓練することができる。
But, you know, the most important thing in a startup is actually your time, right?
でもね、スタートアップで一番大事なのは、実は自分の時間なんだよ?
You don't want to be, unless you have to, you don't want to be like Palantir taking three years to get to market.
必要でない限り、パランティアのように市場投入に3年かかるようなことは避けたい。
You want to be able to build that product as quickly as possible.
その製品をできるだけ早く作りたい。
And only once you've actually figured out where the value is, probably by iterating with your user, then you can think about cost.
そして、おそらくユーザーと一緒に繰り返すことによって、価値がどこにあるのかを実際に見つけ出して初めて、コストについて考えることができる。
Working backwards, it sort of feels like the movie Her is more or less inevitable.
逆算すると、映画『Her』は多かれ少なかれ必然だったような気がする。
I am a little skeptical of the deep emotional connection, you know, that, you know, guys are going to have AI girlfriends.
私は、男たちがAIのガールフレンドを持つような、深い感情的なつながりには少し懐疑的だ。
I think that's not what guys are looking for in a girlfriend, frankly.
率直に言って、男が彼女に求めているのはそういうことじゃないと思う。
I think, you know, an AI that shops for you, well there it's really helpful to know a lot about your preferences.
AIがあなたの代わりに買い物をしてくれるのなら、あなたの好みをたくさん知ることができて本当に便利だと思う。
An AI that is your assistant at work.
あなたのアシスタントとして働くAI。
Again, very helpful to know about your preferences.
今回も、あなたの好みを知ることができてとても助かりました。
One other thing I think would be cool would be an AI that it's Gary's AI bot.
もうひとつクールだと思うのは、ゲーリーのAIロボットのようなAIだ。
And if I want to know what Gary's thinking, I could just ask your AI bot.
ゲイリーが何を考えているのか知りたければ、あなたのAIボットに聞けばいいだけだ。
And if I get a good enough answer, then I can go about my job.
そして、十分な答えが返ってくれば、私は自分の仕事をすることができる。
And if not, then I have to, you know, actually bother you in person.
そうでない場合は、実際にあなたに会いに行くことになる。
You know, I think that would be just a tremendous feat of personalization if you could make something like that happen.
もしそんなことが実現できたら、パーソナライゼーションのとんでもない偉業だと思うよ。
And anything that works with you at work needs a huge amount of context about you.
そして、仕事であなたと一緒に働くものは、あなたに関する膨大な量のコンテクストを必要とする。
It should be able to, you know, see your slacks and your Gmail and all the different productivity tools that you have.
スラックスやGmail、そしてあなたが持っているさまざまな生産性ツールを見ることができるはずだ。
And I think it's actually surprising.
そして、それは驚くべきことだと思う。
You know, I think this is actually a real hole in the market because that's not something I can go out and purchase today.
今日買いに行くようなものではないからだ。
I mean, in my mind's eye, what I can imagine is kind of like a super intelligent genie.
つまり、私の頭の中で想像できるのは、超知的な精霊のようなものだ。
It knows, you know, who you are, what you're about, and it might actually know, you know, your job, your goals in life.
それは、あなたが誰であるか、あなたが何について考えているか、そしてあなたの仕事や人生の目標を知っているかもしれない。
And it'll actually tell you, oh, hey, you should probably do this.
そして、実際に、ああ、ねえ、こうしたほうがいいんじゃない?
And it might go out and get an appointment for you.
そして、あなたのためにアポイントを取りに行くかもしれない。
And like, oh, yeah, it's time to take the LSAT, buddy.
そして、ああ、そうだ、LSATを受ける時が来たんだ。
You said you wanted to, you know, go be a lawyer.
君は弁護士になりたいと言っていたね。
Like, well, this is the first step.
これが最初の一歩だ。
You know, do you want to do it?
やりたい?
Yes or no.
イエスかノーか。
Right.
そうだね。
You know, and there's something really interesting about this idea because I think it's very compelling that, you know, the AI is your life coach, but then it goes back to like, so what are you even doing with your life in the first place?
AIがあなたのライフコーチになるというのはとても説得力があると思うし、そもそもあなたは自分の人生で何をしているのか?
Right.
そうだね。
If the AI is better than you.
AIがあなたより優れていればね。
And I think there's actually a really deep mystery here.
そして、ここには実に深い謎があると思う。
When we were first thinking about GPT-1 back in 2018, you know, if you asked people what AGI was, they would say, well, you know, it's, it's, you know, a model that you can actually interact with.
GPT-1について考えていた2018年当時、AGIとは何かと聞けば、彼らはこう答えた。
It passes the Turing test.
チューリング・テストに合格している。
It can look at things.
物事を見ることができる。
It can write code.
コードを書くことができる。
It can even draw an image for you.
イメージを描くこともできる。
We're there.
我々はそこにいる。
Yeah.
そうだね。
And like, we've had this for years, right?
それに、もう何年もやっていることだろう?
And if you said, OK, well, what happens when you get all those capabilities?
そして、もしOKなら、その能力をすべて手に入れたらどうなるか?
Say, well, everybody's out of a job.
みんな仕事がないんだ。
You know, all laptop jobs are immediately automated and game over for humanity.
ラップトップの仕事はすべて自動化され、人類はゲームオーバーになる。
And none of that is happening, right?
そして、そのようなことは何も起こっていない、そうだろう?
I mean, yes, AI has had some effects, you know, particularly on people who write code, but, you know, I don't think you can see it in the productivity statistics, unless it's about how big the data centers are that we're building.
つまり、AIは、特にコードを書く人たちに何らかの影響を及ぼしているが、生産性の統計では、我々が構築しているデータセンターの規模についてでない限り、それを見ることはできないと思う。
And I think this is a really deep mystery.
これは本当に深い謎だと思う。
Why is it that AI adoption is so slow relative to what we thought should be happening in 2018?
2018年に起こるはずだと思われていたことに比べて、AIの導入があまりに遅れているのはなぜだろう?
What you just said really reminds me of our days at Palantir, actually, where, you know, one of the core missions that, you know, Palantir started with, really, is this idea that, you know, the technology is already here.
あなたの話を聞いていると、パランティアでの日々を思い出します。パランティアは、「テクノロジーはすでにここにある」という考え方からスタートしました。
It's just not evenly distributed.
ただ、均等ではない。
And I feel like that was one of the things you guys actually really discovered.
そしてそれは、あなたたちが実際に発見したことのひとつだったような気がする。
And, you know, part of the reason why Palantir actually exists, it's you went into places in government, three-letter agencies, some of the most impactful decisions that a society might have to make.
パランティアが実際に存在する理由のひとつは、あなたが政府機関や三権分立の機関など、社会が下すべき最も影響力のある決断の場に足を踏み入れたからです。
And you look around and there was no software in there.
そして周りを見渡しても、そこにはソフトはなかった。
And that was what Palantir and certainly Palantir government was very early on.
それがパランティアであり、パランティア・ガバメントだった。
The fun piece there was just, you know, thinking through what it is that these people do and then how you could just completely reimagine it with technology, where, you know, if you were checking to see if a particular, you know, person who was flying into the U.S. had, you know, a record or if there was any suspicion, you know, you look through 20 different databases.
その中で面白かったのは、彼らが何をしているのかを考え、それをテクノロジーで完全に再構築する方法だ。例えば、米国に入国する特定の人物に前科がないか、何か疑わしい点がないかをチェックする場合、20の異なるデータベースに目を通す。
One approach would be to say, well, let's make it faster to look through 20 different databases.
ひとつのアプローチとして、20の異なるデータベースをより速く調べられるようにしよう、というものがある。
Another approach is to say, well, maybe, you know, you can just do look for it once and it checks all the databases for you.
もうひとつのアプローチは、一度検索すればすべてのデータベースをチェックしてくれる、というものだ。
And, you know, I think that's the, like that we need some twist like that for AI that lets people figure out how to use the AI to solve the problem they actually have, not just sort of take their existing workflow and have AI do that work.
既存のワークフローをAIにやらせるのではなく、実際に抱えている問題を解決するためにAIをどのように使うかを人々に考えさせるような、そんな工夫がAIには必要だと思うんだ。
Yeah, it's like not just having the data, it's not just having the intelligence.
そう、単にデータを持っているだけでなく、インテリジェンスを持っているだけでもないんだ。
I mean, what AI desperately needs right now is, like you said, the UI, the software, it's just building software.
つまり、AIに今必要なのは、あなたが言ったようにUIであり、ソフトウェアであり、ソフトウェアを作ることなんだ。
And if you can put that in a package that a particular person really, really needs, I feel like that's one of the big things that we learned at Palantir.
そして、特定の人が本当に本当に必要としているものをパッケージ化することができれば、それがパランティアで学んだ大きなことの1つだと感じています。
It's like there's a whole job that is exactly that, forward deployed engineer.
まさに、前線に配備されたエンジニアという仕事があるようなものだ。
It's a very evocative term, right?
とても連想しやすい言葉でしょう?
Like forward deployed, you're not way back at the HQ, you're all the way in the customer's office.
前方展開のように、あなたは本社にいるのではなく、顧客のオフィスにいるのです。
You're sitting right next to them at their computer watching how they do something.
あなたはコンピューターに向かっている彼らのすぐ隣に座り、彼らがどのように何かをするのかを見ている。
And then you're making the perfect software that they would never get access to.
そして、彼らが決してアクセスできないような完璧なソフトウェアを作るのだ。
Like the alternative is Excel spreadsheet, writing SQL statements yourself or cost plus, you know, government integrator or like Accenture.
代替案としては、エクセルのスプレッドシート、自分でSQL文を書く、あるいはコストプラス、政府系インテグレーターやアクセンチュアのようなものです。
And they're never going to get something usable.
そして、彼らは決して使えるものを得ようとはしない。
Whereas a really good engineer who's a good designer, who can understand exactly what that person is, you know, needs and is trying to do, they can build the perfect thing for that very person.
一方、優れた設計者である本当に優れたエンジニアは、その人が何を必要とし、何をしようとしているのかを正確に理解することができる。
And so maybe that's the answer to your question.
それがあなたの質問に対する答えかもしれない。
Like, why didn't it happen yet?
なぜまだ起きないんだ?
It's like, we just need more software engineers who are like that forward deployed engineer to link up the intelligence.
インテリジェンスを結びつけるために、前方に配置されたエンジニアのようなソフトウェア・エンジニアがもっと必要なんだ。
And we're there.
そして我々はそこにいる。
I think it's really funny because, you know, if you think back to 2015, when I left Palantir, people were skeptical of Palantir because of the existence of the forward deployed engineers.
というのも、私がパランティアを退社した2015年を思い返すと、前線に配備されたエンジニアの存在によって、人々はパランティアに懐疑的だった。
If you had a really good product, you wouldn't need the forward deployed engineers.
本当に良い製品があれば、前線に配備されたエンジニアは必要ない。
You wouldn't need to specialize it to every customer.
すべての顧客に特化する必要はないだろう。
And, you know, wait five years and Palantir has a great IPO.
そして、5年待てばパランティアは素晴らしいIPOをする。
Wait 10 years.
10年待て。
It's a very valuable company.
とても価値のある会社だ。
Suddenly everybody is talking about building their forward deployed engineering function.
突然、誰もが前方に配置されたエンジニアリング機能の構築について話している。
And I think it's a good thing.
それはいいことだと思う。
I think, you know, hopefully this gives us a lot of software that is actually very tuned to what the customers need, not just something off the rack that you then say, well, there's a way to accomplish what you can do.
私は、このようなソフトウェアが、単に既製品のようなものでなく、顧客が必要としているものに非常に適したものであることを望んでいる。
Go figure it out.
自分で考えろ。
Bob, both of us are parents and, you know, we just spent a lot of time talking about some pretty wild concepts that are about to affect all of society.
ボブ、私たちは2人とも親であり、社会全体に影響を与えようとしている、かなり荒唐無稽なコンセプトについて多くの時間を費やして話し合ったところなんだ。
Has that affected how you think about, you know, what we should be doing with our kids?
そのことは、私たちが子供たちと何をすべきかということについて、あなたが考えることに影響を与えましたか?
I really struggle with this.
これには本当に苦労している。
And there's a very crisp version of this for me, which is that my eight year old son is really excited about coding.
8歳の息子はコーディングにとても興奮している。
He actually is really excited.
彼は本当に興奮している。
He wants to start a company.
彼は会社を興したがっている。
He has a great name and it's going to do asteroid mining and all sorts of cool stuff.
彼は素晴らしい名前を持っているし、小惑星の採掘やあらゆる種類のクールなことをするつもりだ。
And so every day he says, you know, dad, can you teach me a little bit about how to code?
それで毎日、彼はこう言うんだ、『お父さん、コードの書き方をちょっと教えてくれない?
This is actually what I do most with language models is I have the language model.
これは私が言語モデルで一番やっていることなんですが、言語モデルを持っているんです。
I figure out what he's interested in.
私は彼が何に興味を持っているのかを把握する。
I have the language model, make a lesson for him that teaches some idea that I want to teach him.
私は言語モデルを持ち、私が教えたい考えを教えるレッスンを彼のために作る。
Like it teaches about networking or teaches him about loops and it fits his idea.
ネットワークについて教えてくれるとか、ループについて教えてくれるとか、彼の考えにぴったりなんだ。
And my wife asked, why are you doing this if the language models are going to be able to code?
すると妻が、言語モデルがコーディングできるようになるのに、なぜこんなことをするのか、と尋ねた。
And I think the answer is that like right now, we still have to like, this is how you learn how to do critical thinking.
そしてその答えは、今はまだ、クリティカル・シンキングの方法を学ぶにはこうするしかない、ということだと思う。
And, you know, I think back to Paul Graham's idea of the resistance of the medium, like even once, you know, the computer can do the programming for you.
そして、ポール・グラハムの媒体の抵抗という考えを思い出すんだ。
I think there's still something to having like had your hands in it yourself and knowing what's possible and what's not possible and that you can have that intuition.
自分で手を動かして、何が可能で何が不可能かを知り、その直感を持つことができる。
I think that the role that we're going to be playing, you know, one, I think there's going to be two roles.
私たちが果たす役割は、1つ、2つあると思う。
One will be something like a lone genius.
一人は孤高の天才のような存在になるだろう。
You know, the Alec Radford of the world working alone at his computer, coming up with some crazy idea.
世界のアレック・ラドフォードが一人でコンピューターに向かって、とんでもないアイデアを思いつくんだ。
But now with that computer being able to leverage him up so much.
でも今は、あのコンピューターが彼をここまでテコ入れできるようになった。
And the other role is manager that, you know, you will be the CEO of your own firm and that firm will mostly be AI.
もうひとつの役割はマネージャーで、自分の会社のCEOになり、その会社はほとんどAIになるだろう。
I think it will be other humans in there.
そこにいるのは他の人間だろう。
I don't think the whole company gets replaced, although this is another really interesting question for us to answer.
会社全体が入れ替わるとは思わない。
But, you know, I think those will be the two jobs of the future, genius and manager.
でもね、天才とマネージャー、この2つが将来の仕事になると思う。
I think that that is actually pretty awesome.
それはとても素晴らしいことだと思う。
Those are two things that would be really fun jobs, honestly.
正直言って、この2つは本当に楽しい仕事だ。
When cameras, when like the photographic camera and film came out, what happened to artists?
カメラが、写真カメラやフィルムが登場したとき、アーティストに何が起こったのか?
And, you know, they're still around and people still learn to paint.
そして、彼らはまだ存在しているし、人々はまだ絵を学んでいる。
And there are probably more people who learn to paint because more people have an appreciation for art and painting and the visual visual arts.
そして、より多くの人々が芸術や絵画、視覚的なビジュアル・アートに感謝するようになったからこそ、絵を学ぶ人が増えたのだろう。
So my hope is that that's what happens.
だから、そうなることを願っている。
And I think, I mean, if you go back to the last time we automated away, you know, most human jobs, you know, in the 1880s, most people were farmers.
オートメーション化が進み、1880年代にはほとんどの人が農民だった。
And now, you know, three percent of Americans maybe are farmers.
そして今、アメリカ人の3パーセントが農業を営んでいる。
And we all do jobs.
そして私たちは皆、仕事をする。
I think we try to explain to people from 1880, you know, what like, you know, being a being a software engineer or, you know, running a startup incubator, you know, they'll be like, what the hell is this?
私たちは1880年から来た人たちに、ソフトウェア・エンジニアであるとか、スタートアップ・インキュベーターを運営しているとか、そういうことを説明しようとしているんだ。
Right.
そうだね。
These aren't real jobs.
これは本当の仕事ではない。
At the end of it, I'm very much an optimist about humanity.
結局のところ、私は人類について楽観主義者なんだ。
I think that humans will have important and valuable roles to play.
私は、人間には重要で貴重な役割があると思う。
But, you know, just like, you know, that first 90 percent of jobs that got automated away, we couldn't really, you know, those farmers didn't know what the jobs of their grandchildren would look like.
しかし、オートメーション化された最初の90%の仕事がそうであったように、農民たちは自分たちの孫の仕事がどのようなものになるのか知ることができなかった。
I think we have that same period now where we don't know what the jobs of our grandchildren will look like.
私たちの孫の仕事がどうなるのかわからないというのは、今と同じ時期だと思う。
And we're just going to have to play it by ear and figure it out.
そして、耳で聞いて解決するしかない。
I guess going back to robotics, you know, one of my hopes is actually that maybe the level four innovators will suddenly break through on a bunch of very specific problems that currently hold back robotics.
ロボット工学に話を戻すと、私が期待していることのひとつは、レベル4のイノベーターたちが、現在ロボット工学の足かせとなっている非常に具体的な問題の数々を突然突破してくれることだ。
Have you spent time, you know, back in that space recently?
最近、あの空間に戻ったことはありますか?
And what are the odds of that coming together in the next, I don't know, a couple of years even?
この先、2、3年以内にそれが実現する可能性はあるのだろうか?
Like, do you feel like there will be continued breakthroughs on maybe the figure robot and different things like that?
例えば、フィギュア・ロボットやそのようなさまざまなものに関して、今後もブレークスルーがあると感じますか?
What's your sense for robotics in the next year or two?
今後1、2年のロボット工学についてどうお考えですか?
Robotics companies now are where, you know, LLM companies were five years ago.
ロボティクス企業は、5年前のLLM企業がいた場所に今いる。
So I think in five years, you know, or even even sometime in the next five years, we will see the chat GPT moment for robotics.
ですから、5年後、あるいは今後5年のうちに、ロボット工学のチャットGPTの瞬間が訪れると思います。
I think it's a little harder to scale because you've got to build physical robots.
物理的なロボットを作らなければならないので、規模を拡大するのは少し難しいと思う。
But if you look at companies like Skilled AI or Physical Intelligence, who are building foundation models for robots, you know, the progress that we've seen there is just really dramatic.
しかし、Skilled AIやPhysical Intelligenceのようにロボットの基礎モデルを構築している企業を見ると、その進歩は本当に劇的だ。
There's some point we're going to get out of that zero to one phase where you're just trying to make it work at all.
ゼロから1を目指す段階から抜け出し、少しでもうまくいくようにするんだ。
And we're going to be in something where it kind of works.
そして私たちは、それがうまくいくような場所にいるつもりだ。
And then we're just scaling to increase the reliability and increase the scope of the market.
そして、信頼性を高め、市場の範囲を広げるために規模を拡大しているところだ。
I remember working with Sam Altman at YC, and he was bringing in some pretty wild hard tech companies like Helion focused on fusion or Oclo in the energy space.
YCでサム・アルトマンと仕事をしたことを覚えているが、彼は核融合に焦点を当てたヘリオンやエネルギー分野のオクロのような、かなりワイルドなハードテック企業を連れてきていた。
And at the time, I don't know if I totally understood why, but I don't know after the AGI part, you're becoming much more real.
当時は、その理由が完全に理解できたかどうかはわからないけど、AGIのパートを終えて、あなたはより現実的になってきている。
Plus that it feels like, you know, if you add robotics, that's one of the more profound sort of triumvirates of technology that might come together that will create quite a lot more abundance for everyone.
さらに、ロボット工学が加われば、より深遠なテクノロジーの三位一体のひとつとなり、誰にとってもより多くの豊かさが生まれるような気がする。
Yeah, I mean, it's the, you know, whatever the part of the stack is that isn't automated becomes the bottleneck.
つまり、スタックの自動化されていない部分がボトルネックになるんだ。
And so, you know, I think really we're going to end up with, you know, automating the scientist, the innovator before we automate, you know, the experiment doer.
だから、結局のところ、実験を自動化する前に、科学者や革新者を自動化することになると思うんだ。
But then, you know, if that comes through, I think the potential for really fast scientific advance is totally there.
しかし、もしそれが実現すれば、科学が急速に進歩する可能性は十分にあると思う。
I think we will find some other bottleneck.
何か別のネックが見つかると思う。
I think we're going to look back at this conversation where I say we did all the things and science is only going like 30% faster than it was.
この会話を振り返って、私たちはあらゆることをやったのに、科学は30%しか進歩していないと言うことになると思う。
Why isn't it 300 times faster?
なぜ300倍も速くないのか?
And we'll have to figure it out.
そして、それを解決しなければならない。
I mean, it'd be a great problem to have, honestly.
つまり、正直なところ、それは素晴らしい問題なんだ。
That's going to be 30% is great, but 300%, that would be insane.
30%になるのは素晴らしいことだが、300%になるのは正気の沙汰ではない。
Hey, room for thousands more startups.
何千もの新興企業を受け入れる余地がある。
That sounds great.
それはいいね。
Bob, thank you so much for joining us.
ボブ、参加してくれてありがとう。
This is, I feel like I learn a lot every time I get to see you.
あなたに会うたびに、多くのことを学ばせてもらっている。
Great to see you again.
また会えて嬉しいよ。
Thanks for coming on the channel.
チャンネルに来てくれてありがとう。
It's always fun to have these conversations with you, Gary.
あなたとこうして会話するのはいつも楽しいよ、ゲイリー。