字幕表 動画を再生する
Chinese AI says they were able to create things 13 pound by leveraging what they've taken from us, stolen from us, or leveraged from us.
中国のAIは、我々から奪ったもの、我々から盗んだもの、我々から活用したものを活用することで、13ポンドのものを作り出すことができたと言う。
This cost six million dollars to develop that to give you some sort of sense around what that means.
この開発には600万ドルかかっている。
Some of OpenAI's models have apparently cost in excess of a hundred million dollars.
OpenAIのモデルの中には、1億ドルを超えるものもあるようだ。
Is it as cheap as they're claiming?
彼らが言うほど安いか?
We don't know.
わからない。
Or why are there still many questions about it?
あるいは、なぜいまだに多くの疑問があるのか?
Yeah, we don't know.
ああ、わからないよ。
Six million dollars sounds, a lot of industry experts have said that sounds like it's a made up number, or at the very least it's a very massaged number, because the numbers that we've seen so far, and even when we talk to some of the most innovative AI developers in the world, how quickly and cheaply they might be able to produce something, they've not said they'd ever be able to produce a model at a cost like that.
600万ドルというのは、多くの業界専門家が、でっち上げの数字に聞こえる、あるいは、少なくとも非常に大げさな数字だと言っています。なぜなら、これまで見てきた数字や、世界で最も革新的なAI開発者たちに話を聞いたときでさえ、彼らがどれだけ早く、安く何かを作ることができるかもしれないのに、彼らはそのようなコストでモデルを作ることができるとは言っていないからです。
So there are some big question marks over those sorts of numbers.
だから、この種の数字には大きな疑問符がつく。
But we can't forget that they've open sourced this, which is something that OpenAI hasn't done.
しかし、彼らがこれをオープンソース化したことを忘れてはならない。
Theirs is behind a wall.
彼らのは壁の向こうにある。
You can't do that.
そんなことはできない。
The second big breakthrough is that DeepSeq released a tech report detailing how they trained the model.
つ目の大きなブレークスルーは、DeepSeqがどのようにモデルをトレーニングしたかを詳述した技術レポートを発表したことだ。
Part of that recipe had a big innovation of using a method called reinforcement learning to teach the model how to reason without any human supervision.
そのレシピの一部には、強化学習と呼ばれる手法を使って、人間の監視なしにモデルに推論方法を教えるという大きな革新があった。
And this is kind of the holy grail of deep learning, is how can we kind of scale the learning of models, or the improvement of models, without having to have humans in the loop at every step.
そしてこれは、ディープラーニングの聖杯のようなもので、人間がすべてのステップでループに入ることなく、モデルの学習やモデルの改良をどのようにスケールさせるかということだ。
I think it's really important to understand that deep learning is not something that you can just download the AI model and run it on your own.
ディープラーニングは、AIモデルをダウンロードして自分で実行できるものではないということを理解することが本当に重要だと思います。
So we've seen examples of other people running the DeepSeq R1 model, and then you ask them all kinds of things, like 64Ti doors and so on.
他の人がDeepSeq R1モデルを動かしていて、64Tiのドアなどいろいろなことを聞いている例を見た。
The AI model can answer you directly, because it doesn't have the follow-up screening.
AIモデルは、フォローアップ審査がないので、直接答えることができる。
I think it's the big moment.
大事な瞬間だと思う。
It's what you call a black swan.
いわゆるブラックスワンだ。
We should have expected this.
こうなることは予想していたはずだ。
It was always US versus China.
常にアメリカ対中国だった。
If you go back a week ago, when you think about that picture of the tech bros next to the president, and then them announcing half a trillion for Stargate, this big project for AI.
1週間前にさかのぼると、大統領の隣にいる技術者兄弟の写真、そしてスターゲイトのために5兆ドルを投じると発表した、このAIのビッグプロジェクトについて考えてみよう。
And it just looked like American tech supremacy was set for decades.
そして、アメリカの技術覇権は何十年も続くと思われた。
But in AI, what matters isn't just the quality of the innovation, but it's also the quality of the data.
しかしAIにおいて重要なのは、イノベーションの質だけでなく、データの質でもある。
And it turns out that countries like China, for various reasons, have got a lot of data going into a lot more, with less qualms about privacy, perhaps, than the West.
そして、中国のような国々は、様々な理由から、おそらく欧米諸国よりもプライバシーに対する懸念が少ない状態で、多くのデータをより多く取得していることが判明した。
So could that be a route to better AI models?
では、それがより優れたAIモデルへの道筋になるのだろうか?
Perhaps not in this case.
この場合は違うかもしれない。
But it raises all sorts of questions about our assumptions, not just about tech, not just about the economy, but also about power in the world.
しかしそれは、技術や経済だけでなく、世界の権力についても、私たちの前提にさまざまな疑問を投げかけるものだ。
In the Biden administration in the US, the word safety used quite a lot, about AI safety.
アメリカのバイデン政権では、AIの安全性について、セーフティという言葉がよく使われていた。
Go slowly.
ゆっくり行こう。
Make sure everything's tested.
すべてがテスト済みであることを確認する。
Make sure that you're doing everything in the proper way.
すべてを適切な方法で行っていることを確認してください。
But now I think DeepSeek has really unleashed the beast, in a sense.
しかし今、ディープシークはある意味、本当に野獣を解き放ったと思う。
We're going to see companies releasing more products.
各社がより多くの製品を発表することになるだろう。
It takes a lot of data.
多くのデータが必要だ。
If you look at the privacy policy of the app, it's similar to a social network.
アプリのプライバシーポリシーを見ると、ソーシャルネットワークに似ている。
For example, it takes things like keystroke rhythms to identify people by how they type, that kind of thing.
例えば、キーストロークのリズムのようなものを使って、タイピングの仕方で人を識別する。
But we're not really hearing about concerns about safety yet, especially from the US.
しかし、安全性に関する懸念は、特にアメリカからはまだあまり聞こえてこない。
Donald Trump has only said, it's a wake-up call.
ドナルド・トランプは、これは警鐘だとしか言っていない。
And we know, of course, that the Trump administration has basically overridden the safety laws that Biden put in place.
そしてもちろん、トランプ政権がバイデンが導入した安全法を基本的に覆したことも知っている。
So I think it's a free-for-all now.
だから、今はフリーフォーオールだと思う。
What we will probably see in the coming weeks is people exploring the application of this model in domains like medicine, where it's not strictly the same as mathematics and programming, but being able to reason about difficult case problems is an important skill.
おそらく今後数週間のうちに見られるのは、医学のような領域でこのモデルの応用を模索する人々だろう。数学やプログラミングとは厳密には異なるが、難しい症例の問題を推論できることは重要なスキルである。
I'm fairly excited to see how physicians or people working in medical research use this model to figure out, can you use it as an aid for doctors to get a kind of second opinion on their diagnosis?
私は、医師や医学研究に携わる人々がこのモデルをどのように使い、医師が自分の診断についてセカンドオピニオンのようなものを得るための補助としてこのモデルを使うことができるのか、それを解明することにかなり期待している。
Well, if they collapse the cost of running, making effective these chips, that shouldn't necessarily be bad for all of these companies.
まあ、もしこれらのチップを効率的に製造するためのコストが下がるのであれば、すべての企業にとって必ずしも悪いことではないはずだ。
People thought that some of these tech companies were a little bit bubbly.
このようなハイテク企業の中には、ちょっとバブリーなところもあると人々は思っていた。
They couldn't really sustain these values.
この価値観を維持することはできなかった。
And some sort of pinpricking moment we were waiting for.
そして、私たちが待ち望んでいたある種のピンチの瞬間。
For countries that aren't already the dominant AI superpower and have all of this investment and have the ability to grab hold of this tens of billions of dollars worth of investment, it's inspirational for them because it means that you can start thinking in a more innovative way.
まだ圧倒的なAI大国ではなく、数百億ドル相当の投資を受け、それを手にする能力を持っている国にとっては、より革新的な方法で考え始めることができるという意味で、刺激的なことだ。