字幕表 動画を再生する
Historian Yuval Noah Harari and entrepreneur Mustafa Suleiman are two of the most important voices in the increasingly contentious debate over AI.
歴史家のユヴァル・ノア・ハラリと起業家のムスタファ・スレイマンは、AIをめぐる論争が激化している中で最も重要な声の2人である。
Good to be here.
ここに来れてよかった。
Thanks for joining us.
参加してくれてありがとう。
Thanks for having us.
お招きいただきありがとうございます。
The economists got them together to discuss what this technology means for our future, from employment and geopolitics to the survival of liberal democracy.
エコノミストたちは、雇用や地政学から自由民主主義の存続に至るまで、このテクノロジーが私たちの未来にとって何を意味するのかを議論するために彼らを集めた。
If the economic system is fundamentally changed, will liberal democracy as we know it survive?
経済システムが根本的に変われば、我々が知っているような自由民主主義は存続するのだろうか?
Yuval Noah Harari, welcome.
ユヴァル・ノア・ハラリ、ようこそ。
You are a bestselling author, historian, I think a global public intellectual, if not the global public intellectual.
あなたはベストセラー作家であり、歴史家であり、世界的な知識人、いや世界的な知識人であると思う。
Your books from Sapiens to 21 Lessons from the 21st Century have sold huge numbers of copies around the world.
サピエンス』から『21世紀からの21の教訓』まで、あなたの著書は世界中で膨大な部数を売り上げました。
Thank you for joining us.
ご参加ありがとうございます。
It's good to be here.
ここに来られてよかった。
Mustafa Suleiman, wonderful that you can join us too.
ムスタファ・スレイマン、あなたも参加できるなんて素晴らしい。
You're a friend of The Economist, a fellow director on The Economist board.
あなたはエコノミスト誌の友人であり、エコノミスト誌の取締役仲間です。
You are a man at the cutting edge of creating the AI revolution.
あなたはAI革命を起こす最先端にいる人だ。
You are a co-founder of DeepMind.
あなたはディープマインドの共同設立者です。
You're now a co-founder and CEO of Inflection AI.
あなたは現在、Inflection AIの共同設立者兼CEOです。
You are building this future, but you've also just published a book called The Coming Wave, which makes us a little concerned about this revolution that is being unleashed.
あなたはこのような未来を築こうとしているが、『来るべき波』という本も出版したばかりで、私たちはこの革命が解き放たれることを少し心配している。
You're both coming from different backgrounds.
2人とも異なるバックグラウンドを持っている。
You are a historian, a commenter, a man who I believe doesn't use smartphones very much.
あなたは歴史家であり、コメンテーターであり、スマートフォンをあまり使わない人だと思う。
Not very much, no.
あまりない。
Mustafa, as I know from our board meetings, is right at the cutting edge of this, pushing everyone to go faster.
ムスタファは、私たちの理事会で知っているように、この最先端にいて、皆をより速くするよう後押ししている。
So, two very different perspectives, but I thought it would be really interesting to bring the two of you together to have a conversation about what is happening, what is going to happen, what are the opportunities, but also what is at stake and what are the risks.
そこで、お二人をお招きして、何が起きているのか、何が起きようとしているのか、何がチャンスなのか、そして何が問題なのか、何がリスクなのかについて話し合ってもらえたらと思ったのです。
So, let's start, Mustafa, with you.
では、ムスタファ、君から始めよう。
And you are building this future.
そして、あなた方がこの未来を築いている。
So, paint us a picture of what the future is going to be like.
では、未来がどうなるかを描いてください。
And I'm going to give you a timeframe to keep it specific.
そして、具体的にするために時間枠を与えるつもりだ。
So, let's say, I think you wrote in your book that within three to five years that you thought it was plausible that AIs could have human-level capability across a whole range of things.
例えば、あなたは著書の中で、3年から5年以内にAIがあらゆる物事において人間レベルの能力を持つようになる可能性があると書いていたと思います。
So, let's take five years, 2028.
では、5年後の2028年を考えてみよう。
What does the world look like?
世界はどのように見えるのか?
How will I interact with AIs?
私はどのようにAIと交流するのか?
What will we all be doing and not doing?
我々は何をし、何をしないのか?
Well, let's just look back over the last 10 years to get a sense of the trajectory that we're on and the incredible momentum that I think everybody can now see with the generative AI revolution.
さて、過去10年間を振り返って、私たちが歩んできた軌跡と、ジェネレーティブAI革命の驚くべき勢いを感じてみましょう。
Over the last 10 years, we've become very, very good at classifying information.
この10年間で、私たちは情報を分類するのがとてもとても上手になった。
We can understand it, we sort it, label it, organize it, and that classification has been critical to enabling this next wave because we can now read the content of images.
私たちはそれを理解し、分類し、ラベルを付け、整理することができる。そして、その分類は、画像の内容を読み取ることができるようになったため、この次の波を可能にするために非常に重要である。
We can understand text pretty well.
私たちはテキストをかなり理解できる。
We can classify audio and transcribe it into text.
音声を分類し、テキストに書き起こすことができる。
The machines can now have a pretty good sense of the conceptual representations in those ideas.
機械は、それらのアイデアに含まれる概念的な表現について、かなり良い感覚を持つことができるようになった。
The next phase of that is what we're seeing now with the generative AI revolution.
その次の段階が、今私たちが目にしているジェネレーティブAI革命である。
We can now produce new images, new videos, new audio, and, of course, new language.
新しいイメージ、新しいビデオ、新しいオーディオ、そしてもちろん新しい言語を生み出すことができるようになった。
And in the last year or so, with the rise of chat GPT and other AI models, it's pretty incredible to see how plausible and accurate and very finessed to these new language models are.
そして去年あたりから、チャットGPTやその他のAIモデルが台頭してきて、これらの新しい言語モデルがいかにもっともらしく、正確で、非常に精巧なものであるかを目の当たりにするのは、とても信じられないことだ。
In the next five years, the frontier model companies, those of us at the very cutting edge who are training the very largest AI models, are going to train models that are over 1,000 times larger than what you currently see today in GPT-4.
今後5年間で、フロンティア・モデル企業、つまり、非常に大規模なAIモデルをトレーニングしている最先端にいる私たちは、GPT-4で現在見られるものより1000倍以上大きなモデルをトレーニングすることになるだろう。
And with each new order of magnitude and compute, that is 10x more compute used, we tend to see really new capabilities emerge.
そして、新しい桁のコンピュート、つまり10倍のコンピュートが使われるようになるごとに、本当に新しい能力が出現する傾向がある。
And we predict that the new capabilities that will come this time, over the next five years, will be the ability to plan over multiple time horizons.
そして私たちは、今後5年間で新たに生まれる能力として、複数の時間軸でのプランニングが可能になると予測している。
Instead of just generate new text in a one shot, the model will be able to generate a sequence of actions over time.
新しいテキストを一発で生成するのではなく、このモデルは時間をかけて一連のアクションを生成できるようになる。
And I think that that's really the character of AI that we'll see in the next five years.
そしてそれが、今後5年間で我々が目にすることになるAIの本当の姿だと思う。
Artificial capable AIs, AIs that can't just say things, they can also do things.
人工的な能力を持つAI、物事を言うだけでなく、何かをすることもできるAI。
What does that actually mean in practice?
実際にはどうなのか?
Just use your imagination.
想像力を働かせればいい。
Tell me what my life will be like in 2028.
2028年の私の人生を教えてください。
How will I interact with them?
どのように彼らと接するのか?
What will I do?
どうすればいいんだ?
What will be different?
何が変わるのか?
I've actually proposed a modern Turing test, which tries to evaluate for exactly this point.
私は実際に、まさにこの点を評価しようとする現代のチューリングテストを提案したことがある。
The last Turing test simply evaluated for what a machine could say, assuming that what it could say represented its intelligence.
最後のチューリングテストは、機械が何を言うことができるかを単純に評価し、その機械が言うことができることがその機械の知性を表していると仮定した。
Now that we're kind of approaching that moment where these AI models are pretty good, arguably they've passed the Turing test, or maybe they will in the next few years.
今、我々はこれらのAIモデルがかなり優秀で、間違いなくチューリング・テストに合格した、あるいは今後数年のうちに合格するだろうという瞬間に近づいている。
The real question is, how can we measure what they can do?
本当の問題は、彼らができることをどうやって測定するかということだ。
So I've proposed a test which involves them going off and taking a $100,000 investment, and over the course of three months, trying to set about creating a new product, researching the market, seeing what consumers might like, generating some new images, some blueprints of how to manufacture that product, contacting a manufacturer, getting it made, negotiating the price, drop shipping it, and then ultimately collecting the revenue.
そこで私が提案したテストは、10万ドルの投資を受け、3カ月かけて新商品を作り、市場を調査し、消費者が好みそうなものを見極め、新しいイメージとその商品の製造方法の設計図を作成し、メーカーに連絡し、製造してもらい、価格交渉し、ドロップシッピングし、最終的に収益を回収するというものだ。
And I think that over a five-year period, it's quite likely that we will have an ACI, an artificial capable intelligence, that can do the majority of that task autonomously.
そして5年後には、ACI(人工知能)がそのタスクの大半を自律的にこなせるようになる可能性が高いと思う。
It won't be able to do the whole thing, there are many tricky steps along the way, but significant portions of that.
全部をこなすことはできないだろうし、途中には厄介なステップがたくさんあるが、そのかなりの部分をこなすことはできる。
It will be able to make phone calls to other humans to negotiate.
他の人間に電話をかけて交渉することもできるだろう。
It will be able to call other AIs in order to establish the right sequence in a supply chain, for example.
例えば、サプライチェーンにおける正しい順序を確立するために、他のAIを呼び出すことができるようになる。
And of course, it will learn to use APIs, Application Programming Interfaces, so other websites or other knowledge bases or other information stores.
もちろん、API(アプリケーション・プログラミング・インターフェース)を使うことも学ぶだろう。
And so, you know, the world is your oyster.
だから、世界はあなたのものなんだ。
You can imagine that being applied to many, many different parts of our economy.
それが経済のさまざまな部分に適用されることは想像に難くない。
So Yuval, a man who doesn't use a smartphone very much, you listen to this, does it fill you with horror, and do you agree with it?
スマートフォンをあまり使わないユヴァルは、これを聞いて恐怖を感じ、同意するのか?
Do you think that's the kind of thing that is likely to happen in the next five years?
今後5年間にそういうことが起こりそうだと思いますか?
I would take it very seriously.
私なら、とても深刻に受け止めるだろう。
I don't know.
分からないよ。
I'm not coming from within the industry, so I cannot comment on how likely it is to happen.
私は業界内の人間ではないので、その可能性についてコメントすることはできない。
But when I hear this as a historian, for me, what we just heard, this is the end of human history.
しかし、歴史家としてこれを聞くとき、私にとっては、今聞いたことは人類の歴史の終わりである。
Not the end of history, the end of human-dominated history.
歴史の終わりではなく、人間が支配する歴史の終わりである。
History will continue with somebody else in control.
歴史は他の誰かが支配することで続いていく。
Because what we just heard is basically Mustafa telling us that in five years, there'll be a technology that can make decisions independently and that can create new ideas independently.
というのも、私たちが今聞いたのは、基本的にムスタファが5年後には独立して意思決定ができ、独立して新しいアイデアを生み出すことができるテクノロジーが登場するという話だからだ。
This is the first time in history we confronted something like this.
このような事態に直面したのは歴史上初めてのことだ。
Every previous technology in history, from a stone knife to nuclear bombs, it could not make decisions, like the decision to drop the bomb on Hiroshima was not made by the atom bomb.
広島への原爆投下が原子爆弾によって決定されなかったように。
It was made by President Truman.
トルーマン大統領によるものだ。
And similarly, every previous technology in history, it could only replicate our ideas.
同様に、歴史上のあらゆる技術は、私たちのアイデアを複製することしかできなかった。
Like radio or the printing press, it could make copies and disseminate the music or the poems or the novels that some human wrote.
ラジオや印刷機のように、ある人間が書いた音楽や詩や小説をコピーして広めることができる。
Now we have a technology that can create completely new ideas.
今、私たちはまったく新しいアイデアを生み出すことができる技術を持っている。
And it can do it at a scale far beyond what humans are capable of.
しかも、人間の能力をはるかに超えたスケールでそれが可能なのだ。
So it can create new ideas and in important areas within five years, we'll be able to enact them.
だから、新しいアイデアを生み出し、重要な分野では5年以内にそれを実現することができる。
And that is a profound shift.
これは大きな変化だ。
Before we go on to the many ways in which this could be the end of human history, as you put it, and the potential downsides and risks of this, can we just for a second, just indulge me?
あなたがおっしゃるように、これが人類史の終わりとなる可能性のあるさまざまな方法や、その潜在的なマイナス面やリスクについて話を進める前に、ちょっとだけ、私を甘やかしてもらえませんか?
I'm an optimist at heart.
私は根っからの楽天家だ。
Can we talk about the possibilities?
可能性について話しませんか?
What are the potential upsides of this?
これにはどのような利点があるのでしょうか?
Because there are many, and they are really substantial.
たくさんあるし、本当に充実しているからだ。
I think you wrote that there is the potential that this technology can help us deal with incredibly difficult problems and create tremendously positive outcomes.
あなたは、このテクノロジーが信じられないほど難しい問題に対処し、とてつもなくポジティブな結果を生み出す手助けになる可能性があると書いたと思う。
So can we just briefly start with that before we go down the road of the terrible things?
だから、ひどいことを言う前に、そのことから簡単に始めてもいいかな?
When I say the end of human history, again, I'm not talking necessarily about the destruction of humankind or anything like that.
人類の歴史が終わると言っても、必ずしも人類が滅亡するとかそういう話ではない。
There are many positive potential.
ポジティブな可能性はたくさんある。
It's just that control, power, is shifting away from human beings to an alien intelligence, to a non-human intelligence.
ただ、コントロールやパワーが、人間から異星人の知性、人間ではない知性へと移行しているだけなのだ。
We'll also get to that because there's a question of how much power, but let's stick with the potential upsides first.
どれだけのパワーがあるかという問題もあるので、その点にも触れることにするが、まずは潜在的なプラス面について話そう。
The opportunities must suffer.
チャンスは苦しまなければならない。
Everything that we have created in human history is a product of our intelligence.
人類の歴史において私たちが創造したものはすべて、私たちの知性の産物である。
Our ability to make predictions and then intervene on those predictions to change the course of the world is, in a very abstract way, the way we have produced our companies and our products and all the value that has changed our century.
予測を立て、その予測に介入して世界の流れを変えるという我々の能力は、非常に抽象的な言い方をすれば、我々の企業や製品、そして我々の世紀を変えたすべての価値を生み出す方法なのだ。
If you think about it, just a century ago, a kilo of grain would have taken 50 times more labor to produce than it does today.
考えてみれば、ほんの100年前なら、1キロの穀物を生産するのに、現在の50倍の労力が必要だったはずだ。
That efficiency, which is the trajectory you've seen in agriculture, is likely to be the same trajectory that we will see in intelligence.
その効率性は、あなたが農業で見てきた軌跡であり、インテリジェンスでも同じ軌跡をたどるだろう。
Everything around us is a product of intelligence, and so everything that we touch with these new tools is likely to produce far more value than we've ever seen before.
私たちの身の回りにあるものはすべてインテリジェンスの産物であり、私たちがこの新しいツールで触れるものはすべて、これまでとは比べものにならないほどの価値を生み出す可能性がある。
I think it's important to say these are not autonomous tools by default.
これらはデフォルトで自律的なツールではないと言っておくことが重要だと思う。
These capabilities don't just naturally emerge from the models.
これらの能力は、モデルから自然に生まれるものではない。
We attempt to engineer capabilities, and the challenge for us is to be very deliberate and precise and careful about those capabilities that we want to emerge from the model, that we want to build into the model, and the constraints that we build around it.
私たちの課題は、モデルから生まれさせたい能力、モデルに組み入れたい能力、そしてそれを取り巻く制約について、非常に慎重かつ正確に注意深くなることだ。
It's super important not to anthropomorphically project ideas and potential intentions or potential agency or potential autonomy into these models.
このようなモデルに、アイデアや潜在的な意図、潜在的な主体性、潜在的な自律性を擬人的に投影しないことが超重要だ。
The governance challenge for us over the next couple of decades to ensure that we contain this wave is to ensure that we always get to impose our constraints on the trajectory of this development.
今後数十年間、この波を確実に食い止めるためのガバナンスの課題は、この発展の軌道に常に制約を課すことができるようにすることである。
But the capabilities that will arise will mean, for example, potentially transformative improvements in human health, speeding up the process of innovation, dramatic changes in the way scientific discovery is done, tough problems, whether it's climate change.
しかし、今後生まれるであろう能力は、例えば、人間の健康状態を一変させる可能性のある改善や、技術革新のプロセスのスピードアップ、科学的発見の方法の劇的な変化、気候変動などの困難な問題などを意味する。
A lot of the big challenges that we face could be much more easily addressed with this capability.
私たちが直面している大きな課題の多くは、この能力があればもっと簡単に対処できるはずだ。
Everybody is going to have a personal intelligence in their pocket, a smart and capable aide, a chief of staff, a research assistant, constantly prioritizing information for you, putting together the right synthesized nugget of knowledge that you need to take action on at any given moment.
スマートで有能な補佐官、チーフ・オブ・スタッフ、リサーチ・アシスタントが、常にあなたのために情報に優先順位をつけ、その時々にあなたが行動を起こす必要のある知識を正しく統合してくれるのだ。
And that for sure is going to make us all much, much smarter and more capable.
そうすることで、私たちはより賢く、より有能になる。
Does that part of it sound appealing to you, Yuval?
ユヴァル、その部分に魅力を感じるかい?
Yes, absolutely.
そうだ。
I mean, again, if there was no positive potential, we wouldn't be sitting here.
つまり、もしポジティブな可能性がなかったら、私たちはここに座っていない。
Nobody would develop it.
誰も開発しないだろう。
Nobody would invest in it.
誰も投資しないだろう。
Again, it's so appealing.
繰り返すが、とても魅力的だ。
The positive potential is so enormous in everything, again, from much better health care, higher living standards, solving things like climate change.
より良い医療、より高い生活水準、気候変動などの解決など、あらゆる面でプラスの可能性は非常に大きい。
This is why it's so tempting.
だから魅力的なのだ。
This is why we are willing to take the enormous risks involved.
だからこそ、私たちは莫大なリスクを冒すことをいとわないのだ。
I'm just worried that in the end the deal will not be worth it.
ただ、最終的にその契約に見合うだけの価値があるかどうかが心配なんだ。
And I would comment especially on, again, the notion of intelligence.
そして特に、繰り返しになるが、インテリジェンスという概念についてコメントしたい。
I think it's overrated.
過大評価だと思う。
I mean, Homo sapiens at present is the most intelligent entity on the planet.
つまり、現在のホモ・サピエンスは地球上で最も知的な存在なのだ。
It's simultaneously also the most destructive entity on the planet.
それは同時に、地球上で最も破壊的な存在でもある。
And in some ways, also the most stupid entity on the planet.
そしてある意味では、地球上で最も愚かな存在でもある。
The only entity that puts the very survival of the ecosystem in danger.
生態系の存続を危険にさらす唯一の存在。
So you think we are trading off more intelligence with more destructive risk?
つまり、私たちはより多くの知性と、より多くの破壊的なリスクを引き換えにしていると?
Yes.
そうだ。
Again, it's not deterministic.
繰り返すが、決定論的なものではない。
I don't think that we are doomed.
絶望的だとは思わない。
I mean, if I thought that, what's the point of talking about it if we can't prevent the worst case scenario?
そう思ったとしても、最悪のケースを防げないのであれば、それを語る意味はないだろう?
Well, I was hoping you thought you'd have some agency in actually effecting...
まあ、私はあなたが実際に影響を与えることで、何らかの権限があると期待していたんだが......。
We still have agency.
我々にはまだ代理権がある。
There are a few more years, I don't know how many, 5, 10, 30.
あと数年、何年かわからないが、5年、10年、30年。
We still have agency.
我々にはまだ代理権がある。
We are still the ones in the driver's seat shaping the direction this is taking.
私たちはまだ、この方向性を形作る運転席に座っている。
No technology is deterministic.
どんな技術も決定論的なものではない。
This is something, again, we learned from history.
これはまた歴史から学んだことだ。
You can use the same technology in different ways.
同じ技術をさまざまな方法で使うことができる。
You can decide which way to develop it.
どのように発展させるかは自分で決めることができる。
So we still have agency.
だから私たちにはまだ代理権がある。
This is why you have to think very, very carefully about what we are developing.
だからこそ、私たちが何を開発しようとしているのか、とてもとても慎重に考えなければならない。
Well, thinking very carefully about it is something that Mustafa has been doing in this book.
まあ、それについて注意深く考えることは、ムスタファがこの本でやってきたことだ。
And I want to now go through some of the most commonly discussed risks.
これから、よく議論されるリスクをいくつか見ていきたい。
I was trying to work out how I would go in sort of order of badness.
私は、悪い順にどのように行くか考えていた。
So I'm starting with one that is discussed a lot, but relative to human extinction is perhaps less bad, which is the question of jobs.
そこで私は、よく議論されるものから始めるが、人類滅亡と比較すれば、おそらくそれほど悪くはないだろう。
And will, you know, artificial intelligence essentially destroy all jobs because A.I.s will be better than humans at everything?
そして、人工知能はすべての仕事を本質的に破壊してしまうのだろうか?
You know, I'm an economist by training.
私は経済学者だ。
I, you know, history suggests to me that that has never happened before, that the lump of labor fallacy indeed is a fallacy.
歴史が示唆するのは、そのようなことは過去に一度もなかったということだ。
But tell me what you think about that.
でも、それについてどう思うか教えてくれ。
Do you think there is a risk to jobs?
雇用にリスクがあると思いますか?
It depends on the time frame.
時間枠による。
So over a 10 to 20 year period, my intuition, and you're right that so far the evidence doesn't support this, is that there isn't really going to be a significant threat to jobs.
つまり、10年から20年という期間で見れば、私の直感では、今のところ証拠がそれを裏付けていないのはその通りだが、雇用に対する大きな脅威はないだろうということだ。
There's plenty of demands.
要求はたくさんある。
There will be plenty of work.
仕事はたくさんあるだろう。
Right.
そうだね。
Over a 30 to 50 year time horizon, it's very difficult to speculate.
30年から50年という時間軸で考えると、推測するのは非常に難しい。
I mean, at the very least, we can say that two years ago, we thought that these models could never do empathy.
つまり、少なくとも2年前には、このようなモデルが共感を得ることはあり得ないと考えていたと言える。
We said that humans were always going to preserve kindness and understanding and care for one another as a special skill that humans have.
私たちは、人間が持つ特別なスキルとして、優しさや理解、互いへの気遣いを常に守っていくものだと言った。
Four years ago, we said, well, AIs will never be creative.
4年前、私たちは、AIは決して創造的ではない、と言った。
You know, humans will always be the creative ones inventing new things, making these amazing leaps between new ideas.
人間は常に創造的で、新しいものを発明し、新しいアイデアの間で驚くべき飛躍を遂げるものだ。
It's self-evident now that both of those two capabilities are things that these models do incredibly well.
今となっては、この2つの能力が、これらのモデルが驚くほど優れていることは自明だ。
And so I think for a period of time, AIs augment our skills.
だから、ある期間、AIは私たちのスキルを補強してくれると思う。
They make us faster, more efficient, more accurate, more creative, more empathetic and so on and so forth.
より速く、より効率的に、より正確に、より創造的に、より共感的に......。
Over a many decade period, it's much harder to say what are the set of skills that are the permanent preserve of the human species, given that these models are clearly very, very capable.
何十年もの間、人間という種が永久に保持するスキルが何であるかを言うのは、これらのモデルが明らかに非常に有能であることを考えると、はるかに難しい。
And that's where the containment challenge really comes in.
そして、封じ込めの課題はそこにある。
We have to make decisions.
決断しなければならない。
We have to decide as a species what is and what isn't acceptable over a 30 year period.
私たちは30年かけて、何が受け入れられ、何が受け入れられないかを種として決めなければならない。
And that means politics and governance.
そしてそれは政治と統治を意味する。
With regard to jobs, I agree that the scenario that there just won't be any jobs, this is an unlikely scenario in the next few decades.
雇用に関しては、雇用がなくなるというシナリオに同意する。
But we have to look more carefully at time and space.
しかし、私たちは時間と空間をもっと注意深く見なければならない。
I mean, in terms of time, the transition period is the danger.
つまり、時間という点では、移行期間が危険なのだ。
I mean, some jobs disappear, some jobs appear.
つまり、消える仕事もあれば、現れる仕事もある。
People have to transition.
人々は移行しなければならない。
Just remember that Hitler rose to power in Germany because of three years of 25 percent unemployment.
ヒトラーがドイツで権力を握ったのは、3年間25%の失業率が続いたからだ。
So we are not talking about, say, no jobs at all.
つまり、仕事がまったくないという話ではない。
But if because of the upheavals caused in the job market by AI, we have like, I don't know, three years of 25 percent unemployment, this could cause huge social and political disruptions.
しかし、もしAIによって雇用市場に動揺が生じ、25%の失業率が3年間続くようなことになれば、社会的、政治的に大きな混乱が生じる可能性がある。
And then the even bigger issue is one of space, that the disappearance of jobs and the new jobs will be created in different parts of the world.
そしてさらに大きな問題は、雇用の消滅と新たな雇用の創出が世界のさまざまな地域で行われるということだ。
So we might see a situation when there is immense demand for more jobs in California or Texas or China, whereas entire countries lose their economic basis.
そのため、カリフォルニアやテキサス、中国でより多くの雇用が求められ、その一方で国全体が経済的基盤を失うという事態が起こるかもしれない。
So you need a lot more computer engineers and yoga trainers and whatever in California.
だから、カリフォルニアにはもっとたくさんのコンピューター・エンジニアやヨガ・トレーナーなどが必要なんだ。
But you don't need any textile workers at all in Guatemala or Pakistan because this has all been automated.
しかし、グアテマラやパキスタンでは織物労働者はまったく必要ない。
So it's not just the total number of jobs on the planet, it's the distribution between different countries.
つまり、地球上の雇用の総数だけでなく、さまざまな国間での分布が重要なのだ。
And let's also try to remember that work is not the goal.
そして、仕事がゴールではないことも忘れないようにしよう。
Work is not our desired end state.
仕事は私たちが望む最終状態ではない。
We did not create civilization so that we could have full employment.
我々は完全雇用を実現するために文明を創造したのではない。
We created civilization so that we could reduce suffering for everybody.
私たちが文明を創造したのは、すべての人の苦しみを減らすためだ。
And the quest for abundance is a real one.
そして、豊かさの追求は現実的なものだ。
We have to produce more with less.
私たちはより少ない資源でより多くのものを生産しなければならない。
There is no way of getting rid of the fact that population growth is set to explode over the next century.
今後100年の間に人口が爆発的に増加するという事実から逃れることはできない。
There are practical realities about the demographic and geographic and climate trajectories that we're on, which are going to drive forward our need to produce exactly these kinds of tools.
人口統計学的、地理学的、気候学的な軌跡には現実的な現実があり、それがまさにこの種のツールを作る必要性を後押ししている。
And I think that that should be an aspiration.
そして、それは願望であるべきだと思う。
Many, many people do work that is drudginess and exhausting and tiring and they don't find flow.
多くの人が、退屈で疲れるような仕事をしていて、フローを見つけられない。
They don't find their identity and it's pretty awful.
彼らは自分たちのアイデンティティを見つけられず、かなりひどい。
So I think that we have to focus on the prize here, which is one of a question of capturing the value that these models will produce and then thinking about redistribution.
つまり、このようなモデルが生み出す価値を捉え、再分配を考えるという問題に焦点を当てなければならないと思う。
And ultimately, the transition is exactly what's at stake.
そして最終的には、移行こそが危機に瀕しているのだ。
We have to manage that transition with taxation, but just with redistribution, I would say that the difficulty again, the political, historical difficulty, I think there will be immense new wealth created by these technologies.
しかし、再分配に関しては、政治的、歴史的な難しさがある。
I'm less sure that the government will be able to redistribute this wealth in a fair way on a global level.
私は、政府がこの富を世界レベルで公平に再分配できるかどうか、あまり自信がない。
I just don't see the U.S. government raising taxes on corporations in California and sending the money to help unemployed textile workers in Pakistan or Guatemala kind of retrain for the new job market.
米国政府がカリフォルニアの企業に増税し、その資金をパキスタンやグアテマラの失業した繊維労働者のために送り、新たな雇用市場のために再教育するようなことは考えられない。
Well, that actually gets us to the second potential risk, which is the risk of AI to the political system as a whole.
それは、政治システム全体に対するAIのリスクである。
And you made a very good point, Yuval, in one of your writings where you reminded us that liberal democracy was really born of the Industrial Revolution and that today's political system is really a product of the economic system that we are in.
自由民主主義は産業革命から生まれたものであり、今日の政治システムは経済システムの産物である。
And so there is, I think, a very good, fair question of if the economic system is fundamentally changed, will liberal democracy as we know it survive?
経済システムが根本的に変化した場合、我々が知っているような自由民主主義は生き残ることができるのだろうか?
Yeah.
そうだね。
And on top of that, it's not just the Industrial Revolution.
その上、産業革命だけではない。
It's the new information technologies of the 19th and 20th century.
それは19世紀と20世紀の新しい情報技術だ。
Before the 19th century, you don't have any example in history of a large scale democracy.
19世紀以前に、大規模な民主主義が行われた例は歴史上ない。
I mean, you have examples on a very small scale, like in hunter-gatherer tribes or in city-states like ancient Athens, but you don't have any example that I know of of millions of people spread over a large territory, an entire country, which managed to build and maintain a democratic system.
つまり、狩猟採集民の部族や古代アテネのような都市国家のような非常に小規模な例ならあるが、広大な領土、つまり国全体にわたって何百万人もの人々が民主主義システムを構築し、維持することができた例は、私の知る限りない。
Why?
なぜですか?
Because democracy is the conversation.
民主主義とは会話なのだから。
And there was no information technology and communication technology that enabled a conversation between millions of people over an entire country.
また、国全体で何百万人もの人々の間で会話を可能にするような情報技術や通信技術もなかった。
Only when first newspapers and then telegraph and radio and television came along, this became possible.
新聞、そして電信、ラジオ、テレビが登場して初めて、それが可能になった。
So modern democracy as we know it, it's built on top of specific information technology.
つまり、私たちが知っている現代の民主主義は、特定の情報技術の上に成り立っているのだ。
Once the information technology changes, it's an open question whether democracy can survive.
情報技術が変われば、民主主義が生き残れるかどうかは未知数だ。
And the biggest danger now is the opposite than what we faced in the Middle Ages.
そして今、最も危険なのは、中世の時代とは正反対のことだ。
It was impossible to have a conversation between millions of people because they just couldn't communicate.
何百万人もの人々の間で会話をすることは不可能だった。
But in the 21st century, something else might make the conversation impossible.
しかし21世紀には、別のことが会話を不可能にするかもしれない。
If trust between people collapses, again, if AI, if you go online, which is now the main way we converse on the level of the country and the online space is flooded by non-human entities that maybe masquerade as human beings, you talk with someone, you have no idea if it's even human.
もし人と人との信頼関係が崩れれば、また、AIが、今や国のレベルで私たちが会話をする主な手段となっているオンラインに行けば、そしてオンライン空間が、もしかしたら人間の仮面をかぶった人間ではない存在で溢れかえっていれば、誰かと話しても、それが人間かどうかさえわからない。
You see something, you see a video, you hear an audio, you have no idea if this is really, is this true?
何かを見たり、ビデオを見たり、音声を聞いたりしても、それが本当にそうなのか、本当なのか、まったくわからない。
Is this fake?
これは偽物か?
Is this a human?
これは人間ですか?
It's not a human.
人間ではない。
I mean, in this situation, unless we have some guardrails, again, conversation collapses.
つまり、このような状況では、何かガードレールがなければ、会話は崩壊してしまう。
Is that what you mean when you say AI risks hacking the operating system?
AIがOSをハッキングするリスクがあるというのは、そういう意味ですか?
This is one of the things, again, if bots can impersonate people, it's basically like what happens in the financial system.
もしボットが人間になりすますことができれば、金融システムで起きているようなことが起きてしまう。
Like people invented money and it was possible to counterfeit money, to create fake money.
人々が貨幣を発明し、貨幣を偽造し、偽札を作ることが可能になったように。
The only way to save the financial system from collapse was to have very strict regulations against fake money because the technology to create fake money was always there.
金融システムを崩壊から救う唯一の方法は、偽札に対して非常に厳しい規制を設けることだった。
But there was very strict regulation against it because everybody knew if you allow fake money to spread, the financial system, the trust in money collapses.
しかし、ニセ札の蔓延を許せば、金融システム、つまり貨幣に対する信頼が崩壊することを誰もが知っていたため、それに対しては非常に厳しい規制が敷かれていた。
And now we are in an analogous situation with the political conversation that now it's possible to create fake people.
そして今、私たちは政治的な会話で似たような状況に陥っている。
And if we don't ban that, then trust will collapse.
それを禁止しなければ、信頼は崩壊する。
We'll get to the banning or not banning in a minute.
禁止するかしないかについては、すぐに説明する。
Democratizing access to the right to broadcast has been the story of the last 30 years.
放送権へのアクセスを民主化することは、過去30年間の物語であった。
Hundreds of millions of people can now create podcasts and blogs and they're free to broadcast their thoughts on Twitter and the Internet.
今や何億人もの人々がポッドキャストやブログを作成し、ツイッターやインターネットで自由に自分の考えを発信できる。
Broadly speaking, I think that has been an incredibly positive development.
大雑把に言えば、これは信じられないほど前向きな進展だと思う。
You no longer have to get access to the top newspaper or you get the skills necessary to be part of that institution.
もはや一流新聞社にアクセスする必要もなければ、その機関の一員になるために必要なスキルを手に入れる必要もない。
Many people at the time feared that this would destroy our credibility and trust in the big news outlets and institutions.
当時、多くの人々が、これによって大手報道機関や報道機関に対する信用や信頼が失われるのではないかと懸念していた。
I think that we've adapted incredibly well.
信じられないほどうまく適応できたと思う。
Yes, it has been a lot of turmoil and unstable.
そう、多くの混乱と不安定があった。
But with every one of these new waves, I think we adjust our ability to discern truth, to dismiss nonsense.
しかし、こうした新しい波が来るたびに、私たちは真実を見極め、無意味なものを排除する能力を調整しているのだと思う。
And there are both technical and governance mechanisms which will emerge in the next wave, which we can talk about to address things like bot impersonation.
そして、ボットのなりすましなどに対処するために、技術的な仕組みとガバナンスの仕組みの両方が、次の波には出てくるでしょう。
I mean, I'm completely with you.
つまり、僕は完全に君に賛成なんだ。
I mean, we should have a ban on impersonation of digital people.
つまり、デジタル人物のなりすましを禁止すべきだ。
It shouldn't be possible to create a digital Zanny and have that be platformed on Twitter talking all kinds of nonsense.
デジタルのザニーを作り、それをツイッターのプラットフォームにしてくだらないことをしゃべらせることはできないはずだ。
Zanny is very smart.
ザニーはとても賢い。
I mean, it's enough with the real world.
つまり、現実の世界で十分なんだ。
So I think that there are technical mechanisms that we can do to prevent those kinds of things.
だから、そういうことを防ぐためにできる技術的なメカニズムがあると思う。
And that's why we're talking about them.
だから私たちは彼らについて話しているんだ。
There are mechanisms.
メカニズムがある。
We just need to employ them.
ただ、彼らを雇う必要がある。
I would say two things.
私は2つのことを言いたい。
First of all, it's a very good thing that more people were given a voice.
まず第一に、より多くの人々が声を上げるようになったことは非常に良いことだ。
It's different with bots.
ボットの場合は違う。
Bots don't have freedom of speech.
ボットに言論の自由はない。
So banning bots...
だからボットを禁止する...
Well, they shouldn't have freedom of speech.
まあ、彼らに言論の自由はないはずだ。
They shouldn't have freedom of speech.
彼らに言論の自由はないはずだ。
That's very important.
それはとても重要なことだ。
Yes, there have been some wonderful developments in the last 30 years.
そう、この30年の間に素晴らしい発展があった。
Still, I'm very concerned that when you look at countries like the United States, like the UK to some extent, like my home country of Israel, I'm struck by the fact that we have the most sophisticated information technology in history and we are no longer able to talk to each other.
それでも、アメリカのような国、イギリスのような国、そして私の母国イスラエルのような国を見ると、歴史上最も洗練された情報技術を持ちながら、もはや互いに話し合うことができないという事実に、私はとても懸念を抱いている。
That my impression, maybe your impression of American politics or politics in other democracies is different.
それは私の印象であって、アメリカの政治や他の民主主義国家の政治に対するあなたの印象とは違うかもしれない。
My impression is that trust is collapsing.
私の印象では、信頼は崩壊しつつある。
The conversation is collapsing, that people can no longer agree who won the last elections.
前回の選挙で誰が勝ったのか、もはや人々の意見は一致せず、会話は崩壊している。
Like the most basic fact in a democracy.
民主主義における最も基本的な事実のように。
Who won the last?
最後に勝ったのは?
We had huge disagreements before, but I feel that now it's different, that really the conversation is breaking down.
以前は大きな意見の相違があったが、今は違う、本当に会話が壊れてきていると感じている。
I'm not sure why, but it's really troubling that at the same time that we have really the most powerful information technology in history and people no longer can talk with each other.
なぜなのかはわからないが、歴史上最も強力な情報技術を手に入れたと同時に、人々が互いに話し合うことができなくなってしまったのは本当に困ったことだ。
It's a very good point.
とてもいい指摘だ。
We actually had a, you may have seen it, we had a big cover package on looking at what the impact might be in the short term on elections and on the political system.
短期的に選挙や政治体制にどのような影響が出るかについて、大きな特集を組みました。
And we concluded actually AI was likely to have a relatively small impact in the short term because there was already so little trust.
そして私たちは、AIは短期的には比較的小さな影響しか与えないだろうと結論づけた。
So it was a sort of double edged answer.
だから、両刃の答えのようなものだった。
You know, it was it was not going to make a huge difference, but only because things were pretty bad as they were.
大きな違いはないだろうけど、状況がかなり悪化していたからね。
But you both said there needs to be regulation.
しかし、お二人とも規制が必要だとおっしゃっている。
Before we get to the precisely how the unit that we have that would do that is the nation state and national governments.
その前に、それを実現する単位が国家であり、国民政府なのだ。
Yet you, Mustafa, in your book, worry that actually one of the potential dangers is that the powers of the nation state are eroded.
しかし、ムスタファさんは著書の中で、潜在的な危険のひとつは国民国家の権力が侵食されることだと懸念している。
Could you talk through that as the sort of the third in my escalating sense of risks?
私のエスカレートしていくリスクに対する感覚の3つ目として、そのことについて話していただけますか?
The challenge is that at the very moment when we need the nation state to hold us accountable, the nation state is struggling under the burden of a lack of trust and huge polarization and a breakdown in our political process.
課題は、私たちが国家に責任を負わせる必要があるまさにその時、国家は信頼の欠如と巨大な二極化、政治プロセスの崩壊という重荷の下で苦闘しているということだ。
And so combined with that, the latest models are being developed by the private companies and by the open source.
それに加えて、最新モデルは民間企業やオープンソースによって開発されている。
It's important to recognize it isn't just the biggest AI developers.
最大のAI開発者だけではないことを認識することが重要だ。
There's a huge proliferation of these techniques widely available on open source code that people can download from the Web for free.
こうした技術は、ウェブから無料でダウンロードできるオープンソース・コードで広く公開されている。
And they're probably about a year or a year and a half behind the absolute cutting edge of the big models.
そして、彼らはおそらく大型モデルの絶対的な最先端から1年か1年半ほど遅れている。
And so we have this dual challenge.
だから、私たちは二重の課題を抱えている。
Like, how do you hold centralized power accountable when the existing mechanism is basically a little bit broken?
例えば、既存のメカニズムが基本的に少し壊れているときに、中央集権的な権力にどうやって責任を負わせるのか?
And how do you address this mass proliferation issue when it's unclear how to stop anything in mass proliferation on the Web?
また、ウェブ上での大量拡散を止める方法が不明確な中、この大量拡散問題にどう対処するのか?
That's a really big challenge.
それは本当に大きな挑戦だ。
What we've started to see is self-organizing initiatives on the part of the companies.
私たちが目にし始めたのは、企業側の自主的な取り組みである。
Right.
そうだね。
So getting together and agreeing to sign up proactively to self oversight, both in terms of audit, in terms of capabilities that we won't explore, et cetera, et cetera.
だから、一緒になって、監査の面でも、私たちが探らないような能力の面でも、自主的な監督に積極的にサインアップすることに同意する。
Now, I think that's only partially reassuring to people, clearly, maybe not even reassuring at all.
今、私が思うに、それは人々にとって部分的にしか安心材料にならない。
But the reality is, I think it's the right first step, given that we haven't actually demonstrated the large scale harms to arise from AIs just yet.
しかし、現実には、AIから生じる大規模な害がまだ実証されていないことを考えれば、これは正しい第一歩だと思う。
I mean, this is one of the first occasions, I think, in general purpose waves of technology that we're actually starting to adopt a precautionary principle.
つまり、これは一般的なテクノロジーの波において、予防原則を採用し始めた最初の出来事なのだ。
I'm a big advocate of that.
私はそれを大いに支持している。
I think that we should be approaching a do no harm principle.
害を与えないという原則に近づくべきだと思う。
And that may mean that we have to leave some of the benefits on the tree and some fruit may just not be picked for a while.
そしてそれは、私たちが木に恩恵を残すことを意味し、いくつかの果実はしばらくの間収穫されないかもしれない。
And we might lose some gains over a couple of years where we may look back in hindsight and think, oh, well, we could have actually gone a little bit faster there.
そして、数年の間に得るものを失い、後から振り返って、ああ、本当はもう少し早く進めたのにと思うかもしれない。
I think that's the right trade off.
それが正しいトレードオフだと思う。
This is a moment of caution.
これは注意すべき瞬間だ。
Things are accelerating extremely quickly and we can't yet do the balance between the harms and benefits perfectly well until we see how this wave unfolds a little bit.
事態は極めて急速に加速しており、この波がどのように展開していくかをもう少し見極めるまでは、有害性と有益性のバランスを完璧にとることはまだできない。
So I like the fact that our company Inflection AI and the other big developers are trying to take a little bit more of a cautious approach.
だから、私たちの会社であるInflection AIや他の大手デベロッパーが、もう少し慎重なアプローチを取ろうとしているのは好感が持てる。
I think that's a really interesting point because, you know, we are having this conversation.
私たちはこのような会話をしているわけですから、それは本当に興味深い点だと思います。
You have written, both of you, extensively about the challenges posed by this technology.
お二人とも、この技術がもたらす課題について幅広く書かれていますね。
There's now a parlor game amongst, you know, practitioners in this world about, you know, what is the risk of extinction level events where there's a huge amount of talk about this.
今、この世界では、実務家の間で、絶滅レベルの出来事のリスクはどれくらいなのかというパーラーゲームが行われており、それについて膨大な量の議論がなされている。
And I don't know, in fact, I should probably ask you what percentage of your time, probably right now, it's, you know, close to 100 percent of your time is focused on the risk since you're promoting your book.
実際、あなたの時間の何パーセントが、おそらく今は、100パーセントに近い時間が、本のプロモーションのために費やされているのでしょう?
But it's it is there's a lot of attention on this, which is which is good.
でも、この件に注目が集まっているのはいいことだ。
We are thinking about it early.
早めに考えている。
So that gets us, I think, now to the most important part of our conversation, which is what do we do?
ということで、この話の最も重要な部分、つまり、私たちは何をすべきなのか、ということになる。
And you, Mustafa, you lay out a 10 point plan, which is, you know, the kind of action, do kind of thing that someone who doesn't just comment like you and I do, but actually does things would do.
そして、ムスタファ、あなたは10項目のプランを提示している。それは、あなたや私のようにコメントするだけでなく、実際に行動する人がするような行動、実行のようなものだ。
So tell us what do we need to do as humanity, as governments, as societies to ensure that we capture the gains from this technology, but we minimise the risks.
では、人類として、政府として、社会として、このテクノロジーから利益を確実に得るために、またリスクを最小限に抑えるために、私たちは何をすべきなのでしょうか?
There are some very practical things.
非常に実用的なこともある。
I mean, so, for example, red teaming these models means adversarially testing them and trying to put them under as much pressure as possible to push them to generate advice, for example, on how to generate a biological or chemical weapon, how to create a bomb, for example, or even push them to be very sexist, racist, biased in some way.
つまり、例えば、これらのモデルをレッドチーム化するということは、敵対的にテストし、例えば、生物兵器や化学兵器の作り方、爆弾の作り方、あるいは、性差別主義者、人種差別主義者、何らかの偏見を持つような助言を出すよう、可能な限りプレッシャーを与えようとすることだ。
And that already is pretty significant.
そして、それはすでにかなり重要なことだ。
We can see their weaknesses.
彼らの弱点は見えている。
I mean, part of the release of these models in the last year has given everybody, I think, the opportunity to see not just how good they are, but also their weaknesses.
つまり、昨年これらのモデルが発表されたことで、その良さだけでなく弱点も誰もが知ることができたと思う。
And that is reassuring.
それは心強い。
We need to do this out in the open.
オープンにする必要がある。
That's why I'm a huge fan of the open source community as it is at the moment, because real developers get to play with the models and actually see how hard it is to produce the capabilities that sometimes I think we fear that they're just going to be super manipulative and persuasive and, you know, destined to be awful.
というのも、本物の開発者たちがモデルと戯れることができ、実際にその能力を生み出すことがいかに難しいかを目の当たりにすることができるからだ。
So that's the first thing is doing it out in the open.
だから、まずはそれをオープンにすることだ。
The second thing is that we have to share the best practices.
もうひとつは、ベストプラクティスを共有することだ。
And so there's a competitive tension there because safety is going to be an asset.
安全性が資産になるわけだから、そこには競争上の緊張感がある。
You know, I'm going to deliver a better product to my consumers if I have a safer model.
より安全なモデルがあれば、より良い製品を消費者に届けることができる。
But of course, there's got to be a requirement that if I discover a vulnerability, a weakness in the model, then I should share that just as we have done for actually decades in many waves of technology, not just in software security, for example, but in flight aviation.
しかしもちろん、脆弱性やモデルの弱点を発見した場合は、ソフトウェアのセキュリティだけでなく、例えば航空技術など、さまざまな技術分野で何十年も前からそうしてきたように、それを共有する必要がある。
You know, the black box recorder, for example, if there's a significant incident, not only does it record all the telemetry on board the aircraft, but also everything that the pilots say in the cockpit.
例えばブラックボックスレコーダーは、重大なインシデントが発生した場合、機内のすべてのテレメトリーを記録するだけでなく、パイロットがコックピットで話した内容もすべて記録する。
And if there's a significant safety incident, then that's shared all around the world with all of the competitors, which is great.
そして、もし重大な安全上の事故が起きれば、そのことは世界中のすべての競争相手と共有される。
Aircrafts are one of the safest ways to get around, despite, you know, on the face of it, if you described it to an alien, being 40,000 feet in the sky is a very strange thing to do.
飛行機は最も安全な移動手段のひとつだが、宇宙人にそれを説明するならば、上空4万フィートというのはとても奇妙なことだ。
So I think there's precedent there that we can we can follow.
だから、私たちが従うことができる前例がそこにあると思う。
I do also agree that it's probably time for us to explicitly declare that we should not allow these tools to be used for electioneering.
また、このようなツールが選挙活動に使われることを許すべきではないと明確に宣言する時期に来ているのだろうという点にも同意する。
I mean, we cannot trust them yet.
つまり、まだ彼らを信用することはできない。
We cannot trust them to be stable and reliable.
私たちは、彼らが安定し、信頼できると信じることはできない。
We cannot allow people to be using them for counterfeit digital people.
デジタル・ピープルの偽造に使われることは許されない。
Clearly, we've talked about that already.
それについてはすでに話した通りだ。
So there are some capabilities which we can start to take off the table.
だから、私たちがテーブルから外すことができるいくつかの能力がある。
Another one would be autonomy.
もうひとつは自主性だろう。
Right.
そうだね。
Right now, I think autonomy is a pretty dangerous set of methods.
今のところ、自主性はかなり危険な方法だと思う。
It's exciting.
エキサイティングだよ。
It represents a possibility that could be truly incredible.
本当に信じられないような可能性を表している。
But we haven't wrapped our hands around what the risks and limitations are.
しかし、そのリスクと限界について、私たちはまだ把握していない。
Likewise, training an AI to update and improve its own code.
同様に、AIを訓練することで、自身のコードを更新し、改善することができる。
This notion of recursive self-improvement, right?
再帰的自己改善という概念だね。
Closing the loop so that the AI is in charge of defining its own goals, acquiring more resources, updating its own code with respect to some objective.
ループを閉じることで、AIが自らの目標を定義し、より多くのリソースを獲得し、ある目的に関して自らのコードを更新する。
These are pretty dangerous capabilities.
これはかなり危険な能力だ。
Just as we have KYC, Know Your Customer, or just as we license development developers of nuclear technologies and all the components involved in that supply chain, there'll be a moment where if some of the big technology providers want to experiment with those capabilities, then they should expect there to be robust audits.
KYC(Know Your Customer)があるように、あるいは原子力技術の開発者やそのサプライチェーンに関わるすべての構成要素にライセンスを与えるように、大手技術プロバイダーがそのような能力を試したいと思えば、しっかりとした監査が行われることを期待すべき時が来るだろう。
They should expect them to be licensed and there should be independent oversight.
彼らはライセンスを取得し、独立した監督下に置かれることを期待するはずだ。
So how do you get that done?
では、どうやってそれを成し遂げるのか?
And there seem to me there are several challenges in doing it.
そのためには、いくつかの課題があるように思う。
One is the division between the relatively few leading edge models of which you have one and then the larger tail of open source models where the ability to build the model is decentralized.
ひとつは、あなたが持っているような比較的少数の最先端モデルと、モデルを構築する能力が分散化されたオープンソースモデルの大きなテールとの区分である。
Lots of people have access to it.
多くの人がアクセスしている。
My sense is that the capabilities of the latter are a little bit behind the capabilities of the former, but they are growing all the time.
私の感覚では、後者の能力は前者の能力より少し遅れているが、常に成長している。
And so if you have really considerable open source capability, what is not to stop the angry teenager in some small town developing capabilities that could shut down the local hospital?
そして、もし本当にかなりのオープンソースの能力があるのなら、どこかの小さな町の怒れるティーンエイジャーが、地元の病院をシャットダウンできるような能力を開発するのを止められないだろう?
And how do you, in your regulatory framework, guard against that?
規制の枠組みの中で、どのようにそれを防ぐのか?
Part of the challenge is that these models are getting smaller and more efficient.
課題のひとつは、これらのモデルが小型化し、より効率的になっていることだ。
And we know that from the history of technologies.
そして私たちは、技術の歴史からそれを知っている。
Anything that is useful and valuable to us gets cheaper, easier to use, and it proliferates far and wide.
私たちにとって便利で価値のあるものは何でも安くなり、使いやすくなり、広く普及する。
So the destiny of this technology over a two, three, four decade period has to be proliferation.
つまり、20年、30年、40年と続くこの技術の運命は、普及にある。
And we have to confront that reality.
そして、私たちはその現実に立ち向かわなければならない。
It isn't a contradiction to name the fact that proliferation seems to be inevitable, but containing centralized power is an equivalent challenge.
拡散は避けられないようだが、中央集権を封じ込めることは同等の課題である、という事実を挙げることは矛盾ではない。
So there is no easy answer to that.
だから、簡単には答えられない。
I mean, beyond surveilling the internet, it is pretty clear that in 30 years' time, like you say, garage tinkerers will be able to experiment.
つまり、インターネットを監視するだけでなく、30年後には、あなたが言うように、ガレージを改造する人たちが実験できるようになるのは明らかだ。
If you look at the trajectory on synthetic biology, we now have desktop synthesizers.
合成生物学の軌跡を見ると、今ではデスクトップ・シンセサイザーがある。
That is the ability to engineer new synthetic compounds.
それは、新しい合成化合物を設計する能力である。
They cost about $20,000 and they basically enable you to create potentially molecules which are more transmissible or more lethal than we had with COVID.
この分子は約2万ドルで、基本的にはCOVIDよりも感染性が高く、致死性の高い分子を作ることができる。
You can basically experiment.
基本的には実験ができる。
And the challenge there is that there's no oversight.
そして、そこでの課題は監督がいないことだ。
You buy it off the shelf.
あなたは棚からそれを買う。
You don't need a great deal of training, probably an undergraduate in biology today, and you'll be able to experiment.
大した訓練は必要なく、おそらく今日では生物学の学部生くらいで、実験ができるだろう。
Now, of course, they're going to get smaller, easier to use and spread far and wide.
今はもちろん、小型化し、使いやすくなり、広く普及していくだろう。
And so my book, I'm really trying to popularize the idea that this is the defining containment challenge of the next few decades.
だから、私の本では、これが今後数十年の封じ込めを決定的にする課題だという考えを広めようとしているんだ。
So you use the word containment, which is interesting because, you know, Yuval, I'm sure the word containment with you brings immediately, you know, inspires images of George Kennan and, you know, the post-war, Cold War dynamic.
というのも、ユヴァル、あなたにとって封じ込めという言葉は、ジョージ・ケナンや戦後の冷戦のダイナミズムを連想させるからです。
And we're now, we're in a geopolitical world now that whether or not you call it a new Cold War is one of great tension between the US and China.
そして今、私たちは地政学的な世界にいる。新たな冷戦と呼ぶかどうかは別として、アメリカと中国の間には大きな緊張関係がある。
Can this kind of containment, as Mustafa calls it, be done when you have the sort of tensions you've got between the world's big players?
ムスタファが言うところの「封じ込め」は、世界のビッグプレーヤーの間にこのような緊張関係があるときに可能なのだろうか?
Are the, is the right paradigm thinking about the arms control treaties of the Cold War?
冷戦時代の軍備管理条約について、正しいパラダイムで考えているのだろうか?
How do we go about doing this at a kind of international level?
国際的なレベルでこれを行うにはどうすればいいのか?
I think this is the biggest problem, that if it was a question of, you know, humankind versus a common threat of these new intelligent alien agents here on Earth, then yes, I think that there are ways we can contain them.
これが最大の問題だと思う。もし人類が、地球上の知的エイリアンという共通の脅威と戦うのであれば、彼らを封じ込める方法はあると思う。
But if the humans are divided among themselves and are in an arms race, then it becomes almost impossible to contain this alien intelligence.
しかし、もし人間同士が分裂し、軍拡競争を繰り広げているのであれば、この異星人の知性を封じ込めることはほとんど不可能になる。
And there is, I'm tending to think of it more in terms of really an alien invasion.
そして、私はそれをエイリアンの侵略という観点から考える傾向がある。
That's like somebody coming and telling us that, you know, there is a fleet, an alien fleet of spaceships coming from planet Zircon or whatever with highly intelligent beings.
誰かがやってきて、惑星ジルコンか何かから高度な知的生命体を乗せた宇宙船の艦隊がやってくる、と言うようなものだ。
They'll be here in five years and take over the planet.
彼らは5年以内にここにやってきて、地球を征服するだろう。
Maybe they'll be nice.
たぶん、彼らは親切だろう。
Maybe they'll solve cancer and climate change, but we are not sure.
もしかしたら、ガンや気候変動を解決してくれるかもしれない。
This is what we are facing, except that the aliens are not coming in spaceships from planet Zircon.
エイリアンが惑星ジルコンから宇宙船でやってこないことを除けば、これが私たちが直面していることなのだ。
They are coming from the laboratory.
彼らは研究室から来ている。
He's sitting right next to you, the creator of the aliens.
彼はあなたの隣に座っている、エイリアンの創造主だ。
I honestly think this is an unhelpful characterization of the nature of the technology.
正直なところ、これは技術の本質を理解する上で役に立たない表現だと思う。
An alien has, by default, agency.
エイリアンにはデフォルトで代理権がある。
These are going to be tools that we can apply in narrow settings.
これらは、狭いセッティングで応用できるツールになるだろう。
Yes, but let's say they potentially have agency.
そうだが、仮に彼らが代理権を持つ可能性があるとしよう。
We can try to prevent them from having agency, but we know that they are going to be highly intelligent and at least potentially have agency.
私たちは彼らが主体性を持たないようにすることはできるが、彼らが高度な知性を持ち、少なくとも主体性を持つ可能性があることは分かっている。
And this is a very, very frightening mix, something we never confronted before.
そして、これは非常に、非常に恐ろしい組み合わせであり、私たちがこれまで直面したことのないものだ。
Again, atom bombs didn't have a potential for agency.
繰り返しになるが、原子爆弾には代理人の可能性はなかった。
Printing presses did not have a potential for agency.
印刷機には代理店の可能性はなかった。
This thing, again, unless we contain it and the problem of content is very difficult because potentially they'll be more intelligent than us.
このようなことは、やはり、私たちが封じ込めなければならないし、コンテンツの問題は、潜在的に彼らが私たちよりも知的である可能性があるため、非常に難しい。
How do you prevent something more intelligent than you from developing the agency it has?
どうすれば、自分よりも知的なものが、その能力を開発するのを防ぐことができるのか?
I'm not saying it's impossible.
不可能だとは言っていない。
I'm just saying it's very, very difficult.
ただ、とても難しいと言っているだけだ。
I think our best bet is not to kind of think in terms of some kind of rigid regulation.
私たちの最善の策は、ある種の厳格な規制という観点から考えないことだと思う。
You should do this.
こうすべきだ。
You shouldn't do that.
それはやめた方がいい。
It's in developing new institutions, living institutions that are capable of understanding the very fast developments and reacting on the fly.
それは、非常に速い展開を理解し、即座に対応できる新しい制度、生きた制度を開発することにある。
At present, the problem is that the only institutions who really understand what is happening are the institutions who develop the technology.
現在のところ、何が起きているのかを本当に理解しているのは、技術を開発する機関だけだということが問題なのだ。
The governments, most of them seem quite clueless about what's happening.
ほとんどの政府は、何が起きているのかまったくわかっていないようだ。
Also, universities.
また、大学もそうだ。
I mean, the amount of talent and the amount of the economic resources in the private sector is far, far higher than in the universities.
つまり、民間企業の人材や経済的資源の量は、大学よりもはるかに多いのだ。
So and again, I appreciate that there are actors in the private sector like Mustafa who are thinking very seriously about regulation and containment.
だから、ムスタファのように規制や封じ込めについて真剣に考える民間セクターのアクターがいることを、私は高く評価している。
But we must have an external entity in the game.
しかし、試合には外部の存在が必要だ。
And for that, we need to develop new institutions that will have the human resources, that will have the economic and technological resources and also will have the public trust, because without public trust, it won't work.
そのためには、人的資源、経済的資源、技術的資源を有し、国民の信頼を得られるような新しい制度を開発する必要がある。
Are we capable of creating such new institutions?
私たちはそのような新しい制度を作ることができるのだろうか?
I don't know.
分からないよ。
I do think Yuval raises an important point, which is that we started this conversation and you were painting the picture of five years time and you were saying that the AIs would be ubiquitous.
ユヴァルは重要な点を指摘していると思う。私たちがこの会話を始めたとき、あなたは5年後の絵を描いていて、AIはどこにでもあるだろうと言った。
We'd all have our own ones, but that they would have the capability to act, not just to process information.
私たちは皆、自分自身のものを持っているが、それは単に情報を処理するだけでなく、行動する能力を持っている。
They would have the creativity they have now and the ability to act.
彼らには今のような創造性と行動力があるだろう。
But already from these generative AI models, the power that we've seen in the last year, two, three, four years has been that they have been able to act in ways that you and your other, your fellow technologists didn't anticipate.
しかし、このような生成的なAIモデルから、私たちがこの1年、2年、3年、4年で見てきた力は、あなたや他の技術者たちが予想していなかったような方法で行動できるようになったということです。
They reached, you know, you didn't anticipate, you know, the speed with which they would, you would win at go or so forth.
彼らは、その、予想もしなかったようなスピードで、囲碁やその他で勝つだろう。
There was a, the striking thing about them is that they have developed in unanticipatedly fast ways.
彼らについて印象的なのは、予想外の速さで発展してきたことだ。
So if you combine that with capability, you don't have to go as far as Yuval is saying and saying that they're all more intelligent than humans, but there is an unpredictability there that I think does raise the concerns that Yuval raises, which is you, their creators can't quite predict what powers they will have.
しかし、そこには予測不可能性があり、ユヴァルが指摘するような懸念が生じると思う。
They may not be fully autonomous, but they will be moving some ways towards that.
完全な自律走行はできないかもしれないが、それに向かっていくことはできるだろう。
And so how do you guard against that?
では、どうやってそれを防ぐのか?
Or how do you, you know, red teaming, you use the phrase, which is that I understand it is that, you know, you keep checking what's happening and tweak them when you've seen what's...
あるいは、レッドチームという言葉を使うなら、何が起きているのかをチェックし続け、何が起きているのかを確認したら、それを微調整する......。
Well, you pressure test them, you try to make them fail.
プレッシャーテストをして、失敗するように仕向けるんだ。
You can't pressure test for everything in advance.
すべてを事前にプレッシャーテストすることはできない。
So there is a, I think a very real point that Yuval is making about as the capabilities increase, so the risks increase of relying on you and other creator companies to make the same.
だから、ユヴァルが言っているような、能力が上がれば上がるほど、あなたや他のクリエイター企業に頼ることのリスクが高まるというのは、非常に現実的な指摘だと思う。
I mean, it's a very fair question.
つまり、とても公平な質問なんだ。
And that's why I've long been calling for the precautionary principle.
だからこそ、私は予防原則をずっと訴えてきたのだ。
We should both take some capabilities off the table and classify those as high risk.
我々は、いくつかの能力をテーブルから外し、それらをハイリスクと分類すべきだ。
I mean, frankly, the EU AI Act, which has been in draft for three and a half years, is very sensible as a risk based framework that applies to each application domain, whether it's health care or self-driving or facial recognition.
つまり、率直に言って、3年半前から草案が提出されているEUのAI法は、医療、自動運転、顔認識など、それぞれの応用分野に適用されるリスクベースの枠組みとして非常に賢明なものだ。
And it basically takes certain capabilities off the table when that threshold is exceeded.
そして、その閾値を超えると、基本的に特定の能力がテーブルから外される。
I listed a few earlier autonomy, for example, clearly a capability that it has the potential to be high risk, recursive self-improvement, the same story.
例えば、先ほど自律性をいくつか挙げたが、これは明らかにハイリスクとなる可能性を秘めた能力であり、再帰的自己改善も同じ話だ。
So this is the moment when we have to adopt a precautionary principle, not through any fear mongering, but just as a logical, sensible way to proceed.
だから今こそ、恐怖を煽るのではなく、論理的で賢明な方法として、予防原則を採用しなければならないのだ。
Another model, which I think is very sensible, is to take an IPCC style approach, an international consensus around an investigatory power to establish the scientific fact basis for where we are with respect to capabilities.
もうひとつのモデルは、IPCCのようなアプローチをとることで、国際的なコンセンサスを得て、私たちの能力に関する科学的事実の根拠を確立することです。
And that has been an incredibly valuable process.
そしてそれは、信じられないほど貴重なプロセスだった。
Set aside the negotiation and the policymaking, just the evidence observing where are we.
交渉や政策立案はさておき、我々はどこにいるのかを観察する証拠だけだ。
You don't have to take it from me.
私から取る必要はない。
You should have to take an independent panel of experts who I would personally grant access to everything in my company if they were a trusted, true, impartial actor.
信頼できる真の公平な役者であれば、私が個人的に自分の会社のすべてにアクセスすることを許可するような独立した専門家パネルを取る必要があるはずだ。
Without question, we would grant complete access.
間違いなく、私たちは完全なアクセスを許可するだろう。
And I know that many of the other companies would do the same.
そして、他の企業の多くも同じことをするだろう。
Again, people are drawn towards the kind of scenario of the AI creates a lethal virus, Ebola plus Covid and kills everybody.
ここでもまた、AIが致命的なウイルス、エボラ出血熱とコビドを作り出し、すべての人を殺すというシナリオが描かれる。
Let's go in the more economic direction, financial systems like you gave as a new Turing test, the idea of AI making money.
より経済的な方向に話を進めましょう。あなたが新しいチューリング・テストとして挙げたような金融システム、AIがお金を稼ぐというアイデアです。
What's wrong with making money?
金儲けの何が悪い?
Wonderful thing.
素晴らしいことだ。
So let's say that you have an AI which has a better understanding of the financial system than most humans, most politicians, maybe most bankers.
つまり、ほとんどの人間、ほとんどの政治家、おそらくほとんどの銀行家よりも金融システムをよく理解しているAIがいるとしよう。
And let's think back to the 2007-2008 financial crisis.
2007年から2008年にかけての金融危機を思い出してみよう。
It started with this, how was it called, CBO, CBU, these credit defaults.
CBO、CBUと呼ばれていたクレジット・デフォルトから始まった。
Exactly.
その通りだ。
Something that these genius mathematicians invented.
天才数学者たちが発明したものだ。
Nobody understood them except for a handful of genius mathematicians in Wall Street, which is why nobody regulated them.
ウォール街の一握りの天才数学者以外は誰も理解しておらず、だからこそ誰も規制しなかった。
And almost nobody saw the financial crash coming.
そして、金融の大暴落が起こるとは、ほとんど誰も予想していなかった。
What happens?
どうなるんだ?
Again, this kind of apocalyptic scenario, which you don't see in Hollywood science fiction movies, the AI invents a new class of financial devices that nobody understands.
ハリウッドのSF映画ではお目にかかれないような終末的なシナリオだが、AIは誰も理解できないような新しい金融装置を発明する。
It's beyond human capability to understand.
人間の能力では理解できない。
It's such complicated math, so much data.
複雑な計算と膨大なデータだ。
Nobody understands it.
誰も理解していない。
It makes billions of dollars, billions and billions of dollars, and then it brings down the world economy.
何十億ドル、何百億ドルも稼ぎながら、世界経済を崩壊させる。
And no human being understands what the hell is happening.
一体何が起こっているのか、人間には理解できない。
Like the prime ministers, the presidents, the financial ministers, what is happening?
首相、大統領、財務大臣、何が起こっているのか?
And again, this is not fantastic.
繰り返すが、これは素晴らしいことではない。
I mean, we saw it with human mathematicians in 2007-2008.
つまり、2007年から2008年にかけて、人間の数学者がそうだったということだ。
I think that's one, you know, you can easily paint pictures here that make you want to jump off the nearest cliff.
この崖から飛び降りたくなるような絵は簡単に描ける。
And, you know, that's that's one.
そしてね、これがその一つなんだ。
But actually, my other response to Mustafa's laying out of where you say, well, we just need to rule out certain actions is to go back to the geopolitics.
しかし、実際には、ムスタファが「ある行動を除外すればいい」と言ったことに対する私のもうひとつの答えは、地政学に立ち返ることだ。
Is it sensible for a country to rule out certain capabilities if the other side is not going to rule them out?
もし相手側がそれを排除するつもりがないのであれば、ある国が特定の能力を排除することは賢明なことなのだろうか?
So you have a you have a kind of political economy problem going down the road that you know, we this is a moment when we collectively in the West have to establish our values and stand behind them.
つまり、西側諸国が一丸となって自分たちの価値観を確立し、それを支持しなければならない瞬間なのだ。
What we cannot have is the race to the bottom that says just because they're doing it, we should take the same risk.
彼らがやっているから我々も同じリスクを負うべきだというような底辺への競争は許されない。
If we adopt that approach and cut corners left, right and center, we'll ultimately pay the price.
そのようなアプローチを採用し、右も左も真ん中も手を抜けば、最終的に代償を払うことになる。
And that's not an answer to, well, they're going to go off and do it anyway.
そして、それは、まあ、いずれにせよ、彼らは行ってやってしまうだろう、という答えにはならない。
We've certainly seen that with lethal autonomous weapons.
致死的な自律兵器がそうであることは確かだ。
I mean, there's been a negotiation in the UN to regulate lethal autonomous weapons for over 20 years, and they barely reached agreement on the definition, the definition of lethal autonomous weapons, let alone any consensus.
つまり、国連では20年以上にわたって殺傷能力のある自律型兵器を規制するための交渉が行われてきたが、殺傷能力のある自律型兵器の定義についてほとんど合意に達していない。
So that's not great, but we do have to accept that it's the inevitable trajectory.
だから、それは素晴らしいことではないが、避けられない軌跡であることは受け入れなければならない。
And from our own perspective, we have to decide what we are prepared to tolerate in society with respect to free acting AIs, facial surveillance, facial recognition and, you know, generally autonomous systems.
そして私たち自身の観点から、自由行動するAI、顔監視、顔認識、そして一般的な自律システムに関して、社会で何を許容する用意があるかを決めなければならない。
I mean, so far we've taken a pretty cautious approach and we don't have drones flying around everywhere.
つまり、これまでのところ、我々はかなり慎重なアプローチを取っており、いたるところにドローンが飛び回っているわけではない。
We can already it's totally possible technically to autonomously fly a drone to navigate around London.
ドローンを自律飛行させてロンドン市内を航行させることは、技術的にはすでに完全に可能だ。
We've ruled it out, right?
除外したよね?
We don't yet have autonomous self-driving cars, even though, you know, with some degree of harm, they are actually pretty well functioning.
自律走行する自動運転車は、ある程度の害はあるにせよ、実際にはかなり機能している。
So the regulatory process is also a cultural process of what we think is socially and politically acceptable at any given moment.
つまり、規制のプロセスは、その時々に社会的、政治的に受け入れられると思われるものを考える文化的なプロセスでもあるのだ。
And I think an appropriate level of caution is what we're seeing.
そして、私たちが見ているのは適切なレベルの警戒心だと思う。
We didn't agree about much, but I completely agree on that, that we need in many fields a coalition of the willing.
私たちはあまり意見が合わなかったが、多くの分野で有志連合が必要だという点では完全に同意する。
And if some actors in the world don't want to join, it's in our interest to, again, something like banning bots impersonating people.
そして、もし世界の一部の俳優が参加したがらないのであれば、やはり、人になりすましたボットを禁止するようなことをするのが得策だ。
So some countries will not agree, but that doesn't matter.
だから、同意しない国もあるだろうが、それは問題ではない。
To protect our societies, it's still a very good idea to have these kinds of regulations.
私たちの社会を守るために、このような規制を設けるのは非常に良い考えだ。
So that area of agreement is one to bring us to a close.
というわけで、この点で合意したところで終わりにしよう。
But I want to end by asking both of you.
しかし、最後にお二人にお聞きしたい。
And you first, Mustafa, you are, you know, both raising alarms, but you are heavily involved in creating this future.
そしてムスタファ、あなたはまず、警告を発しているが、この未来の創造に大きく関与している。
Why do you carry on?
なぜ続けるのですか?
I personally believe that it is possible to get the upsides and minimize the downsides in the AI that we have created.
私は個人的に、私たちが作り上げたAIでプラス面を手に入れ、マイナス面を最小限に抑えることは可能だと考えている。
PI, which stands for personal intelligence, is one of the safest in the world today.
PIとはパーソナル・インテリジェンスの略で、今日、世界で最も安全なもののひとつである。
It doesn't produce the racist, toxic, biased screeds that they did two years ago.
年前のような人種差別的で有害で偏った論評は出てこない。
It doesn't fall victim to any of the jailbreaks, the prompt hacks, the adversarial red teams.
ジェイルブレイクやプロンプトハック、敵対するレッドチームの犠牲にはならない。
None of those work.
どれもうまくいかない。
And we've made safety an absolute number one priority in the design of our product.
そして私たちは、製品の設計において安全性を絶対的な最優先事項としてきた。
So my goal has been to do my very best to demonstrate a path forward in the best possible way.
だから私の目標は、可能な限り最善の方法で前進する道を示すことに全力を尽くすことだ。
This is an inevitable unfolding over multiple decades.
これは数十年にわたる必然的な展開である。
This really is happening.
これは本当に起こっていることだ。
The coming wave is coming.
来るべき波が来ている。
And I think my contribution is to try to demonstrate in the best way that I can a manifestation of a personal intelligence which really does adhere to the best safety constraints that we could possibly think of.
そして私の貢献は、私たちが考えうる最高の安全制約を本当に遵守する個人的知性の発現を、私ができる最善の方法で実証しようとすることだと思う。
So Yuval, you've heard Mustafa's explanation for why he continues.
ユヴァル、ムスタファの説明を聞いただろう?
You look back over human history.
人類の歴史を振り返ってみてほしい。
Now, as you look forward, is this a technology and a pace of innovation that humanity will come to regret?
さて、この技術や技術革新のペースは、人類が後悔することになるのだろうか?
Or should Mustafa carry on?
それともムスタファが続けるべきか?
It could be.
そうかもしれない。
I can't predict the future.
未来は予測できない。
I would say that we invest so much in developing artificial intelligence.
私たちは人工知能の開発に多くの投資をしている。
And we haven't seen anything yet.
そして、まだ何も見ていない。
Like it's still the very first baby steps of artificial intelligence in terms of like you think about, I don't know, the evolution of organic life.
有機的な生命の進化について考えるような、人工知能の最初の一歩なんだ。
This is like the amoeba of artificial intelligence.
これは人工知能のアメーバのようなものだ。
And it won't take millions of years to get to T-Rex.
そして、T-レックスにたどり着くのに何百万年もかかることはないだろう。
Maybe it will take 20 years to get to T-Rex.
もしかしたら、T-レックスにたどり着くまで20年かかるかもしれない。
And but one thing to remember is that we also our own minds have a huge scope for development.
そして、忘れてはならないのは、私たち自身の心にも大きな発展の余地があるということだ。
Also with humanity.
また、人間性についても。
We haven't seen our full potential yet.
私たちはまだ、自分たちの潜在能力をフルに発揮できていない。
And if we invest for every dollar a minute that we invest in artificial intelligence, we invest another dollar a minute in developing our own consciousness, our own mind, I think will be OK.
人工知能に1分間に1ドル投資するごとに、もう1分間に1ドル、私たち自身の意識、私たち自身の心を開発するために投資すれば、大丈夫だと思う。
But I don't see it happening.
だが、私はそうは思わない。
I don't see this kind of investment in human beings that we are seeing in the machine.
マシンに見られるような人間への投資は見られない。
For me, this conversation with the two of you has been just that investment.
私にとって、お二人とのこの会話はまさにその投資だった。
Thank you both very much indeed.
本当にありがとう。
Thank you.
ありがとう。
Thank you.
ありがとう。
Thank you.
ありがとう。