Placeholder Image

字幕表 動画を再生する

審査済み この字幕は審査済みです
  • AI breakthroughs have been a question of when, not if.

    AIにおけるブレイクスルーは、もしが起こるかどうかの問題ではなく、いつ起こるかという問題だ。

  • Google unveiling long-awaited new details about its large language model, Gemini.

    Googleが、待望の大規模言語モデル「Gemini」の新たな詳細を明らかにした。

  • Cloud 3 is arguably now one of the most powerful AI models out there, if not the most powerful.

    クラウド3は、おそらく現在最も強力なAIモデルの一つ、もしかしたら最も強力なモデルだろう。

  • Preview, if you will, for its chat GPT-5.

    ChatGPT-5のプレビュー版と言えるだろう。

  • I expect it to be a significant leap forward.

    大幅な前進になると予想している。

  • But what if that core assumption that models can only keep getting bigger and better is now fizzling?

    しかし、モデルは常により大きく、より良くなり続けるという中心的な前提が今や萎えつつあるのではないか?

  • Is there really a slowing in progress?

    本当に進歩が遅くなっているのだろうか?

  • Because that wasn't expected.

    それは予想外のことだった。

  • It could spell cracks in the NVIDIA Bull story.

    NVIDIAの強気相場にヒビが入る可能性がある。

  • We're increasing GPUs at the same rate, but we're not getting the intelligence improvements out of it.

    GPUを同じペースで増やしているが、そこから得られる知能の向上は同じではない。

  • Calling into question the gigantic ramp in spending from Amazon, Google, Microsoft.

    Amazon、Google、Microsoftの巨額の支出が疑問視されている。

  • A rush for tangible use cases and a killer app.

    実用的な用途と決定的なアプリケーションを求める必要がある。

  • I'm Deirdre Bosa with the Tech Check take.

    私はダードル・ボサだ。テックチェックの視点を伝える。

  • Has AI progress peaked?

    AIの進歩は頭打ちになったのか?

  • Call it performance anxiety.

    これを「パフォーマンスの不安」と呼ぼう。

  • The growing concern in Silicon Valley that AI's rapid progression is losing steam.

    シリコンバレーで高まりつつある、AIの急速な進歩が勢いを失っているのではないかという懸念。

  • We've really slowed down in terms of the amount of improvement.

    改善のスピードが本当に遅くなってきた。

  • Reached a ceiling and is now slowing down.

    天井に達し、今では進歩が遅くなっている。

  • In the pure model competition, the question is, when do we start seeing an asymptote to scale?

    純粋なモデル競争において、いつスケールの非対称性が始まるのかが問題だ。

  • Hitting walls that even the biggest players from open AI to Google can't seem to overcome.

    Open AIからGoogleまで、大手プレイヤーでも乗り越えられない壁に直面している。

  • Progress didn't come cheap.

    進歩は安価ではなかった。

  • Billions of dollars invested to keep pace, banking on the idea that returns, they would be outsized too.

    何十億ドルも投資して歩調を合わせ、その見返りも同様に大きいと期待していた。

  • But no gold rush is guaranteed to last.

    しかし、どんなゴールドラッシュも永遠に続くとは限らない。

  • And early signs of struggle are now bubbling up at major AI players.

    主要AIプレイヤーの間で、苦戦の初期兆候が見え始めている。

  • The first indication that things are turning, the lack of progression between models.

    状況が変わり始めた最初の兆候は、モデル間の進歩の欠如だ。

  • I expect that the delta between five and four will be the same as between four and three.

    バージョン5と4の差は、4と3の差と同じになると予想している。

  • Each new generation of open AI's flagship GPT models, the ones that power chat GPT, they have been exponentially more advanced than the last in terms of their ability to understand, generate and reason.

    ChatGPTを動かす、Open AIのフラグシップGPTモデルの各新世代は、理解、生成、推論の能力において、これまで指数関数的に高度になってきた。

  • But according to reports, that's not happening anymore.

    しかし、報告によるとそれが続いていない。

  • There was talk prior to now that these companies were just going to train on bigger and bigger and bigger system.

    これまでは、企業は常により大きなシステムでトレーニングを続けると考えられていた。

  • If it's true that it's top, that's not going to happen anymore.

    もしそれが本当に頭打ちになったとしたら、もうそれは続かない。

  • Open AI has led the pack in terms of advancements.

    Open AIは技術的進歩においてリードしてきた。

  • It's highly anticipated next model called Aride.

    それは「Orion」と呼ばれる次期モデルで、非常に期待されている。

  • It was expected to be a groundbreaking system that would represent a generational leap in bringing us closer to AGI or artificial general intelligence.

    汎用人工知能(AGI)に近づく世代的な飛躍を表す画期的なシステムになると予想されていた。

  • But that initial vision, it's now being scaled back.

    しかし、その最初のビジョンは今や縮小されつつある。

  • Employees who have used or tested Orion told the information that the increase in quality was far smaller than the jump between GPT three and four, and that they believed Orion isn't reliably better than its predecessor at handling certain tasks like coding.

    Orionを使用またはテストした従業員によると、品質の向上は、GPT3から4への跳躍ほどではなく、コーディングなどの特定のタスクで、前のバージョンより確実に優れているわけではないと考えている。

  • Put in perspective, remember, chat GPT came out at the end of 2022.

    参考までに、ChatGPTは2022年末に登場した。

  • So now it's been, you know, close to two years.

    つまり、もう約2年経った。

  • And so you had initially a huge ramp up in terms of what all these new models can do.

    最初は、これらの新モデルができることについて、非常に大きな急成長があった。

  • And what's happening now is you've really trained all these models.

    そして今、それらのモデルは十分にトレーニングされている。

  • And so the performance increases are kind of leveling off.

    そのため、性能の向上が平坦になってきている。

  • The same thing may be happening at other leading AI developers.

    同じことが他の主要AI開発者にも起こっているかもしれない。

  • The startup Anthropic, it could be hitting roadblocks to improving its most powerful model, the Opus, quietly removing wording from its website that promised a new version of Opus later this year.

    スタートアップのAnthropicは、最も強力なモデルであるOpusの改善に障壁に直面している可能性があり、今年後半に新バージョンを提供するというウェブサイトの表現を静かに削除した。

  • And sources telling Bloomberg that the model didn't perform better than the previous versions as much as it should, given the size of the model and how costly it was to build and run.

    Bloombergの情報源によると、モデルのサイズと構築・運用のコストに比べて、前のバージョンよりもうまく機能していないという。

  • These are startups focused on one thing, the development of large language models with billions of dollars in backing from names like Microsoft and Amazon and Venture Capital.

    これらのスタートアップは、大規模言語モデルの開発に特化しており、MicrosoftやAmazon、ベンチャーキャピタルから何十億ドルもの資金を得ている。

  • But even Google, which has enough cash on hand to buy an entire country, it may also be seeing progress plateau.

    十分な現金を持つGoogle、国一つ買えるほどの会社でさえ、進歩が頭打ちになっている可能性がある。

  • The current generation of LLM models are roughly, you know, a few companies have converged at the top, but I think they're all working on our next versions, too.

    現在の世代の言語モデルは、おおよそ数社が上位に集中しているが、彼らは次のバージョンにも取り組んでいる。

  • I think the progress is going to get harder.

    進歩はより難しくなると思う。

  • When I look at 25, the low hanging fruit is gone.

    2025年を見ると、簡単な部分はもう終わっている。

  • You know, the curve, the hill is steeper.

    カーブは、丘はより急になっている。

  • Its principal AI model, Gemini, is already playing catch up to open AI and Anthropics.

    主要AIモデルGeminiは、すでにOpen AIとAnthropicに追いつこうとしている。

  • Now, Bloomberg reports, quoting sources, that an upcoming version is not living up to internal expectations.

    Bloombergの報告によると、情報源によれば、今後のバージョンは社内の期待に応えれていないとしている。

  • That's to make you think, OK, are we going to go through a period here where we're going to need to digest all this hundreds of billions of dollars we've spent on AI over the last couple of years, especially if revenue forecasts are getting cut or not changing, even though you're increasing the spending you're doing on AI.

    過去数年間にAIに何百億ドルも費やしているなかで、収益予測が削減されたり変化していない場合、AIへの支出を増やしても、一定期間消化する必要があるのではないかと考えさせられる。

  • The trend has even been confirmed by one of the most widely respected and pioneering AI researchers, Ilya Sutskever, who co-founded OpenAI and raised a billion dollar seed round for his new AI startup.

    この傾向は、Open AIの共同創業者で10億ドルのシードラウンドを調達した最も尊敬される先駆的なAI研究者の一人、イリヤ・サツケバーによっても確認されている。

  • As you scale up pre-training, a lot of the low hanging fruit was plucked.

    事前トレーニングを拡大すると、簡単な部分はほとんど摘み取られている。

  • And so it makes sense to me that you're seeing a deceleration in the rate of improvement.

    だから、改善ペースが減速していることは理にかなっている。

  • But not everyone agrees the rate of progress has peaked.

    しかし、進歩の速度がピークに達したと全員が同意しているわけではない。

  • Foundation model pre-training scaling is intact and it's continuing.

    基盤モデルの事前トレーニングのスケーリングは健全で、継続している。

  • As you know, this is an empirical law, not a fundamental physical law.

    これは経験的法則であり、基本的な物理法則ではないことを知っている。

  • But the evidence is that it continues to scale.

    しかし、証拠は拡大を示している。

  • Nothing I've seen in the field is out of character with what I've seen over the last 10 years or leads me to expect that things will slow down.

    この分野で見たものは、過去10年間に見てきたものと性質が異なっておらず、物事が遅くなると予想させるものでもない。

  • There's no evidence that the scaling has laws, as they're called, have begun to stop.

    いわゆるスケーリング則が止まり始めたという証拠はない。

  • They will eventually stop, but we're not there yet.

    いずれ止まるだろうが、まだその段階ではない。

  • And even Sam Altman posting simply, there is no wall.

    サム・アルトマンも単純に「壁はない」と投稿している。

  • OpenAI and Anthropic, they didn't respond to requests for comment.

    Open AIとAnthropicはコメント依頼に応じなかった。

  • Google says it's pleased with its progress on Gemini and has seen meaningful performance gains and capabilities like reasoning and coding.

    Googleは、Geminiの進歩に満足しており、推論やコーディングなどの能力で意味のある性能向上を見たと述べている。

  • Let's get to the why.

    それでは、なぜなのかを見てみよう。

  • If progress is, in fact, plateauing, it has to do with scaling laws.

    進歩が頭打ちになっているとすれば、それはスケーリング則に関係している。

  • The idea that adding more compute power and more data guarantees better models to an infinite degree.

    より多くの計算能力とデータを追加すれば、無限に優れたモデルが保証されるという考え。

  • In recent years, Silicon Valley has treated this as religion.

    近年、シリコンバレーはこれを宗教のように扱ってきた。

  • One of the properties of machine learning, of course, is that the larger the brain, the more data we can teach it, the smarter it becomes.

    機械学習の特性の一つは、脳が大きくなり、より多くのデータを教えることで、より賢くなるということだ。

  • We call it the scaling law.

    それをスケーリング則と呼んでいる。

  • There's every evidence that as we scale up the size of the models, the amount of training data, the effectiveness, the quality, the performance of the intelligence improves.

    モデルのサイズ、トレーニングデータの量を拡大するにつれ、知性の効果、品質、パフォーマンスが向上するという証拠がある。

  • In other words, all you need to do is buy more NVIDIA GPUs, find more articles or YouTube videos or research papers to feed the models, and it's guaranteed to get smarter.

    つまり、NVIDIAのGPUをさらに購入し、記事やYouTube動画、研究論文などをモデルに与えれば、必ず賢くなると保証されているということだ。

  • But recent development suggests that may be more theory than law.

    しかし、最近の進展は、それが法則よりも理論に近いことを示唆している。

  • People call them scaling laws.

    人々はそれらをスケーリング則と呼んでいる。

  • That's a misnomer, like Moore's law is a misnomer.

    それはムーアの法則と同じように誤った呼び方だ。

  • Moore's law, scaling laws, they're not laws of the universe.

    ムーアの法則、スケーリング則は宇宙の法則ではない。

  • They're empirical regularities.

    これらは経験的な規則性だ。

  • I am going to bet in favor of them continuing, but I'm not certain of that.

    これらが続くと賭けるけど、確実とは言えない。

  • The hitch may be data.

    引っかかるのはデータかもしれない。

  • It's a key component of that scaling equation, but there's only so much of it in the world.

    それはスケーリング方程式の重要な要素だが、世界中にあるデータには限りがある。

  • And experts have long speculated that companies would eventually hit what is called the data wall.

    専門家は長い間、企業が「データの壁」と呼ばれる状況に直面すると推測してきた。

  • That is run out of it.

    つまり、データが尽きるということだ。

  • If we do nothing and if, you know, at scale, we don't continue innovating, we're likely to face similar bottlenecks in data like the ones that we see in computational capability and chip production or power or data center build outs.

    何も対策をせず、大規模に革新を続けなければ、計算能力やチップ生産、電力、データセンターの構築と同じようなボトルネックにデータで直面する可能性が高い。

  • So AI companies have been turning to so-called synthetic data, data created by AI, fed back into AI.

    そのため、AI企業は、AIが作り出した「合成データ」に頼り始めている。

  • But that could create its own problem.

    しかし、それは新たな問題を生む可能性がある。

  • AI is an industry which is garbage in, garbage out.

    AIは「ゴミを入れればゴミが出る」産業だ。

  • So if you feed into these models a lot of AI gobbledygook, then the models are going to spit out more AI gobbledygook.

    これらのモデルにAIのたわごとをたくさん入れれば、モデルはさらにAIのたわごとを吐き出すことになる。

  • The information reports that Orion was trained in part on AI generated data produced by other open AI models and that Google has found duplicates of some data in the sets used to train Gemini.

    報告によると、OrionはOpenAIモデルによって生成されたAIデータを部分的に学習しており、Googleはデータセットにいくつかの重複があることを発見している。

  • The problem?

    問題は?

  • Low quality data, low quality performance.

    低品質のデータは、低品質のパフォーマンスを意味する。

  • This is what a lot of the research that's focused on synthetic data is focused on.

    これが合成データに焦点を当てた多くの研究の対象だ。

  • Right.

    そうだね。

  • So if you if you if you don't do this well, you don't get much more than you started with.

    うまくやらないと、最初の状態から大きく変わることはない。

  • But even if the rate of progress for large language models is plateauing, some argue that the next phase, post-training or inference, will require just as much compute power.

    大規模言語モデルの進歩率が頭打ちになっても、学習後や推論フェーズには、同等の計算能力が必要だと主張する人もいる。

  • Databricks CEO Ali Ghazi says there's plenty to build on top of the existing models.

    Databricks のCEOであるアリ・ガザイは、既存のモデルの上に多くを構築できると言っている。

  • I think lots and lots of innovation is still left on the AI side.

    AIサイドにはまだまだ革新の余地がある。

  • Maybe those who expected all of our ROI to happen in 2023, 2024, maybe they, you know, they should readjust their horizons.

    2023年や2024年に全ての投資収益を期待していた人は、もしかしたら、もう少し長期的な視点を持つべきかもしれない。

  • The place where the industry is squeezing to get to get that progress is shifted from pre-training, which is, you know, lots of Internet data, maybe trying synthetic data on huge clusters of GPUs towards post-training and test and compute, which is more about, you know, smaller amounts of data, but it's very high quality, very specific.

    産業が進歩を絞り出そうとしている場所は、大量のインターネットデータや合成データを使用した大規模なGPUクラスターでの事前学習から、事後学習と計算へと移行している。これは少量だが非常に高品質で特定の、データの供給、データの種類のテスト、計算能力の追加に関するものだ。

  • Feeding data, testing different types of data, adding more compute.

    データを供給し、異なる種類のデータをテストし、計算能力を追加する。

  • That all happens during the pre-training phase when models are still being built before it's released to the world.

    これらはすべて、モデルが世界に公開される前の事前学習フェーズで行われる。

  • So now companies are trying to improve models in the post-training phase.

    今、企業は事後学習フェーズでモデルを改善しようとしている。

  • That means making adjustments and tweaks to how it generates responses to try and boost its performance.

    それは、パフォーマンスを向上させるために、応答の生成方法を調整し、微調整することを意味する。

  • And it also means a whole new crop of AI models designed to be smarter in this post-training phase.

    また、この事後学習フェーズでよりスマートになるように設計された、新しいAIモデルの群も意味している。

  • OpenAI just announcing an improved model, their AI model.

    OpenAIが改良されたAIモデルを発表したばかりだ。

  • They say it has better reasoning.

    より良い推論能力があると言っている。

  • This had been reportedly called strawberry.

    これはいわゆる「ストロベリー」と呼ばれていた。

  • So there's been a lot of buzz around it.

    そこにはたくさんの噂がある。

  • They're called reasoning models, able to think before they answer and the newest leg in the AI race.

    「推論モデル」と呼ばれ、答える前に考え、AIレースの最新の段階を示すものだ。

  • We know that thinking is oftentimes more than just one shot.

    思考は往々にして一発で済むものではないと分かっている。

  • And thinking requires us to maybe do multi plans, multiple potential answers that we choose the best one from.

    思考には、複数の計画、複数の潜在的な答えから最良のものを選ぶことが必要かもしれない。

  • Just like when we're thinking, we might reflect on the answer before we deliver the answer.

    私たちが考えるとき、答えを伝える前に答えを熟考するように。

  • Reflection.

    熟考。

  • We might take a problem and break it down into step by step by step.

    問題を段階的に分解するかもしれない。

  • Chain of thought.

    思考の連鎖。

  • If AI acceleration is tapped out, what's next?

    AI加速が行き詰まったら、次は何か。

  • The search for use cases becomes urgent.

    ユースケースの探索が緊急の課題となる。

  • Just in the last multiple weeks, there's a lot of debate or have we hit the wall with scaling laws?

    ここ数週間、スケーリング則に壁があるのかどうかについて多くの議論がある。

  • It's actually good to have some skepticism, some debate, because that I think will motivate, quite frankly, more innovation.

    少しの懐疑心や議論があるのは良いことだ。それによってさらなる革新が動機づけられると思うからだ。

  • Because we've barely scratched the surface of what existing models can do.

    既存のモデルができることのほんの一部しか使っていないからだ。

  • The models are actually so powerful today and we've not really utilized them to anywhere close to the level of capability that they actually offer to us and bring true business transformation.

    現在のモデルは非常にパワフルで、実際に提供できる機能のレベルに遠く及ばず、真のビジネス変革にまで至っていない。

  • OpenAI, Anthropic and Google, they're making some of the most compelling use cases yet.

    OpenAI、Anthropic、Googleが最も魅力的なユースケースを作っている。

  • OpenAI is getting into the search business.

    OpenAIは検索事業に参入している。

  • Anthropic unveiling a new AI tool that can analyze your computer screen and take over to act on your behalf.

    Anthropicは、コンピュータ画面を分析し、代わりに行動できる新しいAIツールを発表した。

  • One of my favorite applications is Notebook LM, you know, this Google application that came out.

    私のお気に入りのアプリケーションの1つは、Googleの「Notebook LM」だ。

  • I used a living daylights out of it just because it's fun.

    それが面白いので、とても使っている。

  • But the next phase, the development and deployment of AI agents, that's expected to be another game changer for users.

    次のフェーズは、AIエージェントの開発と展開で、これがユーザーにとってもう一つのゲームチェンジャーになると予想される。

  • I think we're going to live in a world where there are going to be hundreds of millions and billions of different AI agents, eventually probably more AI agents than there are people in the world.

    数億から数十億の異なるAIエージェントが存在する世界に住むことになるだろう。最終的には、おそらく世界の人口よりも多くのAIエージェントが存在するだろう。

  • I spoke with with a call.

    私はコールと話した。

  • They said, Jim, you better start thinking about how to use the term agentic when you're out there, because agentic is the term.

    彼らは言った。「ジム、外に出るときは『エージェンティック』という言葉の使い方を考えた方がいい。エージェンティックが今のキーワードだ」と。

  • Benioff's been using it for a while.

    ベニオフはしばらく前からそれを使っている。

  • He's very agentic.

    彼は非常にエージェンティックだ。

  • You can have health agents and banking agents and product agents and ops agents and sales agents and support agents and marketing agents and customer experience agents and analytics agents and finance agents and HR agents.

    健康エージェント、銀行エージェント、製品エージェント、運用エージェント、営業エージェント、サポートエージェント、マーケティングエージェント、カスタマーエクスペリエンスエージェント、分析エージェント、財務エージェント、HRエージェントなどがある。

  • And it's all built on this Salesforce platform.

    そしてこれらはすべてSalesforceプラットフォーム上に構築されている。

  • Meaning it's all powered by software.

    つまり、すべてソフトウェアによって動力を得ている。

  • Everybody's talking about when is AI going to kick in for software?

    みんながAIがいつソフトウェアに組み込まれるのか話している。

  • It's happening now.

    それは今起こっている。

  • Well, it has.

    もう起こっている。

  • It's not a future thing.

    未来の話ではない。

  • It's now.

    今だ。

  • It's something the stock market is already taking note of.

    株式市場はすでにそれに注目している。

  • Software stocks seeing their biggest outperformance versus semis in years.

    ソフトウェア株が半導体株に対して何年も最高のパフォーマンスを見せている。

  • And it's key for NVIDIA, which has become the most valuable company in the world and has powered broader market gains.

    そしてそれは、世界で最も価値のある企業となり、より広範な市場の上昇を牽引したNVIDIAにとって重要だ。

  • It's hard for me to imagine that NVIDIA can grow as fast as people are modeling.

    NVIDIAが人々がモデル化しているほど速く成長するとは想像しにくい。

  • And I see that probably as a problem at some point when you get into next year and NVIDIA shipping Blackwell in volume, which is their latest chip.

    来年、NVIDIAが最新チップのBlackwellを大量に出荷し、ベンダーが「必要なものを手に入れた」と言えるようになった時に、おそらく問題になるだろう。

  • And then the vendors can say, OK, we're getting what we need.

    そして今、自分たちが支出したお金を消化する必要がある。

  • And now we just need to digest all this money that we've spent because it's not scaling as fast as we thought in terms of the improvements.

    そして今、我々は費やした資金を消化する必要がある。というのも、改良のスピードが思ったほど速くないんだ。

  • The sustainability of the AI trade hinges on this debate.

    AIトレードの持続可能性は、この議論にかかっている。

  • OpenAI, XAI, Meta, Anthropic and Google, they're all set to release new models over the next 18 months.

    OpenAI、XAI、Meta、Anthropic、Googleは、今後18か月で新しいモデルをリリースする予定だ。

  • Their rate of progress or lack of it could redefine the stakes of the race.

    彼らの進歩の速さ、あるいは進歩のなさが、レースの勝敗を左右するかもしれない。

AI breakthroughs have been a question of when, not if.

AIにおけるブレイクスルーは、もしが起こるかどうかの問題ではなく、いつ起こるかという問題だ。

字幕と単語
審査済み この字幕は審査済みです

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます