Placeholder Image

字幕表 動画を再生する

審査済み この字幕は審査済みです
  • Make no mistake.

    間違いない。

  • Google got obliterated by Microsoft's blitzkrieg attack in the great AI war of 2023.

    グーグルはマイクロソフトの電撃攻撃によって2023年のAI戦争で消滅しました。

  • GPT-4 captured the zeitgeist of the artificial intelligence age we just entered.

    GPT-4は、人工知能時代に突入したばかりの時代の流れを捉えています。

  • And things got so bad for Google that people unironically started using Bing.

    そして、グーグルにとって状況は悪化し、人々は皮肉にもビングを使い始めました。

  • But the war is just getting started and just yesterday, Google unleashed its highly anticipated Gemini model that beats GPT-4 on nearly every benchmark.

    しかし、戦争は始まったばかりであり、つい昨日、グーグルはGPT-4をほぼすべてのベンチマークで上回る待望のGeminiモデルを発表しました。

  • It is December 7th 2023, and you are watching the Code Report.

    2023年12月7日、あなたはコードレポートを見ています。

  • Gemini first became known to the public earlier this year at Google IO when Sundar explained it like this.

    Geminiが初めて世間に知られるようになったのは、今年の初め、Google IOでSundarがこのように説明したときでした。

  • You've been applying AI; to make AI; rigorously tested; AI; AI.

    あなたはAIを応用し、AIを作り、厳密にテストし、AIを作る。

  • Gemini is a multimodal large language model that will replace LaMDA and PaLM2 like GPT-4.

    Geminiは、GPT-4のようなLaMDAやPaLM2を置き換えるマルチモーダルな大規模言語モデルです。

  • It's multimodal which means it's not only trained on text but also sound, images and video.

    Geminiはマルチモーダル言語モデルで、テキストだけでなく、音声、画像、動画にも対応します。

  • Google's demo is absolutely insane.

    グーグルのデモは正気とは思えません。

  • It can recognize what's going on in a video feed and respond in real time.

    ビデオフィードで何が起こっているかを認識し、リアルタイムで反応することができます。

  • Like this guy draws a duck, then the AI tells him it's a duck.

    この人がアヒルを描くと、AIがそれをアヒルだと教えてくれます。

  • It is a duck.

    アヒルです。

  • Like holy fuck, and it can do that in multiple languages.

    しかも多言語対応です。

  • 鴨子

    鴨子(中国語)

  • What's really crazy though is that it can keep track of things in an ongoing video feed.

    しかし、本当にクレイジーなのは、継続的なビデオフィードで物事を追跡できることです。

  • Like it plays the game of find the ball under the cup and even after the cups are scrambled up, it still knows where the ball is.

    カップの下にあるボールを探すゲームをして、カップが散らばった後でもボールがどこにあるかわかります。

  • And it can even do connect the dots, which makes my five-year-old obsolete.

    点つなぎもできます、 これは私の5歳児を時代遅れにしました。

  • It also does multimodal outputs like it can generate images on the fly like Stable Diffusion and can even generate music based on a prompt.

    また、Stable Diffusionのようにオンザフライで画像を生成したり、プロンプトに基づいて音楽を生成することもできるなど、マルチモーダルな出力も可能です。

  • And not just text to audio but image to audio.

    また、テキストを音声に変換するだけでなく、画像を音声に変換することもできます。

  • How about some 80s hair metal?

    80年代のヘアメタルはいかがですか?

  • It's an anything-to-anything model.

    何でもありのモデルです。

  • It's also good at logic and spatial reasoning.

    ロジックや空間推理も得意です。

  • Using these two pictures, it's able to tell you which car will go faster based on the aerodynamics of the vehicle.

    この2枚の写真を使って、空力学に基づいてどちらの車が速く走れるかを教えてくれるのです。

  • In the future, a civil engineer will be able to just take a picture of some land, then the AI can instantly generate some blueprints for a bridge.

    将来、土木技師は土地の写真を撮るだけで、AIが即座に橋の設計図を生成できるようになるでしょう。

  • So software engineers aren't the only type of engineers becoming obsolete.

    時代遅れになりつつある技術者はソフトウェア技術者だけではありません。

  • Although I do of course have some more bad news for programmers.

    もちろん、プログラマーにとってはもっと悪いニュースもありますが。

  • Google also unveiled AlphaCode 2, which performs better than 90% of competitive programmers.

    グーグルはまた、競合プログラマーの90%よりも優れたパフォーマンスを発揮するAlphaCode 2を発表しました。

  • And we're talking about programmer solving highly complex abstract problems like you might find on Codeforces competitions.

    そして、Codeforcesのコンペティションで見られるような、非常に複雑で抽象的な問題を解くプログラマーについて話しているのです。

  • Like any good programmer, AlphaCode 2 can break down problems into smaller problems using techniques like dynamic programming.

    アルファコード2も優れたプログラマーと同じように、動的計画法のようなテクニックを使って、問題を小さな問題に分解することができます。

  • Now all these demos look really amazing at first glance, but is this all just a marketing sleight of hand from Google?

    さて、これらのデモはどれも一見すると実に素晴らしく見えますが、これはすべてグーグルの手品のようなマーケティングなのでしょうか?

  • Well, currently, Gemini comes in three sizes: tall, grande and venti.

    現在、Gemini にはトール、グランデ、ベンティの3サイズがあります。

  • The smallest version is designed to be embedded on devices like Android phones.

    一番小さいバージョンは、アンドロイド携帯のようなデバイスに埋め込むように設計されています。

  • While the Pro version is your more general purpose model.

    Pro バージョンはより汎用的なモデルです。

  • While Ultra is like the Magnum XL of the Gemini family and the one that's blowing everybody's minds.

    Ultra は Gemini のマグナムXLのようなもので、皆の度肝を抜いています。

  • If you're in the United States, you can actually use Gemini right now in the Bard chatbot.

    もしあなたがアメリカにいるのなら、バードのチャットボットで今すぐ Gemini を使うことができます。

  • However, it's using Gemini Pro, the midrange version.

    ただし、Gemini Pro というミッドレンジバージョンを使用しています。

  • Bard is way better than it was six months ago and it's still extremely fast,

    バルドは半年前よりはるかに良くなっているし、今でも非常に速く、

  • but after using it for a few minutes, it's pretty obvious that it's not quite as good as GPT-4 Pro.

    しかし、数分使っただけで、GPT-4 Pro ほどではないことは明らかです。

  • But GPT-4 is nervous about Gemini Ultra.

    しかし、GPT-4 は Gemini Ultraに神経質になっています。

  • When I asked about it, it started throwing mad shade at itself and then before it finished, Sam Altman pulled a plug, giving me this network error.

    私がそれについて尋ねると、それは自分自身に狂った陰口を叩き始め、それが終わる前に、サム・アルトマンはプラグを抜いて、このネットワーク・エラーを出しました。

  • When it comes to benchmarks, Gemini Pro underforms GPT-4 in most situations, but Gemini Ultra outperforms it on almost every single category.

    ベンチマークに関しては、Gemini Pro はほとんどの状況で GPT-4 を下回りますが、Gemini Ultra はほとんどすべてのカテゴリーで GPT-4を上回ります。

  • Most notably, it's the first model ever to outperform human experts on massive multitask language understanding, which is typically a multiple-choice test over a wide array of subjects.

    最も注目すべきは、大規模なマルチタスク言語理解で人間の専門家を上回った初めてのモデルであることです。

  • Kind of like the SATs but for AI.

    SATのようなものですが、AIのためのものです。

  • What's hella surprising though is that Gemini Ultra underperforms GPT-4 on the HellaWwag benchmark,

    Gemini Ultra が HellaWwag ベンチマークで GPT-4 を下回っているのは驚きで、

  • it's designed to evaluate common sense natural language by having the AI finish a sentence that's often vague and ambiguous.

    これは、曖昧であいまいな文章をAIに完成させることで、常識的な自然言語を評価するように設計されています。

  • For example, a man watches a Fireship video and afterwards feels blank.

    例えば、ある男がファイヤーシップのビデオを見て、その後、頭が真っ白になったとします。

  • It's a job that's really easy for humans to do and a very important benchmark, because When an AI can't do this well, it doesn't feel very humanlike.

    これは人間にとって本当に簡単な仕事であり、非常に重要なベンチマークですが、 AIがこれをうまくこなせないと、とても人間らしく感じられないからです。

  • In GPT-4, I can write a vague prompt filled with typos, and somehow it almost always seems to know what I'm talking about.

    GPT-4では、誤字脱字だらけの曖昧なプロンプトを書いても、なぜかほとんどいつも私が何を言っているのかわかっているようです。

  • The fact that GPT-4 is doing so much better on HellaSwag is hella concerning to say the least.

    GPT-4がHellaSwagでこれほど好調なのは、控えめに言っても非常に気になります。

  • But another interesting thing to know from the technical paper is how they train this beast.

    しかし、技術論文から知るもう一つの興味深いことは、彼らがこの獣をどのようにトレーニングしているかということです。

  • They use their newly unveiled version 5 Tensor Processing Units, which are deployed in SuperPODs of 4096 chips.

    新たに発表されたバージョン5のテンソル処理ユニットを使用し、4096チップのSuperPODで展開されます。

  • Each SuperPOD has a dedicated optical switch which allows data to transfer quickly between the pods to train in parallel.

    各SuperPODには専用のオプティカルスイッチがあり、ポッド間でデータを素早く転送し、並行してトレーニングを行うことができます。

  • Then they can dynamically reconfigure into 3D tours topologies.

    そして、3Dツアートポロジーに動的に再構成することができます。

  • In other words, they can shape shift into donuts to reduce the latency between ships.

    つまり、ドーナツ状に変形することで、船と船の間の待ち時間を減らすことができます。

  • And the scale of Gemini Ultra is so large that they had to communicate between multiple data centers.

    また、Gemini Ultra の規模は非常に大きく、複数のデータセンター間で通信する必要がありました。

  • The paper also describes the training data set which basically includes everything you can find on the internet, including web pages and YouTube videos as well as scientific papers and books.

    この論文では、ウェブページや YouTube の動画、科学論文や書籍など、基本的にインターネット上で見つけることができるすべてのものを含むトレーニングデータセットについても説明しています。

  • They filter for quality, then use reinforcement learning through human feedback to fine tune the quality and avoid hallucinations.

    そして、人間のフィードバックによる強化学習によって、品質を微調整し、幻覚を回避します。

  • Overall, Gemini looks amazing on paper but prepare to be disappointed.

    Gemini は素晴らしいですが、失望させられるかもしれません。

  • The Nano and Pro models will be available on Google Cloud on December 13th,

    NanoとProモデルは12月13日に Google Cloud で利用可能になります、

  • but the Gemini Ultra Pro Max won't be available until next year until additional safety tests are done and it reaches 100% on the Hella woke benchmark.

    しかし、Gemini Ultra Pro Max は、追加の安全テストが行われ、ヘラ・ウォーク・ベンチマークで100%に達するまでは、来年まで発売されません。

  • This has been the Code Report.

    以上、コードレポートでした。

  • Thanks for watching and I will see you in the next one.

    ご視聴ありがとうございました。

Make no mistake.

間違いない。

字幕と単語
審査済み この字幕は審査済みです

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます