字幕表 動画を再生する AI 自動生成字幕 字幕スクリプトをプリント 翻訳字幕をプリント 英語字幕をプリント As we've launched the Core Ultra with Meteor Lake, it also introduced this next generation of chiplet-based design. コア・ウルトラはメテオ・レイクとともに発表され、チップレットベースの次世代設計も導入された。 And Lunar Lake is the next step forward. そしてルナレイクが次のステップに進む。 And I'm happy to announce it today. そして今日、それを発表できることをうれしく思う。 Lunar Lake is a revolutionary design. ルナレイクは画期的なデザインだ。 It's new IP blocks for CPU, GPU, and NPU. CPU、GPU、NPUの新しいIPブロックだ。 It'll power the largest number of next-gen AI PCs in the industry. 業界最多の次世代AI PCを搭載する。 We already have over 80 designs with 20 OEMs that will start shipping in volume in Q3. すでに20のOEMと80を超える設計を行っており、第3四半期には量産出荷を開始する予定だ。 First, it starts with a great CPU. まず、素晴らしいCPUから始まる。 And with that, this is our next generation LionCove processor that has significant IPC improvements and delivers that performance while also delivering dramatic power efficiency gains as well. これにより、IPCが大幅に改善され、その性能を発揮すると同時に、電力効率も劇的に改善された次世代LionCoveプロセッサーです。 So it's delivering Core Ultra performance at nearly half the power that we had in Meteor Lake, which was already a great chip. つまり、Core Ultraの性能を、すでに素晴らしいチップだったMeteor Lakeのほぼ半分の消費電力で実現しているのです。 The GPU is also a huge step forward. GPUも大きな前進だ。 It's based on our next generation C2 IP. これは我々の次世代C2 IPに基づいている。 And it delivers 50% more graphics performance. また、グラフィック性能も50%向上している。 And literally, we've taken a discrete graphics card and we've shoved it into this amazing chip called Lunar Lake. そして文字通り、我々はディスクリートのグラフィックカードを、ルナレイクと呼ばれるこの素晴らしいチップに押し込んだ。 Alongside this, we're delivering strong AI compute performance with our enhanced NPU, up to 48 tops of performance. これと並行して、私たちは強化されたNPUで強力なAIコンピュート性能を提供し、最大48倍の性能を実現しています。 And as you heard Satya talk about, our collaboration with Microsoft and Copilot Plus and along with 300 other ISVs, incredible software support, more applications than anyone else. また、サティヤが話していたように、マイクロソフトやコパイロット・プラス、そして他の300のISVとの協業により、信じられないほどのソフトウェア・サポート、誰よりも多くのアプリケーションを提供しています。 Now, some say that the NPU is the only thing that you need. NPUだけが必要だと言う人もいる。 And simply put, that's not true. 簡単に言えば、それは真実ではない。 And now having engaged with hundreds of ISVs, most of them are taking advantage of CPU, GPU, and NPU performance. そして現在、何百ものISVと関わってきたが、そのほとんどがCPU、GPU、NPUの性能を活用している。 In fact, our new C2 GPU is an incredible on-device AI performance engine. 実際、私たちの新しいC2 GPUは、驚くべきオンデバイスAIパフォーマンスエンジンです。 Only 30% of the ISVs we've engaged with are only using the NPU. 私たちが関与しているISVのうち、NPUだけを使用しているのはわずか30%です。 The GPU and the CPU in combination deliver extraordinary performance. GPUとCPUの組み合わせは、並外れたパフォーマンスを発揮する。 The GPU, 67 tops with our XMS performance, 3 and 1 1x the gains over prior generation. GPUは、私たちのXMSパフォーマンスで67のトップ、前世代に比べて3倍と1倍の利益。 And since there's been some talk about this other XElite chip coming out and its superiority to the x86, また、XEliteという別のチップが発表され、それがx86より優れているという話もある、 I just want to put that to bed right now. 今すぐそれを解決したいんだ。 Ain't true. そんなことはない。 Lunar Lake running in our labs today outperforms the XElite on the CPU, on the GPU, and on AI performance, delivering a stunning 120 tops of total platform performance. 今日、我々のラボで稼働しているLunar Lakeは、CPU、GPU、AIパフォーマンスにおいてXEliteを凌駕し、プラットフォーム全体のパフォーマンスで120トップという驚異的な結果を出しています。 And it's compatible. しかも互換性がある。 So you don't need any of those compatibility issues. だから、互換性の問題は必要ない。 This is x86 at its finest. これぞx86の醍醐味だ。 Every enterprise, every customer, every historical driver and capability simply works. すべての企業、すべての顧客、すべての歴史的なドライバーと能力が単に機能する。 This is a no-brainer. これは間違いない。 Everyone should upgrade. みんなアップグレードすべきだ。 And the final nail in the coffin of this discussion is some say the x86 can't win on power efficiency. そして、この議論にとどめを刺すのは、x86は電力効率では勝てないという意見だ。 Lunar Lake busts this myth as well. ルナレイクもこの神話を打ち破った。 This radical new SoC architecture and design delivers unprecedented power efficiency, up to 40% lower SoC performance than Meteor Lake, which was already very good. この抜本的な新しいSoCアーキテクチャと設計は、前例のない電力効率を実現し、すでに非常に優れていたMeteor LakeよりもSoC性能が最大40%低下した。 Customers are looking for high-performance, cost effective, gen AI training and inferencing solutions. 顧客は、高性能で費用対効果の高い、高次元のAIトレーニングおよびインファーレンシング・ソリューションを求めている。 And they've started to turn to alternatives like Gaudi. そして、ガウディのような代替案に目を向け始めた。 They want choice. 彼らは選択肢を求めている。 They want open, open software and hardware solutions and time-to-market solutions at dramatically lower TCOs. 彼らが求めているのは、オープンでオープンなソフトウェアとハードウェアのソリューションであり、TCOを劇的に削減し、市場投入までの時間を短縮するソリューションである。 And that's why we're seeing customers like Naver, Airtel, Bosch, Infosys, and Seeker turning to Gaudi too. だからこそ、Naver、Airtel、Bosch、Infosys、Seekerのような顧客もガウディに注目しているのだ。 And we're putting these pieces together. そして、私たちはこれらのピースを組み合わせている。 We're standardizing through the open source community and the Linux Foundation. 私たちは、オープンソースコミュニティとLinux Foundationを通じて標準化を進めています。 We've created the open platform for enterprise AI to make Xeon and Gaudi a standardized AI solution for workloads like RAG. 私たちは、XeonとGaudiをRAGのようなワークロードのための標準化されたAIソリューションにするために、エンタープライズAIのためのオープンプラットフォームを構築しました。 So let me start with maybe a quick medical query. では、簡単な医学的な質問から始めよう。 So this is Xeon and Gaudi working together on a medical query. つまり、これはゼオンとガウディが一緒に医療クエリに取り組んでいるわけだ。 So it's a lot of private, confidential, on-prem data being combined with a open source LLM. オープンソースのLLMに、オンプレミスの非公開の機密データが大量に組み合わされているわけだ。 Exactly. その通りだ。 OK, very cool. とてもクールだ。 All right, so let's see what our LLM has to say. それでは、法学修士のコメントを見てみよう。 So you can see a typical LLM, we're getting the text answer here, standard, but it's a multimodal LLM. 典型的なLLMをご覧ください。ここでは標準的なテキスト回答を得ていますが、これはマルチモーダルLLMです。 So we also have this great visual here of the chest X-ray. 胸部レントゲン写真も素晴らしいビジュアルだ。 I'm not good at reading X-rays, so what does this say? 私はレントゲンを読むのは得意ではないのですが、これは何を示しているのでしょうか? I'm not great either. 私も素晴らしいとは言えない。 But the nice thing about, and I'm going to spare you my typing skills, しかし、私のタイピングスキルは省くとして、いいことがある、 I'm going to do a little cut and pasting here. ここで少しカット&ペーストをするつもりだ。 The nice thing about this multimodal LLM is we can actually ask it questions to further illustrate what's going on here. このマルチモーダルLLMのいいところは、ここで何が起こっているのかをさらに説明するために、実際に質問できることだ。 So this LLM is actually going to analyze this image and tell us a little bit more about this hazy opacity, such as it is. このLLMは実際にこの画像を分析し、この霞のような不透明度についてもう少し詳しく教えてくれる。 You can see here it's saying it's down here in the lower left. 左下にあるのがわかるだろう。 So once again, just a great example of multimodal LLM. もう一度言うが、マルチモーダルLLMの素晴らしい例だ。 And as you see, Gaudi is not just winning on price, it's also delivering incredible TCO and incredible performance. ご覧の通り、ガウディは価格面で勝っているだけでなく、驚異的なTCOと驚異的なパフォーマンスも実現している。 And that performance is only getting better with Gaudi 3. そして、その性能はガウディ3でさらに向上している。 Gaudi 3 architecture is the only MLPerf benchmark alternative to H100s for LLM training and inferencing, and Gaudi 3 only makes it stronger. Gaudi 3アーキテクチャは、LLMの学習と推論においてH100に代わる唯一のMLPerfベンチマークであり、Gaudi 3によってさらに強化されました。 We're projected to deliver 40% faster time to train than H100s, and 1.5x versus H200s, and faster inferencing than H100s, and delivering that 2.3x performance per dollar in throughput versus H100s. 私たちは、H100sと比較して40%、H200sと比較して1.5倍、H100sと比較してより高速な推論を実現し、H100sと比較してスループットでドルあたり2.3倍のパフォーマンスを達成すると予測しています。 And in training, Gaudi 3 is expected to deliver 2x the performance per dollar. そしてトレーニングでは、ガウディ3は1ドルあたり2倍のパフォーマンスを発揮すると期待されている。 And this idea is simply music to our customers' ears. そしてこのアイデアは、私たちの顧客の耳に心地よく響く。 Spend less and get more. より安く、より多くを得る。 It's highly scalable, uses open industry standards like Ethernet, which we'll talk more about in a second. 拡張性が高く、イーサネットのようなオープンな業界標準を使用している。 We're also supporting all of the expected open source frameworks like PyTorch, VLLM. PyTorchやVLLMのようなオープンソースのフレームワークもサポートしている。 And hundreds of thousands of models are now available on Hugging Face for Gaudi. そして、何十万ものモデルがガウディのためにハギング・フェイスで利用できるようになった。 And with our developer cloud, you can experience Gaudi capabilities firsthand, easily accessible, and readily available. そして私たちの開発者クラウドを使えば、ガウディの機能を直接体験でき、簡単にアクセスでき、すぐに利用できる。 But of course, with this, the entire ecosystem is lining up behind Gaudi 3. しかしもちろん、これでエコシステム全体がガウディ3の背後に並ぶことになる。 And it's my pleasure today to show you the wall of Gaudi 3. そして今日、ガウディ3の壁をお見せできることを嬉しく思う。 Today, we're launching Xeon 6 with eCores. 今日、我々はeコアを搭載したXeon 6を発表する。 And we see this as an essential upgrade for the modern data center, a high core count, high density, exceptional performance per watt. 私たちは、これを現代のデータセンターにとって不可欠なアップグレードであり、高コア数、高密度、ワットあたりの卓越したパフォーマンスであると考えています。 It's also important to note that this is our first product on Intel 3. また、これがインテル3での最初の製品であることも重要だ。 And Intel 3 is the third of our five nodes in four years as we continue our march back to process technology, competitiveness, and leadership next year. そしてインテル3は、4年間で5つのノードのうちの3つ目であり、私たちは来年もプロセス技術、競争力、そしてリーダーシップへの回帰を続けていきます。 I'd like you to fill this rack with the equivalent compute capability of the Gen 2 using Gen 6, OK? このラックに、Gen 6を使ったGen 2と同等の計算能力を搭載してほしい。 Give me a minute or two. ちょっと待ってくれ。 I'll make it happen. 私が実現させる OK, get with it. オーケー、それでいい。 Come on. さあ、行こう。 Hop to it, buddy. 早くやれよ、相棒。 And it's important to think about the data centers. そして、データセンターについて考えることも重要だ。 Every data center provider I know today is being crushed by how they upgrade, how they expand their footprint and the space, the flexibility. 今日、私が知っているデータセンター・プロバイダーは皆、アップグレードの方法、フットプリントの拡大方法、スペースの拡大方法、柔軟性で押しつぶされている。 For high performance computing, they have more demands for AI in the data center. ハイパフォーマンス・コンピューティングでは、データセンターにおけるAIへの要求が高まっている。 And having a processor with 144 cores versus 28 cores for Gen 2 gives them the ability to both condense as well as to attack these new workloads as well with performance and efficiency that was never seen before. そして、Gen 2の28コアに対して144コアのプロセッサーを搭載することで、これまでにないパフォーマンスと効率で、新しいワークロードを攻撃するだけでなく、凝縮する能力も備えている。 So Chuck, are you done? チャック、もう終わったの? I'm done. 終わったよ。 I wanted a few more reps, but you said equivalent. 私はもう少しレップ数が欲しかったが、あなたは同等と言った。 You can put a little bit more in there. もう少し入れてもいい。 OK, so let me get it. わかった。 That rack has become this. そのラックがこうなった。 And what you just saw was eCores delivering this distinct advantage for cloud native and hyperscale workloads, 4.2x in media transcode, 2.6x performance per watt. そして、eCoresがクラウド・ネイティブおよびハイパースケール・ワークロードに対して、メディア・トランスコードで4.2倍、ワット当たり性能で2.6倍という明確な優位性を発揮していることがおわかりいただけたと思います。 And from a sustainability perspective, this is just game changing. 持続可能性の観点からも、これはまさにゲームチェンジャーだ。 You know, a three to one rack consolidation over a four year cycle, just one 200 rack data center would save 80k megawatts per megawatt hours of energy. 4年サイクルで3ラックを1ラックに統合すれば、200ラックのデータセンター1つで、1メガワット時あたり8万メガワットのエネルギーを節約できる。 And Xeon is everywhere. そして、Xeonはどこにでもある。 So imagine the benefits that this could have across the thousands and tens of thousands of data centers. 何千、何万というデータセンター全体で、このようなメリットがあることを想像してみてほしい。 In fact, if just 500 data centers were upgraded with what we just saw, this would power almost 1.4 million Taiwan households for a year, 3.7 million cars off the road for a year, or power Taipei 101 for 500 years. 実際、500のデータセンターがアップグレードされただけで、台湾のほぼ140万世帯の1年間、370万台の自動車の1年間、あるいは台北101の500年間の電力をまかなうことができる。 And by the way, this will only get better. ちなみに、これは良くなる一方だ。 And if 144 cores is good, well, let's put two of them together and let's have 288 cores. 144コアがいいなら、2つ合わせて288コアにしよう。 So later this year, we'll be bringing the second generation of our Xeon 6 with eCores, a whopping 288 cores. そこで今年後半には、なんと288コアのeコアを搭載した第2世代のXeon 6を発表する予定です。 And this will enable a stunning six to one consolidation ratio, better claim than anything we've seen in the industry. これにより、6対1の圧倒的な連結比率が実現する。
B1 中級 日本語 米 ガウディ 性能 コア パフォーマンス ai ラック インテルのAIチップ「Lunar Lake」イベント:10分ですべてが明らかに (Intel's Lunar Lake AI Chip Event: Everything Revealed in 10 Minutes) 1433 14 VoiceTube に公開 2024 年 06 月 06 日 シェア シェア 保存 報告 動画の中の単語