字幕表 動画を再生する 審査済み この字幕は審査済みです 字幕スクリプトをプリント 翻訳字幕をプリント 英語字幕をプリント At Google, we are fully in our Gemini era. グーグルでは、完全に Gemini の時代に入っています。 Today, all of our two billion user products use Gemini. 今日、私たちの 20 億のユーザー製品のすべてが Gemini を使用しています。 Gemini 1.5 Pro is available today in Workspace Labs. Gemini 1.5 Pro は本日より Workspace Labs でご利用いただけます。 Let's see how this comes to life with Google Workspace. Google Workspace とどのように融合するか、見てみましょう。 People are always searching their emails in Gmail. 人々はいつも Gmail でメールを検索していますね。 We are working to make it much more powerful with Gemini. 私たちは Gemini でそれをより強力なものにしようと努力しています。 Now we can ask Gemini to summarize all recent emails from the school. Gemini に学校からの最近のメールをまとめてもらうことができます。 Maybe you were traveling this week and you couldn't make the PTA meeting. 今週は出張で PTA の会合に出られなかったのでは? The recording of the meeting is an hour long. その会議の録画は 1 時間です。 If it's from Google Meet, you can ask Gemini to give you the highlights. Google Meet からなら、Gemini に頼めばハイライトを教えてくれます。 People love using photos to search across their life. 人々は写真を使って自分の人生を検索するのが大好きです。 With Gemini, you're making that a whole lot easier. Gemini を使えば、それがもっと簡単になります。 And Ask Photos can also help you search your memories in a deeper way. また、Ask Photosを使えば、より深く思い出を検索することができます。 For example, you might be reminiscing about your daughter Lucia's early milestones. 例えば、娘のルシアの幼い頃のことを思い出すかもしれません。 You can ask Photos, show me how Lucia's swimming has progressed. 写真に、ルシアの水泳の上達ぶりを見せてと頼むのもいいでしょう。 Here, Gemini goes beyond a simple search, recognizing different contexts and photos, packages it up all together in a summary. ここでは、Gemini は単純な検索を越えて、さまざまな文脈や写真を認識し、要約としてまとめています。 Unlocking knowledge across formats is why we built Gemini to be multimodal from the ground up. 私たちが Gemini を一からマルチモーダルであるように構築した理由は、フォーマットを超えて知識を解き放つことです。 It's one model with all the modalities built in. すべてのモダリティが組み込まれた 1 つのモデルです。 We've been rolling out Gemini 1.5 Pro with long context in preview over the last few months. この数ヶ月間、Gemini1.5 Pro をプレビューでロングコンテクストで展開してきました。 So today, we are expanding the context window to 2 million tokens. 本日、コンテキストのウィンドウを 200 万トークンに拡大します。 So far, we've talked about two technical advances-- multimodality and long context. これまで、マルチモーダリティとロングコンテキストの 2 つの技術的な進歩について話してきました。 Each is powerful on its own, but together they unlock deeper capabilities and more intelligence. それぞれ単体でも強力ですが、組み合わせることでより深い能力と知性を引き出すことができます。 But what if it could go even further? しかし、それがさらに進化するとしたら......? That's one of the opportunities we see with AI Agents. それが、私たちが AI Agents に見出しているチャンスのひとつです。 Think about them as intelligence systems that show reasoning, planning, and memory, are able to think multiple steps ahead, AI エージェントは、推論、計画、記憶を持ち、何段階も先のことを考えることができる知能システムです。 work across software and systems all to get something done on your behalf, and most importantly, under your supervision. そして、最も重要なことは、あなたの監督のもとで、あなたの代わりに何かを成し遂げるために、ソフトウェアやシステムのすべてにまたがって働くことです。 Today we have some exciting new progress to share about the future of AI assistants that we're calling Project Astra. Project Astra と呼ぶ AI アシスタントの未来について、新たな進展がありました。 For a long time, we've wanted to build a universal AI agent that can be truly helpful in everyday life. 長い間、私たちは日常生活で真に役立つ普遍的な AI エージェントを作りたいと考えてきました。 Here's a video of our prototype, which you'll see has two parts. プロトタイプの動画です。2 つのパートに分かれています。 Each part was captured in a single take in real time. 各パートはリアルタイムで 1 テイクずつ撮影されています。 What does that part of the code do? この部分はどうなっているんですか? This code defines encryption and decryption functions. このコードは暗号化と復号の機能を定義しています。 It seems to use AES-CBC encryption to encode and decode data based on a key and an initialization vector, IV. AES-CBC 暗号を使用して、鍵と初期化ベクトル IV に基づいてデータの暗号化と復号を行っているようです。 Do you remember where you saw my glasses? 私の眼鏡をどこで見たか覚えてる? Yes, I do. 覚えてます。 Your glasses were on the desk near a red apple. 机の上の赤いリンゴの近くにメガネが置いてありましたよ。 Give me a band name for this duo. このデュオのバンド名を教えてください。 Golden Stripes. ゴールデンストライプス。 Nice. いいね。 Thanks, Gemini. ありがとう、Gemini。 Today, we're introducing Gemini 1.5 Flash. 今日は Gemini 1.5 Flash をご紹介します。 Flash is a lighter weight model compared to Pro. Flash は Pro に比べて軽量化されたモデルです。 It's designed to be fast and cost efficient to serve at scale, while still featuring multimodal reasoning capabilities and breakthrough long context. マルチモーダルな推論機能と画期的なロングコンテクストを特徴としながらも、大規模なサービスを提供するために高速でコスト効率に優れた設計となっています。 There's one more area I'm really excited to share with you. もう 1 つ、とても楽しみにしている分野があります。 Our teams have made some incredible progress in generative video. 私たちのチームは、生成動画において驚くべき進歩を遂げました。 Today, I'm excited to announce our newest, most capable generative video model called Veo. 今日は、私たちの最新で最も高性能な生成動画モデル「Veo」を発表できることを嬉しく思います。 Veo creates high quality 1080p videos from text, image, and video prompts. Veo は、テキスト、画像、ビデオプロンプトから高品質の 1080p ビデオを作成します。 It can capture the details of your instructions in different visual and cinematic styles. さまざまなビジュアルや映画のようなスタイルで、指示の詳細をキャプチャできます。 For 25 years, we've invested in world class technical infrastructure. 25 年間、世界クラスの技術インフラに投資してきました。 Today, we are excited to announce the sixth generation of CPUs called Trillium. 今日、私たちは第 6 世代の CPU「Trillium」を発表できることを嬉しく思います。 Trillium delivers a 4.7x improvement in compute performance per chip over the previous generation. Trillium は、前世代に比べてチップあたりの演算性能が 4.7 倍向上しています。 Google search is generative AI at the scale of human curiosity, and it's our most exciting chapter of search yet. グーグル検索は、人間の好奇心のスケールで AI を生成するものであり、検索の最もわくわくさせる章です。 All the advancements you'll see today are made possible by a new Gemini model customized for Google Search. 今日ご覧いただくすべての進化は、グーグル検索のためにカスタマイズされた新しい Gemini モデルによって実現されています。 What really sets this apart is our three unique strengths. 私たちの 3 つのユニークな強みです。 This is search in the Gemini era. Gemini 時代の検索です。 By the end of the year, AI Overviews will come to over a billion people. 年末までには、AI Overviews が 10 億人以上に普及するでしょう。 We're making AI Overviews even more helpful for your most complex questions, the types that are really more 10 questions in one. AI Overviews は、最も複雑な質問、つまり 10 個の質問が 1 つになったような質問に、さらに役立つようにします。 You can ask your entire question with all its sub questions and get an overview in seconds. 質問全体とそのサブクエスチョンを質問し、数秒で概要を得ることができます。 I'm really excited to share that soon you'll be able to ask questions with video. 近々、動画を使って質問できるようになる予定です。 Why will this not stay in place? なぜこのままではいけないのでしょうか? And in a near instant, Google gives me an AI Overview. そして、ほぼ一瞬でグーグルが AI Overview を出してきました。 I get some reasons this might be happening, and steps I can take to troubleshoot. これが起こる理由やトラブルシューティングの手順を理解できるようになりました。 Since last may, we've been hard at work making Gemini for Workspace even more helpful for businesses and consumers across the world. 昨年 5 月以来、私たちは Gemini for Workspace を世界中の企業や消費者にとってさらに役立つものにするために努力してきました。 Now, I can simply type out my question right here in the mobile card and say something like, compare my roof repair bids by price and availability. 今では、単にモバイルカードに質問を入力して、「価格と入手可能性で私の屋根修理の入札を比較してください」と言うことができます。 This new Q&A feature makes it so easy to get quick answers on anything in my inbox. この新しい Q&A 機能のおかげで、受信トレイにあるどんな質問にも簡単に回答が得られるようになりました。 Today, we'll show you how Gemini is delivering our most intelligent AI experience. 今日は、Gemini がどのように最もインテリジェントな AI 体験を提供しているかをご紹介します。 We're rolling out a new feature that lets you customize it for your own needs and create personal experts on any topic you want. 私たちは新機能を展開しています。これにより、自分のニーズに合わせてカスタマイズし、自分が望む任意のトピックに関するパーソナルエキスパートを作成できます。 We're calling these Gems. これを「Gems」と呼んでいます。 They're really simple to set up. 設定が簡単なんです。 Just tap to create a Gem, write your instructions once, and come back whenever you need it. タップして Gem を作成し、一度指示を書けばいつでも戻ってこれます。 Starting today, Gemini Advanced subscribers get access to Gemini 1.5 Pro with one million tokens. 本日より、Gemini Advanced の購読者は、100 万トークンで Gemini 1.5 Pro にアクセスできます。 That is the longest context window of any chatbot in the world. これは、世界中のどのチャットボットよりも長いコンテキストウィンドウです。 You can upload a PDF up to 1,500 pages long or multiple files to get insights across a project. 1,500 ページまでの PDF や複数のファイルをアップロードして、プロジェクト全体の洞察を得ることができます。 Now, we all know that chatbots can give you ideas for your next vacation. チャットボットが次の休暇のアイデアをくれることは周知の通りです。 But there's a lot more that goes into planning a great trip. しかし、素晴らしい旅行を計画するためには、もっと多くのことが必要です。 It requires reasoning that considers space-time logistics, and the intelligence to prioritize and make decisions. 時空間のロジスティクスを考慮した推論と、優先順位をつけて決断する知性が必要です。 That reasoning and intelligence all come together in the new trip planning experience in Gemini Advanced. その推論と知性は、Gemini Advanced での新しい旅行計画体験にすべて集約されています。 We've embarked on a multi-year journey to reimagine Android with AI at the core. 私たちは、AI を核に Android を再構築する数年にわたる旅に乗り出しました。 Now we're making Gemini context aware so it can anticipate what you're trying to do and provide more helpful suggestions in the moment. Gemini は、あなたが何をしようとしているのかを予測し、その瞬間により役立つ提案を提供できるよう、コンテキストを認識できるようにしています。 Let me show you how this works. これがどのように機能するのか、お見せしましょう。 So my friend Pete is asking if I want to play pickleball this weekend. 友達のピートが週末にピクルスをしないかって誘ってるんです。 But I'm new to this pickleball thing, and I can bring up Gemini to help with that. でも、私はこのピクルボールのことが初めてで、Gemini を呼び出して助けを求めることができます。 Gemini knows I'm looking at a video, so it proactively shows me an ask this video chip, so let me tap on that. Gemini は私が動画を見ていることを知っているので、自動的に「この動画に関する質問」チップを表示し、それをタップできるようにしてくれます。 And now I can ask specific questions about the video. 動画について具体的な質問ができるようになりました。 So for example, what is the two bounce rule? 例えば、「2 バウンドルール」とは? So give it a moment-- and there. 少し待って... I get a nice, distinct answer. いい答えが返ってきました。 Starting with Pixel later this year, we'll be expanding what's possible with our latest model, Gemini Nano with multimodality. 今年後半の Pixel を皮切りに、最新モデルであるマルチモダリティ搭載の Gemini Nano で可能性を広げていきます。 This means your phone can understand the world the way you understand it. つまり、あなたのスマホは、あなたが理解しているように世界を理解することができるのです。 So not just through text input, but also through sights, sounds, and spoken language. つまり、テキスト入力だけでなく、景色や音、話し言葉からも理解できるということです。 Now let's shift gears and talk about Gemma, our family of open models, which are crucial for driving AI innovation and responsibility. さて、話は変わって、AI の革新と責任を推進するために重要なオープンモデルのファミリーである Gemma についてお話ししましょう。 Today's newest member, PaliGemma, our first vision language open model, and it's available right now. 本日の新メンバー、PaliGemma は私たちの最初のビジョン言語オープンモデルです。 I'm also excited to announce that we have Gemma 2 coming. また、Gemma 2 の登場も楽しみにしています。 It's the next generation of Gemma, and it will be available in June. 次世代の Gemma で、6 月に発売予定です。 So in a few weeks, we'll be adding a new 27 billion parameter model to Gemma 2. あと数週間で、Gemma 2 に 270 億パラメータモデルが追加されるわけです。 To us, building AI responsibly means both addressing the risks and maximizing the benefits for people and society. 私たちにとって、責任ある AI の構築とは、リスクに対処し、人々と社会にとっての利益を最大化することです。 We're improving our models with an industry standard practice called Red Teaming, in which we test our own models and try to break them to identify weaknesses. 私たちは、Red Teaming と呼ばれる業界標準の手法でモデルを改良しています。Red Teaming では、私たち自身のモデルをテストし、弱点を特定するためにモデルを壊してみるのです。 I'm excited to introduce LearnLM, our new family of models based on Gemini and fine tuned for learning. LearnLM を紹介できることを嬉しく思います。LearnLM は、Gemini をベースとし、学習のために微調整された新しいモデルファミリーです。 Another example is a new feature in YouTube that uses LearnLM to make educational videos more interactive, allowing you to ask a clarifying question, get a helpful explanation, or take a quiz. YouTube の新機能では、LearnLM を使って教育動画をよりインタラクティブなものにし、わかりやすい質問をしたり、親切な説明を受けたり、クイズに答えたりできるようにしています。 All of this shows the important progress we have made as we take a bold and responsible approach to making AI helpful for everyone. これらはすべて、AI をすべての人の役に立つものにするために大胆かつ責任あるアプローチをとる中で、私たちが成し遂げた重要な進歩を示しています。 To everyone here in Shoreline and the millions more watching around the world, here's to the possibilities ahead and creating them together. ここ Shoreline の皆さん、そして世界中で見守る何百万人もの皆さん、これからの可能性とそれを共に創り上げていくことに乾杯。 Thank you. ありがとうございました。
B1 中級 日本語 Google ai スピーカー モデル 検索 双子 【AI 時代】10 分でわかる Google I/O カンファレンス総まとめ! 5061 23 林宜悉 に公開 2024 年 05 月 21 日 シェア シェア 保存 報告 動画の中の単語