Placeholder Image

字幕表 動画を再生する

AI 自動生成字幕
  • I'm running something called Private AI.

    私はプライベートAIというものを運営している。

  • It's kind of like ChatGPT, except it's not.

    ChatGPTのようなものだ。

  • Everything about it is running right here on my computer.

    そのすべてが私のコンピューターで動いている。

  • I'm not even connected to the internet.

    インターネットにも接続していない。

  • This is private, contained, and my data isn't being shared with some random company.

    これはプライベートなもので、私のデータはどこかのランダムな会社と共有されることはない。

  • So in this video, I want to do two things.

    そこでこのビデオでは、2つのことをしたい。

  • First, I want to show you how to set this up.

    まず、この設定方法をお見せしたい。

  • It is ridiculously easy and fast to run your own AI on your laptop, computer, or whatever it is.

    ラップトップでもコンピューターでも何でも、自分のAIを動かすのはとんでもなく簡単で速い。

  • This is free, it's amazing, it'll take you about five minutes.

    無料だし、素晴らしいし、5分もあればできる。

  • And if you stick around to the end, I want to show you something even crazier, a bit more advanced.

    そして最後までお付き合いいただければ、さらにクレイジーで、もう少し高度なものをお見せしたい。

  • I'll show you how you can connect your knowledge base, your notes, your documents, your journal entries, to your own Private GPT, and then ask it questions about your stuff.

    あなたのナレッジ・ベース、メモ、文書、日記をあなたのプライベートGPTに接続し、あなたのものに関して質問する方法をお見せしよう。

  • And then second, I want to talk about how Private AI is helping us in the area we need help most, our jobs.

    そして2つ目は、プライベートAIが、私たちが最も助けを必要としている分野である雇用において、どのように役立っているかについてお話ししたいと思います。

  • You may not know this, but not everyone can use ChatGPT or something like it at their job.

    あなたは知らないかもしれませんが、誰もが仕事でChatGPTなどを使えるわけではありません。

  • Their companies won't let them, mainly because of privacy and security reasons.

    主にプライバシーとセキュリティ上の理由から、彼らの会社はそうさせない。

  • But if they could run their own Private AI, that's a different story.

    しかし、もし彼らが独自のプライベートAIを動かすことができれば、話は別だ。

  • That's a whole different ballgame.

    それはまったく別のゲームだ。

  • And VMware is a big reason this is possible.

    そして、VMwareがこれを可能にした大きな理由である。

  • They are the sponsor of this video, and they're enabling some amazing things that companies can do on-prem in their own data center to run their own AI.

    彼らはこのビデオのスポンサーであり、企業が独自のAIを実行するために、自社のデータセンターでオンプレミスでできる素晴らしいことを可能にしている。

  • And it's not just the cloud, man, it's like in your data center.

    クラウドだけでなく、データセンターでも同様だ。

  • The stuff they're doing is crazy.

    彼らがやっていることはクレイジーだ。

  • We're gonna talk about it here in a bit.

    それについては、もう少ししたらここで話すつもりだ。

  • But tell you what, go ahead and do this.

    でも、こうしたらどうだ。

  • There's a link in the description.

    説明文にリンクがある。

  • Just go ahead and open it and take a little glimpse at what they're doing.

    さっそく開いて、彼らが何をしているのか少し覗いてみてほしい。

  • We're gonna dive deeper, so just go ahead and have it open right in your second monitor or something, or on the side, or minimize.

    これからもっと深く潜っていくから、セカンドモニターか何かで開いておいてくれ。

  • I don't know what you're doing, I don't know how many monitors you have.

    何をやっているのか知らないし、モニターが何台あるのかも知らない。

  • You have three, actually, Bob.

    実は3つあるんだよ、ボブ。

  • I can see you.

    君が見えるよ。

  • Oh, and before we get started, I have to show you this.

    ああ、始める前にこれを見てほしい。

  • You can run your own private AI that's kind of uncensored.

    検閲のない自分だけのAIを動かすことができる。

  • Like, watch this.

    これを見てくれ。

  • I love you, dude, I love you.

    愛しているよ。

  • So yeah, please don't do this to destroy me.

    そうそう、僕を破滅させるようなことはしないでくれ。

  • Also, make sure you're paying attention.

    また、注意を払うように。

  • At the end of this video, I'm doing a quiz.

    このビデオの最後にクイズを出します。

  • And if you're one of the first five people to get 100% on this quiz, you're getting some free coffee.

    そして、このクイズで100%を獲得した最初の5人のうちの1人なら、無料のコーヒーがもらえる。

  • Network Chuck coffee.

    ネットワーク・チャック・コーヒー

  • So take some notes, study up, let's do this.

    だから、メモを取って、勉強して、やろうじゃないか。

  • Now, real quick, before we install a private local AI model on your computer, what does it even mean?

    さて、あなたのコンピューターにプライベートなローカルAIモデルをインストールする前に、本当に手短に説明しよう。

  • What's an AI model?

    AIモデルとは?

  • At its core, an AI model is simply an artificial intelligence pre-trained on data we've provided.

    AIモデルの核心は、我々が提供したデータで事前に訓練された人工知能に過ぎない。

  • One you may have heard of is OpenAI's chat GPT, but it's not the only one out there.

    オープンエイのチャットGPTは聞いたことがあるかもしれないが、それだけではない。

  • Let's take a field trip.

    遠足に行こう

  • We're gonna go to a website called huggingface.co.

    これからhuggingface.coというウェブサイトに行く。

  • Just an incredible brand name, I love it so much.

    本当に素晴らしいブランド名で、とても気に入っている。

  • This is an entire community dedicated to providing and sharing AI models.

    これは、AIモデルを提供し、共有することに特化したコミュニティ全体である。

  • And there are a ton.

    その数は膨大だ。

  • You're about to have your mind blown, ready?

    あなたの心を揺さぶりますよ、いいですか?

  • I'm gonna click on models up here.

    ここでモデルをクリックするよ。

  • Do you see that number?

    この数字が見えますか?

  • 505,000 AI models.

    505,000のAIモデル。

  • Many of these are open and free for you to use, and they're pre-trained, which is kind of a crazy thing.

    これらの多くはオープンで無料で使えるし、事前にトレーニングされている。

  • Let me show you this.

    これをお見せしよう。

  • We're gonna search for a model named Llama 2, one of the most popular models out there.

    最も人気のあるモデルのひとつであるラマ2というモデルを探すことにしよう。

  • We'll do Llama 2 7B.

    ラマ2 7Bをやる。

  • I, again, I love the branding.

    私は、このブランディングが大好きだ。

  • Llama 2 is an AI model known as an LLM or large language model.

    ラマ2は、LLMまたは大規模言語モデルとして知られるAIモデルである。

  • OpenAI's chat GPT is also an LLM.

    OpenAIのチャットGPTもLLMだ。

  • Now this LLM, this pre-trained AI model was made by Meta, AKA Facebook.

    さて、このLLM、つまり事前に訓練されたAIモデルは、メタ、別名フェイスブックによって作られた。

  • And what they did to pre-train this model is kind of insane.

    そして、このモデルを事前にトレーニングするために彼らが行ったことは、ある意味、狂気の沙汰だ。

  • And the fact that we're about to download this and use it, even crazier.

    そして、これをダウンロードして使おうとしているという事実が、さらにクレイジーだ。

  • Check this out.

    これを見てほしい。

  • If you scroll down just a little bit, here we go, training data.

    少し下にスクロールすると、トレーニングデータがあります。

  • It was trained by over 2 trillion tokens of data from publicly available sources, instruction data sets, over a million human annotated examples.

    これは、一般に公開されているソース、命令データセット、100万以上の人間が注釈を付けた例から2兆以上のトークンのデータによって訓練された。

  • Data freshness, we're talking July, 2023.

    データの鮮度は2023年7月の話だ。

  • I love that term, data freshness.

    データの鮮度という言葉が好きだ。

  • And getting the data was just step one.

    データの入手はその第一歩に過ぎない。

  • Step two is insane because this is where the training happens.

    ステップ2は非常識で、ここでトレーニングが行われるからだ。

  • Meta, to train this model, put together what's called a super cluster.

    メタは、このモデルをトレーニングするために、スーパークラスターと呼ばれるものを作る。

  • It already sounds cool, right?

    すでにクールな響きだろう?

  • This sucker is over 6,000 GPUs.

    これは6,000以上のGPUを搭載している。

  • It took 1.7 million GPU hours to train this model.

    このモデルのトレーニングには170万GPU時間を要した。

  • And it's estimated it costs around $20 million to train it.

    訓練には2000万ドルほどかかると言われている。

  • And now Meta's just like, here you go kid, download this incredibly powerful thing.

    そして今、メタは、さあ小僧、この信じられないほどパワフルなものをダウンロードするんだ。

  • I don't want to call it a being yet.

    まだビーイングとは呼びたくない。

  • I'm not ready for that.

    私はまだその準備ができていない。

  • But this intelligent source of information that you can just download on your laptop and ask it questions.

    しかし、このインテリジェントな情報源は、ノートパソコンにダウンロードして質問するだけでいい。

  • No internet required.

    インターネットは不要。

  • And this is just one of the many models we could download.

    そしてこれは、私たちがダウンロードできる数多くのモデルのひとつに過ぎない。

  • They have special models like text to speech, image to image.

    テキストから音声、画像から画像といった特殊なモデルもある。

  • They even have uncensored ones.

    無修正のものまである。

  • They have an uncensored version of Allama too.

    アラマのノーカット版もある。

  • This guy, George Sung, took this model and fine tuned it with a pretty hefty GPU, took him 19 hours and made it to where you could pretty much ask this thing anything you wanted.

    このジョージ・サンという男は、このモデルをかなり重いGPUで微調整し、19時間かけて、ほとんど何でも聞けるようにした。

  • Whatever question comes to mind, it's not going to hold back.

    どんな疑問が浮かんだとしても、それを抑えるつもりはない。

  • So how do we get this fine tuned model onto your computer?

    では、この微調整されたモデルをどうやってコンピューターに取り込むのか?

  • Well, actually I should warn you, this involves quite a bit of Allamas, more than you would expect.

    警告しておくが、この映画にはアラマスがかなり登場する。

  • Our journey starts at a tool called Allama.

    私たちの旅はアラマという道具から始まる。

  • Let's go ahead and take a field trip out there real quick.

    さっそく遠足に行ってみよう。

  • We'll go to allama.ai.

    allama.aiに行こう。

  • All we have to do is install this little guy, Mr. Allama.

    あとはこの小さな男、アラマ氏を設置するだけだ。

  • And then we can run a ton of different LLMs.

    そうすれば、さまざまなLLMを運営することができる。

  • Llama2, Code Llama, told you lots of llamas.

    ラマ2、コード・ラマは、たくさんのラマをあなたに伝えた。

  • And there's others that are pretty fun like Llama2 Uncensored, more llamas.

    他にも『Llama2 Uncensored』のような、もっとラマがたくさん出てくる楽しいものもある。

  • Mistral, I'll show you in a second.

    ミストラル、すぐにお見せしますよ。

  • But first, what do we install Allama on?

    その前に、アラマを何にインストールするのか?

  • We can see right down here that we have it available on Mac OS and Linux, but oh, bummer, Windows coming soon.

    マックOSとリナックスで利用可能なのはこの下を見ればわかる。

  • It's okay, because we've got WSL, the Windows Subsystem for Linux, which is now really easy to set up.

    WSL(Linux用Windowsサブシステム)があるから大丈夫だ。

  • So we'll go ahead and click on download right here.

    では、ここでダウンロードをクリックしましょう。

  • For Mac OS, you'll just simply download this and install it like one of your regular applications.

    マックOSの場合は、これをダウンロードして通常のアプリケーションのようにインストールするだけだ。

  • For Linux, we'll click on this.

    Linuxの場合は、これをクリックする。

  • We got a fun curl command that will copy and paste.

    コピー&ペーストができる楽しいcurlコマンドを手に入れた。

  • Now, because we're going to install WSL on Windows, this will be the same step.

    さて、これからWSLをWindowsにインストールするのだから、これも同じステップだ。

  • So, Mac OS folks, go ahead and just run that installer.

    Mac OSの皆さんは、このインストーラーを実行してください。

  • Linux and Windows folks, let's keep going.

    LinuxとWindowsの皆さん、続けましょう。

  • Now, if you're on Windows, all you have to do now to get WSL installed is launch your Windows terminal.

    Windowsをお使いの場合、WSLをインストールするために必要なことは、Windowsターミナルを起動することです。

  • Just go to your search bar and search for terminal.

    検索バーでターミナルを検索すればいい。

  • And with one command, it'll just happen.

    命令ひとつで、そうなるんだ。

  • It used to be so much harder, which is WSL dash dash install.

    昔はもっと大変だった。WSLダッシュダッシュインストールだ。

  • It'll go through a few steps.

    いくつかのステップを踏むことになる。

  • It'll install Ubuntu as default.

    デフォルトでUbuntuがインストールされる。

  • I'll go ahead and let that do that.

    そうさせてもらうよ。

  • And boom, just like that, I've got Ubuntu 22.04.3 LTS installed, and I'm actually inside of it right now.

    こうして、Ubuntu 22.04.3 LTSがインストールされ、今まさにその中にいる。

  • So now at this point, Linux and Windows folks, we've converged, we're on the same path.

    だから今、LinuxとWindowsの人たちは、収束して同じ道を歩んでいる。

  • Let's install Olama.

    Olamaをインストールしよう。

  • I'm going to copy that curl command that Olama gave us, jump back into my terminal, paste that in there, and press enter.

    オラマが教えてくれたcurlコマンドをコピーして、ターミナルに戻ってペーストし、エンターキーを押す。

  • Fingers crossed, everything should be going great, like the way it is right now.

    今のように、すべてがうまくいくことを祈っている。

  • It'll ask for my sudo password.

    sudoのパスワードを要求される。

  • And that was it.

    それで終わりだった。

  • Olama is now installed.

    オラマが設置された。

  • Now, this will directly apply to Linux people and Windows people.

    さて、これはLinuxの人にもWindowsの人にもそのまま当てはまる。

  • See right here where it says NVIDIA GPU installed?

    ここにNVIDIA GPUがインストールされていると書いてあるだろう?

  • If you have that, you're going to have a better time than other people who don't have that.

    それがあれば、それがない人よりいい時間を過ごせるはずだ。

  • I'll show you here in a second.

    すぐにお見せしましょう。

  • If you don't have it, that's fine.

    もし持っていないなら、それでも構わない。

  • We'll keep going.

    これからも続けるよ。

  • Now let's run an LLM.

    では、LLMを走らせてみよう。

  • We'll start with Llama 2.

    まずはラマ2から。

  • So we'll simply type in Olama, run, and then we'll pick one, Llama 2.

    だからOlamaと入力して実行し、次にLlama 2を選ぶだけだ。

  • And that's it.

    それで終わりだ。

  • Ready, set, go.

    準備万端だ。

  • It's going to pull the manifest.

    マニフェストを引き上げることになる。

  • It'll then start pulling down and downloading Llama 2, and I want you to just realize this, that powerful Llama 2 pre-training we talked about, all the money and hours spent, that's how big it is.

    そして、Llama 2のダウンロードが開始される。

  • This is the 7 billion parameter model, or the 7B.

    これが70億パラメータモデル(7B)だ。

  • It's pretty powerful.

    かなり強力だ。

  • And we're about to literally have this in the palm of our hands.

    そして、我々はこれを文字通り手のひらの上で手に入れようとしている。

  • In like three, two, one.

    3、2、1のようにね。

  • Oh, I thought I had it.

    ああ、持っていると思った。

  • Anyways, it's almost done.

    とにかく、ほぼ完成した。

  • And boom, it's done.

    そしてドカンと完成。

  • We've got a nice success message right here, and it's ready for us.

    素晴らしい成功のメッセージがここにある。

  • We can ask you anything.

    何でも聞いてください。

  • Let's try, what is a pug?

    パグって何?

  • Now, the reason this is going so fast, just like a side note, is that I'm running a GPU, and AI models love GPUs.

    さて、余談だが、なぜこれほど速く進んでいるかというと、私はGPUを使っていて、AIモデルはGPUが大好きだからだ。

  • So let me show you real quick.

    では、早速お見せしよう。

  • I did install Llama on a Linux virtual machine.

    Linuxの仮想マシンにLlamaをインストールした。

  • And I'll just demo the performance for you real quick.

    では、早速デモをお見せしよう。

  • By the way, if you're running like a Mac with an M1, M2, or M3 processor, it actually works great.

    ちなみに、M1、M2、M3プロセッサーを搭載したMacのようなものであれば、実際にうまく動作する。

  • I forgot to install it.

    インストールするのを忘れていた。

  • I gotta install it real quick.

    早く取り付けなきゃ。

  • And it'll ask you that same question, what is a pug?

    パグとは何ですか?

  • It's going to take a minute.

    ちょっと時間がかかるよ。

  • It'll still work, but it's going to be slower on CPUs.

    それでも動作はするが、CPUの処理速度が遅くなる。

  • And there it goes.

    そして、こうなった。

  • It didn't take too long, but notice it is a bit slower.

    それほど時間はかからなかったが、少し遅いことに気づいてほしい。

  • Now, if you're running WSL, and you know you have an Nvidia GPU and it didn't show up, I'll show you in a minute how you can get those drivers installed.

    WSLを実行していて、Nvidia GPUがあることが分かっていて、それが表示されなかった場合、ドライバをインストールする方法をすぐにお見せします。

  • But anyways, just sit back for a minute, sip your coffee, and think about how powerful this is.

    とにかく、ちょっと腰を落ち着けて、コーヒーを飲みながら、これがどれほどパワフルか考えてみてほしい。

  • The tinfoil hat version of me, stinkin' loves this.

    ティンホイルハットバージョンの僕は、これが大好きなんだ。

  • Because let's say the zombie apocalypse happens, right?

    だって、ゾンビ・アポカリプスが起こったとするだろ?

  • The grid goes down, things are crazy.

    送電網がダウンし、物事は狂っている。

  • But as long as I have my laptop and a solar panel, I still have AI, and it can help me survive the zombie apocalypse.

    しかし、ノートパソコンとソーラーパネルがある限り、私にはまだAIがあり、ゾンビの黙示録を生き延びる手助けをしてくれる。

  • Let's actually see how that would work.

    実際にどうなるか見てみよう。

  • It gives me next steps.

    次のステップを与えてくれる。

  • I can have it help me with the water filtration system.

    浄水システムで助けてもらうこともできるんだ。

  • This is just cool, right?

    クールだろ?

  • It's amazing.

    素晴らしいよ。

  • But can I show you something funny?

    でも、面白いものを見せてあげようか?

  • You may have caught this earlier.

    あなたはもっと早くこれを知っていたかもしれない。

  • Who is Network Chuck?

    ネットワーク・チャックとは?

  • What?

    え?

  • Dude, I've always wanted to be Rick Grimes.

    僕はリック・グライムスになりたかったんだ。

  • That is so fun.

    それはとても楽しい。

  • But seriously, it kind of like hallucinated there.

    でも真面目な話、あそこでは幻覚を見ているようだった。

  • It didn't have the correct information.

    正しい情報がなかった。

  • It's so funny how it mixed the zombie apocalypse prompt with me.

    ゾンビ・アポカリプスのプロンプトが僕の中に混ざったのがとても面白い。

  • I love that so much.

    それがとても好きなんだ。

  • Let's try a different model.

    別のモデルを試してみよう。

  • I'll say bye.

    さよならを言うよ。

  • I'll try a really fun one called Mistral.

    ミストラルという本当に楽しいものを試してみるよ。

  • And by the way, if you want to know which ones you can run with OLAMA, which LLMs, they got a page for their models right here.

    ちなみに、OLAMAでどのLLMを走らせることができるのか知りたければ、ここにモデルのページがある。

  • All the ones you can run, including LLAMA2 Uncensored.

    LLAMA2 Uncensoredを含め、走れるものはすべて。

  • Wizard Math.

    ウィザード数学

  • I might give that to my kids, actually.

    子供たちにもあげようかな。

  • Let's see what it says now.

    では、その内容を見てみよう。

  • Who is Network Chuck?

    ネットワーク・チャックとは?

  • Now my name is not Chuck Davis.

    今、私の名前はチャック・デイビスではない。

  • And my YouTube channel is not called Network Chuck on Tech.

    私のYouTubeチャンネルは『Network Chuck on Tech』という名前ではない。

  • So clearly the data this thing was trained on is either not up to date or just plain wrong.

    ということは、明らかにこのトレーニングで使用されたデータは最新ではないか、あるいは単に間違っているということだ。

  • So now the question is, cool, we've got this local private AI, this LLM.

    そこで今問題になっているのは、地元の民間AIであるLLMを手に入れたということだ。

  • That's super powerful.

    超強力だ。

  • But how do we teach it the correct information for us?

    しかし、どうすれば正しい情報を教えてくれるのだろうか?

  • How can I teach it to know that I'm Network Chuck, Chuck Keith, not Chuck Davis, and my channel's called Network Chuck?

    私がネットワーク・チャックであり、チャック・デイビスではなくチャック・キースであり、私のチャンネルがネットワーク・チャックであることをどうやって教えればいいんだ?

  • Or maybe I'm a business and I want it to know more than just what's publicly available.

    あるいは、私はビジネスをしていて、公表されていること以上のことを知りたいのかもしれない。

  • Because sure, right now, if you downloaded this LLM, you could probably use it in your job.

    というのも、確かに今、このLLMをダウンロードすれば、おそらく仕事に使えるだろう。

  • But you can only go so far without it knowing more about your job.

    しかし、自分の仕事についてもっと知ってもらわなければ、ここまでしか進めない。

  • For example, maybe you're on a help desk.

    例えば、あなたはヘルプデスクをしているかもしれない。

  • Imagine if you could take your help desk's knowledge base, your IT procedures, your documentation.

    ヘルプデスクのナレッジ・ベース、IT手順書、ドキュメントを活用できるとしたらどうだろう。

  • Not only that, but maybe you have a database of closed tickets, open tickets.

    それだけでなく、もしかしたらクローズドチケットやオープンチケットのデータベースを持っているかもしれない。

  • If you could take all that data and feed it to this LLM and then ask it questions about all of that, that would be crazy.

    すべてのデータをこの法学修士課程に送り込み、そのすべてについて質問することができるとしたら、それはクレイジーなことだ。

  • Or maybe you want it to help troubleshoot code that your company's written.

    あるいは、あなたの会社が書いたコードのトラブルシューティングに役立てたいかもしれない。

  • You can even make this LLM public facing for your customers.

    このLLMを顧客に公開することもできる。

  • You feed it information about your product and the customer could interact with that chat bot you make, maybe.

    製品に関する情報を与えれば、顧客はあなたが作ったチャットボットと対話できる。

  • This is all possible with a process called fine tuning, where we can train this AI on our own proprietary, secret, private stuff about our company or maybe our lives or whatever you want to use it for, whatever use case is.

    これはすべて、ファイン・チューニングと呼ばれるプロセスで可能であり、私たちはこのAIを、私たちの会社や私たちの生活、あるいはどのようなユースケースであれ、使用したいものについて、私たち独自の、秘密の、プライベートなもので訓練することができる。

  • And this is fantastic because maybe before, you couldn't use a public LLM because you weren't allowed to share your company's data with that LLM.

    これは素晴らしいことだ。以前は、自社のデータをそのLLMと共有することが許されていなかったため、パブリックLLMを使うことができなかったかもしれない。

  • Whether it's compliance reasons or you just simply didn't want to share that data because it's secret.

    コンプライアンス上の理由であれ、単に秘密だからデータを共有したくなかっただけであれ。

  • Whatever the case, it's possible now because this AI is private, it's local.

    いずれにせよ、このAIはプライベートなものであり、ローカルなものであるからこそ、今それが可能なのだ。

  • And whatever data you feed to it is gonna stay right there in your company.

    そして、どんなデータであっても、あなたの会社内に留まることになる。

  • It's not leaving the door.

    ドアから離れない。

  • That idea just makes me so excited because I think it is the future of AI and how companies and individuals will approach it.

    なぜなら、それがAIの未来であり、企業や個人がAIにどうアプローチしていくかだと思うからだ。

  • It's gonna be more private.

    もっとプライベートになる

  • Back to our question though, fine tuning.

    微調整という質問に戻ろう。

  • That sounds cool, training an AI on your own data, but how does that work?

    自分のデータでAIをトレーニングするというのはクールな響きだが、どのように機能するのだろうか?

  • Because as we saw before, with pre-training a model with Meta, it took them 6,000 GPUs over 1.7 million GPU hours.

    前に見たように、Metaを使ったモデルの事前学習では、6,000GPU、170万GPU時間を要した。

  • Do we have to have this massive data center to make this happen?

    これを実現するためには、巨大なデータセンターが必要なのだろうか?

  • No, check this out.

    いや、これを見てくれ。

  • And this is such a fun example, VMware.

    これはVMwareの楽しい例だ。

  • They asked ChatGPT, what's the latest version of VMware vSphere?

    彼らはChatGPTに、VMware vSphereの最新バージョンは?

  • Now the latest ChatGPT knew about was vSphere 7.0, but that wasn't helpful to VMware because their latest version they were working on, which hadn't been released yet, so it wasn't public knowledge, was vSphere 8 update 2.

    ChatGPTが知っていた最新のバージョンはvSphere 7.0でしたが、VMwareにとっては何の役にも立ちませんでした。VMwareが取り組んでいる最新バージョンはまだリリースされておらず、公にはなっていませんでしたが、vSphere 8 update 2でした。

  • And they wanted information like this, internal information not yet released to the public.

    そして、このような情報、まだ公開されていない内部情報を求めていた。

  • They wanted this to be available to their internal team.

    彼らはこれを社内のチームが利用できるようにしたかったのだ。

  • So they could ask something like ChatGPT, hey, what's the latest version of vSphere?

    だから、ChatGPTのように、「ねえ、vSphereの最新バージョンは?

  • And they could answer correctly.

    そして、彼らは正しく答えることができた。

  • So to do what VMware is trying to do, to fine tune a model or train it on new data, it does require a lot.

    そのため、VMwareがやろうとしているような、モデルを微調整したり、新しいデータで訓練したりするためには、多くのことが必要になる。

  • First of all, you would need some hardware, servers with GPUs.

    まず、GPUを搭載したサーバーなどのハードウェアが必要だ。

  • Then you would also need a bunch of tools and libraries and SDKs like PyTorch and TensorFlow, Pandas, NumPy, Scikit-Learn, Transformers, and FastAI.

    それから、PyTorchやTensorFlow、Pandas、NumPy、Scikit-Learn、Transformers、FastAIといったツールやライブラリ、SDKもたくさん必要になる。

  • The list goes on.

    リストは続く。

  • You need lots of tools and resources in order to fine tune an LLM.

    LLMを微調整するためには、たくさんのツールとリソースが必要だ。

  • That's why I'm a massive fan of what VMware is doing.

    だから私は、VMwareがやっていることの大ファンなんだ。

  • Right here, they have something called the VMware Private AI with NVIDIA.

    ここには、VMware Private AI with NVIDIAというものがある。

  • The gajillion things I just listed off, they include in one package, one combo meal, a recipe of AI fine tuning goodness.

    今私が列挙した数十万のものが、ひとつのパッケージ、ひとつのコンボ・ミール、AIの微調整のレシピに含まれている。

  • So as a company, it becomes a bit easier to do this stuff yourself, locally.

    だから企業としては、地元で自分たちでこうしたことをするのは少し簡単になる。

  • For the system engineer you have on staff who knows VMware and loves it, they could do this stuff.

    VMwareに詳しく、VMwareが大好きなシステムエンジニアがいれば、このようなこともできるだろう。

  • They could implement this.

    彼らはこれを実施することができる。

  • And the data scientists they have on staff that will actually do some of the fine tuning, all the tools are right there.

    そして、実際に微調整を行うデータ・サイエンティストがスタッフにいて、すべてのツールがそこにある。

  • So here's what it looks like to fine tune.

    微調整はこんな感じだ。

  • And we're gonna kinda peek behind the curtain at what a data scientist actually does.

    データサイエンティストが実際に何をするのか、そのカーテンの裏側をちょっと覗いてみよう。

  • So first we have the infrastructure, and we start here in vSphere.

    まずはインフラストラクチャーで、vSphereから始めます。

  • Now if you don't know what vSphere is, or VMware, think virtual machines.

    vSphereやVMwareを知らない人は、仮想マシンを思い浮かべてほしい。

  • You got one big physical server, the hardware, the stuff you can feel, touch, and smell.

    物理的なサーバー、ハードウェア、触ったり匂いを嗅いだりできるものが1つある。

  • If you haven't smelled the server, I don't know what you're doing.

    サーバーの匂いを嗅いだことがないのなら、何をやっているのか分からない。

  • And instead of installing one operating system on them like Windows or Linux, you install VMware's ESXi, which will then allow you to virtualize or create a bunch of additional virtual computers.

    そして、WindowsやLinuxのような1つのオペレーティング・システムをインストールする代わりに、VMwareのESXiをインストールする。

  • So instead of one computer, you've got a bunch of computers all using the same hardware resources.

    つまり、1台のコンピュータの代わりに、同じハードウェア・リソースを使用する複数のコンピュータがあるわけだ。

  • And that's what we have right here.

    それがここにある。

  • One of those virtual computers, a virtual machine.

    仮想コンピューター、仮想マシンのひとつだ。

  • This, by the way, is one of their special deep learning VMs that has all the tools I mentioned, and many, many more, pre-installed, ready to go.

    ところで、これは同社の特別なディープラーニングVMのひとつで、私が述べたすべてのツール、そしてさらに多くのツールがプリインストールされ、すぐに使えるようになっている。

  • Everything a data scientist could love.

    データサイエンティストが愛するものすべて。

  • It's kinda like a surgeon walking in to do some surgery, and like their doctor assistants or whatever, have prepared all their tools.

    外科医が手術をするために入ってきて、ドクターアシスタントとかが道具を全部用意しているようなものだ。

  • It's all on the tray, laid out, nice and neat, to where the surgeon only has to do is walk in and just go scalpel.

    トレイの上にすべて整然と並べられていて、外科医は中に入ってメスを入れるだけでいい。

  • That's what we're doing here for the data scientist.

    私たちはデータサイエンティストのためにここにいるのです。

  • Now talking more about hardware, this guy has a couple NVIDIA GPUs assigned to it, or passed through to it through a technology called PCIe pass-through.

    ハードウェアの話をすると、このマシンには、PCIeパススルーと呼ばれる技術によって、エヌビディアのGPUが2つ割り当てられている。

  • These are some beefy GPUs, and notice they are VGPUs for virtual GPU, similar to what you do with the CPU, cutting up the CPU and assigning some of that to a virtual CPU on a virtual machine.

    CPUを切り刻んで、その一部を仮想マシン上の仮想CPUに割り当てるのと似ている。

  • So here we are in data scientist world.

    ここがデータサイエンティストの世界だ。

  • This is a Jupyter Notebook, a common tool used by a data scientist.

    これはJupyter Notebookで、データサイエンティストがよく使うツールだ。

  • And what you're gonna see here is a lot of code that they're using to prepare the data, specifically the data that they're gonna train or fine-tune the existing model on.

    ここにあるのは、データを準備するために使っているコードの数々だ。具体的には、既存のモデルを訓練したり微調整したりするためのデータだ。

  • Now we're not gonna dive deep on that, but I do want you to see this.

    さて、それについて深く掘り下げるつもりはないが、これを見てほしい。

  • Check this out.

    これを見てほしい。

  • A lot of this code is all about getting the data ready.

    このコードの多くは、データを準備するためのものだ。

  • So in VMware's case, it might be a bunch of their knowledge base, product documentation, and they're getting it ready to be fed to the LLM.

    つまり、VMwareの場合は、ナレッジベースや製品ドキュメントの束をLLMに送る準備をしているのかもしれない。

  • And here's what I wanted you to see.

    そして、私が見てほしかったのはこれだ。

  • Here's the dataset that we're training this model on, or fine-tuning.

    これが、このモデルをトレーニング(微調整)するデータセットだ。

  • We only have 9,800 examples that we're giving it, or 9,800 new prompts or pieces of data.

    私たちが与えているのは9,800の例、つまり9,800の新しいプロンプトやデータだけだ。

  • And that data might look like this, like a simple question or a prompt.

    そしてそのデータは、簡単な質問やプロンプトのように、このように見えるかもしれない。

  • And then we feed it the correct answer.

    そして正しい答えを与える。

  • And that's how we essentially train AI.

    そうやって私たちは本質的にAIを訓練するのだ。

  • But again, we're only giving it 9,800 examples, which is not a lot at all.

    しかし、繰り返しになるが、我々は9800例しか挙げていない。

  • And it's extremely small compared to how the model was originally trained.

    しかも、モデルが元々どのようにトレーニングされたかに比べれば極めて小さい。

  • And I point that out to say that we're not gonna need a ton of hardware or a ton of resources to fine-tune this model.

    このモデルを微調整するのに膨大なハードウェアやリソースは必要ない。

  • We won't need the 6,000 GPUs we needed for Meta to originally create this model.

    もともとこのモデルを作るためにメタに必要だった6,000個のGPUは必要ないだろう。

  • We're just kind of adding to it, changing some things or fine-tuning it to what our use case is.

    私たちは、それを追加したり、変更したり、私たちのユースケースに合わせて微調整しているだけです。

  • And looking at what actually will be changed when we run this, when we train it.

    そして、これを実行し、訓練することで、実際に何が変わるかを見る。

  • We're only changing 65 million parameters, which sounds like a lot, right?

    たった6,500万個のパラメータを変更するだけなんだ。

  • But not in the grand scheme of things of like a 7 billion parameter model.

    しかし、70億ものパラメーターを持つモデルのような壮大な計画には当てはまらない。

  • We're only changing 0.93% of the model.

    我々はモデルの0.93%しか変えていない。

  • And then we can actually run our fine-tuning, which this is a specific technique in fine-tuning called prompt-tuning, where we simply feed it additional prompts with answers to change how it will react to people asking it questions.

    これは、プロンプト・チューニングと呼ばれるファインチューニングの特殊なテクニックで、プロンプトに答えを追加して与えるだけで、人々が質問したときの反応を変えることができる。

  • This process will take three to four minutes to fine-tune it because again, we're not changing a lot.

    このプロセスは、微調整に3~4分かかる。

  • And that is just so super powerful.

    そしてそれはとてもパワフルだ。

  • And I think VMware is leading the charge with private AI.

    VMwareはプライベートAIをリードしていると思う。

  • VMware and NVIDIA take all the guesswork out of getting things set up to fine-tune in LLM.

    VMwareとNVIDIAは、LLMで微調整を行うためのセットアップの手間を省いてくれます。

  • They've got deep learning VMs, which are insane.

    彼らはディープラーニングVMを持っている。

  • VMs that come pre-installed with everything you could want, everything a data scientist would need to fine-tune in LLM.

    データサイエンティストがLLMで微調整を行うために必要なものすべてがプリインストールされたVM。

  • And then NVIDIA has an entire suite of tools centered around their GPUs, taking advantage of some really exciting things to help you fine-tune your LLMs.

    そして、NVIDIAはGPUを中心としたツール群全体を持っており、LLMを微調整するのに役立つ、実にエキサイティングなものを活用している。

  • Now, there's one thing I didn't talk about because I wanted to save it for last, for right now.

    さて、最後に、今この瞬間のために取っておきたかったので、話さなかったことがひとつある。

  • It's this right here, this Vector Database PostgreSQL box here.

    それがこのVector Database PostgreSQLのボックスだ。

  • This is something called RAG.

    これはRAGと呼ばれるものだ。

  • And it's what we're about to do with our own personal GPT here in a bit.

    そしてそれは、私たち自身の個人的なGPTでやろうとしていることでもある。

  • Retrieval Augmented Generation.

    検索拡張世代。

  • So scenario, let's say you have a database of product information, internal docs, whatever it is, and you haven't fine-tuned your LLM on this just yet.

    例えば、製品情報、社内資料、何でもいいが、まだLLMを微調整していないデータベースがあるとしよう。

  • So it doesn't know about it.

    だから、そのことを知らない。

  • You don't have to do that.

    そんなことをする必要はない。

  • With RAG, you can connect your LLM to this database, of information, this knowledge base, and give it these instructions.

    RAGを使えば、あなたのLLMをこの情報データベース、知識ベースに接続し、指示を与えることができる。

  • Say, whenever I ask you a question about any of the things in this database, before you answer, consult the database.

    私がこのデータベースにある事柄について質問するときは、答える前にデータベースを参照してください。

  • Go look at it and make sure what you're saying is accurate.

    それを見て、自分の言っていることが正確かどうか確かめてこい。

  • We're not retraining the LLM.

    法学修士を再教育するわけではない。

  • We're just saying, hey, before you answer, go check real quick in this database to make sure it's accurate, to make sure you got your stuff right.

    回答する前に、このデータベースが正確かどうか、自分の情報が正しいかどうか、すぐに確認してくださいと言っているだけです。

  • Isn't that cool?

    クールだろ?

  • So yes, fine-tuning is cool, and training an LLM on your own data is awesome.

    そう、微調整はクールだし、自分のデータでLLMをトレーニングするのは素晴らしいことだ。

  • But in between those moments of fine-tuning, you can have RAG set up where it can consult your database, your internal documentation, and give correct answers based on what you have in that database.

    しかし、微調整の合間にRAGをセットアップしておけば、データベースや内部文書を参照し、データベースにある内容に基づいて正しい答えを出すことができる。

  • That is so stinking cool.

    とてもクールだ。

  • So with VMware Private AI Foundation, with NVIDIA, they have those tools baked right in to where it just kind of works for what would otherwise be a very complex setup.

    だから、VMware Private AI FoundationとNVIDIAを使えば、そうしたツールが組み込まれていて、そうでなければ非常に複雑なセットアップになるはずのものが、ある種の形で機能するようになる。

  • And by the way, this whole RAG thing, like I said earlier, we're about to do this.

    ところで、このRAGというのは、さっきも言ったように、これからやろうとしていることなんだ。

  • I actually connected a lot of my notes and journal entries to a private GPT using RAG, and I was able to talk with it about me, asking it about my journal entries and answering questions about my past.

    実際、私は自分のメモや日記をRAGを使ってプライベートGPTに接続し、GPTに私の日記について尋ねたり、私の過去についての質問に答えたりして、GPTと私について話すことができた。

  • That's so powerful.

    とても力強いね。

  • Now, before we move on, I just wanna highlight the fact that NVIDIA, with their NVIDIA AI Enterprise, gives you some amazing, fantastic tools to pull the LLM of your choice and then fine-tune and customize and deploy that LLM.

    さて、次に進む前に、NVIDIAがNVIDIA AI Enterpriseを提供することで、好みのLLMを引き出し、そのLLMを微調整、カスタマイズ、展開するための素晴らしいツールを提供してくれることを強調しておきたい。

  • It's all built in right here.

    すべてここに組み込まれている。

  • So VMware Cloud Foundation, they provide the robust infrastructure.

    VMware Cloud Foundationは堅牢なインフラを提供する。

  • And NVIDIA provides all the amazing AI tools you need to develop and deploy these custom LLMs.

    そして、NVIDIAは、これらのカスタムLLMを開発し、展開するために必要なすべての素晴らしいAIツールを提供します。

  • Now, it's not just NVIDIA.

    今は、エヌビディアだけではない。

  • They're partnering with Intel as well.

    インテルとも提携している。

  • So VMware's covering all the tools that admins care about.

    つまり、VMwareは管理者が気にするすべてのツールをカバーしているのだ。

  • And then for the data scientist, this is for you.

    そしてデータ・サイエンティストには、これがおすすめだ。

  • Intel's got your back.

    インテルがあなたをサポートします。

  • Data analytics, generative AI and deep learning tools, and some classic ML, or machine learning.

    データ分析、生成AI、ディープラーニングツール、そして古典的なML(機械学習)。

  • And they're also working with IBM.

    IBMとも協力している。

  • All you IBM fans, you can do this too.

    IBMファンの皆さん、あなたにもできますよ。

  • Again, VMware has the admin's back.

    繰り返しになるが、VMwareは管理者をバックアップしている。

  • But for the data scientist, Watson, one of the first AI things I ever heard about.

    しかし、データサイエンティストにとって、ワトソンは私が初めて耳にしたAIのひとつだ。

  • Red Hat and OpenShift.

    レッドハットとOpenShift。

  • And I love this because what VMware's doing is all about choice.

    VMwareがやっていることは、すべて選択に関することだからだ。

  • If you wanna run your own local private AI, you can.

    自分のローカルなプライベートAIを運営したければ、それは可能だ。

  • You're not just stuck with one of the big guys out there.

    大手の1社に縛られることはない。

  • And you can choose to run it with NVIDIA and VMware, Intel and VMware, IBM and VMware.

    また、NVIDIAとVMware、IntelとVMware、IBMとVMwareで実行することを選択できる。

  • You got options.

    あなたには選択肢がある。

  • So there's nothing stopping you.

    だから、あなたを止めるものは何もない。

  • So now for some of the bonus section of this video, and that's how to run your own private GPT with your own knowledge base.

    では、このビデオのボーナス・セクションの一部を紹介しよう。それは、自分自身の知識ベースでプライベートGPTを運営する方法だ。

  • Now, fair warning, it is a bit more advanced.

    さて、警告しておくが、これは少し高度なものだ。

  • But if you stick with me, you should be able to get this up and running.

    でも、僕についてきてくれれば、これを立ち上げて動かすことができるはずだ。

  • So take one more sip of coffee.

    だから、もう一口コーヒーを飲むんだ。

  • Let's get this going.

    さあ、始めよう。

  • Now, first of all, this will not be using OLAMA.

    さて、まず第一に、これはOLAMAを使うわけではない。

  • This will be a separate project called PrivateGPT.

    これはPrivateGPTという別のプロジェクトになる。

  • Now, disclaimer, this is kind of hard to do.

    さて、免責事項だが、これはちょっと難しい。

  • Unlike VMware PrivateAI, which they do it all for you.

    VMwareのPrivateAIとは異なり、彼らがすべてやってくれる。

  • It's a complete solution for companies to run their own private local AI.

    これは、企業が独自のプライベート・ローカルAIを運営するための完全なソリューションだ。

  • What I'm about to show you is not that at all.

    これからお見せするのは、そんなことはまったくない。

  • No affiliation with VMware.

    VMwareとは一切関係ありません。

  • It's a free side project.

    無料のサイドプロジェクトだ。

  • You can try just to get a little taste of what running your own private GPT with RAG tastes like.

    RAGを使ったプライベートGPTがどんな味なのか、ちょっとだけ味わってみるのもいいだろう。

  • Did I do that right?

    これでよかったのだろうか?

  • I don't know.

    分からないよ。

  • Now, L Martinez has a great doc on how to install this.

    さて、L・マルティネスがこの取り付け方について素晴らしいドキュメントを公開している。

  • It's a lot, but you can do it.

    大変だけど、あなたならできる。

  • And if you just want a quick start, he does have a few lines of code for Linux and Mac users.

    手っ取り早く始めたいなら、彼はLinuxとMacユーザー向けに数行のコードを用意している。

  • Fair warning, this is CPU only.

    公正な警告として、これはCPU専用である。

  • You can't really take advantage of RAG without a GPU, which is what I wanted to do.

    GPUがなければRAGを活用することはできない。

  • So here's my very specific scenario.

    私の具体的なシナリオはこうだ。

  • I've got a Windows PC with an NVIDIA 4090.

    私はNVIDIA 4090を搭載したWindows PCを持っている。

  • How do I run this Linux-based project?

    Linuxベースのプロジェクトを実行するには?

  • WSL.

    WSL。

  • And I'm so thankful to this guy, Emilian Lancelot.

    そして、エミリアン・ランスロットという男にとても感謝している。

  • He put an entire guide together of how to set this up.

    彼はこのセットアップ方法をまとめたガイドを作成した。

  • I'm not gonna walk you through every step because he already did that.

    すべてのステップを説明するつもりはない。

  • Link below.

    以下リンク。

  • But I seriously need to buy this guy a coffee.

    でも、マジでこの人にコーヒーをおごらないと。

  • How do I do that?

    どうすればいいんだ?

  • I don't know.

    分からないよ。

  • Emilian, if you're watching this, reach out to me.

    エミリアン、もしこれを見ていたら、僕に声をかけてほしい。

  • I'll send you some coffee.

    コーヒーを送るよ。

  • So anyways, I went through every step from installing all the prereqs to installing NVIDIA drivers and using Poetry to handle dependencies, which Poetry's pretty cool.

    とにかく、すべての前提条件のインストールからNVIDIAドライバーのインストール、依存関係を処理するためのPoetryの使用まで、すべてのステップを経験した。

  • I landed here.

    私はここに降り立った。

  • I've got a private, local, working, private GPT that I can access through my web browser.

    私は、ウェブブラウザからアクセスできる、ローカルで動作するプライベートなGPTを持っている。

  • And it's using my GPU, which is pretty cool.

    しかも僕のGPUを使っている。

  • Now, first I try a simple document upload.

    さて、まずは簡単なドキュメントのアップロードを試してみる。

  • I've got this VMware article that details a lot of what we talked about in this video.

    VMwareの記事には、このビデオでお話ししたことの多くが詳しく書かれています。

  • I upload it and I start asking it questions about this article.

    アップロードして、この記事について質問を始める。

  • I tried something specific, like show me something about VMware AI market growth.

    VMwareのAI市場の成長について何か具体的なことを教えてほしい。

  • Bam, it figured it out.

    バム、それはわかった。

  • It told me.

    それは私に言った。

  • Then I'm like, what's the coolest thing about VMware private AI?

    では、VMwareのプライベートAIの最もクールな点は何か?

  • It told me.

    それは私に言った。

  • I'm sitting here chatting with a document, but then I'm like, let's try something bigger.

    私はここに座って文書とおしゃべりをしているんだけど、もっと大きなことをやってみようという気になったんだ。

  • I want to chat with my journals.

    ジャーナルとおしゃべりしたい。

  • I've got a ton of journals on Markdown format and I want to ask it questions about me.

    Markdownフォーマットの日記を大量に持っていて、自分に関する質問をしたいんだ。

  • Now, this specific step is not covered in the article, so here's how you do it.

    さて、この具体的なステップについては記事で取り上げていないので、ここではその方法を紹介しよう。

  • First, you'll want to grab your folder of whatever documents you want to ask questions about and throw it onto your machine.

    まず、質問したい文書が入ったフォルダを取り出し、マシンに放り込む。

  • So I copied over to my WSL machine and then I ingested it with this command.

    そこでWSLマシンにコピーし、次のコマンドでインジェストした。

  • Once complete and I ran private GPT again, here's all my documents and I'm ready to ask it questions.

    GPTが完了し、プライベートGPTを再び実行した。

  • So let's test this out.

    では、試してみよう。

  • I'm going to ask it, what did I do in Takayama?

    私は高山で何をしたのか?

  • So I went to Japan in November of 2023.

    それで2023年の11月に日本に行った。

  • Let's see if it can search my notes, figure out when that was and what I did.

    私のメモを検索して、それがいつで、私が何をしたのか調べてみよう。

  • That's awesome.

    すごいね。

  • Oh my goodness.

    なんてことだ。

  • Let's see.

    見てみよう。

  • What did I eat in Tokyo?

    東京で何を食べたか?

  • How cool is that?

    なんてクールなんだろう。

  • Oh my gosh, it's so fun.

    あらまあ、とても楽しいわ。

  • No, it's not perfect, but I can see the potential here.

    いや、完璧とは言えないが、ここに可能性を感じる。

  • That's insane.

    正気の沙汰じゃない。

  • I love this so much.

    僕はこれが大好きなんだ。

  • Private AI is the future.

    プライベートAIは未来だ。

  • And that's why we're seeing VMware bring products like this to companies to run their own private local AI.

    だからこそ、VMwareはこのような製品を企業に提供し、自社のプライベート・ローカルAIを稼動させているのだ。

  • And they make it pretty easy.

    しかも、かなり簡単だ。

  • Like if you actually did that private GPT thing, that little side project, there's a lot to it.

    プライベートGPTのようなもの、ちょっとしたサイドプロジェクトを実際にやってみると、そこにはたくさんのことがあるんだ。

  • Lots of tools you have to install.

    取り付けなければならない道具がたくさんある。

  • It's kind of a pain, but with VMware, they kind of cover everything.

    ちょっと面倒だけど、VMwareならすべてをカバーしてくれる。

  • Like that deep learning VM they offer as part of their solution.

    彼らがソリューションの一部として提供しているディープラーニングVMのようにね。

  • It's got all the tools ready to go.

    道具はすべて揃っている。

  • Pre-baked.

    焼き上がり。

  • Again, you're like a surgeon just walking in saying, scalpel.

    もう一度言うが、あなたは外科医がメスを入れてくるようなものだ。

  • You got all this stuff right there.

    これだけのものがそこにある。

  • So if you want to bring AI to your company, check out VMware Private AI, link below.

    AIをあなたの会社に導入したいなら、以下のリンクからVMware Private AIをチェックしてほしい。

  • And thank you to VMware by Broadcom for sponsoring this video.

    また、このビデオのスポンサーを務めてくださったVMware by Broadcomに感謝する。

  • You made it to the end of the video.

    あなたはビデオの最後までたどり着いた。

  • Time for a quiz.

    クイズの時間だ。

  • This quiz will test the knowledge you've gained in this video.

    このクイズは、このビデオで得た知識を試すものです。

  • And the first five people to get 100% on this quiz will get free coffee from Network Chug Coffee.

    そして、このクイズで100%を獲得した最初の5人には、ネットワーク・チャグ・コーヒーから無料のコーヒーがプレゼントされる。

  • So here's how you take the quiz.

    では、クイズの受け方はこうだ。

  • Right now, check the description in your video and click on this link.

    今すぐ、ビデオの説明をチェックして、このリンクをクリックしてください。

  • If you're not currently signed into the Academy, go ahead and get signed in.

    まだアカデミーにサインインしていない場合は、サインインしてください。

  • If you're not a member, go ahead and click on sign up.

    まだメンバーでない方は、サインアップをクリックしてください。

  • It's free.

    無料だ。

  • Once you're signed in, it will take you to your dashboard, showing you all the stuff you have access to with your free Academy account.

    サインインすると、ダッシュボードが表示され、無料アカデミー・アカウントでアクセスできるすべてのコンテンツが表示されます。

  • But to get right back to that quiz, go back to the YouTube video, click on that link once more, and it should take you right to it.

    クイズに戻るには、YouTubeのビデオに戻って、もう一度リンクをクリックしてください。

  • Go ahead and click on start now and start your quiz.

    今すぐ開始をクリックして、クイズを始めてください。

  • Here's a little preview.

    これがそのプレビューだ。

  • That's it.

    それだけだ。

  • The first five to get 100% free coffee.

    先着5名にコーヒー100%サービス。

  • If you're one of the five, you'll know because you'll receive an email with free coffee.

    もしあなたがその5人のうちの1人なら、無料コーヒー付きのメールが届くのでわかるだろう。

  • You gotta be quick.

    素早くなければならない。

  • You gotta be smart.

    賢くなければならない。

  • I'll see you guys in the next video.

    また次のビデオで会おう。

I'm running something called Private AI.

私はプライベートAIというものを運営している。

字幕と単語
AI 自動生成字幕

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます

A2 初級 日本語

独自のAIを運営する(ただし非公開) (Run your own AI (but private))

  • 1 0
    Jasper に公開 2024 年 10 月 01 日
動画の中の単語