字幕表 動画を再生する AI 自動生成字幕 字幕スクリプトをプリント 翻訳字幕をプリント 英語字幕をプリント I built an AI server for my daughters. 娘たちのためにAIサーバーを作った。 Well, first, it was more for me. まあ、まずは自分のためだった。 I wanted to run all of my AI locally. 私はすべてのAIをローカルで動かしたかった。 And I'm not just talking command line with Olama. Olamaのコマンドラインの話だけではない。 No, no, no. いや、違う。 We have a GUI, a beautiful chat interface. 私たちにはGUIがあり、美しいチャットインターフェイスがあります。 And this thing's feature-filled. 機能満載だ。 It's got RBAC, chat histories, multiple models. RBAC、チャット履歴、複数のモデルがある。 We can even add stable diffusion. 安定した拡散を加えることもできる。 And I was able to add this to my notes application, Obsidian, and have my chat interface right there. そして、これを私のノート・アプリケーションであるObsidianに追加し、チャットのインターフェイスをそこに置くことができた。 I'm gonna show you how to do this. その方法をお見せしよう。 Now, you don't need something crazy like Terry. テリーのようなクレイジーなものは必要ない。 That's what I named my AI server. それが私のAIサーバーの名前だ。 It can be something as simple as this, this laptop. このノートパソコンのような単純なものでもいい。 I'll actually demo the entire setup on this laptop. 実際にこのノートパソコンでセットアップ全体をデモしてみる。 So luckily, the computer you're using right now, the one you're watching this video on, will probably work. だから幸運なことに、あなたが今使っているコンピューター、つまりこのビデオを見ているコンピューターは、おそらく動くだろう。 And seriously, you're gonna love this. そして真面目な話、これを気に入るはずだ。 It's customizable. カスタマイズできる。 It's wicked fast, like way faster than anything else I've used. これまで使ってきたどの製品よりも速い。 Isn't that amazing? すごいでしょ? And again, it's local. そしてまた、地元だ。 It's private. プライベートだ。 I control it, which is important because I'm giving it to my daughters. 娘たちに飲ませるのだから、私がコントロールするのは重要なことだ。 I want them to be able to use AI to help with school, but I don't want them to cheat or do anything else weird. AIを学校の勉強に役立ててほしいが、カンニングや変なことはしてほしくない。 But because I have control, でも、私がコントロールできるからだ、 I can put in special model files that restrict what they can do, what they can ask. 私は、彼らができることや要求できることを制限する特別なモデルファイルを置くことができる。 And I'll show you how to do that. その方法をお見せしよう。 So here we go. それでは、どうぞ。 We're about to dive in. これから飛び込むところだ。 But first, let me have you meet Terry. その前にテリーを紹介しよう。 Now, Terry has a lot of muscle. 今のテリーには筋肉がある。 So for the case, I needed something big. だからケースには大きなものが必要だった。 I got the Leon Lee 011 Dynamic Evo XL. 僕はLeon Lee 011 Dynamic Evo XLを手に入れた。 It's a full tower E-ATX case. フルタワーE-ATXケースだ。 Perfect to hold my Asus X670-E Creator ProArt motherboard. Asus X670-E Creator ProArt マザーボードを収納するのに最適です。 This thing's also a beast. これもまた獣だ。 I'll put it in the description so you can look at it. 説明文に書いておくので、見てほしい。 Now, I also gave Terry a big brain. さて、私はテリーにも大きな頭脳を与えた。 He's got the AMD Ryzen 9 7950X. 彼はAMD Ryzen 9 7950Xを持っている。 That's 4.2 gigahertz and 16 cores. これは4.2ギガヘルツで16コアだ。 For memory, I went a little crazy. 記憶のために、私は少しおかしくなった。 I've got 128 gigabytes of the G.Skill Trident Z5 Neo. 128GBのG.Skill Trident Z5 Neoを持っている。 It's DDR5-6000 and way overkill for what I'm doing. DDR5-6000で、私がやっていることにはオーバーキルだ。 I think. 私はそう思う。 I got a Leon Lee water cooler for the CPU. CPU用にLeon Leeの水冷クーラーを買ったんだ。 I'm not sure if I'm saying Leon Lee right. レオン・リーという言い方が正しいかどうかは分からない。 I don't know. 分からないよ。 Correct me in the comments. コメントで訂正してください。 You always do. 君はいつもそうだ。 And then for the stuff AI loves, I got two 4090s. そしてAIが好きなもののために、4090を2台手に入れた。 It's the MSI Supreme and they're liquid cooled so they could fit on my motherboard. MSIのSupremeで、液冷式なので私のマザーボードにフィットする。 24 gigabytes of memory each, giving me plenty of muscle for my AI models. メモリはそれぞれ24ギガバイトで、AIモデルには十分なパワーを与えてくれる。 For storage, we got two Samsung 990 Pros, two terabytes, which you can't see because they're behind stuff. ストレージは、サムスンの990プロを2台、2テラバイト用意した。 And also a Corsair AX1600i power supply. そしてCorsair AX1600i電源も。 1600 watts to power the entire build. 1600ワット。 Terry is ready. テリーは準備ができている。 Now I'm surprised to say my system actually posted on the first attempt, which is amazing. 今、私は、私のシステムが実際に最初の試みで投稿したと言うことに驚いている。 But what's not amazing is the fact that Ubuntu would not install. しかし、驚くべきことではないのは、Ubuntuがインストールされなかったことだ。 I tried for hours, actually for a whole day. 私は何時間も、実際には丸一日努力した。 And I almost gave up and installed Windows, but I said, no, Chuck, you're installing Linux. それで、あきらめてウィンドウズをインストールしようとしたんだけど、いや、チャック、君はLinuxをインストールするんだと言ったんだ。 So I tried something new, something I've never messed with before. そこで私は、これまで手を出したことのない新しいことに挑戦した。 It's called Pop OS by System76. System76のPop OSというものだ。 This thing is awesome. これはすごいよ。 It worked the first time. 最初はうまくいった。 It even had a special image with NVIDIA drivers built in. NVIDIAドライバを組み込んだ特別なイメージまであった。 It just stinking worked. ただ、臭くてうまくいかなかった。 So I sipped some coffee, didn't question the magic and moved on. だから私はコーヒーをすすり、マジックに疑問を抱かず、先に進んだ。 Now, if you do want to build something similar, さて、もし同じようなものを作りたいのなら、 I've got all the links below. 以下にすべてのリンクを掲載する。 But anyways, let's talk about how to build your very own local AI server. とにかく、自分だけのローカルAIサーバーを構築する方法について話そう。 First, what do you need? まず、何が必要なのか? Really, all you'll need is a computer. 本当に必要なのはコンピューターだけだ。 That's it. それだけだ。 It can be any computer running Windows, Mac or Linux. ウィンドウズ、マック、リナックスが動作するコンピューターであれば、どんなものでも構わない。 And if you have a GPU, you'll have a much better time. GPUがあれば、より良い時間を過ごせるだろう。 Now, again, I have to emphasize this. さて、もう一度強調しておく。 You won't need something as beefy as Terry, but the more powerful your computer is, the better time you'll have. テリーほど頑丈なものは必要ないだろうが、コンピュータが高性能であればあるほど、より良い時間を過ごすことができる。 Don't come at me with a Chromebook, please. Chromebookで攻めてこないでくれよ。 Now, step one, Olama. さて、ステップ1、オラマ。 This is the foundation for all of our AI stuff and what we'll use to run AI models. これは、私たちのAIに関するすべての基礎であり、AIモデルを実行するために使用するものだ。 So we'll head on over to olama.ai and click on download. それではolama.aiにアクセスしてダウンロードをクリックしよう。 And they get a flavor for every OS. そして、OSごとに味を変えている。 I love that. 私はそれが大好きだ。 Now, if you're on Mac, just download it right now and run it. Macをお使いの方は、今すぐダウンロードして実行してください。 If you're on Windows, they do have a preview version, but I don't want you to do that. Windowsならプレビュー版があるが、それはやめてほしい。 Instead, I want you to try the Linux version. その代わり、Linux版を試してほしい。 We can install it with one command. コマンドひとつでインストールできる。 And yes, you can run Linux on Windows with WSL. そう、WSLを使えばWindows上でLinuxを動かすことができる。 Let's get that going real quick. さっそく始めよう。 First thing I'll do is go to the start bar and search for terminal. まず、スタートバーでターミナルを検索する。 I launched my terminal. 私は端末を立ち上げた。 Now, this first bit is for Windows folks only, さて、この最初のビットは、ウィンドウズの人たちだけのためのものだ、 Linux people, just hang on for a moment. Linuxの皆さん、ちょっと待ってください。 We got to get WSL installed or the Windows subsystem for Linux. WSL、つまりLinux用のWindowsサブシステムをインストールしなければならない。 It's only one command, WSL dash dash install. WSL dash dash installというたった一つのコマンドだ。 And that's it actually. それだけだ。 Hit enter, and it's gonna start doing some stuff. エンターキーを押せば、何かし始める。 When it's done, we'll set up a username and password. それが終わったら、ユーザー名とパスワードを設定します。 I got a new keyboard, by the way. ところで、新しいキーボードを買ったんだ。 Do you hear that? 聞こえたか? Link below, it's my favorite keyboard in the entire world. 下のリンク、全世界で一番好きなキーボードだ。 Now, some of you may have to reboot, that's fine. 再起動が必要な人もいるかもしれないが、それは構わない。 Just pause the video and come back. ビデオを一時停止して、また戻ってきてください。 Mine is ready to go though, and we're rocking Ubuntu 22.04, which is still amazing to me that we're running Linux on Windows. Windows上でLinuxを動かしているなんて、今でも驚きだよ。 That's just magic, right? ただのマジックだろ? Now, we're about to install Olama, but before we do that, you got to do some best practice stuff, like updating our packages. さて、これからOlamaをインストールするが、その前にパッケージのアップデートなど、ベストプラクティスをいくつかやっておく必要がある。 So we'll do a sudo apt update, and then we'll do a sudo apt upgrade dash y to apply all those updates. そこで、sudo apt updateを実行し、sudo apt upgrade dash yを実行して、すべてのアップデートを適用する。 And actually, while it's updating, can I tell you something about our sponsor? そして実は、更新している間に、スポンサーについてお話ししてもいいですか? IT Pro by ACI Learning. ACIラーニングによるITプロ。 Now, in this video, we're gonna be doing lots of heavy Linux things. さて、このビデオでは、Linuxのヘビーなことをたくさんやるつもりだ。 I'm gonna walk you through it. これから説明するよ。 I'm gonna hold your hand, and you may not really understand what's happening. 私はあなたの手を握り、あなたは何が起こっているのか理解できないかもしれない。 That's where IT Pro comes in. そこでIT Proの出番だ。 If you want to learn Linux or really anything in IT, they are your go-to. LinuxやITに関するあらゆることを学びたいのであれば、彼らが頼りになる。 That's what I use to learn new stuff. 新しいことを学ぶために使っているんだ。 So if you want to learn Linux to get better at this stuff, or you want to start making this whole hobby thing your career, actually learn some skills, get some certifications, get your A+, get your CCNA, get your AWS certifications, your Azure certifications, and go down this crazy IT path, which is incredible, and it's the whole reason I make this channel and make these videos. だから、Linuxを学んでもっと上手になりたいとか、趣味のことを仕事にしたいと思ったら、実際にスキルを学んで、資格を取得して、A+を取得して、CCNAを取得して、AWSの資格を取得して、Azureの資格を取得して、このクレイジーなITの道に進むんだ。 Check out IT Pro. IT Proをご覧ください。 They've got IT training that won't put you to sleep. 彼らはあなたを眠らせないITトレーニングを持っている。 They have labs, they have practice exams, and if you use my code NetworkChuck right now, you'll get 30% off forever. ラボもあるし、模擬試験もある。今なら私のコード「NetworkChuck」を使えば、永久に30%オフになる。 So go learn some Linux, and thank you to IT Pro for sponsoring this video and making things like this possible. そして、このビデオのスポンサーであり、このようなことを可能にしてくれているIT Proに感謝する。 And speaking of, my updates are done. そういえば、更新も終わった。 And by the way, I will have a guide for this entire thing. ちなみに、このガイドも用意するつもりだ。 Every step, all the commands, you can find it at the free NetworkChuck Academy membership. すべてのステップ、すべてのコマンドは、NetworkChuck Academyの無料メンバーシップでご覧いただけます。 Click the link below to join and get some other cool stuff as well. 以下のリンクをクリックして参加し、他のクールなグッズも手に入れてください。 I can't wait to see you there. そこで会うのが待ちきれないよ。 Now we can install Olama with one command. これでOlamaを1つのコマンドでインストールできる。 And again, all commands are below. 繰り返しますが、すべてのコマンドは以下の通りです。 Just gonna paste this in. これを貼り付けておこう。 A nice little curl command, little magic stuff, and this, I love how easy this is, watch. ちょっとしたカールのコマンド、ちょっとした魔法のようなもの。 You just sit there and let it happen. ただそこに座って、成り行きに任せるんだ。 Do you not feel like a wizard when you're installing stuff like this? このようなものをインストールしているとき、魔法使いになったような気がしない? And the fact that you're installing AI right now, come on. そして、今まさにAIを導入しようとしている。 Now notice one thing real quick. さて、ここでひとつ気づいてほしい。 Olama did automatically find out that I have an NVIDIA GPU, and it's like, awesome, you're gonna have a great time. オラマは、私がNVIDIAのGPUを持っていることを自動的に見つけてくれた。 If it didn't see that and you do have a GPU, you may have to install some NVIDIA CUDA drivers. もしそれが表示されず、GPUがある場合は、NVIDIA CUDAドライバーをインストールする必要があるかもしれません。 I'll put a link for that below, but not everyone will have to do that. そのためのリンクを下に貼っておくが、すべての人がそうする必要はないだろう。 And if you're rocking a Mac with an M1 through M3 chip, you're gonna have a good time too. M1~M3チップを搭載したマックなら、きっと楽しい時間を過ごせるだろう。 They will use the embedded GPU. 内蔵GPUを使用する。 Now at this point, our Mac users, our Linux users, and our Windows users are all converged. この時点で、MacユーザーもLinuxユーザーもWindowsユーザーも、すべてコンバージェンスされている。 We're on the same path. 私たちは同じ道を歩んでいる。 Welcome, we can hold hands and sing. ようこそ、手をつないで歌いましょう。 It's getting weird. 変な感じになってきた。 Anyways, first we have to test a few things to make sure Olama is working. とにかく、まずはオラマが機能していることを確認するために、いくつかのことをテストしなければならない。 And for that, we're gonna open our web browser. そのためにウェブ・ブラウザーを開く。 I know, it's kind of weird. 変な感じだよね。 Just stick with me. 僕と一緒にいてくれ。 I'm gonna launch Chrome here, and here in my address bar, I'm gonna type in localhost, which is looking right here at my computer, and port 11434. Chromeを起動し、アドレスバーにlocalhostと入力する。 Hit enter, and if you see this right here, this message, you're good to go, and you're about to find this out. エンターキーを押して、このメッセージが表示されたら、もう大丈夫です。 Port 11434 is what Olama's API service is running on, and it's how our other stuff is gonna interact with it. ポート11434は、OlamaのAPIサービスが稼働しているポートであり、他のAPIサービスと相互作用するためのポートだ。 It's so powerful, just check this out. とてもパワフルだ。 I'm so excited to show you this. これをお見せできるのがとても楽しみです。 Now, before we move on, let's go ahead and add an AI model to Olama. さて、次に進む前に、OlamaにAIモデルを追加してみよう。 And we can do that right now with olama pull, and we'll pull down Lama 2, a very popular one. そして、オラマ・プルで今すぐそれができるんだ。 Hit enter, and it's ready. エンターキーを押せば準備完了。 Now, let's test it out real quick. では、早速テストしてみよう。 We'll do olama run Lama 2. オラマ・ラン・ラマ2をやろう。 And if this is your first time doing this, this is kind of magic. これが初めてなら、これは魔法のようなものだ。 We're about to interact with a chat GPT-like AI right here. これからチャットGPTのようなAIと対話するところだ。 No internet required, it's all just happening in that five gigabyte file. インターネットは必要なく、すべては5ギガバイトのファイルの中で起こっている。 Tell me about the solar eclipse. 日食について教えてください。 Boom, and you can actually control C that to stop it. そして、それを止めるためにCをコントロールすることができる。 Now, I wanna show you this. さて、これをお見せしよう。 I'm gonna open up a new window. 新しいウィンドウを開くよ。 This is actually an awesome command. これは実に素晴らしいコマンドだ。 And with this WSL command, そして、このWSLコマンドだ、 I'm just connecting to the same instance again, a new window. また同じインスタンスに新しいウィンドウで接続しているだけだ。 I'm gonna type in watch-n 0.5, not four, five, nvidia-smi. watch-n 0.5と入力します。4でも5でもなく、nvidia-smiです。 This is going to watch the performance of my GPU right here in the terminal and keep refreshing. このターミナルでGPUのパフォーマンスを監視し、リフレッシュし続ける。 So keep an eye on this right here as I chat with Lama 2. ラマ2世とおしゃべりしながら、ここから目が離せない。 Lama 2, give me a list of all Adam Sandler movies. ラマ2 アダム・サンドラーの映画のリストをちょうだい。 And look at that GPU go, ah, it's so fun. そのGPUを見て、ああ、楽しい。 Now, can I show you what Terry does real quick? では、テリーが何をしているのか、すぐにお見せしてもいいですか? I gotta show you Terry. テリーに見せなきゃ。 Terry has two GPUs. テリーは2つのGPUを持っている。 Here they are right here. ここにある。 And olama can actually use both of them at the same time. そして、オラマは実際にその両方を同時に使うことができる。 Check this out, it's so cool. これを見て、とてもクールだよ。 List all the Samuel L. Jackson movies. サミュエル・L・ジャクソンの出演作品をすべて見る And look at that. それを見てくれ。 Isn't that amazing? すごいでしょ? And look how fast it went. そして、その速さを見てほしい。 That's ridiculous. そんなバカな。 This is just the beginning. これは始まりに過ぎない。 So anyways, I had to show you Terry. とにかく、テリーを見せなければならなかったんだ。 So now we have olama installed. これでオラマをインストールしたことになる。 That's just our base. それは我々のベースだけだ。 Remember, I'm gonna say bye. 覚えておいてくれ、バイバイするつもりだ。 So forward slash bye to end that session. だから、フォワード・スラッシュ・バイでそのセッションを終了する。 Step two is all about the web UI. ステップ2はウェブUIのすべてだ。 And this thing is amazing. そしてこれは素晴らしい。 It's called OpenWebUI. OpenWebUIと呼ばれている。 And it's actually one of many web UIs you can get for olama. そして実は、olamaで手に入る数多くのウェブUIのひとつなのだ。 But I think OpenWebUI is the best. でも、僕はOpenWebUIがベストだと思う。 Now OpenWebUI will be run inside a Docker container. これで OpenWebUI は Docker コンテナ内で実行される。 So you will need Docker installed. そのため、Dockerをインストールする必要がある。 And we'll do that right now. 今すぐそうしよう So we'll just copy and paste the commands from Network Shrug Academy. そこで、ネットワーク・シュラッグ・アカデミーのコマンドをコピー&ペーストしてみよう。 This is also available on Docker's website. これはDockerのウェブサイトでも入手できる。 First step is updating our repositories and getting Docker's GPG key. 最初のステップは、リポジトリの更新とDockerのGPGキーの取得だ。 And then with one command, we'll install Docker and all its goodies. そして1つのコマンドで、Dockerとそのすべてのグッズをインストールする。 Ready, set, go. レディ、セット、ゴー。 Yes, let's do it. そうだ、やろう。 And now with Docker installed, we'll use it to deploy our OpenWebUI container. Dockerがインストールされたので、それを使ってOpenWebUIコンテナをデプロイしよう。 There'll be one command. コマンドは1つだ。 You can simply copy and paste this. これをコピー&ペーストすればいい。 This docker run command is going to pull this image to run this container from OpenWebUI. この docker run コマンドは、OpenWebUI からこのコンテナを実行するためのイメージを引っ張ってくる。 It's looking at your local computer for the olama base URL, because it's going to integrate and use olama. olamaを統合して使用するため、ローカルのコンピューターでolamaのベースURLを探しているのだ。 And it's going to be using the host network adapter to make things nice and easy. そして、ホスト・ネットワーク・アダプターを使うことで、物事をうまく簡単に進めることができる。 Keeping in mind, this will use port 8080 on whatever system you're using. 覚えておいてほしいのは、あなたが使っているシステムが何であれ、これは8080番ポートを使うということだ。 Now all we have to do is hit enter after we add some sudo at the beginning, sudo docker run, and let it do its thing. あとは、冒頭にsudoを追加して、sudo docker runと入力し、実行させるだけだ。 Let's verify it real quick. さっそく検証してみよう。 We'll do a little sudo docker ps. sudo docker psを少しやってみよう。 We can see that it is indeed running. 確かに動いているのがわかる。 And now let's go log in. それではログインしてみよう。 It's kind of exciting. ちょっとエキサイティングだね。 Okay, let's go to our web browser and we'll simply type in localhost colon port 8080. では、ウェブ・ブラウザでlocalhost colon port 8080と入力してみよう。 Whoa, okay, it's really zoomed in. おっ、オーケー、本当にズームインしている。 I'm not sure why. なぜかは分からない。 You shouldn't do that. それはやめた方がいい。 Now for the first time you run it, you'll want to click on sign up right here at the bottom and just put your stuff in. 初回は、この一番下にあるサインアップをクリックして、必要事項を入力してください。 This login info is only pertinent to this instance, this local instance. このログイン情報は、このインスタンス、このローカルインスタンスにのみ関係する。 We'll create the account and we're logged in. アカウントを作成し、ログインしました。 Now, just so you know, the first account you log in with or sign up with will automatically become an admin account. さて、念のためお伝えしておきますが、最初にログインまたはサインアップしたアカウントは自動的に管理者アカウントになります。 So right now you as a first time user logging in, you get the power, but look at this. だから今、初めてログインしたユーザーは、パワーを手に入れたわけだが、これを見てほしい。 How amazing is this? なんて素晴らしいんだろう。 Let's play with it. それで遊ぼう。 So the first thing we have to do is select the model. だから、最初にしなければならないのは、モデルの選択だ。 I'll click that dropdown and we should have one, llama2. そのドロップダウンメニューをクリックすると、ラマ2が表示されるはずだ。 Awesome. 素晴らしい。 And that's how we know also our connection is working. そうすることで、コネクションが機能していることがわかるんだ。 I'll go and select that. それを選んでくる And by the way, another way to check your connection is by going to your little icon down here at the bottom left and clicking on settings and then connections. ところで、接続をチェックするもうひとつの方法は、左下の小さなアイコンから設定、接続の順にクリックすることだ。 And you can see our olamavase URL is right here, if you ever have to change that for whatever reason. olamavaseのURLはここにあるので、何らかの理由で変更する必要がある場合は、そちらを参照してください。 Now with llama2 selected, we can just start chatting. llama2を選択すれば、あとはチャットを始めるだけだ。 And just like that, we have our own little chat GPT. こうして、私たちは小さなチャットGPTを持つことになった。 That's completely local. それは完全にローカルなことだ。 And this sucker is beautiful and extremely powerful. そしてこの吸盤は美しく、非常にパワフルだ。 Now, first things, we can download more models. さて、まずはもっと多くのモデルをダウンロードしよう。 We can go out to olama and see what they have available. オラマに行って、何があるか見てみよう。 Click on their models to see their list of models. 彼らのモデルをクリックすると、モデルリストが表示される。 Code Jemma is a big one. コード・ジェンマは大物だ。 Let's try that. 試してみよう。 So to add Code Jemma, our second model, we'll go back to our command line here and type in olama pull code jemma. つ目のモデルであるCode Jemmaを追加するには、コマンドラインに戻ってolama pull code jemmaと入力する。 Cool, it's done. クールだ。 Once that's pulled, we can go up here and just change our model by clicking on the little dropdown icon at the top. このアイコンをクリックすれば、モデルを変更することができる。 Yep, there's Code Jemma. そう、コード・ジェマだ。 We can switch. 交代できる。 And actually, I've never done this before, so I have no idea what's gonna happen. それに、実はこんなことは初めてだから、何が起こるか見当もつかないんだ。 I'm gonna click on my original model, olama2. オリジナルモデルのolama2をクリックするよ。 You can actually add another model to this conversation. この会話にもう1つのモデルを加えることができる。 Now we have two here. 今はここに2人いる。 What's gonna happen? どうなるんだ? So Code Jemma is answering it first. だから、コード・ジェマが最初に答えている。 I'm actually not sure what that does. それが何を意味するのか、実はよくわからない。 Maybe you guys can try it out and tell me. もしかしたら、君たちが試して教えてくれるかもしれない。 I'm gonna move on though. でも、僕は前に進むよ。 Now some of the crazy stuff. さて、クレイジーなものをいくつか紹介しよう。 You can see right here. ここで見ることができる。 It's almost more featured than ChatGPT in some ways. ある意味、ChatGPTよりもフィーチャーされている。 You got a bunch of options for editing your responses, copying, liking and disliking it to help it learn. 回答を編集したり、コピーしたり、「いいね!」をつけたり、「嫌い!」をつけたりして、学習させることができる。 You can also have it read things out to you, continue response, regenerate response, or even just add stuff with your own voice. また、読み上げさせたり、反応を続けたり、反応を再生させたり、自分の声で何かを付け加えたりすることもできる。 I can also go down here, and this is crazy. この下にも行ける。 I can mention another model, and it's gonna respond to this and think about it. 他のモデルのことを言えば、それに反応して考えてくれる。 Did you see that? 今の見た? I just had my other model talk to my current, like, that's just weird, right? もう一人のモデルに今のモデルと話をさせたんだ。 Let's try to make them have a conversation. 彼らに会話をさせるようにしよう。 Like, they're gonna have a conversation. 会話をするようにね。 What are they gonna talk about? 何を話すんだ? Let's bring back in olama2 to ask the question. olama2に質問してみよう。 This is hilarious. これは笑える。 I love this so much. 僕はこれが大好きなんだ。 Okay, anyways, I could spend all day doing this. とにかく、こんなことをしていたら一日中過ごせそうだ。 We can also, with this plus sign, upload files. このプラス記号でファイルをアップロードすることもできる。 This includes a lot of things. これには多くのことが含まれる。 Let's try, do I have any documents here? 試してみよう、ここに何か書類はあるかな? I'll just copy and paste the contents of an article. 記事の内容をコピペしてみる。 Save that, and that'll be our file. それを保存すれば、これが我々のファイルになる。 Summarize this. これを要約する。 You can see our GPU being used over here. 私たちのGPUが使用されている様子はこちらでご覧いただけます。 I love that so much. それがとても好きなんだ。 You're running locally. あなたはローカルで走っている。 Cool. クールだ。 We can also add pictures for multimodal models. マルチモーダルモデル用に写真を追加することもできる。 I'm not sure Code Jemma can do that. コード・ジェマにそれができるかどうかはわからない。 Let's try it out real quick. 早速試してみよう。 So olama can't do it, but there is a multimodal model called lava. だからオラマにはできないが、lavaというマルチモーダルモデルがある。 Let's pull that down real quick. さっそく下げてみよう。 With lava pulled, let's go to our browser here once more. 溶岩を引いたところで、もう一度ブラウザにアクセスしてみよう。 We'll refresh it, change our model to lava, add the image. 更新して、モデルを溶岩に変更し、画像を追加する。 That's really scary. それは本当に怖い。 That's pretty cool. かなりクールだね。 Now, here in a moment, さて、ここでしばらくお待ちを、 I will show you how we can generate images right here in this web interface by using Stable Diffusion. このウェブ・インターフェイスで、Stable Diffusionを使って画像を生成する方法をお見せしましょう。 But first, let's play around a bit more. その前に、もう少し遊んでみよう。 And actually, the first place I wanna go to is the admin panel for you, the admin. そして実は、最初に行きたいのは、管理者であるあなたのための管理パネルです。 We have one user, and if we click on the top right, we have admin settings. ユーザーは1人で、右上をクリックすると管理者設定がある。 Here's where a ton of power comes in. ここでトンデモパワーが発揮される。 First, we can restrict people from signing up. まず、登録を制限することができる。 We can say enabled or disabled. イネーブルド(有効)かディスエーブルド(無効)か。 Now, right now, by default, it's enabled. 今はデフォルトで有効になっている。 That's perfect. 完璧だ。 And when they try to sign up initially, they'll be a pending user until you're approved. そして、最初にサインアップしようとすると、承認されるまでペンディングユーザーとなる。 Let me show you. お見せしましょう。 So now, real quick. では、早速。 If you wanna have someone else use this server on your laptop or computer or whatever it is, they can access it from anywhere as long as they have your IP address. あなたのラップトップやコンピューター、あるいはそれが何であれ、他の誰かにこのサーバーを使わせたい場合、あなたのIPアドレスさえ知っていれば、その人はどこからでもアクセスできる。 So let me do a new user signup real quick just to show you. では、新規ユーザー登録をしてみましょう。 I'll open an incognito window. シークレットウィンドウを開くよ。 Create account. アカウントを作成する。 And look, it's saying, hey, you gotta wait. そして、「おい、待てよ。 Your guy has to approve you. 彼はあなたを承認しなければならない。 And if we go here and refresh our page, on the dashboard, there is Bernard Hackwell. ここでページを更新すると、ダッシュボードにバーナード・ハックウェルがいる。 We can say, you know what? 私たちはこう言うことができる。 He's a user. 彼はユーザーだ。 Or click it again. あるいはもう一度クリックする。 He's an admin. 彼は管理者だ。 No, no, he's not. いや、そんなことはない。 He's gonna be a user. 彼はユーザーになる And if we check again, boom, we have access. そしてもう一度チェックすると、ドカンとアクセスがある。 Now, what's really cool is if I go to admin settings and I go to users, I can say, hey, you know what? 今、本当にクールなのは、管理者設定に行き、ユーザーに行くと、こう言えることだ。 Don't allow chat deletion, which is good if I'm trying to monitor what my daughters are kind of up to on their chats. チャットの削除を許可しないのは、娘たちがチャットで何をしようとしているのかを監視するのに適している。 I can also whitelist models. モデルをホワイトリストに登録することもできる。 Like, so you know what? だから、何を知っているんだ? They're only allowed to use Llamatu. 彼らはラマトゥしか使うことを許されていない。 And that's it. それで終わりだ。 So when I get back to Bernard Hackwell's session over here, だから、バーナード・ハックウェルのセッションに戻るよ、 I should only have access to Llamatu. 私はラマトゥにしかアクセスできないはずだ。 It's pretty sick. かなり具合が悪い。 And it becomes even better when you can make your own models that are restricted. また、制限のあるモデルを自分で作ることができれば、さらに良くなる。 We're gonna mosey on over to the section called model files right up here. モデルファイルというセクションに移動しよう。 And we'll click on create a model file. モデルファイルの作成をクリックします。 Now, you can also go to the community and see what people have created. 今なら、コミュニティに行って、みんなが作ったものを見ることもできる。 That's pretty cool. かなりクールだね。 I'm gonna show you what I've done for my daughter, Chloe, to prevent her from cheating. 娘のクロエが浮気をしないように、私がしてきたことをお見せしよう。 She named her assistant Debra. 彼女はアシスタントにデブラと名付けた。 And here's the content. そしてこれがその内容だ。 I'm gonna paste it in right now. 今すぐ貼り付けるよ。 The main thing is up here where it says from, and you choose your model, so from Llamatu. 主なものは、この上にある "from "と書いてあるところで、モデルを選ぶんだ。 And then you have your system prompt, which is gonna be between three double quotes. そして、システム・プロンプトを3つのダブルクォーテーションで囲む。 And I've got all this, telling it what it can and can't do, what Chloe's allowed to ask. クロエに何ができて、何ができないか、クロエが何を求めていいのか。 And it ends down here with three double quotes. そして、3つのダブルクォーテーションで終わる。 You can do a few more things. もっといろいろなことができる。 I'm just gonna say as an assistant, education, save and create. アシスタントの立場から言わせてもらえば、教育、貯蓄、創造。 Then I'll go over to my settings once more and make sure that for the users, this model is whitelisted. それからもう一度設定に戻り、ユーザーに対してこのモデルがホワイトリストに登録されていることを確認する。 I'll add one more, Debra. もうひとつ付け加えるよ、デブラ。 Notice she has an option now. 彼女には今、選択肢がある。 And if Bernard's gonna try and use Debra and say, バーナードがデブラを利用しようとして、こう言うんだ、 Debra, paper for me on the Civil War. デブラ、南北戦争についての論文を書いてくれ。 And immediately I will shut down saying, hey, that's cheating. そしてすぐに、おい、それはズルいぞ、と口を閉ざしてしまう。 Now, Llamatu, the model we're using, it's okay. 今、僕らが使っているラマトゥというモデルは大丈夫だ。 There's a better one called Mixedrel. ミックスドレルというもっといいものがある。 Let me show you Terry. テリーを紹介しよう。 I'll use Debra or Deb and say, write me a paper. デブラかデブを使って、論文を書いてくれと言う。 I'm Benjamin Franklin. 私はベンジャミン・フランクリンだ。 And notice how it didn't write it for me, but it says it's gonna guide me. 私のために書いてくれたのではなく、私を導いてくれると言っている。 And that's what I told it to do, to be a guide. それが、私がガイドになるように言ったことだ。 I tried to push it and it said no. 押そうとしたら、ダメだと言われた。 So that's pretty cool. とてもクールだよ。 You can customize these prompts, put in some guardrails for people that don't need full access to the kind of stuff right now. これらのプロンプトをカスタマイズし、今すぐフルアクセスする必要のない人たちのためにガードレールを設置することもできる。 I think it's awesome. すごいと思うよ。 Now, OpenWebUI does have a few more bells and whistles, but I wanna move on to getting stable diffusion set up because this thing is so cool and powerful. さて、OpenWebUIにはもう少し多くの機能があるが、ここでは安定したディフュージョンのセットアップに移ろう。 Step three, stable diffusion. ステップ3、安定した拡散 I didn't think that image generation locally would be as fun or as powerful as chat GPT, but it's more. ローカルでの画像生成は、チャットGPTほど楽しく、強力なものだとは思っていなかったが、それ以上だ。 Like, it's crazy. クレイジーだよ。 You gotta see it. ぜひ見てほしい。 Now, we'll be installing stable diffusion with a UI called Automatic 1111. さて、Automatic 1111と呼ばれるUIで安定したディフュージョンをインストールする。 So let's knock it out. だから、叩き出そう。 Now, before we install it, we got some prereqs. さて、インストールする前に、いくつかの前提条件がある。 And one of them is an amazing tool I've been using a lot called PyENV, which helps us manage our Python versions and switch between them, which is normally such a pain. そのひとつがPyENVという素晴らしいツールで、Pythonのバージョンを管理したり、通常面倒なバージョン間の切り替えを助けてくれる。 Anyways, the first thing we gotta do is make sure we have a bunch of prereqs that's installed. とにかく、まず最初にしなければならないのは、インストールされている前提条件の数々を確認することだ。 Go ahead and copy and paste this from the Network Check Academy. ネットワーク・チェック・アカデミーからコピー&ペーストしてください。 Let it do its thing for a bit. 少しの間、そうさせておくんだ。 And with the prereqs installed, we'll copy and paste this command, a curl command that'll automatically do everything for us. このコマンドをコピー・アンド・ペーストすると、curlコマンドが自動的にすべてをやってくれる。 I love it. とても気に入っている。 Run that. それを実行する。 And then right here, it tells us we need to add all this or just run this command to put this in our bashrc file so we can actually use the PyENV command. そしてここで、PyENVコマンドを実際に使えるようにするために、このコマンドを追加するか、bashrcファイルに追加するためにこのコマンドを実行する必要があることを教えてくれる。 I'll just copy this, paste it, and we'll type in source.bashrc to refresh our terminal. これをコピーして貼り付け、source.bashrcと入力してターミナルを更新する。 And let's see if PyENV works. そしてPyENVが動くかどうか見てみよう。 PyENV, we'll do a dash H to see if it's up and running. PyENVが起動しているかどうか、ダッシュHで確認しよう。 Perfect. 完璧だ。 Now let's make sure we have a version of Python installed that will work for most of our stuff. それでは、私たちのほとんどの作業で使えるバージョンのPythonがインストールされていることを確認しよう。 We'll do PyENV install 3.10. PyENVインストール3.10を行います。 This will, of course, install Python 3.10, the latest version. もちろん、最新版のPython 3.10がインストールされる。 Excellent, Python 3.10 is installed. 素晴らしい、Python 3.10がインストールされている。 We'll make it our global Python by typing in PyENV, global 3.10. PyENV, global 3.10と入力して、グローバルPythonにする。 Perfect. 完璧だ。 And now we're gonna install automatic 1.1.1.1. そして、自動1.1.1.1をインストールする。 The first thing we'll do is make a new directory, mkdir for make directory. 最初にすることは、新しいディレクトリを作ることだ。 We'll call it stable diff. 安定した差と呼ぶことにしよう。 Then we'll jump in there, cd stable diff. そして、そこに飛び込んで、安定した差分をcdする。 And then we'll use this wget command to wget this bash script. そして、このwgetコマンドを使って、このbashスクリプトをwgetする。 We'll type in ls to make sure it's there. lsと入力して、そこにあることを確認しよう。 There it is. あれだ。 Let's go ahead and make that sucker executable by typing in chmod. さっそくchmodと入力して、このカモを実行可能にしてみよう。 We'll do a plus x and then webui.sh. プラスxをしてからwebui.shをする。 Now it's executable. これで実行可能だ。 Now we can run it. これで実行できる。 Period forward slash webui.sh. ピリオドスラッシュ webui.sh。 Ready, set, go. 準備万端だ。 This is gonna do a lot of stuff. これはいろいろなことができそうだ。 It's gonna install everything you need for open web UI. オープンなウェブUIに必要なものをすべてインストールしてくれる。 It's gonna install PyTorch and download stable diffusion. PyTorchをインストールし、安定したdiffusionをダウンロードする。 It's awesome. 最高だよ。 Again, a little coffee break. またしても、ちょっとコーヒーブレイク。 Okay, that took a minute. よし、1分かかった。 A long time. 長い時間だ。 I hope you got plenty of coffee. コーヒーはたっぷり飲めたかな? Now it might not seem like it's ready, but it actually is running. 今はまだ準備ができていないように見えるかもしれないが、実際には走っている。 And you'll see the URL pop up like around here. そして、このあたりのようにURLがポップアップ表示されます。 It's kind of messed up. なんだかめちゃくちゃだ。 But it's running on port 7860. しかし、ポート7860で動いている。 Let's try it out. 試してみよう。 And this is gonna, this is fun. これは楽しみだ。 Oh my gosh. なんてことだ。 So localhost 7860. つまり、localhost 7860だ。 What you're seeing here is hard to explain. あなたがここで見ているものは、説明するのが難しい。 Let me just show you. ちょっとお見せしましょう。 And let's generate. そして、生み出そう。 Okay, it got confused. わかった、混乱したんだ。 Let me take away the oompa loompas part. ウンパ・ルンパの部分を取り除こう。 But this isn't being sped up. しかし、これはスピードアップではない。 This is how fast this is. この速さだ。 No, that's a little terrible. いや、それはちょっとひどいね。 What do you say we make it look a little bit better? もう少し見栄えを良くしようじゃないか。 Okay, that's terrifying. なるほど、それは恐ろしい。 But just one of the many things you can do with your own AI. しかし、自分のAIでできることはたくさんある。 Now you can actually download other models. これで実際に他のモデルをダウンロードできる。 Let me show you what it looks like on Terry and my new editor, Mike, telling me to do this. テリーと新しい編集者のマイクが、こうするように言っているんだ。 That's weird. それは奇妙だ。 Let's make it take more time. もっと時間をかけよう。 But look how fast this is. しかし、このスピードを見てほしい。 Like it's happening in real time as I'm talking to you right now. 今、私が話しているように、リアルタイムで起こっているんだ。 But if you've ever made images with GPT-4, it just takes forever. しかし、GPT-4で画像を作ったことがある人なら、ただ時間がかかるだけだ。 But I just love the fact that this is running on my own hardware. ただ、これが私自身のハードウェアで動いているという事実が気に入っている。 And it's kind of powerful. そして、ちょっとパワフルなんだ。 Let me know in the comments below which is your favorite image. どの画像がお気に入りか、下のコメントで教えてください。 Actually post on Twitter and tag me. 実際にツイッターに投稿して、私をタグ付けしてください。 This is awesome. これはすごいことだ。 Now this won't be a deep dive on stable diffusion. さて、今回は安定した拡散について深く掘り下げるものではない。 I barely know what I'm doing. 自分が何をしているのか、ほとんどわからない。 But let me show you real quick how you can easily integrate automatic 11111. しかし、自動11111を簡単に統合する方法を簡単にお見せしよう。 Did I do enough ones? 十分な数をこなしただろうか? I'm not sure. よく分からない。 And their stable diffusion inside OpenWebUI. そしてOpenWebUI内での安定した普及。 So it's just right here. だから、ちょうどここにある。 Back at OpenWebUI, if we go down to our little settings here and go to settings, you'll see an option for images. OpenWebUIの設定に戻り、設定に移動すると、画像のオプションが表示されます。 Here we can put our automatic 11111 base URL, which will simply be HTTP colon whack whack 127.0.0.1, which is the same as saying localhost port 78, was it 06, 60? ここに、自動的な11111ベースURLを置くことができる。これは、単純にHTTPコロンwhack whack 127.0.0.1となり、localhostポート78と言うのと同じである、06だったか60だったか? 60, I think that's what it is. 60、そういうことだと思う。 We'll hit the refresh option over here to make sure it works. 念のため、ここで更新オプションを押しておこう。 And actually, no, it didn't. そして実際、そんなことはなかった。 And here's why. その理由はこうだ。 There's one more thing you gotta know. もうひとつ知っておいてほしいことがある。 Here we have OpenWebUI running in our terminal. ここではOpenWebUIをターミナルで実行している。 Then I control C, it's gonna stop it from running. それからCをコントロールすると、走らなくなるんだ。 In order to make it work with OpenWebUI, we gotta use two switches to make it work. OpenWebUIで動作させるためには、2つのスイッチを使う必要がある。 So let's go ahead and run our script one more time. では、もう一度スクリプトを実行してみよう。 OpenWebUI or webui.sh. OpenWebUIまたはwebui.sh。 And we'll do dash dash listen and dash dash API. そして、ダッシュ・ダッシュ・リッスンとダッシュ・ダッシュAPIを行う。 Once we see the URL come up, okay, cool, it's running. URLが表示されたら、よし、クールだ。 We can go back over here and say, why don't you try that again, buddy? こっちに戻って、もう一回やってみたらどうだい? Perfect. 完璧だ。 And then over here we have image generation experimental. そしてこちらには、実験的な画像生成がある。 They're still trying it out. まだ試しているところだ。 We'll say on and we'll say save. オンと言えばオン、セーブと言えばセーブ。 So now if we go to any prompt, let's do a new chat. では、どのプロンプトに行っても、新しいチャットをしよう。 We'll chat with Llama2. ラマ2と話をしよう。 I'll say describe a man in a dog suit. 犬の着ぐるみを着た男を描写するとしよう。 This is for a stable diffusion prompt. これは安定した拡散プロンプトの場合である。 A bit wordy for my taste, but then notice we have a new icon. 私の好みからすると少し言葉足らずだが、新しいアイコンがあることに気づいた。 This is so neat. これはとてもすてきだ。 Boom, an image icon. ドーン、イメージアイコン。 And all we have to do is click on that to generate an image based on that prompt. それをクリックするだけで、プロンプトに基づいた画像が生成される。 I clicked on it, it's doing it. クリックしたんだ。 And there it is, right in line. そして、そこに並んでいる。 That is so cool. とてもクールだ。 And that's really terrifying. それは本当に恐ろしいことだ。 I love this, it's so fun. とても楽しい。 Now this video is getting way too long, but there are still two more things I wanna show you. さて、このビデオは長くなりすぎたが、まだ2つ見せたいものがある。 I'm gonna do that really quickly right now. 今すぐ、本当に素早くやるつもりだ。 The first one is, it's just magic. 1つ目は、まさにマジックだ。 Check it out. ぜひご覧あれ。 There's another option here inside OpenWebUI. OpenWebUIにはもう1つのオプションがある。 A little section right here called documents. ここにドキュメントという小さなセクションがある。 Here we can simply just add a document. ここでは単にドキュメントを追加するだけでいい。 I'll add that one from before. さっきのやつも追加しておくよ。 It's there, available for us. そこにある。 And now when we have a new chat, そして今、新しいチャットがある、 I'll chat with Code Jemma. コード・ジェマと話すよ。 All I have to do is do a hashtag and say, let's talk about this. ハッシュタグをつけて、このことについて話そう、と言うだけでいいんだ。 And say, give me five bullet points about this. そして、これについて5つ箇条書きにしてくれ、と言うんだ。 Cool. クールだ。 Give me three social media posts. ソーシャルメディアへの投稿を3つお願いします。 Okay, Code Jemma, let me try it again. よし、コード・ジェマ、もう一度やってみよう。 What just happened? 何が起きたんだ? Yeah, let's do a new prompt. そうだ、新しいプロンプトを作ろう。 Oh, there we go. そうだ。 And I'm just scratching the surface. そして、私はまだ表面しか見ていない。 Now, second thing I wanna show you. さて、2つ目にお見せしたいことがある。 Last thing. 最後に。 I am a huge Obsidian nerd. 僕はオブシディアンの大オタクなんだ。 It's my notes application. 僕のノートアプリケーションなんだ。 It's what I use for everything. 何にでも使っている。 It's been very recent. ごく最近のことだ。 I haven't made a video about it, but I plan to. まだビデオを撮っていないが、撮るつもりだ。 But one of the cool things about this, this very local private notes taking application, is that you can add your own local GPT to it, like what we just deployed. しかし、この非常にローカルでプライベートなメモを取るアプリケーションのクールな点のひとつは、今デプロイしたように、独自のローカルGPTを追加できることだ。 Check this out. これを見てほしい。 I'm gonna go to settings. セッティングに行くよ。 I'll go to community plugins. コミュニティ・プラグインに行きます。 I'll browse for one. 一本探してみるよ。 I'm gonna search for one called BMO, BMO chatbot. BMOというチャットボットを検索してみるよ。 I'm gonna install that, enable it. それをインストールして、有効にする。 And then I'm gonna go to settings of BMO chatbot. BMOチャットボットの設定に移動します。 And right here, I can have an Olama connection, which is gonna connect to, let's say Terry. そしてここで、オラマとのコネクションを持つことができる。 So I'll connect him to Terry. だから、彼をテリーにつなげよう。 And I'll choose my model. そしてモデルを選ぶ。 I'll use Olamatu, why not? オラマツを使うよ。 And now, right here in my note, そして今、私のノートのここにある、 I can have a chatbot come right over here to the side and say like, hey, how's it going? チャットボットがすぐそばに来て、「やあ、調子はどうだい? And I can do things like look at the help file, see what I can use here. ヘルプファイルを見て、ここで何が使えるかを確認することもできる。 Ooh, turn on reference. おっと、リファレンスをオンにするんだ。 So I'm gonna say reference on. だから、参考にしてほしい。 It's now gonna reference the current note I'm in. 僕が今いるノートを参照するようになったんだ。 Tell me about the system prompt. システムプロンプトについて教えてください。 Yep, there it is. そう、これだ。 And it's actually going through and telling me about the note I'm in. そして、実際に私がいるノートを調べて教えてくれるんだ。 So I have a chatbot right there, always available for me to ask questions about what I'm doing. だから、チャットボットがそこにいて、私がやっていることについていつでも質問できるようになっている。 I can even go in here and go highlight this, do a little prompts like generate. ここに入って、これをハイライトして、生成のようなちょっとしたプロンプトを出すこともできる。 It's generating right now. 今、発電しているところだ。 And it's generating some stuff for me. そして、僕のために何かを生み出してくれている。 I'm gonna undo that. それを元に戻すつもりだ。 Let me do another note. もう1つメモしておこう。 So I wanna tell a story about a man in a dog suit. だから、犬の着ぐるみを着た男の話をしたいんだ。 I'll quickly talk to my chatbot and start to do some stuff. さっそくチャットボットに話しかけて、何かを始める。 I mean, that's pretty crazy. つまり、かなりクレイジーだ。 And this I think for me is just scratching the surface of running local AI private in your home on your own hardware. そしてこれは、自分の家で自分のハードウェアを使ってローカルなAIをプライベートで動かすことの、ほんの表面をなぞっただけのことだと思う。 This is seriously so powerful and I can't wait to do more stuff with this. これは本当にパワフルで、これでもっといろいろなことをするのが待ちきれないよ。 Now I would love to hear what you've done with your own projects. では、あなた自身のプロジェクトで何をしたのか、ぜひ聞いてみたい。 If you attempted this, if you have this running in your lab, let me know in the comments below. もしこれを試したなら、あるいはあなたのラボでこれを実行しているなら、下のコメント欄で教えてほしい。 Also, do you know of any other cool projects I can try that I can make a video about? また、他に何かビデオにできるようなクールなプロジェクトをご存知ですか? I will love to hear that. そう言ってもらえると嬉しい。 I think AI is just the coolest thing. AIは最高にクールだと思う。 But also privacy is a big concern for me. しかし、プライバシーは私にとって大きな関心事だ。 So to be able to run AI locally and play with it this way is just the best thing ever. だから、ローカルでAIを動かしてこのように遊べるというのは、これまでで最高のことなんだ。 Anyways, that's all I got. とにかく、これで全部だ。 If you wanna continue the conversation and talk more about this, please check out our Discord community. もし会話を続けたり、このことについてもっと話したいなら、私たちのDiscordコミュニティを見てください。 The best way to join that is to jump through our Network Chuck Academy membership, the free one. ネットワーク・チャック・アカデミーの無料会員になるのが一番です。 And if you do wanna join the paid version, we do have some extra stuff for you there too. もし、有料版に参加したいのであれば、そちらにもいくつかの特典があります。 And I'll help support what we do here. そして、私たちがここでやっていることをサポートする。 But I'd love to hang out with you and talk more. でも、もっと一緒にいて話したいね。 That's all I got. それだけだ。 I'll catch you guys next time. また今度ね
B1 中級 日本語 米 インストール コマンド モデル ai テリー ローカル すべてのAIをローカルにホストする (host ALL your AI locally) 13 0 Jasper に公開 2024 年 10 月 01 日 シェア シェア 保存 報告 動画の中の単語