ThesearesomebeefyGPUs, andnoticetheyareVGPUsforvirtualGPU, similartowhatyoudowiththeCPU, cuttinguptheCPUandassigningsomeofthatto a virtualCPUon a virtualmachine.
CPUを切り刻んで、その一部を仮想マシン上の仮想CPUに割り当てるのと似ている。
Sohereweareindatascientistworld.
ここがデータサイエンティストの世界だ。
Thisis a JupyterNotebook, a commontoolusedby a datascientist.
これはJupyter Notebookで、データサイエンティストがよく使うツールだ。
Andwhatyou'regonnaseehereis a lotofcodethatthey'reusingtopreparethedata, specificallythedatathatthey'regonnatrainorfine-tunetheexistingmodelon.
We'reonlychanging 65 millionparameters, whichsoundslike a lot, right?
たった6,500万個のパラメータを変更するだけなんだ。
Butnotinthegrandschemeofthingsoflike a 7 billionparametermodel.
しかし、70億ものパラメーターを持つモデルのような壮大な計画には当てはまらない。
We'reonlychanging 0.93% ofthemodel.
我々はモデルの0.93%しか変えていない。
Andthenwecanactuallyrunourfine-tuning, whichthisis a specifictechniqueinfine-tuningcalledprompt-tuning, wherewesimplyfeeditadditionalpromptswithanswerstochangehowitwillreacttopeopleaskingitquestions.
SowithVMwarePrivateAIFoundation, withNVIDIA, theyhavethosetoolsbakedrightintowhereitjustkindofworksforwhatwouldotherwisebe a verycomplexsetup.
だから、VMware Private AI FoundationとNVIDIAを使えば、そうしたツールが組み込まれていて、そうでなければ非常に複雑なセットアップになるはずのものが、ある種の形で機能するようになる。
Andbytheway, thiswholeRAGthing, like I saidearlier, we'reabouttodothis.
ところで、このRAGというのは、さっきも言ったように、これからやろうとしていることなんだ。
I actuallyconnected a lotofmynotesandjournalentriesto a privateGPTusingRAG, and I wasabletotalkwithitaboutme, askingitaboutmyjournalentriesandansweringquestionsaboutmypast.