Placeholder Image

字幕表 動画を再生する

審査済み この字幕は審査済みです
  • Yesterday, China released a state-of-the-art, free and open-source, chain-of-thought reasoning model with performance that rivals OpenAI's o1, which I'm stupidly paying $200 a month for right now.

    昨日、中国が最先端の無料のオープンソースの思考連鎖推論モデルをリリースした。これは私が現在バカみたいに月200ドル払っているOpenAIのo1に匹敵する性能を持っている。

  • You see, there's two types of people in the tech world right now.

    今のテック業界には2種類の人々がいる。

  • In one camp, we have the pessimists, who think that AI is overhyped and plateaued with GPT-3.5.

    一方には、AIは過大評価されていてGPT-3.5で頭打ちだと考える悲観主義者がいる。

  • In the other camp, we have the optimists, who think we're about to see the emergence of an artificial superintelligence that will propel humanity into Ray Kurzweil's technological singularity.

    もう一方には、人類をレイ・カーツワイルの技術的特異点へと導く人工超知能の出現が間近だと考える楽観主義者がいる。

  • Nobody truly knows where things are going, but one thing to remember is that pessimists sound smart, while optimists make money.

    誰も本当のところは分からないが、覚えておくべきことが一つある。悲観主義者は賢く聞こえるが、楽観主義者はお金を稼ぐということだ。

  • But sometimes, it's hard to be an AI optimist because you need to trust hype jedis like Sam Altman and closed AI companies like OpenAI.

    しかし、サム・アルトマンのようなハイプのジェダイやOpenAIのような非公開のAI企業を信頼する必要があるため、AI楽観主義者になるのは時として難しい。

  • Well, luckily, on the same day that TikTok's ban was removed, China gave the world a gift in return in the form of DeepSeek R1.

    幸運なことに、TikTokの禁止が解除されたのと同じ日に、中国はDeepSeek R1という形で世界に贈り物をした。

  • And in today's video, you'll learn exactly how to use it like a senior prompt engineer.

    今日の動画では、上級プロンプトエンジニアのようにそれを使用する方法を正確に学ぶ。

  • It is January 21st, 2025, and you're watching The Code Report.

    2025年1月21日、これはThe Code Reportだ。

  • Yesterday, the course of history changed forever.

    昨日、歴史の流れが永遠に変わった。

  • And no, I'm not talking about the return of the king, but rather the release of DeepSeek, which is an MIT licensed chain of thought model that you can use freely and commercially to make money in your own applications.

    王の帰還ではなく、DeepSeekのリリースについて話している。これは自分のアプリケーションで自由に商用利用できるMITライセンスの思考連鎖モデルだ。

  • This model came out while Sam Altman was busy at Trump's inauguration, which is a perfect time to use this new meme template, where Zuckerberg appears to detect a rack overflow in this artificial binary code owned by Jeff Bezos.

    このモデルは、サム・アルトマンがトランプの就任式で忙しい間にリリースされた。これは、ザッカーバーグがジェフ・ベゾスの所有する人工バイナリコードでラックオーバーフローを検出しているように見える、この新しいミームテンプレートを使うのに perfect な時期だ。

  • He's going to have some explaining to do with his wife, but Sam Altman also rained on the AI optimist parade recently when he said that the AI hype was No, they have not achieved AGI internally.

    彼は妻に説明する必要があるだろうが、サム・アルトマンも最近、AIのハイプについて「いいえ、彼らは内部的にAGIを達成していません」と言って、AI楽観主義者のパレードに水を差した。

  • And that's pretty obvious with how buggy ChatGPT is.

    そしてそれは、ChatGPTがどれだけバグだらけかを見れば明らかだ。

  • Like recently, a security researcher figured out how to get ChatGPT to DDoS websites for you.

    最近、セキュリティ研究者がChatGPTにウェブサイトへのDDoS攻撃をさせる方法を発見した。

  • All you have to do is provide it with a list of similar URLs that point to the same website, and it will crawl them all in parallel, which is something that no truly intelligent being would do.

    同じウェブサイトを指す類似のURLのリストを提供するだけで、それらを並行してクロールする。これは本当に知的な存在なら決してしないことだ。

  • That being said, the release of o1 a few months ago was another step forward in the AI race.

    とはいえ、数ヶ月前のo1のリリースはAIレースの一歩前進だった。

  • But it didn't take long for open source to catch up, and that's what we have with DeepSeek R1.

    しかし、オープンソースが追いつくのに時間はかからなかった。それがDeepSeek R1だ。

  • As you can see from its benchmarks, DeepSeek R1 is on par with OpenAI o1, and even exceeds it in some benchmarks like math and software engineering.

    ベンチマークを見ると分かるように、DeepSeek R1はOpenAI o1と同等で、数学やソフトウェアエンジニアリングなどの一部のベンチマークではそれを上回っている。

  • But let me remind you once again that you should never trust benchmarks.

    しかし、ベンチマークは決して信用すべきではないことを改めて伝えたい。

  • Just recently, this company, Epic AI, which provides a popular math benchmark, only recently disclosed that they've been funded by OpenAI, which feels a bit like a conflict of interest.

    最近、人気の数学ベンチマークを提供しているEpic AIという会社が、OpenAIから資金提供を受けていたことを明らかにした。これは利益相反のように感じる。

  • I don't care about benchmarks anyway and just go off of vibes, so let's go ahead and try out DeepSeek R1 right now.

    私はベンチマークなど気にせず、感覚だけで判断するので、今すぐDeepSeek R1を試してみよう。

  • And they have a web-based UI, but you can also use it in places like Hugging Face or download it locally with tools like Ollama.

    ウェブベースのUIがあるが、Hugging Faceのような場所でも使用でき、Ollamaのようなツールでローカルにダウンロードすることもできる。

  • And that's what I did for its 7 billion parameter model, which weighs about 4.7 gigabytes.

    70億パラメータのモデルで試してみたが、約4.7ギガバイトだった。

  • However, if you want to use it in its full glory, it'll take over 400 gigabytes and some pretty heavy duty hardware to run it with 671 billion parameters.

    しかし、フル機能で使用したい場合は、400ギガバイト以上と、6710億パラメータを実行するためのかなりハイスペックなハードウェアが必要になる。

  • But if you want something that's on par with o1 Mini, you want to go with 32 billion parameters.

    o1 Miniと同等のものが欲しい場合は、320億パラメータを選ぶべきだ。

  • Now, one thing that makes DeepSeek different is that it doesn't use any supervised fine-tuning.

    DeepSeekが異なる点の一つは、教師あり微調整を使用していないことだ。

  • Instead, it uses direct reinforcement learning.

    代わりに、直接強化学習を使用している。

  • But what does that even mean?

    しかし、それは一体どういう意味なのか。

  • Well, normally, with supervised fine-tuning, you show the model a bunch of examples and explain how to solve them step by step, then evaluate the answers with another model or a human.

    通常、教師あり微調整では、モデルに多くの例を見せて段階的な解き方を説明し、別のモデルや人間が答えを評価する。

  • But R1 doesn't do that and pulls itself up by its own bootstraps using direct or pure reinforcement learning, where you give the model a bunch of examples without showing it the solution first, then it tries a bunch of things on its own and learns or reinforces itself by eventually finding the right solution, just like a real human with reasoning capabilities.

    しかしR1はそうではなく、直接または純粋な強化学習を使用して自力で向上する。最初に解決策を見せずに多くの例を与え、自分で試行錯誤しながら、最終的に正しい解決策を見つけることで学習または強化する。これは推論能力を持つ本物の人間のようだ。

  • DeepSeek also released a paper that describes the reinforcement learning algorithm.

    DeepSeekは強化学習アルゴリズムを説明する論文も公開した。

  • It looks complicated, but basically, for each problem, the AI tries multiple times to generate answers, which are called outputs.

    複雑に見えるが、基本的に各問題に対してAIは複数回答えを生成しようとし、それらは出力と呼ばれる。

  • The answers are then grouped together and given a reward score, so the AI learns to adjust its approach for answers with a higher score.

    答えはグループ化され、報酬スコアが与えられ、AIはより高いスコアの答えに向けてアプローチを調整することを学ぶ。

  • That's pretty cool, and we can see the model's actual chain of thought if we go ahead and prompt it here with Ollama.

    それはかなりクールで、ここでOllamaを使ってモデルの実際の思考の連鎖を見ることができる。

  • When prompting a chain of thought model like R1 or o1, you want to keep the prompt as concise and direct as possible, because unlike other models like GPT-4, the idea is that it does thinking on its own.

    R1やo1のような思考連鎖モデルをプロンプトする場合、GPT-4のような他のモデルとは異なり、自分で考えるというのが考え方なので、プロンプトはできるだけ簡潔で直接的にする必要がある。

  • Like, if I ask it to solve a math problem, you'll notice that it first shows me all the thinking steps, and then after that thinking process is done, it'll show the actual solution.

    例えば、数学の問題を解くように頼むと、まず全ての思考ステップを示し、その思考プロセスが終わった後に実際の解答を示すことに気付くだろう。

  • That's pretty cool, but you might be wondering when to use a chain of thought model instead of a regular large language model.

    それはかなりクールだが、通常の大規模言語モデルの代わりに思考連鎖モデルをいつ使うべきか疑問に思うかもしれない。

  • Well, basically, the chain of thought models are much better when it comes to complex problem solving, things like advanced math problems, puzzles, or coding problems that require detailed planning.

    基本的に、思考連鎖モデルは、高度な数学の問題、パズル、詳細な計画が必要なコーディング問題など、複雑な問題解決においてはるかに優れている。

  • But if you want to build the future with AI, you need to learn it from the ground up, and you can do that today for free thanks to this video's sponsor, Brilliant.

    しかし、AIで未来を構築したいなら、基礎から学ぶ必要がある。この動画のスポンサーであるBrilliantのおかげで、今日から無料でそれができる。

  • Their platform provides interactive hands-on lessons that demystify the complexity of deep learning.

    彼らのプラットフォームは、ディープラーニングの複雑さを解明するインタラクティブなハンズオンレッスンを提供している。

  • With just a few minutes of effort each day, you can understand the math and computer science behind this seemingly magic technology.

    毎日数分の努力で、この一見魔法のような技術の背後にある数学とコンピュータサイエンスを理解できる。

  • I'd recommend starting with Python, then check out their full How Large Language Models Work course if you really want to look under the hood of ChatGPT.

    Pythonから始めて、ChatGPTの内部をよく見たい場合は、大規模言語モデルの仕組みに関する完全なコースをチェックすることをお勧めする。

  • Try everything Brilliant has to offer for free for 30 days by going to brilliant.org slash fireship or use the QR code on screen.

    brilliant.org/fireshipにアクセスするか、画面上のQRコードを使用して、Brilliantが提供するすべてのものを30日間無料で試すことができる。

  • This has been The Code Report, thanks for watching, and I will see you in the next one.

    以上、コード・レポートでした。ご視聴ありがとうございました。

Yesterday, China released a state-of-the-art, free and open-source, chain-of-thought reasoning model with performance that rivals OpenAI's o1, which I'm stupidly paying $200 a month for right now.

昨日、中国が最先端の無料のオープンソースの思考連鎖推論モデルをリリースした。これは私が現在バカみたいに月200ドル払っているOpenAIのo1に匹敵する性能を持っている。

字幕と単語
審査済み この字幕は審査済みです

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます

B1 中級 日本語

【DeepSeek】ChatGPTよりも優秀?中国が出した新しいAIモデルとは!

  • 22229 105
    VoiceTube に公開 2025 年 02 月 03 日
動画の中の単語