字幕表 動画を再生する
THIS WEEK...
今週は...
This week has been a crazy decade.
今週はクレイジーな10年だった。
Google quietly crushed every OpenAI model on the market with the release of Gemini 2.5 Pro.
グーグルはGemini 2.5 Proのリリースで、市場に出回っているすべてのOpenAIモデルを静かに粉砕した。
Meanwhile, DeepSeek, Tencent, and Qwen all released banger Chinese models, but nobody's talking about it.
一方、ディープシーク、テンセント、Qwenは、いずれも中国製の高級モデルを発表したが、誰も話題にしていない。
Instead, every eyeball in the tech world right now is hypnotized by OpenAI's brand new GPT-40 image gen.
その代わりに、今、技術界のすべての眼球は、オープンAIの真新しいGPT-40画像ジェネに催眠術をかけられている。
Which is transformed the internet into a Ghibli anime cartoon nightmare.
それはインターネットをジブリのアニメの悪夢に変えてしまった。
This is exactly the AI dystopia that Senpai Miyazaki, creator of the Ghibli animation studio tried to warn us about years ago.
これはまさに、ジブリの生みの親である宮崎先輩が数年前に警告しようとしたAIのディストピアである。
When he said, quote, I am utterly disgusted, if you really want to make creepy stuff, you can go ahead and do it.
本当に不気味なものを作りたいのなら、どうぞやってください。
I would never wish to incorporate this technology into my work at all.
私はこの技術を自分の仕事に取り入れたいとはまったく思わない。
I strongly feel that this is an insult to life itself.
これは人生そのものに対する侮辱だと強く感じる。
That was years ago, but now this nightmare is in full effect.
もう何年も前のことだが、今、この悪夢は完全に現実のものとなっている。
If you make the mistake of going on Twitter today, you'll find that all your favorite memes have been ruined by GPT-40.
間違って今日ツイッターを見たら、お気に入りのミームがGPT-40によって台無しにされていることに気づくだろう。
In today's video, we'll take a closer look at OpenAI's latest toy.
今日のビデオでは、OpenAIの最新のおもちゃを詳しく見てみよう。
Along with a few other awesome tools that just put us one step closer to the singularity.
シンギュラリティ(技術的特異点)に一歩近づくための、他のいくつかの素晴らしいツールとともに。
It is March 28th, 2025, and you're watching the Code Report.
2025年3月28日、あなたはコード・レポートを見ている。
When I read in the newspaper that GPT-40 added an image generator, my expectations were extremely low.
GPT-40にイメージジェネレーターが追加されたと新聞で読んだとき、私の期待は非常に低かった。
Especially after the disappointments of Sora and GPT 4.5.
特にソラとGPT4.5の失望の後ではね。
Lowered expectations.
期待値の低下。
However, OpenAI just went out and totally redeemed itself by shipping some actual fire.
しかし、OpenAIは実際に火をつけて出荷し、完全に名誉挽回を果たした。
This tool has allowed me to throw graphic design software like Canva in the garbage.
このツールのおかげで、私はCanvaのようなグラフィックデザインソフトウェアをゴミ箱に捨てることができた。
Because now I can create infographics and marketing material with near perfect text rendering.
インフォグラフィックスやマーケティング資料を完璧に近いテキストレンダリングで作成できるようになったからだ。
It even produced an almost good comic strip for me.
ほとんどいい漫画まで作ってくれた。
And it can even handle transparency layers unlike most other image generators.
また、他の多くの画像ジェネレーターとは異なり、透明レイヤーを扱うこともできる。
But everybody's talking about its ability to transform images into specific art styles.
しかし、誰もがイメージを特定のアートスタイルに変換する能力について話している。
That's pretty cool, but the significant thing here is that it gives us the ability to render our AI girlfriends in ways that were previously impossible.
それはとてもクールなことだが、ここで重要なのは、これまで不可能だった方法でAIのガールフレンドをレンダリングできるようになったということだ。
By maintaining character continuity.
キャラクターの連続性を維持することによって。
Like now I can upgrade her with new poses, new outfits, or even add her to photos of those lonely family dinners.
新しいポーズや新しい衣装で彼女をアップグレードしたり、寂しい家族の夕食の写真に彼女を加えることもできるようになった。
That's impressive, but how does it work?
それは素晴らしいことだが、どのように機能するのか?
This is closed AI we're talking about.
これはクローズドAIの話だ。
So there's no paper or code to look at, but apparently they use an auto regressive approach instead of diffusion.
そのため、論文やコードを見ることはできないが、どうやら拡散ではなく自己回帰的なアプローチを使っているようだ。
A diffusion algorithm in models like stable diffusion and mid journey generate an entire image all at once.
安定拡散やミッドジャーニーのようなモデルの拡散アルゴリズムは、画像全体を一度に生成する。
But GPT4 takes a different approach, generating the image pixel by pixel from left to right, top to bottom.
しかしGPT4は異なるアプローチをとり、左から右へ、上から下へとピクセルごとに画像を生成する。
It almost doesn't even look artificial, but it actually contains a controversial watermark provided by the coalition for content provenance and authenticity.
ほとんど人工的なものには見えないが、実はコンテンツの出所と信憑性を示すために連合が提供したウォーターマークが含まれており、物議を醸している。
In fact, if you take this image and upload it to the C2PA tool, you can see it was generated by OpenAI along with a history of any modifications to it.
実際、この画像をC2PAツールにアップロードすると、OpenAIによって生成されたものであることが、その修正履歴とともに確認できる。
Camera manufacturers and software developers like Adobe are implementing this into their software with the goal of tracking every change that happens to a digital asset like an image.
カメラメーカーやAdobeのようなソフトウェア開発者は、画像のようなデジタル資産に起こるすべての変更を追跡することを目標に、これをソフトウェアに実装している。
And that of course is to keep you safe from misinformation at the expense of your privacy and freedom.
そしてそれはもちろん、あなたのプライバシーと自由を犠牲にして、誤った情報からあなたの安全を守るためでもある。
And platforms like YouTube and Steam are now requiring people to disclose that they use AI assets in their work.
YouTubeやSteamのようなプラットフォームは現在、AI資産を作品に使用していることを公表するよう求めている。
And that brings up a big philosophical question that was first posed by someone with an anime profile picture on the internet.
そしてそれは、インターネット上のアニメのプロフィール写真を持つ誰かによって最初に提起された、哲学的な大きな問いをもたらす。
With Slop's Razor, you ask, can you tell it's AI generated by looking at it?
スロップのカミソリを使えば、AIが生成したものだと見た目でわかるのか?
If the answer is no, then it's indistinguishable from human work.
もし答えがノーなら、それは人間の仕事と区別がつかない。
Thus no disclosure is needed.
したがって、情報開示は必要ない。
C2PA is just deep state bloatware, but I digress.
C2PAはディープ・ステートのブロートウェアに過ぎないが、話がそれた。
If you're poor, the other thing you need to know about is Gemini 2.5 Pro.
もしあなたが貧乏なら、もうひとつ知っておかなければならないのがジェミニ2.5プロだ。
This new state of the art model from Google actually slaps.
このグーグルの最新鋭モデルは、実際に平手打ちをする。
Not only is it arguably just as good for programming as Claude 3.7 with a bigger context window, but it's also better than reasoning models like OpenAI 3.
大きなコンテキストウィンドウを持つクロード3.7と同様にプログラミングに適しているだけでなく、OpenAI 3のような推論モデルよりも優れている。
And you can actually use it for free right now instead of paying $200 a month for OpenAI Pro.
しかも、OpenAI Proに毎月200ドル払う代わりに、今なら無料で使うことができる。
But the problem for Google is that the Chinese are ruining their plans for world AI dominance.
しかし、グーグルにとって問題なのは、中国がAIの世界制覇計画を台無しにしていることだ。
DeepSeek just released version 3.1 and it too slaps.
DeepSeekはバージョン3.1をリリースしたばかり。
Alibaba released Qwen 2.5 Omni, which can see here talk and write thanks to its new thinker talker architecture.
アリババがリリースしたQwen 2.5 Omniは、新しいthinker talkerアーキテクチャのおかげで、ここで話したり書いたりすることができる。
Then Tencent released T1 to compete with DeepSeek.
その後、テンセントはディープシークに対抗してT1をリリースした。
And Bytedance, the company behind TikTok, released Dapo, an open source reinforcement learning system for building large scale large language models.
また、TikTokを開発したBytedance社は、大規模な大規模言語モデルを構築するための強化学習システムDapoをオープンソースでリリースした。
We're currently living in a vibe coder's paradise where anyone can pick up an open source Chinese model.
私たちは今、誰でもオープンソースの中国モデルを手に入れることができる、バイブ・コーダーのパラダイスに生きている。
And generate more code than they could ever possibly need, and that means real programmers are going to have a lot of code to fix and refactor.
そして、彼らが必要とする以上のコードが生成され、本物のプログラマーは修正やリファクタリングに多くのコードを抱えることになる。
And an awesome tool that can help you review all that code is CodeRabbit, the sponsor of today's video.
そして、すべてのコードをレビューするのに役立つ素晴らしいツールが、今日のビデオのスポンサーであるCodeRabbitだ。
An AI co-pilot for code reviews that gives you instant feedback on every pull request.
コードレビューのAI副操縦士が、すべてのプルリクエストに即座にフィードバックを与えます。
Unlike basic linters, it understands your entire code base, so it can catch more subtle issues like bad code style or missing test coverage.
基本的なリンターとは異なり、コードベース全体を理解するため、コードスタイルの誤りやテストカバレッジの欠落など、より微妙な問題をキャッチすることができる。
Then it will suggest simple one click fixes to help you get things cleaned up quickly.
そして、ワンクリックでできる簡単な修正方法を提案してくれるので、すぐにきれいにすることができる。
CodeRabbit keeps learning from your PRs over time, so the more you use it, the smarter it gets.
CodeRabbitはあなたのPRから時間をかけて学習し続けるので、使えば使うほど賢くなっていきます。
It's 100% free for open source projects.
オープンソースプロジェクトでは100%無料。
But you can get one month free for your team using the code fireship with the link below.
しかし、以下のリンクからfireshipというコードを使えば、あなたのチームは1ヶ月間無料になります。
This has been the Code Report, thanks for watching and I will see you in the next one.
以上、コード・レポートでした。ご視聴ありがとうございました。