字幕表 動画を再生する AI 自動生成字幕 字幕スクリプトをプリント 翻訳字幕をプリント 英語字幕をプリント Dear Fellow Scholars, this is Two Minute Papers with Dr. Károly Zsolnai-Fehér. 親愛なる研究者の皆さん、カーリー・ゾルナイ・フェヘール博士のTwo Minute Papersです。 Today you are going to see virtual worlds like you've never seen before! 今日は、これまで見たことのないようなバーチャルな世界を見ることができる! This is done with something that we call NERFs. So, what are NERFs? Essentially, これはNERFと呼ばれるものを使って行われる。では、NERFとは何か?基本的には we grab a smartphone and a set of images go in, and reality comes out. When there is a gap between 私たちはスマートフォンを手にし、一連の画像が入り、現実が現れる。その間にギャップがあると the images, it can synthesize all this information and it almost looks like reality. Absolute magic. 画像は、すべての情報を合成することができ、ほとんど現実のように見える。まさにマジックだ Now, many of these are neural network-based techniques and take quite a while to compute. さて、これらの多くはニューラルネットワークベースの技術であり、計算にかなりの時間がかかる。 However, later NVIDIA published a technique by the name instant NERFs. As the name says, しかしその後、エヌビディアはインスタントNERFという技術を発表した。その名の通り this trains incredibly quickly and is one of the best techniques in its class. And today, これは信じられないほど速くトレーニングでき、このクラスで最高のテクニックのひとつだ。そして今日、 these can be produced from a smartphone camera, and can be generated in a matter of seconds. これらはスマートフォンのカメラから作成することができ、数秒で作成することができる。 But, there is a problem. Do you see the problem? Well, let me ask you another しかし、問題がある。その問題がわかるかい?では、もうひとつ聞いてみよう question - how do you spot a Fellow Scholar who watches Two Minute Papers? Well, of course, どうやって『2分間論文』を見ている奨学生を見分けるのですか?もちろんです、 they are always looking at thin structures. Why? Well, look! So, instant NERFs are super fast, 彼らはいつも薄い構造を見ている。なぜかって? 見てごらん!だから、インスタントNERFは超高速なんだ、 but have trouble with thin structures. And now, hold on to your papers Fellow Scholars, しかし、薄い構造は苦手だ。そして今、自分の論文を持ち続けるのだ、 and let's look at how this new paper deals with the same problem. Oh my, that is outstanding! そして、この新しい論文が同じ問題をどう扱っているかを見てみよう。これは素晴らしい! But wait, it is only better on thin structures, しかし待ってほしい、 or is it generally better than this previous technique? Well, let's see. Yes, それとも、この以前のテクニックよりも一般的に優れているのだろうか?さて、見てみよう。そうだね、 thin structures are still present, but the new one is significantly better in terms 薄い構造体はまだ存在しているが、新しいものは以下の点で格段に優れている。 of quality. Wow. And this is just one year and one more paper down the line. Very impressive. クオリティの。すごい。そして、これはわずか1年後のことで、さらにもう1紙ある。とても印象的だ。 Also, here is a comparison against Mip-NERF, this is real good, so I bet the new one isn't better, また、ミップ・ナーフとの比較だが、これは本当に良い、 especially that this previous one ran for about 20 times longer. Let's see. 特に、この前のは20倍ほど長く走った。見てみよう。 Is that really possible? The new one is still better. 20 times faster, そんなことが本当に可能なのだろうか?新しい方がまだいい。20倍速い、 and we don't even have to pay for it by giving up quality. This is still better. その代償として品質を犠牲にする必要もない。これならまだマシだ。 With this, we can now just grab a smartphone and scan a real place and make a virtual これによって、私たちはスマートフォンを手に取り、実際の場所をスキャンするだけで、バーチャルな場所を作ることができる。 world out of it. This can be used for a video games, videoconferencing, animation movies, の世界を作り出します。ビデオゲーム、ビデオ会議、アニメーション映画などに利用できる、 you name it. Now, not even this work is perfect, you see, specular reflections like this display 何でもありだ。このような鏡面反射が表示されるのだ。 are not that faithful to reality, and if we look at severely undersampled regions, this can happen. は現実にそれほど忠実ではないし、ひどくアンダーサンプリングされた領域を見れば、このようなことが起こりうる。 However, just think about the fact that all this came just one more paper down the line. しかし、このようなことが起こったのは、もう一枚下の紙があったからだ。 Now combine this together with this amazing light transport paper that can take photos さて、これと写真を撮ることができるこの驚くべき光輸送紙を組み合わせてみよう。 of real-world objects and create a super advanced, digital material model with just 実世界のオブジェクトから超高度なデジタルマテリアルモデルを作成することができます。 the right physical parameters to replicate it. So, NERFs can help with the geometry, and light それを再現するための適切な物理的パラメータが必要なのだ。 だから、放影研はジオメトリー(幾何学的形状)を助けることができる。 transport can help with the materials. And a potential combination of the two could create 輸送は素材に役立つ。そして、この2つを組み合わせることで even more incredible virtual worlds and games for us in the near future. What a time to be alive! 近い将来、さらに素晴らしい仮想世界やゲームが私たちの前に現れるだろう。生きていてよかった! Thanks for watching and for your generous support, and I'll see you next time! ご視聴、そして惜しみないサポートに感謝します!
A2 初級 日本語 米 スマートフォン 論文 インスタント バーチャル テクニック 現実 Google’s New AI: Next-Level Virtual Worlds!(Google’s New AI: Next-Level Virtual Worlds!) 142 4 たらこ に公開 2023 年 04 月 12 日 シェア シェア 保存 報告 動画の中の単語