Placeholder Image

字幕表 動画を再生する

AI 自動生成字幕
  • China's Qinglong full-sized general-purpose humanoid robot was just released at the 2024 World Artificial Intelligence Conference, showcasing dexterous task completion by voice instruction.

    中国のフルサイズ汎用ヒューマノイドロボット「青龍」は、2024年世界人工知能会議で発表されたばかりで、音声指示による器用な作業完了を披露した。

  • But there's a twist.

    しかし、ひねりがある。

  • This is because Qinglong is an open-source humanoid for China's attempt at creating a worldwide development ecosystem from within the existing robotics and AI communities.

    というのも、青龍は、既存のロボット工学とAIコミュニティの中から世界的な開発エコシステムを作り出そうとする中国の試みのための、オープンソースのヒューマノイドだからだ。

  • To this end, the national-local Joint Humanoid Robot Innovation Center showcased its progress building the robot's capabilities and design concepts in a live demonstration.

    この目的のために、国と地域の共同ヒューマノイド・ロボット・イノベーション・センターは、ライブ・デモンストレーションでロボットの能力と設計コンセプトの構築の進捗状況を披露した。

  • And as for its specifications, Qinglong stands at 185 centimeters tall and weighs 80 kilograms.

    スペックとしては、青竜は身長185センチ、体重80キロ。

  • It features a highly bionic torso and anthropomorphic motion control, enabling multimodal mobility, perception, interaction, and manipulation.

    高度にバイオニックな胴体と擬人化された運動制御を特徴とし、マルチモーダルな移動、知覚、相互作用、操作を可能にする。

  • With 43 active degrees of freedom, Qinglong has a maximum joint peak torque of 200 newton meters per kilogram and computational power of 400 tera operations per second.

    43のアクティブ自由度を持つ青竜は、最大関節ピークトルクが1kgあたり200ニュートン・メートル、演算能力が毎秒400テラ演算である。

  • Its battery has a capacity of 2,052 watt-hours to power its 360-degree LiDAR system.

    バッテリーの容量は2,052ワット時で、360度LiDARシステムに電力を供給する。

  • In terms of performance, the robot's design integrates lightweight legs for agile walking and high-precision arms for dexterous tasks.

    性能面では、機敏な歩行を可能にする軽量な脚部と、器用な作業を可能にする高精度の腕部が一体化したデザインとなっている。

  • As a result, Qinglong can walk rapidly around obstacles, move stably on inclines and declines, and even resist impact interference.

    その結果、青龍は障害物を避けて素早く歩き、傾斜や斜面を安定して移動し、衝撃の干渉にも耐えることができる。

  • These features are to assist in making it an open platform for developing general artificial intelligence software and hardware for robots.

    これらの機能は、ロボット用の一般的な人工知能ソフトウェアやハードウェアを開発するためのオープンプラットフォームとなるよう支援するものだ。

  • Next, in terms of development, Qinglong is a creation of Humanoid Robots Shanghai Limited, an R&D institution backed by leading industry enterprises with approximately 140 million USD in funding.

    次に、開発の面では、青龍は、業界をリードする企業が約1億4000万ドルの資金を提供する研究開発機関であるヒューマノイドロボット上海有限公司の創造物である。

  • In the future, the team aims to introduce a new humanoid robot model annually, each named after one of the Chinese zodiac animals, with the name Qinglong meaning green dragon.

    将来的には、毎年、干支にちなんだ新しい人型ロボットを発表することを目指している。

  • This is all with the end goal to build an open-source humanoid robot development community in China and beyond.

    これはすべて、中国国内外にオープンソースのヒューマノイドロボット開発コミュニティを構築することを最終目標としている。

  • Additionally, the team also revealed the launch of the OpenLung open-source community as a platform to provide access to Qinglong's hardware structure and parameters, with the robot's embodied intelligence software packages to be open-sourced.

    さらに、チームは、青龍のハードウェア構造とパラメータへのアクセスを提供するプラットフォームとして、オープンソースコミュニティ「OpenLung」を立ち上げることも明らかにした。

  • By creating an open-source culture, this initiative hopes to create a collaborative environment for the development of humanoid robotics worldwide.

    オープンソースの文化を創造することで、このイニシアチブは、ヒューマノイド・ロボットの開発のための協力的な環境を世界中に作り出すことを望んでいる。

  • But Qinglong was only one of the humanoids at the World Artificial Intelligence Conference, with Tesla's Optimus Gen 2 also being showcased for the very first time in public for this event.

    しかし、青龍は世界人工知能会議のヒューマノイドのひとつに過ぎず、テスラのオプティマス第2世代もこのイベントで初めて公開された。

  • The Tesla team highlighted significant advancements in weight reduction, flexibility and functionality, capturing the attention of AI enthusiasts and industry experts alike.

    テスラチームは、軽量化、柔軟性、機能性における大幅な進歩を強調し、AI愛好家や業界の専門家の注目を集めた。

  • Key improvements are its in-house components, including actuators and sensors that were entirely designed and manufactured by Tesla, ensuring superior integration and performance.

    主な改良点は、テスラが完全に設計・製造したアクチュエーターやセンサーなどの自社製コンポーネントで、優れた統合性と性能を確保している。

  • Additionally, with a 30% increase in walking speed, Optimus Gen 2 can now operate even more efficiently.

    さらに、歩行速度が30%向上したことで、オプティマス第2世代はさらに効率的に動作できるようになった。

  • Furthermore, the robot is 10 kilograms lighter than its predecessor, resulting in improved balance and battery lifespan.

    さらに、このロボットは従来のものより10キログラム軽くなり、バランスとバッテリーの寿命が改善された。

  • Plus, its new hands are capable of gripping heavier objects and performing delicate tasks that expand the robot's range of potential applications.

    さらに、この新しいハンドはより重い物体を掴んだり、繊細な作業をこなしたりすることができ、ロボットの潜在的な応用範囲を広げている。

  • And with all of this progress, Tesla plans to deploy Optimus Gen 2 in its own manufacturing factories to test the robot's practicality first.

    そして、こうした進展を受けて、テスラはまずロボットの実用性をテストするため、オプティマス第2世代を自社の製造工場に配備する計画だ。

  • This initial phase will allow the company to fine-tune the robot's capabilities in a controlled environment, and once proven effective, Tesla will then begin commercial sales of the robot, making it available to a broader market sometime in 2025.

    この初期段階では、管理された環境でロボットの能力を微調整し、効果が実証されれば、テスラはロボットの商業販売を開始し、2025年までにはより幅広い市場で利用できるようにする予定だ。

  • But how can these robots quickly learn thousands of dexterous tasks to work with their human-like hands, you ask?

    しかし、これらのロボットは、人間のような手で作業するための何千もの器用な作業を、どうやって素早く学習できるのだろうか?

  • To this end, Meta just introduced a new dataset named HOT3D to advance artificial intelligence research in the realm of 3D hand-object interactions.

    この目的のために、メタ社は、3Dハンド-オブジェクト相互作用の領域における人工知能研究を促進するために、HOT3Dと名付けられた新しいデータセットを導入したばかりである。

  • This extensive dataset comprises over one million frames captured from multiple perspectives, offering a rich resource for researchers delving into the complexities of how humans manipulate objects with their hands.

    この広範なデータセットは、複数の視点から撮影された100万以上のフレームで構成されており、人間が手で物体を操作する複雑な仕組みを研究する研究者に豊富なリソースを提供する。

  • According to Meta, understanding these interactions remains a crucial challenge in computer vision research.

    メタによれば、このような相互作用を理解することは、コンピューター・ビジョンの研究において極めて重要な課題であるという。

  • And the HOT3D dataset is a treasure trove of over 800 minutes of egocentric video recordings, with these recordings being synchronized across multiple perspectives and including high-quality 3D pose annotations for both hands and objects.

    また、HOT3Dデータセットは、800分を超える自心ビデオ録画の宝庫であり、これらの録画は複数の視点にわたって同期され、手と物体の両方について高品質の3Dポーズ注釈が含まれている。

  • The dataset also features 3D object models, with physically-based rendering materials, 2D bounding boxes, gaze signals, and 3D scene-point clouds generated from simultaneous localization and mapping techniques.

    データセットはまた、物理ベースのレンダリング素材、2Dバウンディングボックス、視線信号、およびローカライゼーションとマッピングの同時技術から生成された3Dシーンポイントクラウドを持つ3Dオブジェクトモデルを備えています。

  • Impressively, this dataset encapsulates interactions from 19 subjects handling 33 common household objects, with scenarios ranging from simple activities, such as picking up and examining are typical in kitchen, office, and living room environments.

    印象的なことに、このデータセットは、キッチン、オフィス、リビングルームの環境で典型的な、手に取ったり調べたりするような単純な動作から、33の一般的な家庭用品を扱う19人の被験者のインタラクションをカプセル化している。

  • And in another breakthrough, a new text to video competitor named Kling just launched its web version.

    また、もうひとつの画期的な出来事として、Klingという新しいテキストからビデオへの競合がウェブ版を発表した。

  • This allows users to generate videos up to 10 seconds long, with the enhanced model providing control over camera movements such as panning, tilting, and zooming, giving creators more flexibility and creativity.

    また、パン、チルト、ズームなどのカメラの動きをコントロールできるため、クリエイターに柔軟性と創造性を与える。

  • Users can also freely create up to three 10-second videos per day using the enhanced model, making it accessible to a wide audience.

    また、強化モデルを使って1日3本まで10秒の動画を自由に作成できるため、幅広い視聴者が利用できる。

  • The only catch is that currently a Chinese cell phone number is still required to register with Kling, even for the web version.

    唯一のキャッチフレーズは、現在クリングに登録するには、ウェブ版であっても中国の携帯電話番号が必要だということだ。

  • Finally, Meta has announced their breakthrough AI system named 3DGen that's capable of generating high-quality 3D objects from simple text descriptions in less than one minute.

    メタ社はついに、シンプルなテキスト記述から高品質の3Dオブジェクトを1分以内に生成できる画期的なAIシステム「3DGen」を発表した。

  • This innovation will likely revolutionize the creation of 3D content, making it faster and more accessible than ever before.

    この技術革新は、3Dコンテンツの制作に革命をもたらし、これまで以上に迅速で身近なものになるだろう。

  • In fact, 3DGen leverages the power of not one, but two of Meta's existing models, AssetGen and TextureGen.

    実際、3DGenは1つだけでなく、Metaの既存の2つのモデル、AssetGenとTextureGenの力を活用しています。

  • AssetGen is responsible for generating the initial 3D objects, while TextureGen handles the texturing process.

    AssetGenは初期3Dオブジェクトの生成を担当し、TextureGenはテクスチャリング処理を行う。

  • By integrating these models, Meta has created a system that produces superior 3D objects efficiently, enhancing the quality of immersive content creation.

    これらのモデルを統合することで、Metaは優れた3Dオブジェクトを効率的に生成するシステムを構築し、没入型コンテンツ制作の質を高めている。

  • The operation of 3DGen involves two key steps.

    3DGenの操作には2つの重要なステップがある。

  • In the first step, AssetGen creates a 3D object complete with texture and physical-based rendering from a text description in approximately 30 seconds.

    最初のステップでは、AssetGenはテキスト記述からテクスチャと物理ベースのレンダリングを含む3Dオブジェクトを約30秒で作成します。

  • This rapid generation sets the stage for high-quality asset creation.

    この迅速なジェネレーションが、質の高いアセット制作の舞台となる。

  • In the second step, TextureGen can either refine the texture of the object generated in the first step based on the original description, or create a texture for any unstructured 3D mesh using new specifications.

    第2ステップでは、TextureGenは、元の記述に基づいて第1ステップで生成されたオブジェクトのテクスチャを洗練させるか、新しい仕様を使用して任意の非構造化3Dメッシュのテクスチャを作成することができます。

  • This process takes about 20 seconds per object.

    この処理には、1つのオブジェクトにつき約20秒かかる。

  • Thanks to PBR support, the generated assets can be relit, adding another layer of realism and versatility.

    PBRのサポートにより、生成されたアセットは再点灯させることができ、リアリズムと多様性のレイヤーをさらに増やすことができる。

  • Both stages of 3DGen are built upon Meta's text-to-image models from the EMU family.

    3DGenの両ステージは、MetaのEMUファミリーのテキストから画像へのモデルに基づいて構築されている。

  • These models are optimized with synthetic 3D data to enable multi-view generation in both image and UV space, which significantly enhances the texture quality of the final product.

    これらのモデルは、合成3Dデータで最適化され、画像とUV空間の両方でマルチビュー生成を可能にし、最終製品の質感を大幅に向上させます。

  • According to Meta, 3DGen not only outpaces existing methods, but also delivers superior results.

    Meta社によれば、3DGenは既存の方法を凌駕するだけでなく、優れた結果をもたらすという。

  • User studies have shown that professional 3D artists prefer 3DGen over leading industry solutions, particularly for complex tasks.

    ユーザー調査によると、プロの3Dアーティストは、特に複雑な作業において、業界の主要なソリューションよりも3DGenを好んで使用しています。

  • Meta claims that 3DGen is three to sixty times faster than comparable systems, a significant leap that could drastically reduce the time and effort required for 3D content creation.

    Meta社は、3DGenは同等のシステムよりも3倍から60倍高速であり、3Dコンテンツ制作に必要な時間と労力を大幅に削減できる重要な飛躍であると主張している。

  • Overall, Meta envisions 3DGen as a pivotal step toward a future where personalized, user-generated 3D content becomes commonplace.

    全体として、Metaは3DGenを、パーソナライズされたユーザー生成の3Dコンテンツが当たり前になる未来に向けた極めて重要なステップと想定している。

  • The system's ability to quickly and accurately generate high-quality 3D objects from text descriptions opens up numerous possibilities.

    テキスト記述から高品質な3Dオブジェクトを迅速かつ正確に生成するシステムの能力は、多くの可能性を開きます。

  • AI-assisted 3D creation tools could enable users to build intricate virtual worlds in the metaverse, offering new opportunities for creativity and interaction.

    AIが支援する3D作成ツールによって、ユーザーはメタバースに複雑な仮想世界を構築できるようになり、創造性と相互作用の新たな機会を提供できるようになるかもしれない。

  • AI itself could even use this same tech in the future to create video games in real time, but that's for another video.

    AI自体が将来、この同じ技術を使ってリアルタイムでビデオゲームを作る可能性さえあるが、それはまた別のビデオで。

China's Qinglong full-sized general-purpose humanoid robot was just released at the 2024 World Artificial Intelligence Conference, showcasing dexterous task completion by voice instruction.

中国のフルサイズ汎用ヒューマノイドロボット「青龍」は、2024年世界人工知能会議で発表されたばかりで、音声指示による器用な作業完了を披露した。

字幕と単語
AI 自動生成字幕

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます