字幕表 動画を再生する
Hi, I'm Pete, the CEO of Dagster Labs.
こんにちは、ダグスター・ラボCEOのピートです。
Today we are launching Dagster Plus, the next evolution of Dagster Cloud.
本日、私たちはダグスター・クラウドの次の進化形であるダグスター・プラスを発表します。
Dagster Plus is a major rethinking of what a data orchestrator is, where it sits in the stack, and how data platforms are constructed.
Dagster Plusは、データ・オーケストレーターとは何か、データ・オーケストレーターはスタックのどこに位置するのか、データ・プラットフォームはどのように構築されるのかを大きく見直すものだ。
Since our launch in August of 2022, we've seen enormous growth in both the Dagster Core open source project and our commercial product.
2022年8月の立ち上げ以来、私たちはDagster Coreオープンソースプロジェクトと商用製品の両方で大きな成長を見てきました。
We now have hundreds of commercial customers and the fastest growing open source community in the category.
現在では、数百社の商用顧客と、このカテゴリーで最も急速に成長しているオープンソースコミュニティを有しています。
With this growth comes broader and deeper relationships with our diverse set of customers.
この成長とともに、多様な顧客との関係もより広く、より深くなっている。
As we engaged with these customers throughout 2022 and 2023, we heard a few key challenges.
2022年から2023年にかけてこれらの顧客と関わるなかで、いくつかの重要な課題を耳にした。
They were spending too much money on infrastructure, especially on the data warehouse, ETL tools, and AI workloads, and struggled to understand, optimize, and control their spend.
インフラ、特にデータウェアハウス、ETLツール、AIワークロードに多額の資金を費やしており、その支出の把握、最適化、管理に苦慮していた。
Their stacks were sprawling and complex with hundreds of different integrations and point solutions and varying levels of maintenance, and no single pane of glass for understanding the data platform as a whole.
彼らのスタックは、何百もの異なる統合やポイント・ソリューション、さまざまなレベルのメンテナンスがあり、データ・プラットフォーム全体を理解するための単一のガラス窓がなく、広大で複雑だった。
Inspired by the data mesh architecture, they wanted to empower individual teams to work autonomously end-to-end, but struggled to balance this with the centralized needs of the data organization.
データ・メッシュ・アーキテクチャに触発された彼らは、個々のチームがエンド・ツー・エンドで自律的に作業できるようにしたいと考えていたが、データ組織の中央集権的なニーズとのバランスに苦労していた。
We realized that we could solve many of these problems for customers by making a significant investment in tooling that sits on top of the core data orchestration engine.
私たちは、コアとなるデータ・オーケストレーション・エンジンの上に載せるツールに多大な投資をすることで、顧客のこうした問題の多くを解決できることに気づきました。
So we spent the last 12 months spinning up a team dedicated to these problems, building furiously, and iterating with design partners.
そこで私たちはこの12ヵ月間、これらの問題に特化したチームを立ち上げ、猛烈な勢いで開発を進め、デザイン・パートナーと反復を繰り返した。
I'm proud of what the team has accomplished, and I'm excited to present the fruits of our labor to you today.
私はチームが成し遂げてきたことを誇りに思うし、今日、その成果を皆さんにお見せできることに興奮している。
So let's dig into what Dagster Plus is specifically and why Dagster Labs is uniquely positioned to deliver this type of product.
では、ダグスター・プラスが具体的にどのような製品なのか、そしてなぜダグスター・ラボがこの種の製品を提供する独自の立場にあるのかを掘り下げてみよう。
First and foremost, Dagster Plus is the next evolution of Dagster Cloud, our enterprise-class hosted product.
何よりもまず、Dagster Plusはエンタープライズクラスのホスト型製品であるDagster Cloudの次の進化形です。
This means it includes everything that was part of Dagster Cloud, including enterprise access control, seamless scale-up to tens of thousands of assets and hundreds of thousands of partitions, and serverless, or hybrid on-prem, managed infrastructure.
つまり、エンタープライズ・アクセス・コントロール、数万アセットと数十万パーティションへのシームレスなスケールアップ、サーバーレス、またはハイブリッドなオンプレミス、マネージド・インフラストラクチャなど、ダグスター・クラウドの一部をすべて含むということだ。
This also means that we're retiring the Dagster Cloud brand today.
これはまた、ダグスター・クラウドのブランドを本日をもって引退することを意味する。
Second, Dagster Plus is a suite of tools that sits on top of Dagster's data orchestration engine and benefits from this deep integration.
第二に、Dagster PlusはDagsterのデータ・オーケストレーション・エンジンの上に位置するツール・スイートであり、この深い統合の恩恵を受けている。
Today we'll be focused on four primary areas of the product.
今日は、製品の4つの主要分野に焦点を当てる。
We've built a brand new data catalog and data discovery capability in Dagster Plus, which enables all users of the data platform to discover and leverage data autonomously.
私たちはDagster Plusに全く新しいデータ・カタログとデータ発見機能を構築し、データ・プラットフォームのすべてのユーザーが自律的にデータを発見し活用できるようにしました。
Dagster Plus, built on Dagster Core, is AssetCheck's feature, introducing additional capabilities around anomaly detection, freshness, and alerting.
Dagster Plusは、Dagster Coreをベースに構築されたAssetCheckの機能で、異常検知、鮮度、アラートに関する追加機能を導入しています。
We've made massive improvements to our branch deployments feature from Dagster Cloud and are launching a killer new capability, change tracking, with Dagster Plus.
私たちはDagster Cloudのブランチ・デプロイメント機能に大規模な改良を加え、Dagster Plusでキラー新機能である変更トラッキングを開始します。
And finally, Dagster Insights enables data teams to manage their spend on tools like Snowflake, Fivetran, and OpenAI without doing any additional integration work.
そして最後に、Dagster Insightsは、データチームが追加の統合作業を行うことなく、Snowflake、Fivetran、OpenAIのようなツールでの支出を管理することを可能にする。
With Dagster Plus, Insights is now generally available and comes with many new features and integrations.
ダグスター・プラスでは、インサイトが一般的に利用できるようになり、多くの新機能と統合が搭載された。
The upcoming presentations will dive into each of these in detail, but before we do, I wanted to touch on why we, rather than our competitors, are uniquely positioned to address these challenges.
これからのプレゼンテーションでは、これらひとつひとつについて詳しく掘り下げていく予定だが、その前に、なぜ競合他社ではなく私たちがこれらの課題に取り組む独自の立場にあるのかについて触れておきたい。
Dagster has historically been considered a data orchestrator.
Dagsterは歴史的にデータ・オーケストレーターとみなされてきた。
All of Dagster's main alternatives, such as Apache Airflow, proudly declare themselves as workflow-oriented tools.
Apache AirflowのようなDagsterの主な代替ツールはすべて、ワークフロー指向のツールであることを誇らしげに宣言している。
They are primarily focused on the scheduling of black box tasks.
これらは主にブラックボックス・タスクのスケジューリングに重点を置いている。
While this makes these tools quite flexible and suitable for a variety of non-data applications, they are not specialized to the data domain.
このため、これらのツールは非常に柔軟で、データ以外のさまざまなアプリケーションに適しているが、データ領域に特化しているわけではない。
In fact, we believe that there is an impedance mismatch between the workflow-oriented tools like Airflow, which deals primarily with tasks, and the rest of the data platform, which deals primarily with data assets, like database tables, machine learning models, and files.
実際、主にタスクを扱うAirflowのようなワークフロー指向のツールと、主にデータベーステーブルや機械学習モデル、ファイルのようなデータ資産を扱うデータプラットフォームの残りの部分との間には、インピーダンスのミスマッチがあると我々は考えている。
Dagster takes a different approach.
ダグスターは違うアプローチを取る。
Dagster is the only widely adopted asset-oriented data orchestrator, built from the ground up with data assets and data awareness at its core.
Dagsterは広く採用されている唯一のアセット指向のデータ・オーケストレーターであり、データ・アセットとデータ・アウェアネスを中核としてゼロから構築されている。
This unique architecture enables Dagster Plus to deliver a category-redefining, integrated experience, bringing together unique capabilities into one tool in order to speed up your development work, reduce your costs, and simplify your data platform.
このユニークなアーキテクチャにより、Dagster Plusはカテゴリーを再定義する統合されたエクスペリエンスを提供し、開発作業のスピードアップ、コストの削減、データ・プラットフォームの簡素化を実現するために、ユニークな機能を1つのツールにまとめることができます。
I'll get off my soapbox now.
私はもう石けん箱から降りる。
Let's hear from Jared, who will tell us about the data catalog.
データカタログについてジャレッドから話を聞こう。
Thanks, Pete.
ありがとう、ピート。
I'm Jared, the head of product at Dagster Labs.
ダグスター・ラボの製品責任者、ジャレッドです。
Today we're announcing a brand new data catalog as part of Dagster Plus, but before we get into that, let's talk about the unfulfilled promise of data catalogs.
本日は、ダグスター・プラスの一部として、まったく新しいデータ・カタログを発表いたしますが、その前に、データ・カタログの果たされていない約束についてお話ししましょう。
As your organization scales, the number of assets you have to manage also scales.
組織の規模が大きくなれば、管理すべき資産の数も増える。
It doesn't take long before you end up with a large number of rarely used data models with poor documentation and questionable provenance.
ドキュメントが乏しく、出所も疑わしい、めったに使われないデータモデルを大量に抱えることになるまでに、そう時間はかからない。
The central premise of data catalogs is to resolve all this by helping teams avoid rework and duplication, and help data practitioners work more independently by enabling them to discover and use trusted data assets.
データカタログの大前提は、チームが再作業や重複を避け、信頼できるデータ資産を発見し利用できるようにすることで、データ実務者がより自立して作業できるよう支援し、これらすべてを解決することである。
Unfortunately, because standalone data catalogs don't have a native understanding of data operations, they have to create observations about the state of data assets from the exhaust of the loosely integrated tools that comprise the data platform.
残念なことに、スタンドアローンのデータカタログはデータ運用をネイティブに理解していないため、データプラットフォームを構成する疎に統合されたツールの排気から、データ資産の状態に関する観察を作成しなければならない。
As a result, data engineering team ends up constantly troubleshooting problems of accuracy and timeliness in the syncing the state of their data assets to the data catalog.
その結果、データ・エンジニアリング・チームは、データ資産の状態をデータ・カタログに同期させる際の正確性と適時性の問題について、常にトラブルシューティングを行うことになる。
All the while, they are trying to coax the rest of their stakeholders to follow a new set of development practices to ensure that it remains in sync.
その一方で、他のステークホルダーを説得し、新しい開発プラクティスに従わせることで、同調を保とうとしている。
Typically, the end result is a lack of adoption from the very downstream stakeholders that the data team was trying to help.
一般的に、データチームが助けようとした川下のステークホルダーからの採用が進まないという結末が待っている。
Unlike traditional workflow orchestrators, Dagster is asset oriented.
従来のワークフロー・オーケストレーターとは異なり、Dagsterはアセット指向である。
It places data assets at the core of the development framework.
データ資産を開発フレームワークの中核に据える。
The result is a powerful combination of context about data operations, and the outputs of those operations.
その結果、データ操作に関するコンテキストと、それらの操作のアウトプットが強力に組み合わされる。
This view of data assets and operations makes Dagster a natural tool for data discovery and documentation, creating a data catalog that serves the needs of all practitioners.
このようなデータ資産とオペレーションのビューにより、Dagsterはデータ発見と文書化のための自然なツールとなり、すべての実務者のニーズに応えるデータカタログを作成する。
With the launch of Dagster Plus, teams who want to spend less time managing integrations for their tools, and more time getting things done, will find it particularly useful as a new system of record.
Dagster Plusのローンチにより、ツールの統合管理に費やす時間を減らし、物事を成し遂げるにより多くの時間を費やしたいと考えているチームは、新しい記録システムとしてDagster Plusを特に重宝することだろう。
And while we're still early in our journey, we are already seeing that, for many teams, this eliminates the need for traditional point solution data catalogs.
私たちはまだ旅の初期段階ですが、多くのチームにとって、従来のポイント・ソリューション・データ・カタログが不要になることをすでに目の当たりにしています。
The first major set of improvements focuses on the kinds of data that Dagster collects and displays at the asset definition level.
最初の主要な改善点は、Dagsterが収集し、資産定義レベルで表示するデータの種類に焦点を当てています。
On the asset details page, you'll now be able to find a new variety of information about your data asset that helps you understand the status, technical state, definition, ownership, location, and more all at a glance.
アセット詳細ページでは、データアセットのステータス、技術状態、定義、所有者、場所などを一目で把握できるように、データアセットに関するさまざまな情報を新たに見つけることができるようになりました。
You can see things like the latest status of your asset, including the data quality testing configured on the asset, its description, who owns the asset, what groups and tags are associated with it, as well as where the asset is located, its compute details, and the associated resources and compute kind.
アセットに設定されたデータ品質テスト、アセット説明、アセット所有者、アセットに関連付けられているグループやタグ、アセットが配置されている場所、コンピュート詳細、関連するリソースやコンピュート種類など、アセットの最新ステータスなどを確認できます。
And for structured assets, you'll now find a new rich set of details, including any raw SQL that defines the asset structure, metadata about column names, descriptions, and data types.
また、構造化アセットについては、アセット構造を定義する生のSQL、カラム名、説明、データ型に関するメタデータを含む、新しい豊富な詳細セットを見つけることができます。
And an exciting new change that we're launching for enterprise customers is the ability to explore the lineage of individual columns on the page.
そして、企業のお客様向けに開始するエキサイティングな新しい変更点は、ページ上の個々の列の系譜を探索する機能です。
When automatically ingested from DBT or derived from user-provided metadata, Dagster can compute the relationship of individual columns and represent them on the page similar to our asset lineage graph.
DBTから自動的に取り込まれた、あるいはユーザーから提供されたメタデータから導き出された場合、Dagsterは個々の列の関係を計算し、資産の系統グラフと同様にページ上に表現することができる。
Column lineage provides a clear understanding of how data moves and transforms within a system, allowing you to track things like the proliferation of PII or tracing a mistake through its various downstream tables.
列の系譜は、データがシステム内でどのように移動し、変換されるかを明確に理解し、PIIの拡散や、様々な下流テーブルを通じたミスの追跡などを可能にします。
This new feature will help you manage data quality, compliance, and increase the speed of your troubleshooting.
この新機能は、データ品質、コンプライアンスの管理、トラブルシューティングのスピードアップに役立ちます。
But our feature release doesn't stop with the asset data model and UI.
しかし、私たちの機能リリースはアセット・データ・モデルとUIにとどまらない。
We're also releasing a new, more powerful search experience to help you quickly locate the most relevant data.
また、よりパワフルな新しい検索エクスペリエンスをリリースし、最も関連性の高いデータを素早く見つけることができるようになりました。
From this interface, you can search for data assets by metadata, including their name, their compute kind, the asset group, the asset owner, or by any associated tag that you add to your assets, and see information about all of your data assets by their associated metadata.
このインターフェイスから、名前、コンピュート・タイプ、アセット・グループ、アセット・オーナー、またはアセットに追加した関連タグなどのメタデータによってデータ・アセットを検索し、関連するメタデータによってすべてのデータ・アセットに関する情報を見ることができます。
I want to call out a feature here that might get passed over, which is definition-level tags.
ここでは、定義レベルのタグという、スルーされるかもしれない機能を紹介したい。
With definition-level tagging, you can more easily add cross-sectional data to organize and group your data assets.
定義レベルのタグ付けにより、より簡単に横断的なデータを追加して、データ資産を整理し、グループ化することができます。
So now you can tag all of your intermediary assets, or your assets with PII, or the assets that support your finance team, and make these assets easily discoverable by their relevant stakeholders.
そのため、すべての仲介資産、PIIを持つ資産、財務チームをサポートする資産にタグを付け、これらの資産を関連する利害関係者が簡単に発見できるようにすることができる。
Dagster's data catalog experience is powerful because of how it combines context about data pipelines and the data assets they produce.
Dagsterのデータ・カタログ体験が強力なのは、データ・パイプラインとそれらが生み出すデータ資産に関するコンテキストをどのように組み合わせるかにある。
But we know that not everyone needs to look under the hood inside Dagster.
しかし、誰もがダグスターの内部を覗く必要があるわけではないことは承知している。
Sometimes your data practitioners just need to know where to find the right asset.
データ担当者は、適切なアセットがどこにあるかを知っているだけでよいこともある。
And that is why we're also launching a new capability we're calling Catalog Mode, which allows you to hide most of the operational views of Dagster, and instead focus on the assets that Dagster has documented.
カタログ・モードと呼んでいる新機能は、ダグスターのオペレーション・ビューのほとんどを非表示にし、代わりにダグスターが文書化したアセットに焦点を当てることを可能にします。
This new feature can be turned on by default for your viewers in your organization, or turned off when they need to go deeper.
この新機能は、組織内の視聴者に対してデフォルトでオンにすることも、より深く見る必要があるときにはオフにすることもできる。
So that's our high-level introduction to the brand new data catalog and search features in Dagster+.
以上、Dagster+の全く新しいデータ・カタログと検索機能を大まかに紹介した。
We expect this addition will make it easier for all teams on the data platform to find information about their data assets and status, and to operate more autonomously, while reducing the operational burden on the platform team.
この追加により、データプラットフォーム上のすべてのチームが、データ資産やステータスに関する情報を見つけやすくなり、プラットフォームチームの運用負担を軽減しながら、より自律的に運用できるようになると期待しています。
You might find it helps eliminate the need for standalone tools, which will reduce context switching, help break down data silos, and reduce the total cost of ownership of your data platform.
スタンドアロン・ツールの必要性を排除し、コンテキスト・スイッチングを減らし、データ・サイロを解消し、データ・プラットフォームの総所有コストを削減するのに役立つことがわかるかもしれない。
We know that data cataloging is an important capability for teams, and we're excited to be rolling out this first version, but we're not stopping here.
私たちは、データ・カタログがチームにとって重要な機能であることを知っており、この最初のバージョンを展開できることに興奮しています。
Sooner Catalog will also consume data about assets that are not managed by Dagster, and represent them in the data catalog as external assets.
Sooner Catalogは、Dagsterによって管理されていないアセットに関するデータも消費し、外部アセットとしてデータカタログに表現する。
I hope this first overview has you interested in the new data cataloging capabilities in Dagster+, but check out the companion blog to find out more.
この最初の概要で、Dagster+の新しいデータ・カタログ機能に興味を持っていただければ幸いです。
I'm Sandy, the lead engineer on the Dagster project.
私はダグスター・プロジェクトのリード・エンジニア、サンディです。
Today, I'm going to talk about the new data reliability features that we're launching as part of Dagster+, and how they help you deliver trustworthy data to stakeholders across your entire data platform.
本日は、Dagster+の一部として発表された新しいデータ信頼性機能について、そしてデータ・プラットフォーム全体にわたって信頼できるデータをステークホルダーに提供するためにどのように役立つかについてお話しします。
The job of a data orchestrator is to help you produce and maintain the data assets that your organization depends on.
データ・オーケストレーターの仕事は、組織が依存するデータ資産の作成と維持を支援することだ。
Whether those assets are tables, machine learning models, or reports, in order to be useful, they need to be trustworthy and reliable.
それらの資産が表であれ、機械学習モデルであれ、レポートであれ、有用であるためには、信頼できるものでなければならない。
That is, they need to consistently contain up-to-date and high-quality data.
つまり、常に最新で質の高いデータが含まれている必要がある。
But bugs are inevitable, and pipeline developers don't control the data that enters their pipelines.
しかしバグは避けられないし、パイプライン開発者はパイプラインに入るデータをコントロールできない。
So the only realistic way to achieve trustworthy data is with monitoring and issue detection, so that issues can be addressed before they affect downstream consumers.
従って、信頼できるデータを実現する唯一の現実的な方法は、モニタリングと問題検出であり、問題が川下の消費者に影響を与える前に対処できるようにすることである。
Most data teams struggle with data reliability because they don't have robust monitoring.
ほとんどのデータチームがデータの信頼性で苦労しているのは、強固なモニタリングを行っていないからだ。
Workflow-oriented orchestrators like Airflow will report if your data pipeline hits an error during execution, but don't offer visibility into the quality, completeness, or freshness of the data that they're updating.
Airflowのようなワークフロー指向のオーケストレーターは、データパイプラインが実行中にエラーに見舞われた場合に報告してくれるが、更新中のデータの品質、完全性、鮮度についての可視性は提供しない。
Teams that adopt stand-alone data reliability tools often end up abandoning them, because they're difficult to fit into practices for operating data.
スタンドアローンのデータ信頼性ツールを採用したチームは、データ運用のプラクティスに適合させるのが難しいため、しばしばそれを放棄することになる。
Data engineers end up needing to visit both their orchestrator and their reliability tool to understand the health of their data pipeline.
データエンジニアは結局、データパイプラインの健全性を理解するために、オーケストレーターと信頼性ツールの両方を訪問する必要がある。
And if they want to trace data reliability alerts to the DAGs that generated the data, they need to try to integrate their data reliability tool with their orchestrator.
また、データの信頼性アラートを、そのデータを生成したDAGまでトレースしたい場合は、データ信頼性ツールをオーケストレーターと統合する必要がある。
This usually means contending with query-tagging schemes that are fragile to contain data, configure, and maintain.
これは通常、データを格納し、構成し、維持するのが容易でないクエリー・タギング・スキームと戦うことを意味する。
At Dagster Labs, we believe orchestration and data reliability go hand-in-hand.
Dagster Labsでは、オーケストレーションとデータの信頼性は両立すると考えている。
Dagster's asset-oriented approach to data orchestration enables Dagster Plus to offer a full set of data reliability features.
データ・オーケストレーションに対するDagsterのアセット指向のアプローチにより、Dagster Plusはデータ信頼性機能のフルセットを提供することができる。
These help you monitor the freshness of your data, the quality of your data, and changes to the schema of your data.
これらは、データの鮮度、データの品質、データのスキーマの変更を監視するのに役立ちます。
Dagster helps monitor both the source data that feeds your pipelines and the data produced by your pipelines.
Dagsterは、パイプラインに供給するソース・データとパイプラインによって生成されるデータの両方を監視するのに役立ちます。
Monitoring source data helps you find out early if your pipeline is going to run on stale, bad, or unexpected data.
ソース・データを監視することで、パイプラインが古いデータ、悪いデータ、予期しないデータで実行されようとしていないかを早期に発見することができる。
And monitoring output data helps you ensure that the final product is on time and high-quality.
また、出力データを監視することで、最終製品の納期と品質を確保することができます。
At the center of Dagster's data reliability stack is a feature called asset checks.
Dagsterのデータ信頼性スタックの中心は、アセット・チェックと呼ばれる機能である。
An asset check is responsible for determining whether a data asset meets some property, such as whether it contains the expected set of columns, contains no duplicate records, or is sufficiently fresh.
アセット・チェックは、データ・アセットが期待されるカラム・セットを含んでいるか、重複レコードがないか、十分に新しいかなど、あるプロパティを満たしているかどうかを判断する役割を担っています。
Asset checks can be executed in line with data pipelines or scheduled to execute independently.
資産チェックは、データパイプラインに合わせて実行することも、独立して実行するようにスケジュールすることもできる。
Optionally, Dagster can halt your data pipeline when an asset check fails to avoid propagating bad data.
オプションとして、Dagsterはアセットチェックが失敗したときにデータパイプラインを停止し、不良データの伝播を回避することができます。
Asset checks were introduced as an experimental feature last year, and we've marked them as generally available in Dagster's recent 1.7 release.
アセットチェックは昨年、実験的な機能として導入されましたが、Dagsterの最近の1.7リリースで一般的に利用できるようになりました。
Asset checks sit on top of Dagster's rich metadata system, which can be used to store any metadata, from row counts to timestamps to table column schema.
アセット・チェックはDagsterの豊富なメタデータ・システムの上に配置され、行数からタイムスタンプ、テーブルのカラム・スキーマまで、あらゆるメタデータを保存するために使用できる。
With Dagster+, asset checks can be used as a basis for alerting and reporting.
Dagster+では、資産チェックをアラートとレポートの基礎として使用することができます。
When an asset check fails, Dagster can notify the asset's owner.
資産チェックに失敗すると、ダグスターは資産の所有者に通知することができる。
And Dagster Plus Insights allows understanding the results of asset checks in aggregate.
また、ダグスター・プラス・インサイトでは、資産チェックの結果を総合的に把握することができる。
For example, did we violate our asset freshness guarantees more times this week than last week?
例えば、今週は先週よりも資産の鮮度保証に違反した回数が多かっただろうか?
Because Dagster makes it easy to see the checks that are defined for any asset, asset checks are also helpful for describing and enforcing data contracts.
Dagsterはあらゆるアセットに対して定義されたチェックを簡単に確認できるため、アセット・チェックはデータ・コントラクトの記述と実施にも役立ちます。
For organizations following data mesh approaches, teams can use asset checks to communicate invariants about the data products that they expose to the rest of the organization.
データ・メッシュ・アプローチに従う組織の場合、チームはアセット・チェックを使用して、組織の他の部分に公開するデータ製品に関する不変性を伝えることができる。
Asset checks are already widely used in the Dagster community for enforcing data quality, often by wrapping DBT tests.
アセット・チェックは、しばしばDBTテストをラップすることで、データ品質を強制するためにDagsterコミュニティですでに広く使われている。
In our latest release, we've expanded the utility of asset checks beyond data quality to also cover data freshness and data schema changes.
最新リリースでは、アセットチェックの有用性をデータ品質だけでなく、データの鮮度やデータスキーマの変更にも拡大しました。
So let's talk about those.
では、それらについて話そう。
Data freshness means tracking when data assets are updated and identifying when one of them is overdue for an update.
データの鮮度とは、データ資産がいつ更新されたかを追跡し、そのうちの1つがいつ更新期限を過ぎたかを特定することである。
Dagster's asset orientation and metadata system make it straightforward to track when data assets are updated.
Dagsterのアセット・オリエンテーションとメタデータ・システムにより、データ資産がいつ更新されたかを簡単に追跡することができます。
And once you're tracking data updates, you can set up freshness checks to identify when your data is overdue.
また、データの更新を追跡していれば、鮮度チェックを設定することで、データの期限切れを特定することができる。
Freshness checks can either be based on rules or based on anomaly detection.
鮮度チェックはルールに基づくことも、異常検知に基づくこともできる。
For rules-based freshness checks, you set limits on how out of date it's acceptable for your asset to be, for example, requiring an update every six hours.
ルール・ベースの鮮度チェックでは、例えば6時間ごとに更新を要求するなど、アセットがどの程度古くても許容できる限度を設定する。
For anomaly detection freshness checks, Dagster Plus looks at the history of updates to your asset to determine whether recent behavior is consistent.
異常検知の鮮度チェックでは、Dagster Plusは資産に対する更新履歴を調べ、最近の挙動が一貫しているかどうかを判断します。
This is especially useful when you have many assets to monitor and don't want to figure out the specific rule that applies to each one.
これは、監視すべき資産が多く、それぞれに適用される特定のルールを把握したくない場合に特に便利です。
As with all asset checks, you can get alerts when freshness checks fail, so you can be notified about freshness issues before they affect your stakeholders.
すべての資産チェックと同様に、鮮度チェックが失敗した場合はアラートを受け取ることができるため、関係者に影響が及ぶ前に鮮度に関する問題を通知することができます。
In addition to catching data freshness issues, Dagster can help catch changes in data schema.
Dagsterは、データの鮮度に関する問題に加えて、データ・スキーマの変更も検出することができる。
If a column is removed from a table, or if its type changes, then any software or dashboard that depends on that table is likely to be broken.
テーブルからカラムが削除されたり、カラムの型が変わったりすると、そのテーブルに依存しているソフトウェアやダッシュボードは壊れてしまう可能性が高い。
Sometimes changes to data schema are intentional, and other times a change to a table schema is an accidental result of a seemingly innocuous change to the SQL query that generates it.
データ・スキーマの変更は意図的に行われることもあれば、テーブル・スキーマを生成するSQLクエリの一見無害な変更によって、偶然テーブル・スキーマが変更されることもある。
Either way, it's important for pipeline developers and their stakeholders to be able to learn about these changes.
いずれにせよ、パイプライン開発者とその関係者にとって、これらの変更について知ることができるのは重要なことだ。
Again, Dagster's reliability stack helps out with this.
ここでもダグスターの信頼性スタックが役立つ。
Dagster's metadata system can store table column schemas, and with Dagster's DBT integration, these are actually captured automatically.
Dagsterのメタデータ・システムはテーブルのカラム・スキーマを保存することができ、DagsterのDBT統合により、これらは実際に自動的に取り込まれる。
Then Dagster offers built-in asset checks for catching changes to column schema.
そしてDagsterは、カラム・スキーマの変更をキャッチするための組み込みアセット・チェックを提供する。
And like all asset checks, they can be used as a basis for alerting, reporting, and control flow.
そして、すべての資産チェックと同様に、アラート、レポート、コントロール・フローの基礎として使用することができる。
So stepping back, all of these different capabilities allow Dagster to function as a single pane of glass for the health of your data assets and pipelines.
このように、Dagsterはデータ資産とパイプラインの健全性を確認するための一枚のガラスとして機能する。
Dagster's upcoming Asset Health dashboard manifests this by integrating pipeline failures, data quality, and freshness into a single view.
Dagsterの今後のAsset Healthダッシュボードは、パイプラインの障害、データ品質、鮮度を1つのビューに統合することでこれを明示する。
By handling data reliability in the same system that you use to develop and operate data pipelines, it becomes a first-class concern instead of something that's tacked on at the end.
データの信頼性を、データパイプラインの開発と運用に使用するのと同じシステムで扱うことで、データの信頼性は、最後に付け足されるものではなく、第一級の関心事になる。
Dagster's data reliability features allow you to standardize, across your entire data platform, the monitoring that you need to deliver trustworthy data to your stakeholders.
Dagsterのデータ信頼性機能により、信頼できるデータをステークホルダーに提供するために必要なモニタリングを、データ・プラットフォーム全体で標準化することができます。
Hi, I'm Jamie, and I'm an engineer at Dagster Labs.
ダグスター・ラボのエンジニア、ジェイミーです。
I'm going to talk about branch deployments in Dagster Plus and how they can enable teams to move faster, improve quality, and increase autonomy.
今回は、Dagster Plusのブランチ・デプロイメントについて、また、ブランチ・デプロイメントによってチームがどのように迅速に動き、品質を向上させ、自律性を高めることができるのかについてお話しします。
Branch deployments have been a core feature of our commercial product since its launch two years ago.
ブランチ・デプロイメントは、2年前の発売以来、私たちの商用製品の中心的な機能となっている。
They are lightweight staging environments created with every pull request and reduce the friction of testing, reviewing, and collaborating on your data pipelines.
プルリクエストごとに作成される軽量のステージング環境であり、データパイプラインのテスト、レビュー、コラボレーションの摩擦を軽減します。
Let's take a look at how these work.
これらの仕組みを見てみよう。
Most users have a main branch that contains their code and a production deployment where that code is deployed.
ほとんどのユーザーは、自分のコードを含むメインブランチと、そのコードがデプロイされるプロダクションデプロイメントを持っている。
Branch deployments follow a workflow that should feel familiar.
ブランチのデプロイは、なじみのあるワークフローに従う。
You create a branch, make your changes, and create a pull request.
ブランチを作成し、変更を加え、プルリクエストを作成する。
Then Dagster takes over and creates a lightweight deployment where you can run and test the code in your pull request.
その後、Dagsterが引き継ぎ、プルリクエストのコードを実行してテストできる軽量なデプロイメントを作成する。
These deployments can be configured so that they interact with staging resources, which allows you to materialize your assets without affecting production data.
これらのデプロイメントは、ステージング・リソースと相互作用するように構成することができ、本番データに影響を与えることなく資産を実体化することができます。
With the launch of Dagster Plus, we are releasing a new feature in branch deployments, change tracking.
ダグスター・プラスの発表に伴い、ブランチデプロイメントにおける新機能、変更追跡をリリースします。
Change tracking makes it easy to see exactly what assets have changed in your branch and launch materializations of those assets.
変更追跡機能により、ブランチで変更されたアセットを正確に確認し、それらのアセットのマテリアライゼーションを簡単に起動できます。
When a branch deployment is created, it is compared to the main production deployment and assets that have been changed in the branch are marked in the UI.
ブランチ デプロイメントが作成されると、メインのプロダクション デプロイメントと比較され、ブランチで変更されたアセットが UI でマークされます。
You can filter down to just these assets so that you can quickly see what has changed and launch materializations to test those assets.
これらのアセットだけを絞り込むことができるため、何が変更されたかをすぐに確認でき、それらのアセットをテストするためにマテリアライゼーションを起動できます。
This also makes branch deployments a great tool for collaboration and code review.
これはまた、ブランチデプロイメントをコラボレーションとコードレビューのための素晴らしいツールにする。
Rather than sifting through lines of code to determine which assets will be affected by a particular pull request, you can use the UI to quickly see the scope of code changes.
特定のプルリクエストによってどのアセットが影響を受けるかを判断するためにコード行を探し回るのではなく、UIを使ってコードの変更範囲を素早く確認することができます。
Here we have a PR where we've modified some dbt models.
ここでは、dbtモデルを修正したPRを掲載する。
We've also updated the start date of one of our partitions, but we aren't sure exactly how many assets this change is going to affect.
パーティションの1つの開始日も更新したが、この変更がどれだけのアセットに影響するか正確にはわからない。
Let's take a look at the branch deployment.
ブランチの展開を見てみよう。
Here we can see that the dbt models we've modified in our branch have been marked in the UI.
ここでは、ブランチで修正したdbtモデルがUIにマークされていることがわかります。
We can see how these assets have changed, and we can filter the graph down to just the modified assets.
これらのアセットがどのように変更されたかを見ることができ、変更されたアセットだけにグラフを絞り込むこともできる。
In the global asset graph, we can also apply filters to see the assets that our pull request changes.
グローバルアセットグラフでは、フィルタを適用して、プルリクエストが変更するアセットを確認することもできます。
For example, we can apply a filter to show only the assets that are modified by the partition change we made in our branch.
たとえば、ブランチで行ったパーティション変更によって変更されたアセットだけを表示するフィルタを適用できます。
This lets us see exactly which assets will be affected by that code change.
これによって、どのアセットがコードの変更によって影響を受けるかを正確に把握することができる。
Finally, while we have primarily shown this feature for assets made from dbt models, change tracking can be used with any kind of asset.
最後に、主にdbtモデルから作られたアセットに対してこの機能を紹介しましたが、変更トラッキングはどのような種類のアセットにも使用できます。
Branch deployments are a unique feature to Daxter Plus that brings a truly modern developer experience to data engineering and enables teams to move faster, improve quality, and increase autonomy.
ブランチデプロイメントはDaxter Plusのユニークな機能で、データエンジニアリングに真にモダンな開発者体験をもたらし、チームの迅速な動き、品質の向上、自律性の向上を可能にします。
We continue to hear how much value they add to the day-to-day process of building and testing data pipelines.
私たちは、データパイプラインの構築とテストの日々のプロセスにおいて、彼らがどれほど大きな価値をもたらしているかを聞き続けている。
We have lots of ideas on how to make branch deployments even more powerful, so you can expect to see further enhancements in the coming months.
ブランチ・デプロイメントをさらに強力なものにするためのアイデアはたくさんあります。
Most companies' data platforms are large, complex, and mission-critical.
ほとんどの企業のデータ・プラットフォームは大規模かつ複雑で、ミッション・クリティカルだ。
They integrate dozens of systems and serve hundreds of stakeholders.
何十ものシステムを統合し、何百もの利害関係者にサービスを提供している。
Understanding the health of the data platform as it grows is difficult.
データ・プラットフォームが成長するにつれ、その健全性を理解するのは難しい。
Getting key information, like how reliable the data is and how much money is being spent, is either impossible at scale or requires jumping through multiple tools and complex multi-quarter integration projects.
データがどの程度信頼できるのか、どれくらいの予算が使われているのかといった重要な情報を得るには、規模が大きいと不可能か、複数のツールや複雑な複数四半期の統合プロジェクトを飛び越える必要がある。
In short, platform owners lack a single pane of glass for understanding the state of their data platform.
要するに、プラットフォームの所有者は、データプラットフォームの状態を把握するための一枚のガラスを欠いているのだ。
Today, we are launching that single pane of glass for operational observability, Daxter Plus Insights.
今日、私たちは、業務観察可能性のための一枚ガラス、ダクスター・プラス・インサイトを発表します。
Daxter Plus Insights allows everyone from data platform owners to individual practitioners to understand and optimize reliability, cost, and freshness.
Daxter Plus Insightsにより、データプラットフォームの所有者から個々の実務家まで、信頼性、コスト、鮮度を理解し、最適化することができます。
Before we show some examples of what Daxter Insights allows you to do, let's talk briefly about why we believe the orchestrator is the right tool for building this kind of observability, as opposed to a dedicated point solution that sits outside of the execution flow.
Daxter Insightsでできることの例をいくつか紹介する前に、実行フローの外側に位置する専用のポイント・ソリューションとは対照的に、オーケストレーターがこの種の観測可能性を構築するのに適したツールだと考える理由について簡単に説明しよう。
All of the operational data is in one place, so you no longer have to jump between tools to get a complete picture of the platform's health at a glance.
すべての運用データが一箇所に集まっているため、プラットフォームの健全性を一目で把握するためにツール間を行き来する必要がなくなった。
By servicing the real cost of computation in the orchestrator, your team becomes more aware and sensitive to how much things are costing.
オーケストレーターで計算の実質コストをサービス化することで、チームは物事にどれだけのコストがかかっているかをより意識し、敏感になる。
If you want to double-click, you do so at the asset level or the asset group level, which is the logical way of exploring your assets, so you can quickly pinpoint areas for operational improvement.
ダブルクリックする場合は、資産レベルまたは資産グループレベルで行います。これは、資産を探索する論理的な方法であり、業務改善のための領域をすばやく特定できます。
And you get all of this bundled in Daxter, with no additional work.
そして、ダクスターにはこれらすべてがバンドルされている。
In most cases, the hard work of identifying what assets to track and how to structure your metadata is already done in Daxter.
ほとんどの場合、どのアセットを追跡し、メタデータをどのように構成するかを特定する大変な作業は、すでにDaxterで行われている。
We are simply building on what's already there.
すでにあるものを土台にしているだけだ。
Okay, so what can Daxter Insights help you to track and observe?
では、ダクスター・インサイトは何を追跡・観察するのに役立つのだろうか?
Well, Daxter Insights is a powerful capability that supports many possible use cases.
さて、ダクスター・インサイトは、多くの可能なユースケースをサポートする強力な機能である。
Let's look at a couple of them, and I'll highlight some key features along the way.
そのうちのいくつかを見てみよう。途中、いくつかの重要な特徴を紹介しよう。
A common example is optimizing spend on data movement tools, such as Fivetran.
よくある例は、Fivetranのようなデータ移動ツールにかける費用を最適化することだ。
Let's say you're using Daxter to orchestrate some Fivetran jobs to replicate data from your application Postgres database into Snowflake, and you've noticed that the number of rows on each set of assets is ever-increasing, along with your bill.
Daxterを使用して、アプリケーションのPostgresデータベースからSnowflakeにデータをレプリケートするFivetranジョブをオーケストレーションしているとしましょう。
With Daxter Insights, you're able to look at the global level to see which assets and processes might be the most costly.
Daxter Insightsを使えば、グローバルレベルで、どの資産やプロセスに最もコストがかかっているかを見ることができる。
And you can see how those trends are changing over time.
そして、その傾向が時間の経過とともにどのように変化しているかを見ることができる。
To save money, you might look at ways to reduce your reliance on Fivetran for supporting the biggest and most expensive of your assets.
お金を節約するために、最も大きく、最も高価な資産を支えるフィベトランへの依存を減らす方法を検討することもできるだろう。
Thankfully, Daxter's embedded ELT functionality can handle this and help you save tens of thousands of dollars by moving a data-intensive process to a cheaper option.
ありがたいことに、Daxterの組み込みELT機能はこれを処理することができ、データ集約的なプロセスを安価なオプションに移行することで、数万ドルを節約するのに役立ちます。
Another example is reducing compute and query costs.
もうひとつの例は、計算コストとクエリーコストの削減だ。
Let's say your primary storage layer is BigQuery and GCP bills are getting larger.
プライマリー・ストレージ・レイヤーがBigQueryで、GCPの請求額が大きくなっているとしよう。
Sadly, not everyone on your team is sensitive to the cost of their workloads because so far, nobody has visibility into which workloads are the most compute-intensive and what that means in terms of the bill.
悲しいことに、チームの全員がワークロードのコストに敏感なわけではない。今のところ、どのワークロードが最も計算負荷が高く、それが請求額として何を意味するのか、誰も把握していないからだ。
By setting up Daxter's new integration for BigQuery, you're now able to emit and visualize bytes billable in terms of bytes as well as dollars.
Daxterの新しいBigQueryとの統合を設定することで、請求可能なバイトをドルだけでなくバイト単位で出力し、可視化できるようになった。
Now your team can see which assets or jobs are the most compute-intensive and can translate that into dollars and cents.
これでチームは、どの資産やジョブが最も計算負荷が高いかを把握し、それをドルやセントに換算することができる。
You can sort by percentage change over time to see the biggest increases or decreases in cost for a particular process.
経時的な変化率で並べ替えることで、特定のプロセスにおけるコストの大幅な増減を確認することができる。
With our new deployment-level aggregation, you can start tracking expenses across all Daxter-controlled processes.
新しい配備レベルの集計機能を使えば、Daxterが管理するすべてのプロセスで経費の追跡を開始できます。
Furthermore, you can set alerts for when your team is spending more than usual.
さらに、チームの支出が通常より多い場合にアラートを設定することもできる。
We currently support Snowflake and BigQuery out-of-the-box, but users can add custom cost metadata using Daxter's flexible metadata system.
我々は現在、SnowflakeとBigQueryをすぐにサポートしているが、ユーザーはDaxterの柔軟なメタデータシステムを使用して、カスタムコストのメタデータを追加することができる。
Daxter Insights also allows you to monitor and optimize your spend on AI workloads.
Daxter Insightsでは、AIワークロードへの支出を監視し、最適化することもできます。
With our new OpenAI integration, your AI engineers can observe and manage their calls to OpenAI and visualize their token consumption, all right from within Daxter.
新しいOpenAIの統合により、AIエンジニアはOpenAIへのコールを観察・管理し、トークンの消費を可視化することができます。
And for a final example, tracking the health of your DBT transformations.
そして最後の例として、DBTによる変容の健全性を追跡する。
Let's say you're using Daxter and DBT to manage a set of tables, and you want to track the health of those processes.
DaxterとDBTを使ってテーブルを管理しているとして、それらのプロセスの健全性を追跡したいとしよう。
So you've written a Daxter asset check, which counts the number of null values on the primary key.
つまり、主キーのヌル値の数をカウントするダクスター・アセット・チェックを書いたことになります。
Now you're able to visualize this quality in two ways.
さて、この品質を2つの方法で視覚化することができる。
First, with Daxter's reliability features, you know each time this asset check fails, as shown in our asset graph.
まず、ダクスターの信頼性機能を使えば、アセットグラフに示されているように、このアセットチェックが失敗するたびに知ることができます。
But in Daxter Plus, with the addition of Insights, you can view over time both the number of instances where the asset check failed and the number of rows that failed, because the difference between one row violating primary key and a thousand can be the difference between an expected bad row to a major pipeline issue.
しかし、ダクスター・プラスでは、インサイトを追加することで、資産チェックに失敗したインスタンス数と失敗した行数の両方を時系列で表示することができます。プライマリキーに違反した行が1行か1000行かの違いは、想定内の不良行からパイプラインの大きな問題に発展する可能性があるからです。
Now that you have a solid grasp on the health of your pipeline with Insights, you want to ensure that they stay healthy.
インサイトとのパイプラインの健全性をしっかり把握した以上、その健全性を維持できるようにしたい。
With Alerts, Daxter Plus makes it easy for you to get ahead of point-in-time failures, ensuring your stakeholders aren't the ones who find errors in data.
アラート機能により、Daxter Plusはポイント・イン・タイムの障害に先手を打つことを容易にし、関係者がデータのエラーを発見しないようにします。
And when a pipeline inevitably does fail, you can jump back into Insights to get a deeper understanding of the failure and whether it's part of a larger trend or an isolated issue.
また、パイプラインにどうしても障害が発生した場合は、Insightsに戻ることで、障害についてより深く理解し、それが大きな傾向の一部なのか、それとも孤立した問題なのかを把握することができる。
With Daxter Plus and Daxter Insights, your team can truly understand what's going on with the data platform, all from within Daxter Plus.
Daxter PlusとDaxter Insightsを使用することで、チームはデータプラットフォームで何が起こっているのかを、すべてDaxter Plus内から真に理解することができます。
Make better use of your budget and identify areas of inefficient spending.
予算をより有効に活用し、非効率な支出分野を特定する。
Visualize trends in both quality and cost to identify problems earlier and spend less time troubleshooting.
品質とコストの両方の傾向を可視化することで、問題を早期に特定し、トラブルシューティングに費やす時間を短縮。
And reduce the need for new standalone tools, which reduces context switching, breaks down data silos, and reduces the total cost of ownership.
また、新しいスタンドアロン・ツールの必要性を減らすことで、コンテキストの切り替えを減らし、データのサイロ化を解消し、総所有コストを削減する。
Going forward, we will be adding features like tags and owner metadata to help you visualize data that reflects the schema of your organization.
今後、タグやオーナー・メタデータなどの機能を追加し、組織のスキーマを反映したデータの視覚化を支援する予定です。
We hope this overview of Insights in Daxter Plus is sparking some ideas on how you can get value from this great observability feature.
Daxter PlusのInsightsの概要が、この素晴らしい観測可能性機能からどのように価値を得ることができるのか、いくつかのアイデアを呼び起こすきっかけになれば幸いです。
Hi, I'm Eric Chernoff, Head of Partnerships at Daxter Labs.
こんにちは、ダクスター・ラボのパートナーシップ責任者、エリック・チェルノフです。
As the number of organizations using Daxter continues to grow, so does our network of As part of the Daxter Plus launch, here is an update on how we are building out the broader ecosystem to help support you in your adoption of Daxter.
Daxter Plusの立ち上げの一環として、Daxterの採用を支援する広範なエコシステムの構築に関する最新情報をお届けします。
First of all, for organizations looking for consulting help on an initial build-out or migration, we have a strong network of independent implementation partners.
まず、初期構築や移行に関するコンサルティングをお探しの企業様には、独立系インプリメンテーション・パートナーの強力なネットワークをご用意しています。
A big shout-out to Slalom, Rittman Analytics, Infostrux, 4Mile, Analytics 8, Brooklyn Data, Bytecode, Evantum.ai, and FortiSoft.
Slalom、Rittman Analytics、Infostrux、4Mile、Analytics 8、Brooklyn Data、Bytecode、Evantum.ai、FortiSoftに大きな拍手を送りたい。
These nine partners have been supporting Daxter implementations ever since our early GA.
これら9つのパートナーは、初期のGA以来、ダクスターの実装をサポートしてきた。
We are now expanding our partner program.
我々は現在、パートナー・プログラムを拡大している。
If you are either looking for an implementation partner, or you are part of a consultancy and would like to be part of the Daxter implementation network, you can find more information at Daxter.io slash partners and sign up with the Become a Partner link at the bottom of the page.
導入パートナーをお探しの方、またはコンサルタント会社にお勤めでダクスターの導入ネットワークに参加されたい方は、Daxter.io slash partnersで詳細をご覧いただき、ページ下部のBecome a Partnerリンクからご登録ください。
Next, we are making it easy for you to buy Daxter Plus as part of your larger cloud platform transactions.
次に、ダクスター・プラスを大規模なクラウドプラットフォーム取引の一部として簡単に購入できるようにします。
You can now transact for Daxter Plus via the AWS marketplace, and will be in all the major cloud marketplaces by the end of Q2 2024.
ダクスター・プラスは現在、AWSのマーケットプレイスで取引が可能で、2024年第2四半期末までにはすべての主要なクラウドマーケットプレイスに登場する予定だ。
This often makes it easier to procure Daxter Plus as part of your existing cloud platform commitments and allocated budgets.
このため、既存のクラウドプラットフォームのコミットメントや割り当て予算の一部としてダクスター・プラスを調達することが容易になる場合が多い。
Finally, we continue our technology partnerships to make it easier for you to integrate key tools from across the ecosystem.
最後に、エコシステム全体から重要なツールをより簡単に統合できるよう、テクノロジー・パートナーシップを継続しています。
We continue to add new integrations for Daxter, including OpenAI, which we announced recently.
先日発表したOpenAIを含め、ダクスターの新しいインテグレーションを追加し続けている。
We are also deepening our integrations with partners like Snowflake, so look out for more news on that.
また、Snowflakeのようなパートナーとの統合も深めている。
You can learn more about Daxter's integrations at Daxter.io slash integrations.
Daxterのインテグレーションについては、Daxter.io slash integrationsをご覧ください。
As we scale, you can expect Daxter Labs to continue growing the ecosystem so you have the right resources to support you in building the most productive and valuable data platform possible.
私たちが規模を拡大するにつれて、Daxter Labsがエコシステムを成長させ続け、可能な限り最も生産的で価値のあるデータプラットフォームの構築をサポートするための適切なリソースを手に入れることができます。
As you've just seen, Daxter Plus is an exciting redefinition of the data orchestration category.
今見ていただいたように、ダクスター・プラスはデータ・オーケストレーションのカテゴリーを再定義するエキサイティングなものだ。
We believe that expanding the orchestrator scope can help your data team reduce spend through centralized asset-oriented cost observability, eliminate the need for many point solutions and their costly, error-prone integrations, and enable your data teams to operate autonomously while simultaneously standardizing best practices and delivering a secure and reliable data single pane of glass that supports centralized data platform objectives.
オーケストレーターの範囲を拡大することで、一元化されたアセット指向のコスト観測可能性によってデータチームの支出を削減し、多くのポイントソリューションとそのコスト高でエラーの起こりやすい統合の必要性を排除し、データチームが自律的に運用できるようにすると同時に、ベストプラクティスを標準化し、一元化されたデータプラットフォームの目標をサポートする安全で信頼性の高いデータの単一ガラス窓を提供することができると確信しています。
All of this is made possible by Daxter's asset-oriented approach to data orchestration and the efforts of our amazing team, whom I'm fortunate to work with every day.
これらはすべて、データ・オーケストレーションに対するダクスターのアセット指向のアプローチと、幸運にも毎日一緒に仕事ができる素晴らしいチームの努力によって可能になった。
We hope you try out Daxter Plus and see how all the pieces fit together.
ダクスター・プラスを試してみて、すべてのピースがどのように組み合わされるかを確かめてほしい。
I think you'll find that this is truly a category-redefining product that will change the way you think about your data platform.
データ・プラットフォームについての考え方を変える、まさにカテゴリーを再定義する製品であることがおわかりいただけると思います。