Placeholder Image

字幕表 動画を再生する

AI 自動生成字幕
  • AI is being discussed a lot, but what does it mean to use AI responsibly?

    AIが盛んに議論されているが、責任を持ってAIを使うとはどういうことか?

  • Not sure?

    わからない?

  • That's great.

    それは素晴らしいことだ。

  • That's what I'm here for.

    そのために私はここにいる。

  • I'm Manny, and I'm a security engineer at Google.

    僕はマニー、グーグルでセキュリティ・エンジニアをしている。

  • I'm going to teach you how to understand why Google has put AI principles in place, identify the need for responsible AI practice within an organization, recognize that responsible AI affects all decisions made at all stages of a project, and recognize that organizations can design their AI tools to fit their own business needs and values.

    グーグルがAIの原則を導入した理由を理解し、組織内で責任あるAIを実践する必要性を認識し、責任あるAIがプロジェクトのあらゆる段階での意思決定に影響することを認識し、組織が自社のビジネスニーズや価値観に合わせてAIツールを設計できることを認識する方法を伝授する。

  • Sounds good?

    いい感じか?

  • Let's get into it.

    さあ、本題に入ろう。

  • You might not realize it, but many of us already have daily interactions with artificial intelligence, or AI, from predictions for traffic and weather to recommendations for TV shows you might like to watch next.

    皆さんは気づいていないかもしれないが、私たちの多くはすでに人工知能(AI)と日常的に接している。交通や天気の予測から、次に見たいテレビ番組の推薦まで。

  • As AI becomes more common, many technologies that aren't AI-enabled, they start to seem inadequate, like having a phone that can't access the internet.

    AIが一般的になるにつれ、AIに対応していない多くのテクノロジーは、インターネットにアクセスできない電話を持っているように、不十分だと思われ始める。

  • Now AI systems are enabling computers to see, understand, and interact with the world in ways that were unimaginable just a decade ago, and these systems are developing at an extraordinary pace.

    今やAIシステムは、ほんの10年前には想像もできなかったような方法で、コンピューターが世界を見たり、理解したり、相互作用したりすることを可能にしており、これらのシステムは驚異的なスピードで発展している。

  • What we've got to remember, though, is that despite these remarkable advancements, AI is not infallible.

    しかし、忘れてはならないのは、こうした目覚ましい進歩にもかかわらず、AIは無謬ではないということだ。

  • Developing responsible AI requires an understanding of the possible issues, limitations, or unintended consequences.

    責任あるAIの開発には、起こりうる問題や限界、あるいは意図しない結果を理解する必要がある。

  • Technology is a reflection of what exists in society.

    テクノロジーは社会に存在するものの反映である。

  • So without good practices, AI may replicate existing issues or bias and amplify them.

    そのため、良い習慣がなければ、AIは既存の問題や偏見を複製し、増幅させるかもしれない。

  • This is where things get tricky, because there isn't a universal definition of responsible AI, nor is there a simple checklist or formula that defines how responsible AI practices should be implemented.

    責任あるAIの普遍的な定義はなく、責任あるAIの実践方法を定義する単純なチェックリストや公式も存在しないからだ。

  • Instead, organizations are developing their own AI principles that reflect their mission and value.

    その代わりに、組織はそれぞれの使命と価値を反映した独自のAI原則を策定している。

  • Luckily for us, though, while these principles are unique to every organization, if you look for common themes, you find a consistent set of ideas across transparency, fairness, accountability, and privacy.

    しかし幸いなことに、これらの原則はどの組織にも固有のものではあるが、共通のテーマを探せば、透明性、公平性、説明責任、プライバシーなど、一貫した考え方が見つかる。

  • Let's get into how we view things at Google.

    グーグルでの物事の捉え方について説明しよう。

  • Our approach to responsible AI is rooted in a commitment to strive towards AI that's built for everyone, that's accountable and safe, that respects privacy, and that is driven by scientific excellence.

    責任あるAIに対する私たちのアプローチは、すべての人のために作られ、説明責任を果たし、安全で、プライバシーを尊重し、科学的卓越性によって推進されるAIを目指して努力するというコミットメントに根ざしています。

  • We've developed our own AI principles, practices, governance processes, and tools that together embody our values and guide our approach to responsible AI.

    私たちは、私たちの価値観を体現し、責任あるAIへのアプローチの指針となる、独自のAI原則、プラクティス、ガバナンス・プロセス、ツールを開発しました。

  • We've incorporated responsibility by design into our products, and even more importantly, organization.

    私たちはデザインによる責任を製品に、そしてさらに重要なこととして組織に組み込んできた。

  • Like many companies, we use our AI principles as a framework to guide responsible decision-making.

    多くの企業がそうであるように、私たちもAIの原則を、責任ある意思決定の指針となる枠組みとして活用しています。

  • We all have a role to play in how responsible AI is applied.

    私たちは皆、責任あるAIの適用方法について果たすべき役割を担っている。

  • Whatever stage in the AI process you're involved with, from design to deployment or application, the decisions you make have an impact.

    設計からデプロイメント、アプリケーションまで、AIプロセスのどの段階に関わっていても、あなたが下す決断は影響を与える。

  • And that's why it's so important that you, too, have a defined and repeatable process for using AI responsibly.

    だからこそ、責任を持ってAIを使用するための明確で再現可能なプロセスを持つことが重要なのだ。

  • There's a common misconception with artificial intelligence that machines play the central decision-making role.

    人工知能には、機械が意思決定の中心的役割を果たすという一般的な誤解がある。

  • In reality, it's people who design and build these machines and decide how they're used.

    現実には、これらのマシンを設計し、製造し、どのように使用するかを決めるのは人間だ。

  • Let me explain.

    説明しよう。

  • People are involved in each aspect of AI development.

    AI開発の各側面には人が関わっている。

  • They collect or create the data that the model is trained on.

    モデルの学習対象となるデータを収集または作成する。

  • They control the deployment of the AI and how it's applied in a given context.

    彼らはAIの配備をコントロールし、与えられた状況下でそれをどのように適用するかをコントロールする。

  • Essentially, human decisions are threaded through our technology products.

    基本的に、人間の決断は私たちのテクノロジー製品に貫かれている。

  • And every time a person makes a decision, they're actually making a choice based on their own values.

    そして、人が決断を下すときはいつも、実は自分の価値観に基づいて選択をしている。

  • Whether it's a decision to use generative AI to solve a problem, as opposed to other methods, or anywhere throughout the machine learning lifecycle, that person introduces their own set of values.

    ある問題を解決するために、他の方法とは対照的に生成AIを使うという決定であれ、機械学習のライフサイクル全体を通しての決定であれ、その人は自分の価値観を導入する。

  • This means that every decision point requires consideration and evaluation to ensure that choices have been made responsibly, from concept through deployment and maintenance.

    つまり、コンセプトから配備、メンテナンスに至るまで、すべての意思決定ポイントにおいて、責任ある選択がなされたことを確認するための検討と評価が必要なのだ。

  • Because there's the potential to impact many areas of society, not to mention people's daily lives, it's important to develop these technologies with ethics in mind.

    人々の日常生活はもちろん、社会のさまざまな分野に影響を与える可能性があるため、倫理を念頭に置いてこれらの技術を開発することが重要なのだ。

  • Responsible AI doesn't mean to focus only on the obviously controversial use cases.

    責任あるAIとは、明らかに物議を醸すようなユースケースだけに注目することではない。

  • Without responsible AI practices, even seemingly innocuous AI use cases, or those with good intent, could still cause ethical issues or unintended outcomes, or not be as beneficial as they could be.

    責任あるAIの実践がなければ、一見無害に見えるAIの使用例や善意の使用例であっても、倫理的な問題や意図しない結果を引き起こしたり、可能な限り有益なものにならなかったりする可能性がある。

  • Ethics and responsibility are important, not just because they represent the right thing to do, but also because they can guide AI design to be more beneficial for people's lives.

    倫理と責任が重要なのは、それが正しいことを表しているからだけでなく、人々の生活にとってより有益になるようにAIの設計を導くことができるからである。

  • So how does this relate to Google?

    では、これがグーグルとどう関係するのか?

  • We've learned that building responsibility into any AI deployment makes better models and builds trust with our customers and our customers' customers.

    私たちは、AIの導入に責任を持たせることで、より良いモデルを作り、顧客や顧客の顧客との信頼を築くことができることを学んだ。

  • If at any point that trust is broken, we run the risk of AI deployments being stalled, unsuccessful, or at worst, harmful to stakeholders and those products' effects.

    その信頼関係が崩れるようなことがあれば、AIの導入が滞ったり、失敗に終わったり、最悪の場合、利害関係者やその製品の効果に悪影響を及ぼす危険性がある。

  • And tying it all together, this all fits into our belief at Google that responsible AI equals successful AI.

    そして、これらすべてを結びつけることは、責任あるAIは成功するAIに等しいというグーグルの信念に合致する。

  • We make our product and business decisions around AI through a series of assessments and reviews.

    私たちは、一連の評価とレビューを通じて、AIにまつわる製品とビジネスの意思決定を行っています。

  • These instill rigor and consistency in our approach across product areas and geographies.

    これらにより、製品分野や地域を超えたアプローチに厳格さと一貫性を持たせている。

  • These assessments and reviews begin with ensuring that any project aligns with our AI principles.

    これらの評価と見直しは、あらゆるプロジェクトが当社のAI原則に合致していることを確認することから始まる。

  • While AI principles help ground a group in shared commitments, not everyone will agree with every decision made about how products should be designed responsibly.

    AIの原則は、グループが共有するコミットメントの土台となるものではあるが、製品がどのように責任を持って設計されるべきかについてのすべての決定に、全員が同意するわけではない。

  • This is why it's important to develop robust processes that people can trust.

    だからこそ、人々が信頼できる強固なプロセスを開発することが重要なのだ。

  • So even if they don't agree with the end decision, they trust the process that drove the decision.

    つまり、最終的な決断に同意できなくても、その決断を下したプロセスを信頼しているのだ。

  • So we've talked a lot about just how important guiding principles are for AI in theory, but what are they in practice?

    理論上、AIにとって指導原理がいかに重要であるかということをたくさん話してきたが、実際にはどうなのだろうか?

  • Let's get into it.

    さあ、本題に入ろう。

  • In June 2018, we announced seven AI principles to guide our work.

    2018年6月、私たちは私たちの仕事の指針となる7つのAI原則を発表した。

  • These are concrete standards that actively govern our research and product development and affect our business decisions.

    これらは、私たちの研究と製品開発を積極的に管理し、私たちのビジネス上の意思決定に影響を与える具体的な基準です。

  • Here's an overview of each one.

    それぞれの概要は以下の通り。

  • One, AI should be socially beneficial.

    ひとつは、AIは社会的に有益であるべきだということだ。

  • Any project should take into account a broad range of social and economic factors and will proceed only where we believe that the overall likely benefits substantially exceed the foreseeable risks and downsides.

    どのようなプロジェクトも、幅広い社会的・経済的要因を考慮に入れるべきであり、全体として予想される利益が、予見可能なリスクやマイナス面を大幅に上回ると私たちが信じる場合にのみ進める。

  • Two, AI should avoid creating or reinforcing unfair bias.

    二つ目は、AIは不公平なバイアスを生み出したり、強化したりすることを避けるべきだということだ。

  • We seek to avoid unjust effects on people, particularly those related to sensitive characteristics such as race, ethnicity, gender, nationality, income, sexual orientation, ability, and political or religious belief.

    私たちは、特に人種、民族、性別、国籍、収入、性的指向、能力、政治的・宗教的信条などの微妙な特性に関連する人々への不当な影響を回避するよう努めます。

  • Three, AI should be built and tested for safety.

    3つ目は、AIを構築し、安全性をテストすることだ。

  • We will continue to develop and apply strong safety and security practices to avoid unintended results that create risks of harm.

    私たちは、危害のリスクを生み出す予期せぬ結果を避けるために、強力な安全およびセキュリティ慣行を開発し、適用し続けます。

  • Four, AI should be accountable to people.

    四つ目は、AIは人間に対して説明責任を果たすべきだということだ。

  • We will design AI systems that provide appropriate opportunities for feedback, relative explanations, and appeal.

    私たちは、フィードバック、相対的説明、アピールの適切な機会を提供するAIシステムを設計します。

  • Five, AI should incorporate privacy design principles.

    第5に、AIはプライバシー設計の原則を取り入れるべきである。

  • We will give opportunity for notice and consent, encourage architectures with privacy safeguards, and provide appropriate transparency and control over the use of data.

    通知と同意の機会を与え、プライバシー保護策を備えたアーキテクチャを奨励し、データの使用について適切な透明性と管理を提供する。

  • Six, AI should uphold high standards of scientific excellence.

    6つ目は、AIは科学的な卓越性の高い基準を維持すべきだということだ。

  • We'll work with a range of stakeholders to promote thoughtful leadership in this area, drawing on scientifically rigorous and multidisciplinary approaches.

    私たちは、科学的に厳密で学際的なアプローチを用いて、この分野における思慮深いリーダーシップを促進するために、さまざまな利害関係者と協力していきます。

  • And we will responsibly share AI knowledge by publishing educational materials, best practices, and research that enable more people to develop useful AI applications.

    そして、より多くの人々が有用なAIアプリケーションを開発できるよう、教材、ベストプラクティス、研究を公開することで、AIの知識を責任を持って共有していきます。

  • Seven, AI should be made available for uses that accord with these principles.

    第7に、AIはこれらの原則に合致した用途に利用できるようにすべきである。

  • Many technologies have multiple uses, so we'll work to limit potentially harmful or abusive applications.

    多くの技術には複数の用途があるため、有害または悪用される可能性のある用途を制限するよう努めます。

  • So those are the seven principles we have, but in addition to these seven principles, there are certain AI applications we will not pursue.

    しかし、この7つの原則に加えて、私たちが追求しないAIの応用もある。

  • We will not design or deploy AI in these four application areas.

    私たちは、これら4つの応用分野でAIを設計したり配備したりすることはない。

  • Technologies that cause or are likely to cause overall harm.

    総合的な損害を引き起こす、または引き起こす可能性のある技術。

  • Weapons or other technologies whose principal purpose or implementation is to cause or directly facilitate injury to people.

    人に危害を加えること、またはそれを直接助長することを主な目的とする武器またはその他の技術。

  • Technologies that gather or use information for surveillance that violates internationally accepted norms.

    国際的に認められた規範に反する監視のために情報を収集または使用する技術。

  • And technologies whose purpose contravenes widely accepted principles of international law and human rights.

    また、その目的は、国際法や人権の広く認められた原則に反するものである。

  • Establishing principles was a starting point rather than an end.

    原則の確立は目的ではなく、出発点だった。

  • What remains true is that our AI principles rarely give us direct answers to our questions how to build our products.

    依然として真実であるのは、AIの原則が、製品をどのように作ればいいのかという疑問に対する直接的な答えを与えてくれることはほとんどないということだ。

  • They don't and shouldn't allow us to sidestep hard conversations.

    彼らは私たちが難しい話を避けて通ることを許さないし、許すべきではない。

  • They are a foundation that establishes what we stand for, what we build, and why we build it.

    それは、私たちが何を支持し、何を作り、なぜそれを作るのかを確立する土台となるものだ。

  • And they're core to the success of our enterprise AI offerings.

    そして彼らは、私たちが提供するエンタープライズAIの成功の中核を担っている。

  • Thanks for watching.

    ご視聴ありがとう。

  • And if you want to learn more about AI, make sure to check out our other videos.

    AIについてもっと知りたい方は、ぜひ他のビデオもご覧ください。

AI is being discussed a lot, but what does it mean to use AI responsibly?

AIが盛んに議論されているが、責任を持ってAIを使うとはどういうことか?

字幕と単語
AI 自動生成字幕

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます