Placeholder Image

字幕表 動画を再生する

AI 自動生成字幕
  • Transportation, healthcare, education, the arts, finance.

    交通、医療、教育、芸術、金融。

  • AI is quickly reaching into nearly every aspect of our lives, including what for many is a concerning development, AI's increasing proliferation in public safety.

    AIは私たちの生活のほぼすべての側面に急速に浸透しつつあり、その中には多くの人にとって懸念すべき事態である、公共安全におけるAIの普及も含まれている。

  • Axon, one of the most prominent suppliers of public safety technology in the United States, has for years been steadily deploying AI through both existing and new products.

    米国で最も著名な公共安全技術サプライヤーのひとつであるアクソンは、長年にわたり、既存製品と新製品の両方でAIを着実に導入してきた。

  • These products give police officers powerful new capabilities.

    これらの製品は、警察官に強力な新機能を提供する。

  • Live language translation through their body cameras, automatic license plate recognition of multiple lanes of traffic at once through in-vehicle cameras, and the transcription of audio and video evidence into court-ready documents in just minutes.

    ボディーカメラによるライブ言語翻訳、車載カメラによる複数車線の自動ナンバープレート認識、音声や映像の証拠書類をわずか数分で裁判に使える文書に書き起こす。

  • Their newest product, DraftOne, which can generate the first draft of a police report using body-worn camera audio, promises to reduce the strain of paperwork on officers' time, freeing them up to be out on the street.

    同社の最新製品であるDraftOneは、身体装着カメラの音声を使って警察報告書の初稿を作成することができる。

  • But with these capabilities come concerns about ethical product development, bias, and accountability.

    しかし、こうした能力には、倫理的な製品開発、偏見、説明責任に関する懸念がつきまとう。

  • We sat down with Rick Smith, CEO and founder of Axon.

    アクソンCEO兼創業者のリック・スミスに話を聞いた。

  • He makes the case for a tech company like Axon's ability to make positive change on difficult problems in a responsible way.

    彼は、アクソンのような技術系企業が、責任ある方法で困難な問題に前向きな変化をもたらすことができると主張する。

  • Together, we can create a safer tomorrow.

    私たちは共に、より安全な明日を創ることができる。

  • We tend to look at ourselves as the tech company that'll do hardware, software, AI, focused on how do we make the world less dangerous?

    私たちは、ハードウェア、ソフトウェア、AIを提供するハイテク企業として自分たちを見る傾向がある。

  • How do we prevent, deter violence?

    どうすれば暴力を防ぎ、抑止できるのか?

  • How do we hold people accountable?

    どうすれば人々に責任を負わせることができるのか?

  • And ultimately, how do we deal with the ugly problems in modern society to build the world that we wanna live in?

    そして最終的には、現代社会の醜い問題にどう対処し、私たちが望む世界を築くのか。

  • The way we're generally approaching AI is we try to focus on areas that are important to us.

    私たちが一般的にAIにアプローチする方法は、私たちにとって重要な分野に集中しようとすることです。

  • Areas where, okay, where can we guard band the risks?

    どこを守ればリスクを回避できるか?

  • And how can we use AI not to autonomously do things that could adversely impact a person, but how can we use it to do more of the mundane work so that we can bring human ethics and judgment well-focused where it's needed?

    そして、AIを人間に悪影響を与えるようなことを自律的に行うために使うのではなく、人間の倫理観や判断力を必要なところにうまく集中させることができるように、ありふれた仕事をより多くこなすために使うにはどうすればいいのか。

  • An enormous amount of the resources that are invested in policing are actually consumed with mundane, bureaucratic, inefficient tasks.

    警察活動に投入される膨大な資源は、実際には平凡で、官僚的で、非効率的な仕事に費やされている。

  • And as a result, we see officers that are burned out, agencies that are having a hard time retaining people, cases that go into the criminal justice system that are perhaps not really well-prepared.

    その結果、燃え尽きた警官や、人材確保に苦労している捜査機関、準備不足のまま刑事裁判にかけられるケースを目にすることになる。

  • You know, there's a lot of people who sit in jail just waiting for the system to catch up to them.

    刑務所の中で、制度が追いつくのを待っている人たちがたくさんいるんだ。

  • And that's where we think AI can really shine.

    そこでAIが真価を発揮できると考えている。

  • What kind of framework does Axon use, if any, to ensure products are being made responsibly with societal values and community input in mind?

    アクソンは、社会的価値や地域社会の意見を考慮して責任ある製品作りを行うために、もしあればどのような枠組みを採用していますか?

  • We have an EEAC, which is an Equity and Ethics Advisory Council.

    私たちにはEEAC(公正倫理諮問委員会)がある。

  • And its job is to give us feedback from those people we wouldn't naturally talk to.

    そして、その仕事は、私たちが自然に話すことのない人々からフィードバックを得ることだ。

  • Basically, ring the alarm bell for me and for our product managers on, hey, here are the risks.

    基本的には、私やプロダクト・マネジャーに警鐘を鳴らしてほしい。

  • And I'll tell you, when we first started doing this, it's a little frustrating because policing can be somewhat divisive.

    私たちがこの仕事を始めたばかりの頃は、取り締まりというのは分裂しやすいものだから、少しイライラしたものだ。

  • And frankly, on our advisory council, we have a lot of people who are very critical of policing.

    率直に言って、私たちの諮問委員会には、取り締まりに批判的な人たちが大勢いる。

  • It also allows us to really make our products legitimately better.

    また、私たちの製品をより良いものにすることもできる。

  • It's better for everybody, including us, if we build our products the right way so that they're accepted.

    正しい方法で製品を作り、それが受け入れられるようにすることが、私たちを含め、誰にとっても良いことなのだ。

  • Tell me about some of the kind of specific AI-enabled tools that Axon is making.

    アクソンが作っている具体的なAI対応ツールについて教えてください。

  • We've already launched our first major AI product called DraftOne.

    私たちはすでにDraftOneという最初の主要なAI製品を発売している。

  • DraftOne is an AI tool that takes the audio from a body camera, we turn that into a transcript, and then from that transcript, we reformat that information into the form of a police report narrative, which is the long description of what actually happened in an incident.

    DraftOneはAIツールで、ボディーカメラからの音声を取り込み、それをトランスクリプトに変換し、そのトランスクリプトから情報を警察報告書のナラティブ(事件で実際に起こったことを長々と記述したもの)の形に再フォーマットします。

  • Without DraftOne, police officers spend about half of their working days writing reports.

    ドラフトワンがなければ、警察官は勤務日の約半分を報告書の作成に費やすことになる。

  • Now, that's a necessary task, but it does not add value to their mission of public safety.

    今となっては、それは必要な仕事ではあるが、公共安全という使命に付加価値を与えるものではない。

  • It is a heavy overhead load.

    頭上には重い荷物がある。

  • And what we're doing is we're just helping them take the information from the words that they said and what they heard in a body camera and pre-formatting the draft, preparing it for their review.

    私たちがしていることは、彼らが言った言葉やボディカメラで聞いたことから情報を取り出し、草稿を事前にフォーマットして、彼らのレビューのために準備することです。

  • Another one we're working on is using AI to help investigators sort through the mountains of digital evidence.

    私たちが取り組んでいるもう1つの仕事は、AIを使って捜査官がデジタル証拠の山を整理することです。

  • So if you're a prosecutor and you're dealing with a critical case, you may have six body cameras, three in-car cameras, thousands of photos.

    もしあなたが検察官で、重要な事件を扱っているなら、6台のボディカメラ、3台の車載カメラ、何千枚もの写真があるかもしれない。

  • That's, again, a place where we see AI can help sort through all of that information, connect it conceptually to what's in the report.

    ここでもまた、AIがすべての情報を整理し、レポートの内容と概念的に結びつける手助けをすることができる。

  • How do we tag that to the moments in video that are most relevant and help those investigators know where to focus their time?

    映像の中で最も関連性の高い瞬間にタグ付けし、捜査員がどこに時間を集中させるべきかを知る手助けをするにはどうすればいいのか。

  • What do you think some of the risks of deploying this kind of technology are and how are you working to mitigate those risks?

    このような技術を導入することのリスクはどのようなものがあると考えますか?

  • So I think the number one risk is that you get a police officer on the stand who says, look, I didn't write that, an AI wrote that.

    だから、一番のリスクは、警察官が証言台に立って、私は書いていない、AIが書いたんだ、と言うことだと思う。

  • That's the biggest concern that prosecutors are worried about.

    それが検察の最大の懸念だ。

  • And so we spend a lot of time building safeguards and, frankly, speed bumps that cause them to slow down and have to review things.

    そのため、私たちはセーフガードの構築に多くの時間を費やし、正直なところ、スピードバンプを設けることで、彼らがスピードを落とし、物事を見直さなければならなくなるようにしている。

  • We tune this very carefully to make sure that the AI does not inject any imagination or hallucination.

    私たちは、AIが想像や幻覚を注入することがないように、これを非常に注意深く調整している。

  • It does not inject any information.

    何の情報も注入しない。

  • Everything must be based on words that were in the transcript.

    すべては原稿にあった言葉に基づいていなければならない。

  • And if not, we instruct the AI to be very conservative.

    そうでない場合は、AIに非常に保守的になるよう指示する。

  • If it does not have high confidence that anything is going in there is accurate, it is to insert a question.

    そこに入っているものが正確であるという確信が持てなければ、質問を入れることになる。

  • They're going to see a bunch of insert statements like the subject was insert height tall, and they're bracketed in a way to help you find them.

    被写体が背の高さを挿入したように、たくさんの挿入文が表示され、それらを見つけるのに役立つように括弧で囲まれている。

  • We've designed this in a way where you cannot do anything with the draft report until you have fixed and answered all the questions in the insert statement.

    私たちは、挿入文にあるすべての質問を修正し、回答するまでは、報告書の草稿では何もできないように設計しています。

  • How do you think AI could strengthen accountability and community trust in public safety?

    AIは公安に対する説明責任と地域社会の信頼をどのように強化できると思いますか?

  • When agencies roll out body cameras, one of the things they tell us is, okay, we now need a way to go through and spot check what people are doing.

    捜査機関がボディーカメラを導入する際、彼らが私たちに言うことのひとつは、人々が何をしているのか抜き打ちでチェックする方法が必要だということだ。

  • So historically, they've just done this with random video audits.

    だから、これまでは無作為のビデオ監査でやってきた。

  • What our priority rank video tool does is it allows the agency to tune what the things are they'd like to see.

    私たちのプライオリティ・ランク・ビデオ・ツールは、代理店が見たいものを調整できるようにするものです。

  • A great example is, anytime the gun comes out of the holster, well, we can detect that.

    そのいい例が、ホルスターから銃が抜けたときだ。

  • Or we can use the transcripts now, thanks to AI, to look for keywords or even key concepts.

    あるいは、AIのおかげで、トランスクリプトを使ってキーワードやキーコンセプトを探すこともできる。

  • Things like, you know, if a video scores that there's any sort of swearing or racial epithets, that could get a very high score.

    例えば、ビデオに悪口や人種差別的な表現があれば、高得点になる可能性がある。

  • And basically the high scored videos are the ones that are going to be reviewed.

    そして基本的には、高得点を獲得したビデオが審査対象となる。

  • I think just between those two, we'd probably find the vast majority of where there's likely to be either bad behaviors that need to be corrected, or frankly, good behaviors that need to be rewarded and built upon and potentially shared with others in the agency on how to do it right.

    この2つの間に、修正すべき悪い行動、あるいは率直に言って、報われるべき良い行動、そしてその上に築き上げられ、正しいやり方について局内の他の人たちと共有される可能性のある行動の大部分を見つけることができるだろう。

  • I would say to anybody living in the world today, you should be playing with, experimenting, using AI.

    私は、今この世界に生きているすべての人に、AIと遊び、実験し、使うべきだと言いたい。

  • It's really hard to have a good opinion on something you're ignorant of.

    自分が無知であることに対して、良い意見を持つことは本当に難しい。

  • You know, challenge yourself, learn a little about it, because I don't think that there's any aspect of human society right now that is not going to be changed.

    自分自身に挑戦し、それについて少し学ぶんだ。今、人間社会で変化しない側面はないと思うからね。

  • We spend a lot of time thinking about what can go wrong.

    私たちは、何がうまくいかないかを考えることに多くの時間を費やしている。

  • We also need to think about, hey, what could go right?

    また、何がうまくいくかについても考える必要がある。

  • Or the things we're talking about, let's not compare them to perfection.

    あるいは、私たちが話しているようなことを、完璧なものと比較するのはやめよう。

  • Can we do better than today?

    今日よりいい結果を残せるか?

  • That feels like that can be done, and you can do it thoughtfully, and that's what we aspire to do.

    それができるように感じられるし、思慮深くできる。

Transportation, healthcare, education, the arts, finance.

交通、医療、教育、芸術、金融。

字幕と単語
AI 自動生成字幕

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます