Placeholder Image

字幕表 動画を再生する

自動翻訳
  • Transcriber: Leslie Gauthier Reviewer: Joanna Pietrulewicz

    書き起こし:レスリー・ゴーティエ レビュアー:ジョアンナ・ピエトルウィッツ

  • Every day, every week,

    毎日、毎週。

  • we agree to terms and conditions.

    規約に同意します。

  • And when we do this,

    そして、これをするときに

  • we provide companies with the lawful right

    私たちは、企業に合法的な権利を提供します。

  • to do whatever they want with our data

    私たちのデータを好きなように使うことができます

  • and with the data of our children.

    と子供たちのデータと一緒に。

  • Which makes us wonder:

    それが不思議なんだ

  • how much data are we giving away of children,

    どれだけのデータを子供たちに与えているのか。

  • and what are its implications?

    そして、その意味するところは何でしょうか?

  • I'm an anthropologist,

    私は人類学者です。

  • and I'm also the mother of two little girls.

    そして、私は二人の小さな女の子の母親でもあります。

  • And I started to become interested in this question in 2015

    そして、この質問に興味を持ち始めたのが2015年

  • when I suddenly realized that there were vast --

    私がふと気付いた時、そこには広大な...

  • almost unimaginable amounts of data traces

    膨大なデータの痕跡

  • that are being produced and collected about children.

    子どもたちについて生産され、収集されている

  • So I launched a research project,

    そこで私は研究プロジェクトを立ち上げました。

  • which is called Child Data Citizen,

    これはチャイルドデータシチズンと呼ばれています。

  • and I aimed at filling in the blank.

    と空欄を埋めることを目標にしました。

  • Now you may think that I'm here to blame you

    今、あなたは私があなたを非難するためにここにいると思うかもしれません。

  • for posting photos of your children on social media,

    お子さんの写真をソーシャルメディアに投稿するために

  • but that's not really the point.

    でも、そういう問題ではありません。

  • The problem is way bigger than so-called "sharenting."

    問題はいわゆる "親子関係 "よりもはるかに大きなものだ

  • This is about systems, not individuals.

    これは個人ではなくシステムの話です。

  • You and your habits are not to blame.

    あなたやあなたの癖には責任はありません。

  • For the very first time in history,

    史上初めてのことです。

  • we are tracking the individual data of children

    私たちは、子供たちの個々のデータを追跡しています。

  • from long before they're born --

    生まれてくる前から --

  • sometimes from the moment of conception,

    時には受胎の瞬間から

  • and then throughout their lives.

    そして、その生涯を通じて。

  • You see, when parents decide to conceive,

    親が妊娠すると決めたら

  • they go online to look for "ways to get pregnant,"

    ネットで "妊娠する方法 "を探すんだ

  • or they download ovulation-tracking apps.

    または排卵追跡アプリをダウンロードしています。

  • When they do get pregnant,

    彼らが妊娠したら

  • they post ultrasounds of their babies on social media,

    赤ちゃんの超音波画像を ソーシャルメディアに投稿しています

  • they download pregnancy apps

    彼らは妊娠アプリをダウンロードする

  • or they consult Dr. Google for all sorts of things,

    とか、グーグル先生に色々と相談したりしています。

  • like, you know --

    みたいな

  • for "miscarriage risk when flying"

    "飛行機に乗っている時の流産リスク "について

  • or "abdominal cramps in early pregnancy."

    または "妊娠初期の腹痛"

  • I know because I've done it --

    私がやったから知っている...

  • and many times.

    と何度も言っています。

  • And then, when the baby is born, they track every nap,

    そして、赤ちゃんが生まれたら、お昼寝のたびに追跡しています。

  • every feed,

    すべてのフィード。

  • every life event on different technologies.

    ライフイベントごとに異なる技術で

  • And all of these technologies

    そして、これらの技術はすべて

  • transform the baby's most intimate behavioral and health data into profit

    赤ちゃんの最も親密な行動と健康データを利益に変える

  • by sharing it with others.

    他の人と共有することで

  • So to give you an idea of how this works,

    そこで、この仕組みを知ってもらうために

  • in 2019, the British Medical Journal published research that showed

    2019年、英医学誌が発表した研究によると

  • that out of 24 mobile health apps,

    24個のモバイルヘルスアプリのうち

  • 19 shared information with third parties.

    19 の情報を第三者と共有した。

  • And these third parties shared information with 216 other organizations.

    そして、これらの第三者は216の他の組織と情報を共有していました。

  • Of these 216 other fourth parties,

    このうち216人の他の第4者

  • only three belonged to the health sector.

    保健所に所属していたのは3人だけでした。

  • The other companies that had access to that data were big tech companies

    そのデータにアクセスしていたのは、他にも大手テック企業だった。

  • like Google, Facebook or Oracle,

    Google、Facebook、Oracleのように。

  • they were digital advertising companies

    彼らはデジタル広告会社だった

  • and there was also a consumer credit reporting agency.

    と、消費者信用情報機関もありました。

  • So you get it right:

    だから、それを正しく理解しているんですね。

  • ad companies and credit agencies may already have data points on little babies.

    広告会社やクレジット会社は、すでに小さな赤ちゃんのデータポイントを持っているかもしれません。

  • But mobile apps, web searches and social media

    しかし、モバイルアプリやウェブ検索、ソーシャルメディア

  • are really just the tip of the iceberg,

    は本当に氷山の一角に過ぎません。

  • because children are being tracked by multiple technologies

    子供たちが複数の技術で追跡されているから

  • in their everyday lives.

    日常生活の中で。

  • They're tracked by home technologies and virtual assistants in their homes.

    彼らはホームテクノロジーやバーチャルアシスタントによって追跡されています。

  • They're tracked by educational platforms

    教育プラットフォームで追跡されている

  • and educational technologies in their schools.

    と教育技術を学校に導入しています。

  • They're tracked by online records

    彼らはオンライン記録で追跡されている

  • and online portals at their doctor's office.

    とオンラインポータルを医師のオフィスに設置しています。

  • They're tracked by their internet-connected toys,

    彼らはインターネットに接続されたおもちゃで追跡されています。

  • their online games

    オンラインゲーム

  • and many, many, many, many other technologies.

    と、たくさんの、たくさんの、たくさんの、たくさんの、たくさんの技術があります。

  • So during my research,

    だから研究中に

  • a lot of parents came up to me and they were like, "So what?

    多くの親御さんが近寄ってきて「だから何?

  • Why does it matter if my children are being tracked?

    子供が追跡されていても関係ないでしょう?

  • We've got nothing to hide."

    "隠すことは何もない"

  • Well, it matters.

    まあ、それは重要なことだ。

  • It matters because today individuals are not only being tracked,

    今日の個人は追跡されているだけではないので、それは重要です。

  • they're also being profiled on the basis of their data traces.

    データの痕跡に基づいてプロファイリングされている。

  • Artificial intelligence and predictive analytics are being used

    人工知能や予測アナリティクスが活用されている

  • to harness as much data as possible of an individual life

    個人の人生のデータを最大限に活用するために

  • from different sources:

    異なるソースから。

  • family history, purchasing habits, social media comments.

    家族の歴史、購買習慣、ソーシャルメディアでのコメント

  • And then they bring this data together

    そして、このデータをまとめて

  • to make data-driven decisions about the individual.

    個人についてデータに基づいた意思決定を行うために

  • And these technologies are used everywhere.

    そして、これらの技術はどこでも使われています。

  • Banks use them to decide loans.

    銀行はそれを利用して融資を決めています。

  • Insurance uses them to decide premiums.

    保険はそれを使って保険料を決めます。

  • Recruiters and employers use them

    採用担当者と雇用主が利用する

  • to decide whether one is a good fit for a job or not.

    を見て、自分に合っているかどうかを判断します。

  • Also the police and courts use them

    また、警察や裁判所はそれらを使用しています。

  • to determine whether one is a potential criminal

    犯罪者かどうかを見極めるために

  • or is likely to recommit a crime.

    または犯罪を再犯する可能性があります。

  • We have no knowledge or control

    私たちには知識もコントロールもありません

  • over the ways in which those who buy, sell and process our data

    私たちのデータを売買し、処理する人たちがどのような方法でデータを処理しているかについて

  • are profiling us and our children.

    私たちと子供たちをプロファイリングしている

  • But these profiles can come to impact our rights in significant ways.

    しかし、これらのプロファイルは、重要な方法で私たちの権利に影響を与えることができます。

  • To give you an example,

    例を挙げると

  • in 2018 the "New York Times" published the news

    2018年に「ニューヨーク・タイムズ」が発表したニュースは

  • that the data that had been gathered

    集めていたデータが

  • through online college-planning services --

    オンラインの大学進学計画サービスを利用して

  • that are actually completed by millions of high school kids across the US

    アメリカ中の何百万人もの高校生が実際に完成させている

  • who are looking for a college program or a scholarship --

    大学のプログラムや奨学金をお探しの方

  • had been sold to educational data brokers.

    は教育データブローカーに売却されていました。

  • Now, researchers at Fordham who studied educational data brokers

    現在、教育データブローカーを研究していたフォーダム大学の研究者が

  • revealed that these companies profiled kids as young as two

    これらの企業が2歳の子供をプロファイリングしていることが明らかになりました。

  • on the basis of different categories:

    異なったカテゴリーに基づいて

  • ethnicity, religion, affluence,

    民族、宗教、豊かさ

  • social awkwardness

    しゃかいぎこちなさ

  • and many other random categories.

    といったランダムなカテゴリが多いです。

  • And then they sell these profiles together with the name of the kid,

    そして、子供の名前と一緒にこれらのプロフィールを販売しています。

  • their home address and the contact details

    自宅の住所と連絡先

  • to different companies,

    を別の会社に変更することができます。

  • including trade and career institutions,

    貿易・キャリア機関を含む。

  • student loans

    学生ローン

  • and student credit card companies.

    と学生向けのクレジットカード会社を紹介しています。

  • To push the boundaries,

    限界に挑戦するために

  • the researchers at Fordham asked an educational data broker

    フォーダム大学の研究者は、教育データブローカーに尋ねた。

  • to provide them with a list of 14-to-15-year-old girls

    14歳から15歳の女の子のリストを提供するために

  • who were interested in family planning services.

    家族計画サービスに興味を持っていた人

  • The data broker agreed to provide them the list.

    データブローカーは彼らにリストを提供することに同意した。

  • So imagine how intimate and how intrusive that is for our kids.

    それが子供にとってどれだけ親密で、どれだけ邪魔なものか想像してみてください。

  • But educational data brokers are really just an example.

    しかし、教育用データブローカーは本当に一例に過ぎません。

  • The truth is that our children are being profiled in ways that we cannot control

    真実は、私たちの子供たちは、私たちがコントロールできない方法で プロファイルされているということです。

  • but that can significantly impact their chances in life.

    しかし、それは人生のチャンスに大きく影響を与えることができます。

  • So we need to ask ourselves:

    だから、自問自答が必要なのです。

  • can we trust these technologies when it comes to profiling our children?

    子供をプロファイリングすることになった時、これらの技術は信用できるのでしょうか?

  • Can we?

    私たちは?

  • My answer is no.

    私の答えはノーです。

  • As an anthropologist,

    人類学者として

  • I believe that artificial intelligence and predictive analytics can be great

    人工知能と予測分析は素晴らしいものになると信じています。

  • to predict the course of a disease

    予知する

  • or to fight climate change.

    または気候変動と戦うために。

  • But we need to abandon the belief

    しかし、私たちは信念を捨てる必要があります。

  • that these technologies can objectively profile humans

    これらの技術は、客観的に人間をプロファイルすることができます。

  • and that we can rely on them to make data-driven decisions

    そして、データに基づいた意思決定を行うために頼ることができます。

  • about individual lives.

    個人の生活について

  • Because they can't profile humans.

    人間をプロファイルできないからだ

  • Data traces are not the mirror of who we are.

    データの痕跡は、私たちが誰であるかを映す鏡ではありません。

  • Humans think one thing and say the opposite,

    人間は一つのことを考えて反対のことを言う。

  • feel one way and act differently.

    一方的に感じて違う行動をする

  • Algorithmic predictions or our digital practices

    アルゴリズムの予測、または私たちのデジタルの実践

  • cannot account for the unpredictability and complexity of human experience.

    人間の経験の予測不可能性と複雑さを説明することはできません。

  • But on top of that,

    でもその上で

  • these technologies are always --

    これらの技術は常に

  • always --

    常時

  • in one way or another, biased.

    ある意味では偏っている

  • You see, algorithms are by definition sets of rules or steps

    アルゴリズムとは、定義上、ルールやステップの集合です。

  • that have been designed to achieve a specific result, OK?

    決まった結果になるように設計されているんだよ

  • But these sets of rules or steps cannot be objective,

    しかし、これらの一連のルールやステップは客観的にはなり得ません。

  • because they've been designed by human beings

    人間が設計したものだから

  • within a specific cultural context

    文化的文脈の中で

  • and are shaped by specific cultural values.

    と特定の文化的価値観によって形成されています。

  • So when machines learn,

    だから機械が学習するとき

  • they learn from biased algorithms,

    彼らは偏ったアルゴリズムから学びます。

  • and they often learn from biased databases as well.

    そして、彼らは偏ったデータベースからも学ぶことが多い。

  • At the moment, we're seeing the first examples of algorithmic bias.

    今のところ、アルゴリズムのバイアスの最初の例を見ています。

  • And some of these examples are frankly terrifying.

    そして、これらの例のいくつかは、率直に言って恐ろしいものです。

  • This year, the AI Now Institute in New York published a report

    今年、ニューヨークのAIナウ・インスティテュートがレポートを発表しました

  • that revealed that the AI technologies

    AI技術を明らかにした

  • that are being used for predictive policing

    予測的な取り締まりに使われている

  • have been trained on "dirty" data.

    は「汚れた」データで訓練を受けてきました。

  • This is basically data that had been gathered

    これは基本的には集めていたデータです。

  • during historical periods of known racial bias

    人種的偏見が知られている歴史的な時期に

  • and nontransparent police practices.

    と透明性のない警察のやり方。

  • Because these technologies are being trained with dirty data,

    これらの技術は汚れたデータで鍛えられているからです。

  • they're not objective,

    客観的ではない

  • and their outcomes are only amplifying and perpetrating

    その結果は、増幅して加害しているに過ぎません。

  • police bias and error.

    警察の偏見と間違い

  • So I think we are faced with a fundamental problem

    ということで、根本的な問題に直面していると思います。

  • in our society.

    私たちの社会の中で

  • We are starting to trust technologies when it comes to profiling human beings.

    人間のプロファイリングに関しては、技術を信頼し始めています。

  • We know that in profiling humans,

    人間のプロファイリングで知っている

  • these technologies are always going to be biased

    これらの技術は常に偏ったものになる

  • and are never really going to be accurate.

    とは決して正確ではありません。

  • So what we need now is actually political solution.

    だから今必要なのは、実は政治的な解決策なんです。

  • We need governments to recognize that our data rights are our human rights.

    政府にはデータの権利が私たちの人権であることを認識してもらう必要があります。

  • (Applause and cheers)

    (拍手と歓声)

  • Until this happens, we cannot hope for a more just future.

    これが実現するまでは、より公正な未来を望むことはできません。

  • I worry that my daughters are going to be exposed

    娘たちにバレるのが心配

  • to all sorts of algorithmic discrimination and error.

    あらゆる種類のアルゴリズムの識別やエラーに対応しています。

  • You see the difference between me and my daughters

    あなたは私と私の娘たちの違いがわかりますか?

  • is that there's no public record out there of my childhood.

    私の子供時代の記録がないということです。

  • There's certainly no database of all the stupid things that I've done

    確かにくだらないことばかりでデータベース化されていない

  • and thought when I was a teenager.

    と10代の頃に思いました。

  • (Laughter)

    (笑)

  • But for my daughters this may be different.

    しかし、私の娘たちにとっては、これは違うかもしれません。

  • The data that is being collected from them today

    今日、彼らから集められているデータは

  • may be used to judge them in the future

    は、将来的にそれらを判断するために使用される可能性があります。

  • and can come to prevent their hopes and dreams.

    と彼らの希望と夢を妨げるために来ることができます。

  • I think that's it's time.

    今がその時だと思います。

  • It's time that we all step up.

    みんなでステップアップする時が来た。

  • It's time that we start working together

    そろそろ一緒に仕事を始めよう

  • as individuals,

    個人として。

  • as organizations and as institutions,

    組織として、制度として。

  • and that we demand greater data justice for us

    そして、私たちのために、より大きなデータの正義を要求します。

  • and for our children

    子供たちのために

  • before it's too late.

    手遅れになる前に

  • Thank you.

    ありがとうございます。

  • (Applause)

    (拍手)

Transcriber: Leslie Gauthier Reviewer: Joanna Pietrulewicz

書き起こし:レスリー・ゴーティエ レビュアー:ジョアンナ・ピエトルウィッツ

字幕と単語
自動翻訳

動画の操作 ここで「動画」の調整と「字幕」の表示を設定することができます

B1 中級 日本語 データ 追跡 技術 子供 アルゴリズム 教育

テック企業が知っているあなたの子供のこと|ベロニカ・バラッシ (What tech companies know about your kids | Veronica Barassi)

  • 0 0
    林宜悉 に公開 2020 年 10 月 30 日
動画の中の単語