Placeholder Image

字幕表 動画を再生する

  • My relationship with the internet reminds me of the setup

    翻訳: Kai Izumi 校正: Riaki Poništ

  • to a clichéd horror movie.

    私のインターネットとの関係は

  • You know, the blissfully happy family moves in to their perfect new home,

    ありきたりのホラー映画の設定を 思わせるんです

  • excited about their perfect future,

    ほら 幸せな一家が 完璧な新居に入居して

  • and it's sunny outside and the birds are chirping ...

    完璧な未来を 思い描いているところ

  • And then it gets dark.

    外は晴れていて 鳥のさえずりも聞こえて

  • And there are noises from the attic.

    でもそのうち夜になり

  • And we realize that that perfect new house isn't so perfect.

    屋根裏部屋から音がして

  • When I started working at Google in 2006,

    完璧だと思っていた家が そうでもないことに気づく

  • Facebook was just a two-year-old,

    2006年 私がGoogleに 勤め始めた頃

  • and Twitter hadn't yet been born.

    Facebookは 誕生して2年

  • And I was in absolute awe of the internet and all of its promise

    Twitterはまだ 存在してませんでした

  • to make us closer

    そして私はインターネットとその可能性に 絶大な畏敬の念を抱いていました

  • and smarter

    人と人の距離を縮め

  • and more free.

    人間をさらに賢くし

  • But as we were doing the inspiring work of building search engines

    いっそう自由にしてくれると

  • and video-sharing sites and social networks,

    しかし 私たちが検索エンジンや 動画投稿サイト

  • criminals, dictators and terrorists were figuring out

    ソーシャルネットワークを創り出すという 魅力的な仕事に関わると同時に

  • how to use those same platforms against us.

    犯罪者や独裁者 テロリストは 同じプラットフォームを

  • And we didn't have the foresight to stop them.

    私たちに対して悪用する方法を 見いだしていったのです

  • Over the last few years, geopolitical forces have come online to wreak havoc.

    私たちにはそれが予見できず 止められませんでした

  • And in response,

    過去数年で 地政学に強い勢力が 破壊を目的としてネット上に進出しました

  • Google supported a few colleagues and me to set up a new group called Jigsaw,

    それに対してGoogleは 私と数人の同僚が

  • with a mandate to make people safer from threats like violent extremism,

    Jigsawという組織を設立するのを 支援してくれました

  • censorship, persecution --

    私たちの任務は人々を

  • threats that feel very personal to me because I was born in Iran,

    暴力的な過激主義 検閲 迫害などの脅威から守ること

  • and I left in the aftermath of a violent revolution.

    イランで生まれ 暴力的な革命の後に 国を去った私が

  • But I've come to realize that even if we had all of the resources

    個人的に強く感じている脅威です

  • of all of the technology companies in the world,

    しかし 気づいたことがあります

  • we'd still fail

    たとえ 世界中のテクノロジー企業が持つ すべての資源を合わせたとしても

  • if we overlooked one critical ingredient:

    たった1つの決定的な要素を 見落とすだけで失敗するだろうということ

  • the human experiences of the victims and perpetrators of those threats.

    その要素とは 先ほど言ったような脅威の 被害者や加害者の実体験です

  • There are many challenges I could talk to you about today.

    私が今日ここで語れる問題点は たくさんありますが

  • I'm going to focus on just two.

    2つに絞ることにします

  • The first is terrorism.

    1つ目はテロです

  • So in order to understand the radicalization process,

    過激化の過程を理解するために

  • we met with dozens of former members of violent extremist groups.

    何十人もの元過激派構成員と 会いました

  • One was a British schoolgirl,

    うち1人はイギリス人女子学生

  • who had been taken off of a plane at London Heathrow

    ISISに入るためシリアに向かう途中 ロンドン・ヒースロー空港で

  • as she was trying to make her way to Syria to join ISIS.

    飛行機から降ろされたのです

  • And she was 13 years old.

    しかも13歳という若さでした

  • So I sat down with her and her father, and I said, "Why?"

    私はその子の父親を交えて腰を下ろし 「なぜ?」と尋ねました

  • And she said,

    答えはこうでした

  • "I was looking at pictures of what life is like in Syria,

    「シリアでの生活の様子を写真で見て

  • and I thought I was going to go and live in the Islamic Disney World."

    イスラム版ディズニーランドに 住めるんだと思った」

  • That's what she saw in ISIS.

    それが その子から見たISISでした

  • She thought she'd meet and marry a jihadi Brad Pitt

    ISIS版ブラッド・ピットのような人と そこで出会い 結婚し

  • and go shopping in the mall all day and live happily ever after.

    一日中モールで買い物して 末長く幸せに暮らすのだと思っていたそうです

  • ISIS understands what drives people,

    ISISは何が人を動かすかを知っています

  • and they carefully craft a message for each audience.

    そしてそれぞれの読者に合わせ 丹念にメッセージを作成します

  • Just look at how many languages

    ISISの勧誘資料が

  • they translate their marketing material into.

    どれだけの言語に 翻訳されているか見てください

  • They make pamphlets, radio shows and videos

    パンフレットに ラジオ番組に動画などを

  • in not just English and Arabic,

    英語とアラビア語だけでなく

  • but German, Russian, French, Turkish, Kurdish,

    ドイツ語 ロシア語 フランス語 トルコ語 クルド語

  • Hebrew,

    ヘブライ語

  • Mandarin Chinese.

    中国語でも作っています

  • I've even seen an ISIS-produced video in sign language.

    ISISが作った 手話の動画を 見たことすらあります

  • Just think about that for a second:

    ちょっと考えてみてください

  • ISIS took the time and made the effort

    ISISは耳の不自由な人にも メッセージが届くよう

  • to ensure their message is reaching the deaf and hard of hearing.

    わざわざ時間と労力を費やしたのです

  • It's actually not tech-savviness

    ISISが人々の心を つかむことができるのは

  • that is the reason why ISIS wins hearts and minds.

    ハイテクに精通しているからではありません

  • It's their insight into the prejudices, the vulnerabilities, the desires

    自分たちが思いを伝えたい相手の

  • of the people they're trying to reach

    偏見 弱さ 願望が何なのかを

  • that does that.

    見極めているからです

  • That's why it's not enough

    ネット上からISISの募集資料を 削除することに目を向けるだけでは

  • for the online platforms to focus on removing recruiting material.

    不十分なのはそういうわけです

  • If we want to have a shot at building meaningful technology

    過激派に対抗する テクノロジーとして

  • that's going to counter radicalization,

    役に立つものを開発したいのならば

  • we have to start with the human journey at its core.

    人間の人生の核心の部分から 始めなくてはなりません

  • So we went to Iraq

    そこで私たちは イラクへ出向きました

  • to speak to young men who'd bought into ISIS's promise

    ISISが約束する英雄像や

  • of heroism and righteousness,

    正義を信じ込み

  • who'd taken up arms to fight for them

    戦闘員として武器を手に取ったものの

  • and then who'd defected

    ISISの支配の残虐さを目にした後 脱走した若者たちに会うためです

  • after they witnessed the brutality of ISIS's rule.

    私は北イラクにある 簡素な仮設刑務所で

  • And I'm sitting there in this makeshift prison in the north of Iraq

    ISIS脱走前には自爆テロ犯として 訓練を受けていた―

  • with this 23-year-old who had actually trained as a suicide bomber

    23歳の若者と座っていました

  • before defecting.

    彼はこう語りました

  • And he says,

    「希望に満ち溢れて シリアに到着したのに

  • "I arrived in Syria full of hope,

    直後に僕にとって最も大切なものを 2つ取り上げられた

  • and immediately, I had two of my prized possessions confiscated:

    それはパスポートと携帯電話だった」

  • my passport and my mobile phone."

    自分の身体的そして 電子的な自由の象徴が

  • The symbols of his physical and digital liberty

    到着した途端 剥奪されたのです

  • were taken away from him on arrival.

    彼はその喪失の瞬間について

  • And then this is the way he described that moment of loss to me.

    こう表現しました

  • He said,

    「トムとジェリーのアニメでさ

  • "You know in 'Tom and Jerry,'

    ジェリーが逃げようとしているのに トムがドアの鍵を締めて

  • when Jerry wants to escape, and then Tom locks the door

    その鍵を飲み込んじゃって

  • and swallows the key

    それがトムの喉を通って 胃に入る様子が見える場面みたいな感じ」

  • and you see it bulging out of his throat as it travels down?"

    もちろん 彼の描写する場面が はっきりと目に浮かびました

  • And of course, I really could see the image that he was describing,

    彼が伝えようとしている心情—

  • and I really did connect with the feeling that he was trying to convey,

    逃げ場がないとわかっているときの 無力感に心から共感できました

  • which was one of doom,

    そして ふと思ったのです

  • when you know there's no way out.

    彼が家を出た日に 考えを改めさせる何かがあったならば

  • And I was wondering:

    どうなっていただろうか

  • What, if anything, could have changed his mind

    そこで尋ねてみました

  • the day that he left home?

    「君が今だから知っていることすべて―

  • So I asked,

    ISISでの苦痛や腐敗や残虐さなどを

  • "If you knew everything that you know now

    家を出た日に知っていたとして

  • about the suffering and the corruption, the brutality --

    それでも行ったと思う?」

  • that day you left home,

    彼は「はい」と答えました

  • would you still have gone?"

    それを聞いて困惑しました

  • And he said, "Yes."

    そうしたら彼は

  • And I thought, "Holy crap, he said 'Yes.'"

    「その時点では洗脳が進みすぎて

  • And then he said,

    ISISを否定するような情報を 一切受け入れようとしていなかったから

  • "At that point, I was so brainwashed,

    気持ちは変わらなかっただろう」と

  • I wasn't taking in any contradictory information.

    「ではもし その半年前に 知っていたならば?」と尋ねると

  • I couldn't have been swayed."

    「その時なら多分考えを改めていた」 とと返ってきました

  • "Well, what if you knew everything that you know now

    過激化というものはイエスかノーかという 単純な選択ではないのです

  • six months before the day that you left?"

    人々が観念 宗教 生活環境についての

  • "At that point, I think it probably would have changed my mind."

    疑問を抱いていくなかで 起こるものなのです

  • Radicalization isn't this yes-or-no choice.

    そこで答えを探すために ネットで検索したりしますが

  • It's a process, during which people have questions --

    これがISISにとってはチャンスなのです

  • about ideology, religion, the living conditions.

    正しい答えを知る人からの動画も ネット上には転がっています

  • And they're coming online for answers,

    例えば自分が暴力的な世界に入って

  • which is an opportunity to reach them.

    抜け出した経験を語る脱走者の話

  • And there are videos online from people who have answers --

    イラクの刑務所で面会した 若者の話もそうです

  • defectors, for example, telling the story of their journey

    ISISの支配のもとでの生活が どのようなものなのかを

  • into and out of violence;

    携帯電話で撮影してアップロードした 現地住民もいます

  • stories like the one from that man I met in the Iraqi prison.

    イスラームの平和的な解釈を説く 聖職者もいます

  • There are locals who've uploaded cell phone footage

    でも こういう人たちは たいてい

  • of what life is really like in the caliphate under ISIS's rule.

    ISISほどの発信力を持ちません

  • There are clerics who are sharing peaceful interpretations of Islam.

    命も惜しまず テロリストの プロパガンダに立ち向かいますが

  • But you know what?

    無残なことに 最も聞くべき人々には

  • These people don't generally have the marketing prowess of ISIS.

    言葉が届かないのです

  • They risk their lives to speak up and confront terrorist propaganda,

    我が社ではそれを 技術の力で変えようと試みました

  • and then they tragically don't reach the people

    2016年に Moonshot CVEと 提携を結んで

  • who most need to hear from them.

    過激派に対する新たな対抗手段である―

  • And we wanted to see if technology could change that.

    「リダイレクトメソッド」を試しました

  • So in 2016, we partnered with Moonshot CVE

    これはオンライン広告の力を

  • to pilot a new approach to countering radicalization

    ISISの発信に影響されやすい人と ISISの欠点を暴く信用ある人との間に

  • called the "Redirect Method."

    存在する隔たりを埋めるために 使うというものです

  • It uses the power of online advertising

    仕組みを説明しますね

  • to bridge the gap between those susceptible to ISIS's messaging

    過激派についての情報を探している人が

  • and those credible voices that are debunking that messaging.

    「ISISに入る方法」と調べたとしましょう

  • And it works like this:

    すると聖職者や脱走者など

  • someone looking for extremist material --

    正しい答えを知っている人が映った―

  • say they search for "How do I join ISIS?" --

    YouTubeの動画へと導く広告が現れます

  • will see an ad appear

    広告ターゲットは 検索した人がどんな人かには関係なく

  • that invites them to watch a YouTube video of a cleric, of a defector --

    その人の検索内容や疑問に 直接関連するものを特定することで

  • someone who has an authentic answer.

    設定されます

  • And that targeting is based not on a profile of who they are,

    8週間にわたる 英語とアラビア語での試験調査の結果

  • but of determining something that's directly relevant

    イスラム過激組織に興味や同情を示した 30万人以上もの人に

  • to their query or question.

    情報を伝えることができました

  • During our eight-week pilot in English and Arabic,

    壊滅的な選択をしてしまうのを 防ぐ効果のあるかもしれないビデオを

  • we reached over 300,000 people

    視聴してもらえたわけです

  • who had expressed an interest in or sympathy towards a jihadi group.

    そして 暴力的な過激主義は 1つの言語 宗教 観念に

  • These people were now watching videos

    限ったものではないので

  • that could prevent them from making devastating choices.

    リダイレクトメソッドは今や 全世界で展開され

  • And because violent extremism isn't confined to any one language,

    ネット上で暴力的な観念の信奉者が 接近しないよう人々を守っています

  • religion or ideology,

    相手が イスラム過激派 白人至上主義者

  • the Redirect Method is now being deployed globally

    その他の暴力的な過激派であろうが

  • to protect people being courted online by violent ideologues,

    自分が進もうとしている道の 反対側にいる人たちの話を聞いて

  • whether they're Islamists, white supremacists

    違う道を選ぶチャンスを 与えるという目標です

  • or other violent extremists,

    結局 悪者たちはインターネットを 悪用するのが得意なだけであることが多く

  • with the goal of giving them the chance to hear from someone

    それはテクノロジーに 精通しているからではなく

  • on the other side of that journey;

    何が人を動かすかを知っているからなのです

  • to give them the chance to choose a different path.

    ここで2つ目の例をあげましょう

  • It turns out that often the bad guys are good at exploiting the internet,

    ネット上での嫌がらせです

  • not because they're some kind of technological geniuses,

    オンラインで嫌がらせをする人も

  • but because they understand what makes people tick.

    人の気持ちをつかむのは何かを 知ろうとします

  • I want to give you a second example:

    でもISISみたいに 徴兵するためじゃなくて

  • online harassment.

    苦痛を与えるためです

  • Online harassers also work to figure out what will resonate

    想像してください

  • with another human being.

    あなたは女性で

  • But not to recruit them like ISIS does,

    結婚していて

  • but to cause them pain.

    子供もいます

  • Imagine this:

    ネットに何かを投稿したところ

  • you're a woman,

    レイプしてやるという コメントがつきます

  • you're married,

    しかも息子の見ている前で実行する と

  • you have a kid.

    時と場所の詳細まで書かれ

  • You post something on social media,

    しかも皆の目につくように 自宅住所も公開されました

  • and in a reply, you're told that you'll be raped,

    結構な脅威に感じますよね

  • that your son will be watching,

    家に帰れますか?

  • details of when and where.

    これまでしていたことを 続けられますか?

  • In fact, your home address is put online for everyone to see.

    加害者を苛つかせている行為を これからも続けられますか?

  • That feels like a pretty real threat.

    ネットいじめは このところ

  • Do you think you'd go home?

    何が人を怒らせ 何が人を怖がらせ

  • Do you think you'd continue doing the thing that you were doing?

    何が人を不安にさせるかを突き止め

  • Would you continue doing that thing that's irritating your attacker?

    そこを相手が黙り込むまで突くという

  • Online abuse has been this perverse art

    歪んだ遊びの極みと化しています

  • of figuring out what makes people angry,

    ネット上の嫌がらせが横行すると

  • what makes people afraid,

    自由な発言ができなくなります

  • what makes people insecure,

    議論の主催者側ですら

  • and then pushing those pressure points until they're silenced.

    手を上げて諦め

  • When online harassment goes unchecked,

    コメント欄やフォーラムを 閉じてしまいます

  • free speech is stifled.

    つまりネット上での 出会いや意見交換の場が

  • And even the people hosting the conversation

    失われていくということです

  • throw up their arms and call it quits,

    そして私たちは 残った場所で

  • closing their comment sections and their forums altogether.

    自分と同じ考えを持つ人としか 話さなくなってしまいます

  • That means we're actually losing spaces online

    でもそれは偽情報の拡散を促し

  • to meet and exchange ideas.

    二極化を助長します

  • And where online spaces remain,

    その代わりに テクノロジーを使って 共感を拡散できないだろうか

  • we descend into echo chambers with people who think just like us.

    この疑問がきっかけとなり

  • But that enables the spread of disinformation;

    Googleの乱用対策技術チームや Wikipediaや

  • that facilitates polarization.

    New York Timesなどの 新聞社との提携が実現しました

  • What if technology instead could enable empathy at scale?

    言葉が感情に与える影響を理解する—

  • This was the question that motivated our partnership

    機械学習モデルを作れるか 試そうというものです

  • with Google's Counter Abuse team,

    ネット上の会話で 誰かを退出させるコメントを

  • Wikipedia

    予測できないだろうか と

  • and newspapers like the New York Times.

    それはもう至難の技でしょう

  • We wanted to see if we could build machine-learning models

    AIで達成するのは

  • that could understand the emotional impact of language.

    生半可なことではありません

  • Could we predict which comments were likely to make someone else leave

    私に先週送られてきたかもしれない

  • the online conversation?

    2通りのメッセージを考えてみれば わかりますね

  • And that's no mean feat.

    「TEDで(足を折るくらい)頑張れ」

  • That's no trivial accomplishment

  • for AI to be able to do something like that.

    「TEDでお前の足を折ってやる」

  • I mean, just consider these two examples of messages

    (笑)

  • that could have been sent to me last week.

    皆さん 人間ですから

  • "Break a leg at TED!"

    ほぼ同じような言葉でも

  • ... and

    明らかな違いがあることが わかりますが

  • "I'll break your legs at TED."

    AIが認識するようになるには 発話の型を教える訓練が

  • (Laughter)

    ある程度必要なのです

  • You are human,

    違いがわかるAIを作ることの醍醐味は

  • that's why that's an obvious difference to you,

    ネット上で起こる迷惑行為の規模に合わせて 利用を拡大できるところにあります

  • even though the words are pretty much the same.

    それが「Perspective」という テクノロジーを開発する際の目標でした

  • But for AI, it takes some training to teach the models

    Perspectiveのお陰で

  • to recognize that difference.

    例えばNew York Timesは

  • The beauty of building AI that can tell the difference

    オンラインで会話が起こる場が増えました

  • is that AI can then scale to the size of the online toxicity phenomenon,

    我が社との提携前は

  • and that was our goal in building our technology called Perspective.

    全記事の10%ほどでしか コメントができなかったのです

  • With the help of Perspective,

    しかし機械学習のお陰で

  • the New York Times, for example,

    30%まで上がりました

  • has increased spaces online for conversation.

    以前の3倍です

  • Before our collaboration,

    まだ始動したばかりで この成果です

  • they only had comments enabled on just 10 percent of their articles.

    でもこれは会話を主催する側の 効率化の話にとどまりません

  • With the help of machine learning,

    今 皆さんが視界にいるので

  • they have that number up to 30 percent.

    私の話がどう受け取られているのか 推し量ることができますが

  • So they've tripled it,

    ネット上では そんな機会はありません

  • and we're still just getting started.

    もし機械学習を使って

  • But this is about way more than just making moderators more efficient.

    コメントの投稿者が 文字を打ち込む間に

  • Right now I can see you,

    相手にどう受け取られる可能性があるのか 直接の会話での表情のように

  • and I can gauge how what I'm saying is landing with you.

    瞬時にフィードバックできたならば どうでしょうか

  • You don't have that opportunity online.

    機械学習は完璧ではありません

  • Imagine if machine learning could give commenters,

    まだまだ たくさん間違えます

  • as they're typing,

    でも 言葉が感情に与える影響を理解する テクノロジーを開発できれば

  • real-time feedback about how their words might land,

    共感を培うことができます

  • just like facial expressions do in a face-to-face conversation.

    それは つまり

  • Machine learning isn't perfect,

    異なる政治観や異なる世界観

  • and it still makes plenty of mistakes.

    そして異なる価値観を持つ人と人の間に

  • But if we can build technology

    会話が成立するということです

  • that understands the emotional impact of language,

    大半の人が見限ってしまったネット空間に 再び活力を与えることができます

  • we can build empathy.

    他人を食い物にしたり危害を加えるために テクノロジーを利用する人は

  • That means that we can have dialogue between people

    人間が持つ恐怖や弱さを糧としています

  • with different politics,

    もし 人間の醜い側面から隔絶された ネット世界を作れるなどという考えが

  • different worldviews,

    一度でも浮かんだのであれば

  • different values.

    それは間違いです

  • And we can reinvigorate the spaces online that most of us have given up on.

    人間が直面する困難を乗り越えられる

  • When people use technology to exploit and harm others,

    そんなテクノロジーを作りたければ

  • they're preying on our human fears and vulnerabilities.

    問題点を理解することや

  • If we ever thought that we could build an internet

    かつ その問題点と同じくらい 人間らしい解決策を作ることに

  • insulated from the dark side of humanity,

    全身全霊を捧げなければなりません

  • we were wrong.

    私たちで実現させましょう

  • If we want today to build technology

    ご清聴ありがとうございました

  • that can overcome the challenges that we face,

    (拍手)

  • we have to throw our entire selves into understanding the issues

  • and into building solutions

  • that are as human as the problems they aim to solve.

  • Let's make that happen.

  • Thank you.

  • (Applause)

My relationship with the internet reminds me of the setup

翻訳: Kai Izumi 校正: Riaki Poništ

字幕と単語

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます

B1 中級 日本語 TED isis ネット テクノロジー 脱走 暴力

TED】ヤスミン・グリーン。テクノロジーはいかにして過激主義とオンラインハラスメントと闘えるか (How technology can fight extremism and online harassment | ヤスミン・グリーン) (【TED】Yasmin Green: How technology can fight extremism and online harassment (How technology can fight extremism and online harassment |

  • 522 32
    林宜悉 に公開 2021 年 01 月 14 日
動画の中の単語