Placeholder Image

字幕表 動画を再生する

  • Chris Anderson: What worries you right now?

    翻訳: Moe Shoji 校正: Yasushi Aoki

  • You've been very open about lots of issues on Twitter.

    (クリス・アンダーソン) どんな懸念がありますか?

  • What would be your top worry

    Twitterの抱える問題について あなたはオープンに話してますが

  • about where things are right now?


  • Jack Dorsey: Right now, the health of the conversation.


  • So, our purpose is to serve the public conversation,

    (ジャック・ドーシー) 現在は 対話の健全性です

  • and we have seen a number of attacks on it.

    私たちの目的は 公共の場での対話に寄与することですが

  • We've seen abuse, we've seen harassment,

    そこでたくさん攻撃を 目にしています

  • we've seen manipulation,


  • automation, human coordination, misinformation.


  • So these are all dynamics that we were not expecting

    機械によるもの 組織的活動 誤った情報もありました

  • 13 years ago when we were starting the company.

    こうした動きの数々は 13年前に起業したときには

  • But we do now see them at scale,


  • and what worries me most is just our ability to address it

    しかし それが 規模を増しています

  • in a systemic way that is scalable,

    1番の懸念は 我々がそういった問題に対し

  • that has a rigorous understanding of how we're taking action,

    大きな規模で体系的に 対処できるかということで

  • a transparent understanding of how we're taking action


  • and a rigorous appeals process for when we're wrong,

    取り組みについての クリアな理解と

  • because we will be wrong.

    過ちが起きた際の 厳格な是正手続きが必要です

  • Whitney Pennington Rodgers: I'm really glad to hear


  • that that's something that concerns you,

    (ウィットニー・ペニントン・ロジャース) 懸念されていると聞けて

  • because I think there's been a lot written about people


  • who feel they've been abused and harassed on Twitter,


  • and I think no one more so than women and women of color

    Twitter で誹謗中傷や 嫌がらせを受けており

  • and black women.

    女性や 有色人種の女性 黒人女性は特にそうです

  • And there's been data that's come out --


  • Amnesty International put out a report a few months ago

    アムネスティ・インターナショナルの 数か月前の報告では

  • where they showed that a subset of active black female Twitter users

    黒人女性の活発なユーザーの一部が 受け取るツイートの

  • were receiving, on average, one in 10 of their tweets

    平均1割が何らかの ハラスメントだということでした

  • were some form of harassment.

    だから Twitter コミュニティの 健全性について—

  • And so when you think about health for the community on Twitter,

    「すべての人にとっての健全さ」について 伺いたいものですが

  • I'm interested to hear, "health for everyone,"

    具体的には 女性や有色人種の女性 黒人女性のグループについて

  • but specifically: How are you looking to make Twitter a safe space

    Twitterをどう安全な場に 変えていくのですか?

  • for that subset, for women, for women of color and black women?


  • JD: Yeah.


  • So it's a pretty terrible situation


  • when you're coming to a service

    理想的には 世界について 何か学びたいのに

  • that, ideally, you want to learn something about the world,

    ほとんどの時間を 誹謗中傷や嫌がらせを受け

  • and you spend the majority of your time reporting abuse, receiving abuse,


  • receiving harassment.

    今 最も深く掘り下げているのは プラットフォームとサービスが

  • So what we're looking most deeply at is just the incentives

    自然に生み出す 動機そのものについてです

  • that the platform naturally provides and the service provides.

    現在は サービスを通じて 他者に誹謗中傷をしたり

  • Right now, the dynamic of the system makes it super-easy to harass

    嫌がらせ行為をしたりするのが 非常に容易なシステムになっています

  • and to abuse others through the service,

    残念ながら これまでのシステムはもっぱら

  • and unfortunately, the majority of our system in the past

    人々が嫌がらせや誹謗中傷を 報告してくれるのに頼っていました

  • worked entirely based on people reporting harassment and abuse.

    なので 昨年の中頃に もっと機械学習を使おう

  • So about midway last year, we decided that we were going to apply

    この問題に深層学習を 適用しようと決め

  • a lot more machine learning, a lot more deep learning to the problem,

    誹謗中傷が起きる場で もっと積極的な対策を講じようとしています

  • and try to be a lot more proactive around where abuse is happening,

    被害者の負担を 完全になくすのが目的です

  • so that we can take the burden off the victim completely.

    最近 進歩も見られました

  • And we've made some progress recently.

    約38%の誹謗中傷ツイートが 機械学習アルゴリズムで

  • About 38 percent of abusive tweets are now proactively identified


  • by machine learning algorithms


  • so that people don't actually have to report them.

    しかし 検出されたものは 人の目で確認しており

  • But those that are identified are still reviewed by humans,

    人による確認なしに 内容やアカウントの凍結はしていません

  • so we do not take down content or accounts without a human actually reviewing it.

    とはいえ 1年前の0%からは 進歩でしょう

  • But that was from zero percent just a year ago.

    つまり 0%であったときは

  • So that meant, at that zero percent,

    誹謗中傷を受けた人が 皆 報告する必要があり

  • every single person who received abuse had to actually report it,

    当事者にとっても 私たちにとっても大きな負担で

  • which was a lot of work for them, a lot of work for us


  • and just ultimately unfair.

    もうひとつの取り組みは 企業として

  • The other thing that we're doing is making sure that we, as a company,

    あらゆるコミュニティが 参画できるよう努めることです

  • have representation of all the communities that we're trying to serve.


  • We can't build a business that is successful

    こうした問題を 日々実感している人々の

  • unless we have a diversity of perspective inside of our walls

    多様な視点を 内部に持たねばなりません

  • that actually feel these issues every single day.


  • And that's not just with the team that's doing the work,

    上層部についても そうです

  • it's also within our leadership as well.

    人々の経験に対して 共感を高め続ける必要があるし

  • So we need to continue to build empathy for what people are experiencing

    行動を起こすのに役立つツールを 提供する必要があります

  • and give them better tools to act on it

    ユーザーが目にしているものに もっとうまく容易に対処できる方法を

  • and also give our customers a much better and easier approach


  • to handle some of the things that they're seeing.

    ですから 技術面での取り組みが 多いですが

  • So a lot of what we're doing is around technology,

    サービスが人々に与える 動機についても考えています

  • but we're also looking at the incentives on the service:

    Twitter を開いたときに 何をしたいと思わせるのか?

  • What does Twitter incentivize you to do when you first open it up?


  • And in the past,

    怒りや 群衆行動 集団的嫌がらせも

  • it's incented a lot of outrage, it's incented a lot of mob behavior,


  • it's incented a lot of group harassment.


  • And we have to look a lot deeper at some of the fundamentals

    サービスが何をしているのか本質的なことを 深く理解する必要があります

  • of what the service is doing to make the bigger shifts.

    先ほど言った通り 技術面で 小さな変更は多くできますが

  • We can make a bunch of small shifts around technology, as I just described,

    最終的には ネットワークそのものの 力学を深く理解する必要があり

  • but ultimately, we have to look deeply at the dynamics in the network itself,


  • and that's what we're doing.

    (クリス)ですが 実感としては―

  • CA: But what's your sense --

    実際に人々の行動を 根本的に変えるために

  • what is the kind of thing that you might be able to change

    どんなことができると 思いますか?

  • that would actually fundamentally shift behavior?


  • JD: Well, one of the things --

    このサービスの基本に 「アカウントのフォロー」がありました

  • we started the service with this concept of following an account,

    これは ひとつの例ですが

  • as an example,

    でもそれは 人々がTwitterを使う 理由ではないと思うんです

  • and I don't believe that's why people actually come to Twitter.

    Twitter は関心に基づいた ネットワークとして優れています

  • I believe Twitter is best as an interest-based network.

    特定の関心を持って 利用されているんです

  • People come with a particular interest.

    今は各自の関心に関係のあるアカウントを 探してフォローして回るのに

  • They have to do a ton of work to find and follow the related accounts


  • around those interests.

    そうではなく 関心をフォローしたり

  • What we could do instead is allow you to follow an interest,

    ハッシュタグやトレンドや コミュニティを

  • follow a hashtag, follow a trend,


  • follow a community,

    そうすれば特定の話題や関心に 関係するアカウントや

  • which gives us the opportunity to show all of the accounts,

    トピックや「モーメント」や ハッシュタグなどを

  • all the topics, all the moments, all the hashtags

    すべて表示することが できるようになり

  • that are associated with that particular topic and interest,

    目に入ってくる視野が 大きく広がります

  • which really opens up the perspective that you see.

    とはいえ アカウント中心から

  • But that is a huge fundamental shift

    トピックや関心を中心にするよう ネットワーク全体を移行するのは

  • to bias the entire network away from just an account bias


  • towards a topics and interest bias.


  • CA: Because isn't it the case

    コンテンツが 豊富である理由のひとつは

  • that one reason why you have so much content on there


  • is a result of putting millions of people around the world

    フォロワーや注目の争奪戦を させたからではありませんか?

  • in this kind of gladiatorial contest with each other

    Twitter で情報を得るだけの人には その変更は

  • for followers, for attention?


  • Like, from the point of view of people who just read Twitter,

    コンテンツを生み出す人々は 皆 こう考えていますよね

  • that's not an issue,

    「いいねや フォロワーや リツイートをもっと増やしたい!」と

  • but for the people who actually create it, everyone's out there saying,

    彼らは それを実現しようと

  • "You know, I wish I had a few more 'likes,' followers, retweets."


  • And so they're constantly experimenting,

    そして1番効果的だと 分かったのは

  • trying to find the path to do that.


  • And what we've all discovered is that the number one path to do that


  • is to be some form of provocative,

    声高な侮辱は Twitter で 注目されます

  • obnoxious, eloquently obnoxious,


  • like, eloquent insults are a dream on Twitter,

    炎上を自ら招く手法が できてしまうわけです

  • where you rapidly pile up --

    それには どう対処しますか?

  • and it becomes this self-fueling process of driving outrage.

    (ジャック)ええ その通りで

  • How do you defuse that?


  • JD: Yeah, I mean, I think you're spot on,


  • but that goes back to the incentives.

    フォロワーの数を表示する というものがあります

  • Like, one of the choices we made in the early days was

    その数字を大きい太字で 表示することにしました

  • we had this number that showed how many people follow you.

    大きく太字で表示されているものは 重要なわけで

  • We decided that number should be big and bold,


  • and anything that's on the page that's big and bold has importance,


  • and those are the things that you want to drive.


  • Was that the right decision at the time?

    サービスを最初から 作り直すなら

  • Probably not.

    フォロワー数は そこまで強調しないと思います

  • If I had to start the service again,


  • I would not emphasize the follower count as much.

    「いいね」をする機能を そもそも作りませんね

  • I would not emphasize the "like" count as much.

    現在 最も重要だと考えていることを

  • I don't think I would even create "like" in the first place,


  • because it doesn't actually push


  • what we believe now to be the most important thing,


  • which is healthy contribution back to the network


  • and conversation to the network,

    対話から何かを学ぶことには つながりません

  • participation within conversation,

    こうしたことを 13年前には 考えていませんでしたが

  • learning something from the conversation.


  • Those are not things that we thought of 13 years ago,

    ですから フォロワー数を どう表示するか

  • and we believe are extremely important right now.


  • So we have to look at how we display the follower count,


  • how we display retweet count,


  • how we display "likes,"

    本当にこの数字を 追求させたいのか?

  • and just ask the deep question:

    Twitter を開いたときに

  • Is this really the number that we want people to drive up?

    「この数字を増やそう」と 思わせたいのか?

  • Is this the thing that, when you open Twitter,

    今は そうではないと思います

  • you see, "That's the thing I need to increase?"


  • And I don't believe that's the case right now.


  • (Applause)


  • WPR: I think we should look at some of the tweets


  • that are coming in from the audience as well.

    これは Twitter の 素晴らしい点のひとつですね

  • CA: Let's see what you guys are asking.


  • I mean, this is -- generally, one of the amazing things about Twitter

    想像しないほど多くの 知識や問いや視点を活用でき

  • is how you can use it for crowd wisdom,

    その多くはとても 健全なものです

  • you know, that more knowledge, more questions, more points of view

    (ウィットニー)今 流れていきましたが

  • than you can imagine,

    「2020年の米大統領選挙で 外国の介入にどう対処するのか?」

  • and sometimes, many of them are really healthy.


  • WPR: I think one I saw that passed already quickly down here,


  • "What's Twitter's plan to combat foreign meddling in the 2020 US election?"

    自動化された悪意ある活動が 多く見られます

  • I think that's something that's an issue we're seeing

    たとえば Twitter については

  • on the internet in general,

    Zignal Lab による 調査結果が手元にありますが

  • that we have a lot of malicious automated activity happening.

    今 お話ししていることの

  • And on Twitter, for example, in fact, we have some work


  • that's come from our friends at Zignal Labs,


  • and maybe we can even see that to give us an example

    組織的な悪意ある 自動化されたアカウントが

  • of what exactly I'm talking about,

    選挙などを左右するのに 使われたりしています

  • where you have these bots, if you will,

    Zignal Lab 提供の こちらの例は

  • or coordinated automated malicious account activity,

    Twitter から抽出した データを使っていますが

  • that is being used to influence things like elections.


  • And in this example we have from Zignal which they've shared with us

    ひとつひとつの点がアカウントで 白が人間のユーザーで

  • using the data that they have from Twitter,


  • you actually see that in this case,


  • white represents the humans -- human accounts, each dot is an account.

    ボットと関わっている人間のユーザーが いくらか見られます

  • The pinker it is,

    このケースは イスラエルの選挙に関連したもので

  • the more automated the activity is.

    ベニー・ガンツに関する 虚偽の情報が広められています

  • And you can see how you have a few humans interacting with bots.

    ご存じの通り 最終的に選挙結果は

  • In this case, it's related to the election in Israel

    ネタニヤフが僅差で 勝利しましたが

  • and spreading misinformation about Benny Gantz,

    これに影響された部分も あるかもしれません

  • and as we know, in the end, that was an election

    Twitter 上の こうした活動について

  • that Netanyahu won by a slim margin,

    具体的には 何をされていますか?

  • and that may have been in some case influenced by this.

    虚偽の情報がいたずらに広まり 人々に影響して

  • And when you think about that happening on Twitter,

    民主主義を左右しないように 何をしていますか?

  • what are the things that you're doing, specifically,


  • to ensure you don't have misinformation like this spreading in this way,


  • influencing people in ways that could affect democracy?

    実際に対話の健全性を 測ることはできるのか?

  • JD: Just to back up a bit,


  • we asked ourselves a question:


  • Can we actually measure the health of a conversation,


  • and what does that mean?

    人間として持っているのと 同じように

  • And in the same way that you have indicators

    対話の健全性についても 尺度を見いだせると思います

  • and we have indicators as humans in terms of are we healthy or not,

    MIT の Cortico という ラボと共同して

  • such as temperature, the flushness of your face,


  • we believe that we could find the indicators of conversational health.

    最終的には システム上で 測れるものだと思います

  • And we worked with a lab called Cortico at MIT


  • to propose four starter indicators

    ある対話において どれほどが同じ話題に

  • that we believe we could ultimately measure on the system.


  • And the first one is what we're calling shared attention.


  • It's a measure of how much of the conversation is attentive

    これは ある対話において 同じ事実を

  • on the same topic versus disparate.


  • The second one is called shared reality,


  • and this is what percentage of the conversation

    対話において 同じ事実が 共有されているかどうかです

  • shares the same facts --


  • not whether those facts are truthful or not,

    ある対話のどれほどが 受容的かつ礼儀にかなったものか

  • but are we sharing the same facts as we converse?


  • The third is receptivity:


  • How much of the conversation is receptive or civil

    フィルターバブルや エコーチェンバー現象が起きているか

  • or the inverse, toxic?

    それとも 対話において 様々な意見が見られるかを測ります

  • And then the fourth is variety of perspective.

    この4つに共通するのは それが大きいほどに

  • So, are we seeing filter bubbles or echo chambers,

    対話がより健全なものになる ということです

  • or are we actually getting a variety of opinions

    第一歩はこれらをその場で 測れるかを試すことですが

  • within the conversation?


  • And implicit in all four of these is the understanding that,

    「受容性」について 特に力を入れています

  • as they increase, the conversation gets healthier and healthier.

    不快度のモデルを システム上に構築していて

  • So our first step is to see if we can measure these online,

    不快であるとの理由から Twitter 上での対話から

  • which we believe we can.


  • We have the most momentum around receptivity.


  • We have a toxicity score, a toxicity model, on our system


  • that can actually measure whether you are likely to walk away


  • from a conversation that you're having on Twitter


  • because you feel it's toxic,


  • with some pretty high degree.

    これらの指標が時の経過とともに どう変化するかを観察し

  • We're working to measure the rest,


  • and the next step is,

    目標はこれらをバランスよく 運用することです

  • as we build up solutions,

    どれかを増やすと 他が減少することもあるでしょう

  • to watch how these measurements trend over time


  • and continue to experiment.

    「事実の共有度」が下がる かもしれません

  • And our goal is to make sure that these are balanced,

    (クリス)多く寄せられた質問に 言及しますね

  • because if you increase one, you might decrease another.


  • If you increase variety of perspective,

    (クリス)多くの人が 疑問に思っているのは

  • you might actually decrease shared reality.

    Twitter からネオナチを駆逐するのが どれだけ難しいのかということです

  • CA: Just picking up on some of the questions flooding in here.


  • JD: Constant questioning.

    暴力的な過激派集団に対する 方針があります

  • CA: A lot of people are puzzled why,

    私たちの仕事や サービス規約のほとんどは

  • like, how hard is it to get rid of Nazis from Twitter?

    コンテンツではなく 行動を対象にしています

  • JD: (Laughs)

    ですから 行動に着目しています

  • So we have policies around violent extremist groups,

    つまり サービスを通じて

  • and the majority of our work and our terms of service

    繰り返し あるいは散発的に 嫌がらせ行為をしたり

  • works on conduct, not content.

    KKK やアメリカ・ナチ党に 関連するような―