Placeholder Image

字幕表 動画を再生する

  • Mark Zuckerberg,

    翻訳: Sawa Horibe 校正: Takafusa Kitazume

  • a journalist was asking him a question about the news feed.

    マーク・ザッカーバーグが

  • And the journalist was asking him,

    ニュース配信について質問されていました

  • "Why is this so important?"

    「なぜそんなに重要なんですか?」

  • And Zuckerberg said,

    ジャーナリストが聞くと

  • "A squirrel dying in your front yard

    ザッカーバーグは答えました

  • may be more relevant to your interests right now

    「今あなたの関心事は

  • than people dying in Africa."

    アフリカで死に瀕した人々よりも

  • And I want to talk about

    家の庭で死にかけているリスかもしれないでしょう」

  • what a Web based on that idea of relevance might look like.

    この関連性の考え方をもとにした

  • So when I was growing up

    ウェブとはどういうことか話したいと思います

  • in a really rural area in Maine,

    メイン州の片田舎に住んでいた

  • the Internet meant something very different to me.

    僕にとって 子供の頃

  • It meant a connection to the world.

    インターネットは全く違う意味を持ったものでした

  • It meant something that would connect us all together.

    世界へのドアであり

  • And I was sure that it was going to be great for democracy

    人々を繋げるものでした

  • and for our society.

    民主主義と僕たちの社会に

  • But there's this shift

    大きく役立つに違いないと思っていました

  • in how information is flowing online,

    でも見えないところで

  • and it's invisible.

    インターネットでの

  • And if we don't pay attention to it,

    情報の流れに変化がありました

  • it could be a real problem.

    注意しないと

  • So I first noticed this in a place I spend a lot of time --

    大きな問題になるかもしれません

  • my Facebook page.

    これに初めて気付いたのは僕がいつも使っている

  • I'm progressive, politically -- big surprise --

    Facebookのページでした

  • but I've always gone out of my way to meet conservatives.

    見た目どおり 僕は政党的には進歩派ですが

  • I like hearing what they're thinking about;

    進んで保守派と交流しています

  • I like seeing what they link to;

    保守派の考えを聞いたり

  • I like learning a thing or two.

    何にリンクしているか見たり

  • And so I was surprised when I noticed one day

    何か学びたいと思っています

  • that the conservatives had disappeared from my Facebook feed.

    ですから ある日僕のFacebookの配信から

  • And what it turned out was going on

    保守派の人たちが消えてしまって驚きました

  • was that Facebook was looking at which links I clicked on,

    何が起こったのかと言うと

  • and it was noticing that, actually,

    僕がどのリンクをクリックしているかFacebookがチェックしていて

  • I was clicking more on my liberal friends' links

    実際に保守派より

  • than on my conservative friends' links.

    リベラル派の友達のリンクを

  • And without consulting me about it,

    クリックすることが多いと気づき

  • it had edited them out.

    僕に何の相談もなく

  • They disappeared.

    保守派を削除していたのです

  • So Facebook isn't the only place

    保守派はいなくなってしまいました

  • that's doing this kind of invisible, algorithmic

    このように目に見えないところで

  • editing of the Web.

    アルゴリズムによるウェブの

  • Google's doing it too.

    編集をしているのはFacebookだけではありません

  • If I search for something, and you search for something,

    Googleもしています

  • even right now at the very same time,

    何かの検索をするにしても 僕とあなたでは

  • we may get very different search results.

    たとえ今同時に検索しても

  • Even if you're logged out, one engineer told me,

    かなり違う結果になる可能性があります

  • there are 57 signals

    あるエンジニアによると ログオンしてなくても

  • that Google looks at --

    57個のシグナルを

  • everything from what kind of computer you're on

    Googleはチェックしているそうです

  • to what kind of browser you're using

    どんなPCを使っているか

  • to where you're located --

    どのブラウザを使っているか

  • that it uses to personally tailor your query results.

    現在地は何処かなどによって

  • Think about it for a second:

    検索結果を調節しているのです

  • there is no standard Google anymore.

    ちょっと考えてみてください

  • And you know, the funny thing about this is that it's hard to see.

    もう標準のGoogle検索はないのです

  • You can't see how different your search results are

    そして妙なことに これは認識しにくい現象です

  • from anyone else's.

    自分の検索結果がどれほど

  • But a couple of weeks ago,

    他人のものと違うか分かりません

  • I asked a bunch of friends to Google "Egypt"

    でも数週間前

  • and to send me screen shots of what they got.

    Googleで「エジプト」と検索したスクリーンショットを

  • So here's my friend Scott's screen shot.

    送ってもらうよう大勢の友人に頼みました

  • And here's my friend Daniel's screen shot.

    これが友人スコットのスクリーンショットです

  • When you put them side-by-side,

    こちらはダニエルからのスクリーンショットです

  • you don't even have to read the links

    並べて見てみると

  • to see how different these two pages are.

    リンクを読むまでもなく

  • But when you do read the links,

    2つのページの違いに気付きます

  • it's really quite remarkable.

    でも実際リンクを読むと

  • Daniel didn't get anything about the protests in Egypt at all

    本当に驚きます

  • in his first page of Google results.

    ダニエルのGoogle検索結果の最初のページには

  • Scott's results were full of them.

    エジプトのデモ関連記事が全くなく

  • And this was the big story of the day at that time.

    スコットの方はそればかりでした

  • That's how different these results are becoming.

    この頃大きな話題だったのにです

  • So it's not just Google and Facebook either.

    これほど検索結果は異なってきています

  • This is something that's sweeping the Web.

    GoogleとFacebookだけではありません

  • There are a whole host of companies that are doing this kind of personalization.

    これはウェブ全体で起こっています

  • Yahoo News, the biggest news site on the Internet,

    多くの企業がこのようなカスタマイズをしています

  • is now personalized -- different people get different things.

    Yahoo!ニュースはネット最大のニュースサイトですが

  • Huffington Post, the Washington Post, the New York Times --

    今ではカスタマイズされた違う内容を提示しています

  • all flirting with personalization in various ways.

    Huffington Postや Washington Postや New York Timesも

  • And this moves us very quickly

    様々な形でカスタマイズを試みています

  • toward a world in which

    その結果 インターネットは私たちが見たいものを

  • the Internet is showing us what it thinks we want to see,

    予測して見せているが

  • but not necessarily what we need to see.

    それは必ずしも私たちが見る必要があるものでない

  • As Eric Schmidt said,

    という状況に急速に変わってきています

  • "It will be very hard for people to watch or consume something

    エリック・シュミットが言うように

  • that has not in some sense

    「全く何のカスタマイズもされていないものを

  • been tailored for them."

    人々が見たり利用したりするのは

  • So I do think this is a problem.

    とても難しくなるでしょう」

  • And I think, if you take all of these filters together,

    ですからこれは問題だと思います

  • you take all these algorithms,

    このようなフィルターやアルゴリズムを

  • you get what I call a filter bubble.

    全部集めてできるのは

  • And your filter bubble is your own personal,

    「フィルターに囲まれた世界」だと思うのです

  • unique universe of information

    そしてこの「囲まれた世界」がネット上での

  • that you live in online.

    あなた個人独特の

  • And what's in your filter bubble

    情報世界となるわけです

  • depends on who you are, and it depends on what you do.

    さらに自分の世界に何が含まれるかは 自分が

  • But the thing is that you don't decide what gets in.

    どんな人で何をしているかによって決まります

  • And more importantly,

    でも何が取り入れられるかは自分次第でないのが問題です

  • you don't actually see what gets edited out.

    もっと重要なのは

  • So one of the problems with the filter bubble

    何が削除されるか自分には見えないことです

  • was discovered by some researchers at Netflix.

    フィルターによる問題の1つは

  • And they were looking at the Netflix queues, and they noticed something kind of funny

    Netflixのデータアナリストたちに発見されました

  • that a lot of us probably have noticed,

    発送待ち段階で妙なことが起こっていたのです

  • which is there are some movies

    気付いていた人も多いでしょうか

  • that just sort of zip right up and out to our houses.

    映画によってはDVDが

  • They enter the queue, they just zip right out.

    すぐに発送されて家に届きます

  • So "Iron Man" zips right out,

    オーダーが入るとすぐに発送されます

  • and "Waiting for Superman"

    ですから「アイアンマン」はすぐ届くのに

  • can wait for a really long time.

    「ウェイティング・フォー・スーパーマン(原題)」は

  • What they discovered

    待ち時間がとても長いことがあります

  • was that in our Netflix queues

    データアナリストたちが

  • there's this epic struggle going on

    DVDの発送待ち段階で見たのは

  • between our future aspirational selves

    利用者の計画的な向上心と

  • and our more impulsive present selves.

    もっと衝動的な今の欲望が

  • You know we all want to be someone

    大きく対立している状況でした

  • who has watched "Rashomon,"

    「羅生門」を観たことがある人に

  • but right now

    なりたいと思う一方

  • we want to watch "Ace Ventura" for the fourth time.

    今は 4回目の

  • (Laughter)

    「エース・ベンチュラ」を観たいわけです

  • So the best editing gives us a bit of both.

    (笑)

  • It gives us a little bit of Justin Bieber

    最良の編集は両面を見せるものです

  • and a little bit of Afghanistan.

    ジャスティン・ビーバーを少し

  • It gives us some information vegetables;

    アフガニスタンを少し

  • it gives us some information dessert.

    ヘルシーな情報と

  • And the challenge with these kinds of algorithmic filters,

    デザート的情報も提供するわけです

  • these personalized filters,

    アルゴリズムでカスタマイズされた

  • is that, because they're mainly looking

    フィルターの問題点は

  • at what you click on first,

    利用者が何を最初に

  • it can throw off that balance.

    クリックしたかを主に参考にしているため

  • And instead of a balanced information diet,

    そのようなバランスを崩してしまうことです

  • you can end up surrounded

    バランスのとれた情報摂取の代わりに

  • by information junk food.

    ジャンク情報ばかりに

  • What this suggests

    囲まれてしまうこともあり得ます

  • is actually that we may have the story about the Internet wrong.

    つまりインターネットに対する

  • In a broadcast society --

    我々の見解は実は間違っているのかもということです

  • this is how the founding mythology goes --

    放送社会の

  • in a broadcast society,

    創設神話はこんな感じです

  • there were these gatekeepers, the editors,

    「放送社会では

  • and they controlled the flows of information.

    門番である編集者によって

  • And along came the Internet and it swept them out of the way,

    情報の流れがコントロールされていました

  • and it allowed all of us to connect together,

    でもインターネットが現れ 門番を追い払ったので

  • and it was awesome.

    素晴らしいことに 私たちは

  • But that's not actually what's happening right now.

    繋がり合えるようになりました」

  • What we're seeing is more of a passing of the torch

    でも今 実際にはそうなっていません

  • from human gatekeepers

    私たちが目にしているのは どちらかと言うと

  • to algorithmic ones.

    人間の門番からアルゴリズムの門番に

  • And the thing is that the algorithms

    バトンが渡されている状況です

  • don't yet have the kind of embedded ethics

    そして問題なのはアルゴリズムは

  • that the editors did.

    編集者が持ち合わせていた倫理観念を

  • So if algorithms are going to curate the world for us,

    まだ持っていないということです

  • if they're going to decide what we get to see and what we don't get to see,

    ですから世界の情報をアルゴリズムが監修して

  • then we need to make sure

    私たちが何を見て 何を見ないか決めるのなら

  • that they're not just keyed to relevance.

    アルゴリズムが関連性以外の要素も

  • We need to make sure that they also show us things

    使用するようにしなくてはなりません

  • that are uncomfortable or challenging or important --

    見たくないものや難しいもの

  • this is what TED does --

    重要なものなども提示するようにしなくてはだめです

  • other points of view.

    TEDが異なる視点を

  • And the thing is, we've actually been here before

    見せていることと同じです

  • as a society.

    過去我々は同じ問題に

  • In 1915, it's not like newspapers were sweating a lot

    直面しています

  • about their civic responsibilities.

    1915年当時 新聞は市民としての義務について

  • Then people noticed

    あまり考えていませんでした

  • that they were doing something really important.

    でも人々は新聞が

  • That, in fact, you couldn't have

    重要な役割を果たしていることに気付きました

  • a functioning democracy

    つまり 市民が

  • if citizens didn't get a good flow of information,

    適切な情報を得ていないと

  • that the newspapers were critical because they were acting as the filter,

    民主主義は機能しないということです よって

  • and then journalistic ethics developed.

    情報のフィルターを行う新聞は重要なのです

  • It wasn't perfect,

    そしてジャーナリズムの倫理ができました

  • but it got us through the last century.

    完璧ではありませんでしたが

  • And so now,

    1世紀の間このやり方をしてきました

  • we're kind of back in 1915 on the Web.

    ですから現在私たちは

  • And we need the new gatekeepers

    ウェブ上での1915年に直面しているようなものです

  • to encode that kind of responsibility

    プログラムを書く上で このような責任を

  • into the code that they're writing.

    組み込んでくれる

  • I know that there are a lot of people here from Facebook and from Google --

    新しい門番が必要なのです

  • Larry and Sergey --

    会場にはFacebookとGoogleからの出席者も大勢います

  • people who have helped build the Web as it is,

    ラリーやサーゲイのように

  • and I'm grateful for that.

    今あるウェブの構築に

  • But we really need you to make sure

    貢献した人々には感謝しています

  • that these algorithms have encoded in them

    でも私たちは彼らに これらのアルゴリズムに

  • a sense of the public life, a sense of civic responsibility.

    生活や市民の義務が組み込まれているように

  • We need you to make sure that they're transparent enough

    しっかり確認してもらいたいのです

  • that we can see what the rules are

    アルゴリズムが明白で何が入ってくるかを決める

  • that determine what gets through our filters.

    フィルターのルールが

  • And we need you to give us some control

    理解できるようにして欲しいのです

  • so that we can decide

    さらに自分で何が削除されて

  • what gets through and what doesn't.

    何がされないか決められるように

  • Because I think

    管理できるオプションを提供してもらいたいです

  • we really need the Internet to be that thing

    これも インターネットが私たちの

  • that we all dreamed of it being.

    思い描いていたようなものに

  • We need it to connect us all together.

    なってもらう必要があると思うからです

  • We need it to introduce us to new ideas

    みんなを繋ぐものであり

  • and new people and different perspectives.

    新しいアイデアや人々 そして

  • And it's not going to do that

    異なる視点を提示するものであるべきです

  • if it leaves us all isolated in a Web of one.

    これを達成するには

  • Thank you.

    ウェブ上で私たちが孤立しないようにするべきです

  • (Applause)

    ありがとう

Mark Zuckerberg,

翻訳: Sawa Horibe 校正: Takafusa Kitazume

字幕と単語

動画の操作 ここで「動画」の調整と「字幕」の表示を設定することができます

B1 中級 日本語 TED アルゴリズム 門番 フィルター 検索 保守

TED】Eli Pariser.オンラインの「フィルターの泡」にご用心(オンラインの「フィルターの泡」にご用心|Eli Pariser (【TED】Eli Pariser: Beware online "filter bubbles" (Beware online "filter bubbles" | Eli Pariser))

  • 746 73
    VoiceTube に公開 2021 年 01 月 14 日
動画の中の単語