Placeholder Image

字幕表 動画を再生する

自動翻訳
  • I'm James.

    私はジェームスです。

  • I'm a writer and artist,

    私は作家であり芸術家です。

  • and I make work about technology.

    と、技術を題材にした作品を作っています。

  • I do things like draw life-size outlines of military drones

    軍用無人機の等身大の輪郭を描いたりしています。

  • in city streets around the world,

    世界中の街角で

  • so that people can start to think and get their heads around

    考えることができるように

  • these really quite hard-to-see and hard-to-think-about technologies.

    これらの技術は本当に非常に見にくく、考えにくい技術です。

  • I make things like neural networks that predict the results of elections

    選挙の結果を予測するニューラルネットワークのようなものを作っています。

  • based on weather reports,

    天気予報をもとに

  • because I'm intrigued about

    というのも、私は

  • what the actual possibilities of these weird new technologies are.

    これらの奇妙な新技術の実際の可能性は何なのか。

  • Last year, I built my own self-driving car.

    昨年、自走車を自作しました。

  • But because I don't really trust technology,

    しかし、私は技術を信用していないからです。

  • I also designed a trap for it.

    そのためのトラップも設計しました。

  • (Laughter)

    (笑)

  • And I do these things mostly because I find them completely fascinating,

    そして、私がこれらのことをするのは、ほとんどが完全に魅力的だと思うからです。

  • but also because I think when we talk about technology,

    でも、技術の話をするときに思うことがあるからです。

  • we're largely talking about ourselves

    自分たちのことを言っているようなもの

  • and the way that we understand the world.

    と、世界を理解する方法を教えてくれました。

  • So here's a story about technology.

    ということで、ここでは技術の話です。

  • This is a "surprise egg" video.

    これは「びっくりたまご」の動画です。

  • It's basically a video of someone opening up loads of chocolate eggs

    それは基本的に誰かがチョコレートの卵の負荷を開くビデオです。

  • and showing the toys inside to the viewer.

    と中のおもちゃを見せてくれます。

  • That's it. That's all it does for seven long minutes.

    それだけです。それが7分間の長い時間のすべてです。

  • And I want you to notice two things about this.

    そして、このことについて2つのことに気づいてほしい。

  • First of all, this video has 30 million views.

    まず、この動画の再生回数は3,000万回です。

  • (Laughter)

    (笑)

  • And the other thing is,

    そしてもう一つは

  • it comes from a channel that has 6.3 million subscribers,

    それは630万人の加入者を持つチャンネルから来ています。

  • that has a total of eight billion views,

    80億回の再生回数を誇る

  • and it's all just more videos like this --

    そして、それはすべてこのようなビデオを増やしているだけです。

  • 30 million people watching a guy opening up these eggs.

    3000万人の人がこの卵を開けている人を見ています。

  • It sounds pretty weird, but if you search for "surprise eggs" on YouTube,

    かなり変な話になりますが、YouTubeで「びっくりたまご」と検索すると

  • it'll tell you there's 10 million of these videos,

    この動画は1000万本もあると言われています。

  • and I think that's an undercount.

    数が足りないと思います。

  • I think there's way, way more of these.

    もっとたくさんあると思うよ

  • If you keep searching, they're endless.

    探し続ければ、無限にある。

  • There's millions and millions of these videos

    何百万も何百万もの動画があります。

  • in increasingly baroque combinations of brands and materials,

    ブランドと素材の組み合わせがますますバロック的になってきています。

  • and there's more and more of them being uploaded every single day.

    と、毎日のようにどんどんアップロードされています。

  • Like, this is a strange world. Right?

    変な世界だよねだろ?

  • But the thing is, it's not adults who are watching these videos.

    しかし、これらのビデオを見ているのは大人ではありません。

  • It's kids, small children.

    それは子供たち、小さな子供たちです。

  • These videos are like crack for little kids.

    この動画は小さい子にはクラックみたいなもんだよ

  • There's something about the repetition,

    その繰り返しには何かがある。

  • the constant little dopamine hit of the reveal,

    明かされたドーパミンの恒常的な小さなヒット。

  • that completely hooks them in.

    それは完全に彼らを引っ掛けます。

  • And little kids watch these videos over and over and over again,

    そして小さい子は何度も何度も何度も何度も見てしまう。

  • and they do it for hours and hours and hours.

    と何時間も何時間もやってくれる。

  • And if you try and take the screen away from them,

    そして、画面を取り上げようとすると

  • they'll scream and scream and scream.

    彼らは叫んで叫んで叫んで叫んで叫んで叫んで叫んで叫んで叫んで叫んで叫んで叫んで叫んで叫んで叫んで叫んで叫んで叫んで叫んで叫んで叫んで叫んで叫んで叫んでんで叫んでんで叫んでんで叫んでんで叫んでんで叫んでんでんで叫んでんでんで叫でんでんで叫でんでんで叫でんでんで叫んでんでんで叫でんでんでんで叫でんでんでんで叫でんでんでんで叫でんでんでんでんで叫でんでんでんでんでんで叫でんでんでんでんでんでんで叫でんでんでんでんでんで叫でんでんでんでんて

  • If you don't believe me --

    信じられないなら...

  • and I've already seen people in the audience nodding --

    と、うなずいている観客を見たことがあります。

  • if you don't believe me, find someone with small children and ask them,

    もし私を信じていないなら、小さな子供がいる人を見つけて聞いてみてください。

  • and they'll know about the surprise egg videos.

    と、彼らは驚きの卵のビデオを知っているでしょう。

  • So this is where we start.

    ここからが本番ですね。

  • It's 2018, and someone, or lots of people,

    それは2018年で、誰か、または多くの人。

  • are using the same mechanism that, like, Facebook and Instagram are using

    は、FacebookやInstagramと同じような仕組みを使っています。

  • to get you to keep checking that app,

    そのアプリをチェックし続けてもらうために

  • and they're using it on YouTube to hack the brains of very small children

    そして、彼らはそれをYouTubeで使用している非常に小さな子供たちの脳をハックするために

  • in return for advertising revenue.

    広告収入の見返りに

  • At least, I hope that's what they're doing.

    少なくとも私は、彼らがそうしていることを願っています。

  • I hope that's what they're doing it for,

    それが彼らの目的であることを願っています。

  • because there's easier ways of making ad revenue on YouTube.

    なぜなら、YouTubeで広告収入を得るための簡単な方法があるからです。

  • You can just make stuff up or steal stuff.

    捏造したり盗用したりすればいいんだよ。

  • So if you search for really popular kids' cartoons

    だから、本当に人気のある子供たちを検索する場合は'漫画

  • like "Peppa Pig" or "Paw Patrol,"

    ペッパピッグやポーパトロールのように

  • you'll find there's millions and millions of these online as well.

    あなたは何百万もの、何百万ものこれらのオンラインも見つけることができます。

  • Of course, most of them aren't posted by the original content creators.

    もちろん、そのほとんどは元のコンテンツ制作者が投稿したものではありません。

  • They come from loads and loads of different random accounts,

    彼らは、異なるランダムなアカウントの負荷と負荷から来ています。

  • and it's impossible to know who's posting them

    誰が投稿しているのかわからない

  • or what their motives might be.

    その動機は何なのか?

  • Does that sound kind of familiar?

    どこかで見たことあるような気がしませんか?

  • Because it's exactly the same mechanism

    全く同じメカニズムだからです。

  • that's happening across most of our digital services,

    これは、当社のデジタルサービスのほとんどで起こっていることです。

  • where it's impossible to know where this information is coming from.

    この情報がどこから来ているのかわからないところ。

  • It's basically fake news for kids,

    基本的には子供向けのフェイクニュースです。

  • and we're training them from birth

    生まれた時から訓練しています

  • to click on the very first link that comes along,

    をクリックして、最初のリンクをクリックしてください。

  • regardless of what the source is.

    ソースが何であるかに関係なく

  • That's doesn't seem like a terribly good idea.

    それはとても良い考えとは思えません。

  • Here's another thing that's really big on kids' YouTube.

    ここでは、もう一つのことは、子供たちに本当に大きなものであることです。

  • This is called the "Finger Family Song."

    これは "フィンガーファミリーソング "と呼ばれています。

  • I just heard someone groan in the audience.

    客席から誰かのうめき声が聞こえてきた。

  • This is the "Finger Family Song."

    これは "フィンガー・ファミリー・ソング"

  • This is the very first one I could find.

    これが一番最初に見つけたものです。

  • It's from 2007, and it only has 200,000 views,

    2007年のものですが、20万回しか再生されていません。

  • which is, like, nothing in this game.

    このゲームでは何もないようなものです。

  • But it has this insanely earwormy tune,

    しかし、それはこの非常に耳障りな曲を持っています。

  • which I'm not going to play to you,

    あなたのためにプレイするつもりはありません。

  • because it will sear itself into your brain

    脳裏に焼き付くから

  • in the same way that it seared itself into mine,

    それが私の中に焼き付いたのと同じように

  • and I'm not going to do that to you.

    と言っていますが、私はそんなことをするつもりはありません。

  • But like the surprise eggs,

    でも、驚きの卵のように

  • it's got inside kids' heads

    子供の頭の中に入っている

  • and addicted them to it.

    と中毒になってしまいました。

  • So within a few years, these finger family videos

    だから数年のうちに、これらの指の家族のビデオは

  • start appearing everywhere,

    いたるところに現れ始める。

  • and you get versions in different languages

    異なった言語でのバージョンが得られる

  • with popular kids' cartoons using food

    子供たちに人気のある食べ物を使った漫画で

  • or, frankly, using whatever kind of animation elements

    とか、率直に言って、どんなアニメーション要素を使っても

  • you seem to have lying around.

    あなたが転がっているように見える

  • And once again, there are millions and millions and millions of these videos

    またしても、何百万、何百万、何百万もの動画が

  • available online in all of these kind of insane combinations.

    これらの非常識な組み合わせのすべての種類のオンラインで利用可能です。

  • And the more time you start to spend with them,

    そして、彼らと一緒に過ごす時間が増えていく。

  • the crazier and crazier you start to feel that you might be.

    かもしれないと感じ始めるほど、頭がおかしくなってきます。

  • And that's where I kind of launched into this,

    そこで、私はこれを始めたんです。

  • that feeling of deep strangeness and deep lack of understanding

    不知火不知

  • of how this thing was constructed that seems to be presented around me.

    私の周りに提示されているような、このモノがどのように構築されているのか。

  • Because it's impossible to know where these things are coming from.

    なぜなら、これらのことがどこから来ているのかを知ることは不可能だからです。

  • Like, who is making them?

    誰が作ってるの?

  • Some of them appear to be made of teams of professional animators.

    中にはプロのアニメーターのチームで作られているものもあるようです。

  • Some of them are just randomly assembled by software.

    中にはソフトで無造作に組み立てただけのものもあります。

  • Some of them are quite wholesome-looking young kids' entertainers.

    中には、かなり健全な見た目の若者芸能人もいます。

  • And some of them are from people

    そして、その中のいくつかは、人々からのものです。

  • who really clearly shouldn't be around children at all.

    子供たちのそばにいるべきではないことが明らかになっています。

  • (Laughter)

    (笑)

  • And once again, this impossibility of figuring out who's making this stuff --

    もう一度言うが、誰がこれを作っているのかを知ることは不可能だ。

  • like, this is a bot?

    これはボットか?

  • Is this a person? Is this a troll?

    これは人なのか?これは荒らしですか?

  • What does it mean that we can't tell the difference

    違いがわからないってどういうこと?

  • between these things anymore?

    もはやこれらの間にあるのでしょうか?

  • And again, doesn't that uncertainty feel kind of familiar right now?

    繰り返すが、その不確実性は今では身近なものに感じないだろうか?

  • So the main way people get views on their videos --

    だから、人々は彼らのビデオのビューを取得するための主な方法 - 。

  • and remember, views mean money --

    と覚えておいてください、ビューはお金を意味します。

  • is that they stuff the titles of these videos with these popular terms.

    彼らはこれらのビデオのタイトルにこれらの人気の用語を詰め込んでいることです。

  • So you take, like, "surprise eggs"

    "サプライズエッグ "みたいなのを 取るんだな

  • and then you add "Paw Patrol," "Easter egg,"

    "ポー・パトロール" "イースターエッグ"

  • or whatever these things are,

    とか、これらが何であれ

  • all of these words from other popular videos into your title,

    他の人気のある動画からこれらの単語をすべてタイトルに入れてください。

  • until you end up with this kind of meaningless mash of language

    詰まるまで

  • that doesn't make sense to humans at all.

    人間には全く意味がありません。

  • Because of course it's only really tiny kids who are watching your video,

    もちろん、あなたのビデオを見ているのは本当に小さな子供たちだけですから。

  • and what the hell do they know?

    何を知っているんだ?

  • Your real audience for this stuff is software.

    お前らの本当の客層はソフトだろ

  • It's the algorithms.

    アルゴリズムです。

  • It's the software that YouTube uses

    それはYouTubeが使用しているソフトウェアです。

  • to select which videos are like other videos,

    をクリックして、他の動画と同じような動画を選択します。

  • to make them popular, to make them recommended.

    人気になるように、おすすめになるように

  • And that's why you end up with this kind of completely meaningless mash,

    だからこそ、このような全く意味のないマッシュになってしまうのです。

  • both of title and of content.

    タイトルと内容の両方で

  • But the thing is, you have to remember,

    でも、忘れてはいけないのは

  • there really are still people within this algorithmically optimized system,

    このアルゴリズム的に最適化されたシステムの中には、本当にまだ人がいます。

  • people who are kind of increasingly forced to act out

    追い詰められている人たち

  • these increasingly bizarre combinations of words,

    ますます奇妙な言葉の組み合わせで(ますますますと)

  • like a desperate improvisation artist responding to the combined screams

    叫びに応えて必死の即興アーティストのように

  • of a million toddlers at once.

    一度に100万人の幼児の

  • There are real people trapped within these systems,

    これらのシステムの中に閉じ込められた実在の人物がいる。

  • and that's the other deeply strange thing about this algorithmically driven culture,

    そしてそれは、このアルゴリズムで駆動される文化についてのもう一つの深く奇妙なことです。

  • because even if you're human,

    なぜなら、たとえ人間であっても

  • you have to end up behaving like a machine

    機械のようにならざるを得ない

  • just to survive.

    生き残るために

  • And also, on the other side of the screen,

    また、画面の反対側にも。

  • there still are these little kids watching this stuff,

    まだこんなの見てるガキがいるんだな

  • stuck, their full attention grabbed by these weird mechanisms.

    奇妙なメカニズムによって 掴まれた彼らの全注意は動けません

  • And most of these kids are too small to even use a website.

    しかもそのほとんどの子はサイトすら使えないほどの小ささだしな

  • They're just kind of hammering on the screen with their little hands.

    彼らは小さな手で画面を叩いているだけです。

  • And so there's autoplay,

    自動再生もあります。

  • where it just keeps playing these videos over and over and over in a loop,

    何度も何度も何度も何度も繰り返し再生されているところ。

  • endlessly for hours and hours at a time.

    エンドレスで何時間も何時間もかけて

  • And there's so much weirdness in the system now

    そして、今のシステムには多くの奇妙なものがあります

  • that autoplay takes you to some pretty strange places.

    自動再生で変な場所に行くのよ

  • This is how, within a dozen steps,

    これが十数ステップの中での方法です。

  • you can go from a cute video of a counting train

    カウントトレインのかわいい動画から

  • to masturbating Mickey Mouse.

    ミッキーマウスのオナニーに

  • Yeah. I'm sorry about that.

    ああ、それはすまなかった。

  • This does get worse.

    これは悪化する

  • This is what happens

    このようなことが起こります。

  • when all of these different keywords,

    これらの異なるキーワードのすべてが

  • all these different pieces of attention,

    これらの異なる注意のすべての作品。

  • this desperate generation of content,

    この必死な世代のコンテンツ

  • all comes together into a single place.

    すべてが一つにまとまってしまう。

  • This is where all those deeply weird keywords come home to roost.

    奇妙なキーワードがねぐらになる場所です。

  • You cross-breed the finger family video

    あなたは指の家族のビデオを交配します。

  • with some live-action superhero stuff,

    スーパーヒーローの実写化で

  • you add in some weird, trollish in-jokes or something,

    怪しげな荒らしのインジョークとか入れてくれよ

  • and suddenly, you come to a very weird place indeed.

    と、突然、あなたは確かに非常に奇妙な場所に来ます。

  • The stuff that tends to upset parents

    親を怒らせがちなもの

  • is the stuff that has kind of violent or sexual content, right?

    暴力や性的な内容のものでしょ?

  • Children's cartoons getting assaulted,

    子供の漫画が暴行される

  • getting killed,

    殺される

  • weird pranks that actually genuinely terrify children.

    実際に本当に子供たちを怖がらせる奇妙ないたずら。

  • What you have is software pulling in all of these different influences

    あなたが持っているのは、これらの異なる影響をすべて引っ張ってくるソフトウェアです。

  • to automatically generate kids' worst nightmares.

    子供の悪夢を自動的に生成します。

  • And this stuff really, really does affect small children.

    そして、これは本当に本当に小さな子供に影響を与えます。

  • Parents report their children being traumatized,

    親は自分の子供がトラウマになっていると報告しています。

  • becoming afraid of the dark,

    暗闇が怖くなってきた。

  • becoming afraid of their favorite cartoon characters.

    自分の好きな漫画のキャラクターが怖くなってくる

  • If you take one thing away from this, it's that if you have small children,

    このことから一つのことを取るとすれば、小さな子供がいれば、ということです。

  • keep them the hell away from YouTube.

    YouTubeには近寄らせないようにしましょう。

  • (Applause)

    (拍手)

  • But the other thing, the thing that really gets to me about this,

    でも、もう一つ、本当に気になるのは

  • is that I'm not sure we even really understand how we got to this point.

    どうやってここまで来たのか、本当に理解できていないということです。

  • We've taken all of this influence, all of these things,

    私たちは、この影響力を、このようなものを全部持って行ってしまったのです。

  • and munged them together in a way that no one really intended.

    誰もが本当に意図していない方法でそれらを結合させた。

  • And yet, this is also the way that we're building the entire world.

    それなのに、これは世界全体を構築しているということでもあります。

  • We're taking all of this data,

    このデータは全部取っている。

  • a lot of it bad data,

    悪いデータが多い

  • a lot of historical data full of prejudice,

    偏見に満ちた歴史的データの数々。

  • full of all of our worst impulses of history,

    歴史上の最悪の衝動に満ちています。

  • and we're building that into huge data sets

    そして、それを巨大なデータセットに構築しています。

  • and then we're automating it.

    そして、それを自動化しています。

  • And we're munging it together into things like credit reports,

    クレジットレポートのようなものにまとめています。

  • into insurance premiums,

    保険料に

  • into things like predictive policing systems,

    予測的なポリシングシステムのようなものに

  • into sentencing guidelines.

    判決のガイドラインに

  • This is the way we're actually constructing the world today

    これが今の世界を実際に構築している方法です。

  • out of this data.

    このデータから

  • And I don't know what's worse,

    何が悪いのかわからない。

  • that we built a system that seems to be entirely optimized

    完全に最適化されたと思われるシステムを構築しました。

  • for the absolute worst aspects of human behavior,

    人間の行動の絶対的に悪い面のために

  • or that we seem to have done it by accident,

    とか、たまたまやってしまったような気がするとか。

  • without even realizing that we were doing it,

    していることに気づかずに

  • because we didn't really understand the systems that we were building,

    なぜなら、私たちは自分たちが構築しているシステムを本当に理解していなかったからです。

  • and we didn't really understand how to do anything differently with it.

    そして、どうすれば違うことができるのか、本当に理解できていませんでした。

  • There's a couple of things I think that really seem to be driving this

    いくつかのことがありますが、それは本当にこれを推進しているように思われます。

  • most fully on YouTube,

    YouTubeで最も完全に。

  • and the first of those is advertising,

    で、その第一弾が広告です。

  • which is the monetization of attention

    注目度のマネタイズである

  • without any real other variables at work,

    実際の他の変数を使用せずに

  • any care for the people who are actually developing this content,

    実際にこのコンテンツを開発している人への気遣い

  • the centralization of the power, the separation of those things.

    権力の中央集権化、それらの分離。

  • And I think however you feel about the use of advertising

    そして、私はあなたが広告の使用についてどのように感じると思います。

  • to kind of support stuff,

    サポートのようなものを

  • the sight of grown men in diapers rolling around in the sand

    おむつのおっさんが砂の上を転がる姿

  • in the hope that an algorithm that they don't really understand

    彼らが本当に理解していないアルゴリズムに期待して

  • will give them money for it

    かねをだしてくれる

  • suggests that this probably isn't the thing

    これは、おそらくこれではないことを示唆している

  • that we should be basing our society and culture upon,

    私たちの社会や文化の基盤となるべきものを

  • and the way in which we should be funding it.

    と、資金調達の仕方を考えています。

  • And the other thing that's kind of the major driver of this is automation,

    そして、もう一つの大きな原動力となっているのが自動化です。

  • which is the deployment of all of this technology

    この技術のすべての展開である

  • as soon as it arrives, without any kind of oversight,

    届いたらすぐに、何の見落としもなく。

  • and then once it's out there,

    そして、それがそこに出てきたら

  • kind of throwing up our hands and going, "Hey, it's not us, it's the technology."

    手を投げ出して、「おい、俺たちじゃない、技術のせいだ」と言うようなものだ。

  • Like, "We're not involved in it."

    "私たちは関与していない "みたいな。

  • That's not really good enough,

    それは、本当に十分ではありません。

  • because this stuff isn't just algorithmically governed,

    なぜなら、このようなものはアルゴリズムで管理されているだけではないからです。

  • it's also algorithmically policed.

    アルゴリズム的にも制御されています。

  • When YouTube first started to pay attention to this,

    YouTubeが最初に注目し始めた頃。

  • the first thing they said they'd do about it

    最初にやると言っていたのは