Placeholder Image

字幕表 動画を再生する

  • Translator: Joseph Geni Reviewer: Krystian Aparta

    翻訳: Yasushi Aoki 校正: Kazunori Akashi

  • There was a day, about 10 years ago,

    10年くらい前のことですが

  • when I asked a friend to hold a baby dinosaur robot upside down.

    赤ちゃん恐竜ロボットを 逆さに持ってみてと友達に言ったんです

  • It was this toy called a Pleo that I had ordered,

    「プレオ」というオモチャを手に入れ はしゃいでいました

  • and I was really excited about it because I've always loved robots.

    ロボットは昔から 大好きでしたので

  • And this one has really cool technical features.

    このロボットには いろいろすごい機能があり

  • It had motors and touch sensors

    モーターや 接触センサーや

  • and it had an infrared camera.

    赤外線カメラなんかに加え

  • And one of the things it had was a tilt sensor,

    傾斜センサーが入っていて

  • so it knew what direction it was facing.

    体の向きが 分かるようになっていました

  • And when you held it upside down,

    そして逆さにしてやると

  • it would start to cry.

    泣き出すんです

  • And I thought this was super cool, so I was showing it off to my friend,

    これはすごいと感心し 友達にも見せてやろうと思ったわけです

  • and I said, "Oh, hold it up by the tail. See what it does."

    「ちょっと これの尻尾を持ってみて どうなるか」

  • So we're watching the theatrics of this robot

    そして このロボットが もがき泣く姿を見ていましたが

  • struggle and cry out.

    少しして なんか嫌な気がしてきて

  • And after a few seconds,

    「ねえ もういいでしょう 下に置いてあげて」と言い

  • it starts to bother me a little,

    ロボットが泣き止むように 撫でてやりました

  • and I said, "OK, that's enough now.

    私にとって 奇妙な体験でした

  • Let's put him back down."

    当時の私は そんなに母性的な 人間ではありませんでしたから

  • And then I pet the robot to make it stop crying.

    でも9ヶ月前に 私も母親になって

  • And that was kind of a weird experience for me.

    逆さに持つと 赤ん坊も もがきまわるのが分かりました

  • For one thing, I wasn't the most maternal person at the time.

    (笑)

  • Although since then I've become a mother, nine months ago,

    このロボットに対する 自分の反応が興味深かったのは

  • and I've learned that babies also squirm when you hold them upside down.

    その機械的な仕組みは 理解していたのに

  • (Laughter)

    優しくしてあげなきゃと 感じたからです

  • But my response to this robot was also interesting

    その時の観察が

  • because I knew exactly how this machine worked,

    この10年追い続けてきた 好奇心に火を付けたのです

  • and yet I still felt compelled to be kind to it.

    なぜ自分はこのロボットを いたわったのか?

  • And that observation sparked a curiosity

    ひとつ分かったのは このロボットへの対応というのは

  • that I've spent the past decade pursuing.

    うちの居間で起きた 気まずい瞬間にとどまるものではなく

  • Why did I comfort this robot?

    生活の中にロボットがますます 組み込まれつつある世の中で

  • And one of the things I discovered was that my treatment of this machine

    このような感覚は 様々な結果を もたらしうるということでした

  • was more than just an awkward moment in my living room,

    私だけじゃないことが 分かったんです

  • that in a world where we're increasingly integrating robots into our lives,

    2007年にワシントンポスト紙が

  • an instinct like that might actually have consequences,

    米軍の実験している 地雷処理ロボットについて報じました

  • because the first thing that I discovered is that it's not just me.

    それはナナフシみたいな 姿をしていて

  • In 2007, the Washington Post reported that the United States military

    脚を使って地雷原を歩き回り

  • was testing this robot that defused land mines.

    地雷を踏むごとに 脚の1つが吹き飛ばされますが

  • And the way it worked was it was shaped like a stick insect

    歩き続けて地雷を爆発させていく というものでした

  • and it would walk around a minefield on its legs,

    責任者だった大佐は

  • and every time it stepped on a mine, one of the legs would blow up,

    実験を中止させました

  • and it would continue on the other legs to blow up more mines.

    傷ついたロボットが地雷原を 這い回るのを見ているのは非人間的だからと

  • And the colonel who was in charge of this testing exercise

    筋金入りの軍人や

  • ends up calling it off,

    私みたいな人間に

  • because, he says, it's too inhumane

    そういう反応をさせたものは 何だったのか?

  • to watch this damaged robot drag itself along the minefield.

    SFや大衆文化によって

  • Now, what would cause a hardened military officer

    こういったものを擬人化することに 馴れているというのもありますが

  • and someone like myself

    これはもっと根が深いもので

  • to have this response to robots?

    生物学的に私達は 自律的に動くものに対し

  • Well, of course, we're primed by science fiction and pop culture

    意思や生命を見ようと するようにできているんです

  • to really want to personify these things,

    人がロボットを生き物のように 扱うのはそのためです

  • but it goes a little bit deeper than that.

    こういう爆発物処理ロボットに 名前が付けられ

  • It turns out that we're biologically hardwired to project intent and life

    勲章が授与され

  • onto any movement in our physical space that seems autonomous to us.

    礼砲付きの葬礼が 行われたりします

  • So people will treat all sorts of robots like they're alive.

    相手が単純な家庭用ロボットでも 人はそう反応することが分かっています

  • These bomb-disposal units get names.

    掃除ロボットの ルンバでさえも

  • They get medals of honor.

    (笑)

  • They've had funerals for them with gun salutes.

    ただの円盤形をしていて 床の上を動き回って掃除をしますが

  • And research shows that we do this even with very simple household robots,

    自分で動き回る というところが

  • like the Roomba vacuum cleaner.

    持ち主に名前を付けさせたり

  • (Laughter)

    ソファの下に引っかかっているのを 可愛そうと思わせたりするんです

  • It's just a disc that roams around your floor to clean it,

    (笑)

  • but just the fact it's moving around on its own

    そういう反応を引き起こすべく ロボットをデザインすることもできます

  • will cause people to name the Roomba

    目や顔を付けたり

  • and feel bad for the Roomba when it gets stuck under the couch.

    人が無意識に 感情と結び付けるような

  • (Laughter)

    動作をさせることによって

  • And we can design robots specifically to evoke this response,

    そういった現象について研究する

  • using eyes and faces or movements

    「ヒューマン-ロボット・インタラクション」 という分野もあります

  • that people automatically, subconsciously associate

    たとえばスタンフォード大の研究者が 発見したことですが

  • with states of mind.

    ロボットであっても 陰部に触れるよう言われると

  • And there's an entire body of research called human-robot interaction

    人はすごく気まずく 感じるんです

  • that really shows how well this works.

    (笑)

  • So for example, researchers at Stanford University found out

    多くの研究から

  • that it makes people really uncomfortable

    こういう生き物のように 見えるロボットが出す合図に対し

  • when you ask them to touch a robot's private parts.

    人間は作り物だと 知りながら

  • (Laughter)

    反応することが 分かっています

  • So from this, but from many other studies,

    私達はロボットが至るところに いるような世界へと向かっています

  • we know, we know that people respond to the cues given to them

    ロボット技術は もはや工場の中だけのものではなく

  • by these lifelike machines,

    オフィスや家庭へと 進出しています

  • even if they know that they're not real.

    そういった場所へと 入ってくる

  • Now, we're headed towards a world where robots are everywhere.

    知覚し 自律的に決断し 学ぶことのできる機械に対して

  • Robotic technology is moving out from behind factory walls.

    最善のアナロジーとなるのは

  • It's entering workplaces, households.

    動物との関係かもしれません

  • And as these machines that can sense and make autonomous decisions and learn

    数千年前に人類は 動物を家畜化するようになり

  • enter into these shared spaces,

    労働や戦争のため また遊び相手として 飼い慣らしてきました

  • I think that maybe the best analogy we have for this

    歴史を通して ある動物は道具や商品として扱われ

  • is our relationship with animals.

    ある動物は 思いやりをもって扱われ

  • Thousands of years ago, we started to domesticate animals,

    社会の中で 人間の仲間としての 位置を与えられました

  • and we trained them for work and weaponry and companionship.

    ロボットもまた同じように取り込まれて いくというのは ありそうなことです

  • And throughout history, we've treated some animals like tools or like products,

    もちろん動物は生きており

  • and other animals, we've treated with kindness

    ロボットは生きてはいません

  • and we've given a place in society as our companions.

    ロボット研究者と一緒に 働いている経験から言えますが

  • I think it's plausible we might start to integrate robots in similar ways.

    感情を持つロボットができるのは 随分先の話です

  • And sure, animals are alive.

    でも人間はロボットに同情し

  • Robots are not.

    そこが重要なんです

  • And I can tell you, from working with roboticists,

    ロボットを社会に 取り込んでいくのであれば

  • that we're pretty far away from developing robots that can feel anything.

    人はロボットに対し

  • But we feel for them,

    他の機械とは違った扱いをすることを 理解しておく必要があります

  • and that matters,

    たとえば兵士が 一緒に働くロボットに

  • because if we're trying to integrate robots into these shared spaces,

    愛着を抱く場合などには

  • we need to understand that people will treat them differently than other devices,

    非効率さや危険をもたらす 可能性もあります

  • and that in some cases,

    でも他の場合には

  • for example, the case of a soldier who becomes emotionally attached

    ロボットへの感情的な繋がりを 育むことが 有用であり得ます

  • to the robot that they work with,

    すでに素晴らしい実例が 知られています

  • that can be anything from inefficient to dangerous.

    たとえば自閉症の子供が ロボット相手に

  • But in other cases, it can actually be useful

    これまで見られなかった 反応を見せるとか

  • to foster this emotional connection to robots.

    教師がロボットを使い 子供の学習で 新たな結果が得られているとか

  • We're already seeing some great use cases,

    またこれは 子供に限った話ではなく

  • for example, robots working with autistic children

    医療現場でロボットが

  • to engage them in ways that we haven't seen previously,

    医師や患者の助けに なり得ることが示されています

  • or robots working with teachers to engage kids in learning with new results.

    これは「パロ」という 赤ちゃんアザラシのロボットで

  • And it's not just for kids.

    養護施設や認知症患者のケアに 使われていて

  • Early studies show that robots can help doctors and patients

    結構前からあるものです

  • in health care settings.

    よく覚えていますが

  • This is the PARO baby seal robot.

    何年も前にパーティーで このロボットの話をしたところ

  • It's used in nursing homes and with dementia patients.

    相手がこう言ったんです

  • It's been around for a while.

    「それひどくないですか

  • And I remember, years ago, being at a party

    人間じゃなくロボットに 世話をさせるなんて信じられない」

  • and telling someone about this robot,

    これは ごく一般的な反応で

  • and her response was,

    まったくもって 正しいと思います

  • "Oh my gosh.

    もしそうなら 酷い話ですから

  • That's horrible.

    でもこの場合 人間がロボットに 置き換わるわけではありません

  • I can't believe we're giving people robots instead of human care."

    置き換わるのは 動物介在療法で

  • And this is a really common response,

    本物の動物が 使えない場合に

  • and I think it's absolutely correct,

    ロボットを使うんです

  • because that would be terrible.

    人はロボットを機械よりは 動物のように扱いますから

  • But in this case, it's not what this robot replaces.

    このロボットに対する感情的な 繋がりが分かっていれば

  • What this robot replaces is animal therapy

    ロボットがより身近な存在に なったときに起きる問題も

  • in contexts where we can't use real animals

    予期できるように なるでしょう

  • but we can use robots,

    たとえば子供の テディベアロボットが

  • because people will consistently treat them more like an animal than a device.

    私的な会話を録音するのは 良いのかとか

  • Acknowledging this emotional connection to robots

    セックスロボットがApp内課金を促すのを 認めて良いのかとか

  • can also help us anticipate challenges

    (笑)

  • as these devices move into more intimate areas of people's lives.

    ロボットと資本主義の 組み合わせには

  • For example, is it OK if your child's teddy bear robot

    消費者保護やプライバシーの問題が からんできますから

  • records private conversations?

    でも機械に対する人間の振る舞いが 問題になりうるのは

  • Is it OK if your sex robot has compelling in-app purchases?

    そういう理由ばかり ではありません

  • (Laughter)

    あの赤ちゃん恐竜ロボットでの

  • Because robots plus capitalism

    最初の経験から数年後に

  • equals questions around consumer protection and privacy.

    私は友人のハネス・ガッサートと ワークショップを開きました

  • And those aren't the only reasons

    赤ちゃん恐竜ロボットを 5体用意し

  • that our behavior around these machines could matter.

    それぞれ5つのグループに渡し

  • A few years after that first initial experience I had

    名前を付けて

  • with this baby dinosaur robot,

    1時間くらい それで遊んでもらいました

  • I did a workshop with my friend Hannes Gassert.

    それからハンマーと 斧を出して

  • And we took five of these baby dinosaur robots

    ロボットを痛め付けて 殺すように言いました

  • and we gave them to five teams of people.

    (笑)

  • And we had them name them

    これは予期していたよりも

  • and play with them and interact with them for about an hour.

    少しばかりショックを与えたようで

  • And then we unveiled a hammer and a hatchet

    参加者の誰も

  • and we told them to torture and kill the robots.

    赤ちゃん恐竜ロボットを 叩こうとさえしません

  • (Laughter)

    それでもっと後押ししなければ ならなくなって 言いました

  • And this turned out to be a little more dramatic

    「他のチームのロボットを壊せば 自分のチームのロボットは壊さなくていいです」

  • than we expected it to be,

    (笑)

  • because none of the participants would even so much as strike

    それでもうまくいかず みんな手をこまねいています

  • these baby dinosaur robots,

    最後には こう言いました

  • so we had to improvise a little, and at some point, we said,

    「誰かが斧を手に取って どれか1つに振り下ろさないなら

  • "OK, you can save your team's robot if you destroy another team's robot."

    ロボットをみんな壊します」

  • (Laughter)

    それで1人が立ち上がって 斧を手にし

  • And even that didn't work. They couldn't do it.

    ロボットの首に 斧を振り下ろすと

  • So finally, we said,

    部屋にいたみんなが ギクッとしました

  • "We're going to destroy all of the robots

    そして半分冗談 半分真剣な しばしの沈黙が

  • unless someone takes a hatchet to one of them."

    倒れたロボットに 捧げられました

  • And this guy stood up, and he took the hatchet,

    (笑)

  • and the whole room winced as he brought the hatchet down

    すごく面白い経験でした

  • on the robot's neck,

    これは対照試験では ありませんでしたが

  • and there was this half-joking, half-serious moment of silence in the room

    後に私がパラッシュ・ナンディーと シンシア・ブリジールと一緒に

  • for this fallen robot.

    MITで行った研究に 繋がりました

  • (Laughter)

    実験室に来てもらった人たちに この昆虫みたいな

  • So that was a really interesting experience.

    生き物のように動き回る HEXBUGを潰してもらいました

  • Now, it wasn't a controlled study, obviously,

    可愛くて惹かれる ようなものではなく

  • but it did lead to some later research that I did at MIT

    もっと簡素なロボットを 使ったんですが

  • with Palash Nandy and Cynthia Breazeal,

    共感力の強い人ほど HEXBUGを潰すことに

  • where we had people come into the lab and smash these HEXBUGs

    ためらいを感じることが 分かりました

  • that move around in a really lifelike way, like insects.

    これはちっぽけな研究ですが

  • So instead of choosing something cute that people are drawn to,

    ずっと大きな研究領域の一部で

  • we chose something more basic,

    人の共感傾向とロボットに対する 振る舞いの間には

  • and what we found was that high-empathy people

    繋がりがあることが 示されつつあります

  • would hesitate more to hit the HEXBUGS.

    来るべき人とロボット共生の 時代への疑問は

  • Now this is just a little study,

    「人はロボットに共感するのか?」 ではなく

  • but it's part of a larger body of research

    「ロボットは人の共感性を変えられるのか?」 ということです

  • that is starting to indicate that there may be a connection

    たとえばロボット犬を 蹴らないよう

  • between people's tendencies for empathy

    子供をしつけることに 効果はあるのか—

  • and their behavior around robots.

    物を大事にする という点だけでなく

  • But my question for the coming era of human-robot interaction

    本物の犬を蹴るような人間に ならないようにするために

  • is not: "Do we empathize with robots?"

    これも子供に限ったこと ではありません

  • It's: "Can robots change people's empathy?"

    暴力的ゲームの問題と同じに聞こえますが まったく別次元の話で

  • Is there reason to, for example,

    画面上のイメージよりも 形あるものに対して

  • prevent your child from kicking a robotic dog,

    私たちはより強く 反応するからです

  • not just out of respect for property,

    特に生き物に似せてデザインされた ロボットに対して

  • but because the child might be more likely to kick a real dog?

    暴力的に振る舞うのは

  • And again, it's not just kids.

    暴力性に対する 健全なはけ口になるのか

  • This is the violent video games question, but it's on a completely new level

    それとも暴力性を 強めることになるのか?

  • because of this visceral physicality that we respond more intensely to

    分かりません

  • than to images on a screen.

    でもこの問いへの答えは

  • When we behave violently towards robots,

    人間の行動や社会規範に 影響する可能性があり

  • specifically robots that are designed to mimic life,

    ロボットに対して何ができ 何ができないかという

  • is that a healthy outlet for violent behavior

    ルールに繋がる 可能性があります

  • or is that training our cruelty muscles?

    ちょうど動物虐待防止法のように—

  • We don't know ...

    ロボットは何も感じないとしても

  • But the answer to this question has the potential to impact human behavior,

    ロボットに対する振る舞いは 私たち自身に影響するかもしれないんです

  • it has the potential to impact social norms,

    そして法律を変えることに なるかどうかにかかわらず

  • it has the potential to inspire rules around what we can and can't do

    ロボットは人間についての 新たな理解をもたらすかもしれません

  • with certain robots,

    この10年で私の 学んできたことの多くは

  • similar to our animal cruelty laws.

    テクノロジーに 関することではなく

  • Because even if robots can't feel,

    人間の心理 共感 他人との関わり方についてです

  • our behavior towards them might matter for us.

    子供がルンバに対して 優しく接するとき

  • And regardless of whether we end up changing our rules,

    兵士が戦場でロボットを 救おうとするとき

  • robots might be able to help us come to a new understanding of ourselves.

    人々が赤ちゃん恐竜ロボットを 傷つけることを拒むとき

  • Most of what I've learned over the past 10 years

    ロボットはモーターと歯車と プログラムだけのものではありません

  • has not been about technology at all.

    私達自身の人間性の 反映なのです

  • It's been about human psychology

    ありがとうございました

  • and empathy and how we relate to others.

    (拍手)

  • Because when a child is kind to a Roomba,

  • when a soldier tries to save a robot on the battlefield,

  • or when a group of people refuses to harm a robotic baby dinosaur,

  • those robots aren't just motors and gears and algorithms.

  • They're reflections of our own humanity.

  • Thank you.

  • (Applause)

Translator: Joseph Geni Reviewer: Krystian Aparta

翻訳: Yasushi Aoki 校正: Kazunori Akashi

字幕と単語

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます

B1 中級 日本語 TED ロボット 地雷 動物 恐竜 反応

TED】ケイト・ダーリン。なぜ私たちはロボットと感情的なつながりを持つのか (なぜ私たちはロボットと感情的なつながりを持つのか|ケイト・ダーリン) (【TED】Kate Darling: Why we have an emotional connection to robots (Why we have an emotional connection to robots | Kate Darling))

  • 2468 63
    林宜悉 に公開 2021 年 01 月 14 日
動画の中の単語