Placeholder Image

字幕表 動画を再生する

審査済み この字幕は審査済みです
  • Way back in the '80s, I noticed that sometimes when an elephant called a member of her family, one individual would answer and everybody else ignored the calling animal.

    80年代にさかのぼるが、ゾウが家族の一員を呼ぶと、一頭だけ返事をして、他のゾウはそのゾウを無視することがあった。

  • And then she would call again and a different elephant would sort of lift her head up and, you know, rumble very loudly.

    そしてまた呼ぶと、別の象が頭を持ち上げて、ほら、とても大きな声でゴロゴロ言った。

  • This is Joyce Poole.

    この方はジョイス・プールだ。

  • She's been studying African elephants and their communication for 50 years.

    彼女はアフリカゾウとそのコミュニケーションについて50年間研究してきた。

  • Then I started to think, well, okay, so maybe they have a way of directing a call to a specific individual.

    それで、特定のゾウに連絡する方法があるのかもしれないと思い始めた。

  • But we had no way of detecting that.

    しかし、それを見抜く術はなかった。

  • Decades later, she partnered up with Mickey Pardo, who designed a study around her observations.

    数十年後、彼女はミッキー・パルドと組み、彼女の観察をもとに研究を計画した。

  • I went out into the field.

    私は野原に出た。

  • I recorded calls with careful behavioral observations.

    私は入念な行動観察をしながら鳴き声を録音した。

  • So we knew who made each call.

    だから、どのゾウが鳴いていたのかがわかっていた。

  • We knew who the call was addressed to.

    誰宛ての鳴き声かはわかっていた。

  • We knew the context of the call.

    私たちはその鳴き声の背景を知っていた。

  • They encoded the acoustic information from the recordings into a long string of numbers, along with the data Mickey collected about the calls.

    彼らは、ミッキーが収集した鳴き声に関するデータとともに、録音から得られた音響情報を数字の長い文字列にエンコードした。

  • They fed nearly 500 different calls like this into a statistical model.

    彼らはこのような500近くの異なる鳴き声を統計モデルに入力した。

  • And when given the acoustic structure of a new call, the model could predict who the receiver of the call was much better than chance.

    そして、新しい鳴き声の音響構造が与えられたとき、統計モデルは鳴き声の相手が誰であるかを偶然よりもはるかによく予測することができた。

  • In other words, evidence suggesting African savannah elephants give each other names.

    つまり、アフリカのサバンナゾウが互いに名前を呼び合っていることを示唆する証拠である。

  • When we posted it on Facebook, somebody wrote back, said that the earth just shifted a little bit.

    フェイスブックに投稿したら、誰かが返事を書いてきて、これで世界が少し変わったと言った。

  • And I think that's true.

    その通りだと思う。

  • This is just one example of how machine learning is decoding complexities in animal communication that humans can't detect.

    これは、機械学習が人間には感知できない動物の複雑なコミュニケーションを解読している一例に過ぎない。

  • And now some AI researchers want to take the next step.

    そして今、一部のAI研究者は次のステップに進もうとしている。

  • Large language models like the ones that power chatbots, but built for interspecies communication.

    チャットボットに搭載されているような大規模な言語モデルだが、異種間コミュニケーション用に構築されている。

  • Can we talk a little bit about love?

    愛について少し話しましょうか?

  • There is still much to be learned about whales.

    クジラについて学ぶべきことはまだたくさんある。

  • When researchers study animal communication, they usually employ a few methods.

    そのため、研究者が動物のコミュニケーションを研究する場合、通常はいくつかの方法を用いる。

  • Recording their vocalizations, observing and documenting the behavior and context around those sounds, and sometimes doing a playback to measure the animal's response.

    鳴き声を録音し、鳴き声にまつわる行動や状況を観察・記録し、時には再生して動物の反応を測定する。

  • All of these areas are already being impacted by AI.

    これらの分野はすべて、すでにAIの影響を受けている。

  • Recordings from the field don't usually sound like this.

    現場からの録音は通常、このような音にはならない。

  • They often sound like this.

    よくこんな風に聞こえる。

  • Multiple animals vocalizing on top of one another in a noisy environment.

    騒がしい環境下で複数の動物が重なり合って発声する。

  • This is known as the cocktail party problem.

    これはカクテルパーティー現象として知られている。

  • And it's a common issue in the field of animal research.

    動物研究の分野ではよくある問題だ。

  • But machine learning solved a similar problem in human speech recognition.

    しかし、機械学習は人間の音声認識でも同様の問題を解決した。

  • AI researchers trained a model called deep karaoke on lots of music tracks where instruments and vocals were recorded separately.

    AI研究者たちは、ディープ・カラオケと呼ばれるモデルを、楽器とボーカルが別々に録音された多くの音楽トラックで訓練した。

  • Then also on the fully mixed tracks.

    それから、完全にミックスされたトラックにも。

  • Until it was able to do the task of separating out instruments and vocals in new music clips.

    新しい音楽クリップで楽器とボーカルを分離する作業ができるようになるまでは。

  • Recently, AI researchers have had some success applying similar algorithms to animal sound recordings.

    最近、AIの研究者が動物の鳴き声の録音に同様のアルゴリズムを適用することに成功した。

  • Which means you can take a clip of a group of macaque monkeys and single out one discernible call.

    つまり、マカクザルの群れを撮影したクリップから、識別可能な1つの鳴き声を抜き出すことができるのだ。

  • Researchers could also start using AI in how they use playbacks in the field.

    研究者たちは、現場でのプレイバックの使い方にもAIを使い始めるかもしれない。

  • You may have seen AI models that can be trained on lots of examples of a sound recording.

    たくさんの録音例で学習できるAIモデルを見たことがあるかもしれない。

  • And then generate another unique version of it.

    そして、それの別のユニークなバージョンを生成する。

  • AI researchers are starting to develop similar models for animal recordings.

    AIの研究者たちは、動物の記録についても同様のモデルを開発し始めている。

  • These are all types of supervised learning.

    これらはすべて教師あり学習である。

  • That means that the model gets trained on lots of examples labeled by humans.

    つまり、モデルは人間によってラベル付けされた多くの例で訓練される。

  • And in the elephant name study, researchers were able to feed a model their observations.

    ゾウの名前の研究では、研究者は観察結果をモデルに与えることができた。

  • Which, along with the sound data, helped them detect something in elephant calls they couldn't through observation alone.

    音のデータとともに、ゾウの鳴き声から観察だけではわからなかった何かを発見することができたのだ。

  • You need to annotate a lot of data.

    多くのデータに注釈をつける必要がある。

  • Yossi Yovel trained a statistical model on 15,000 Egyptian fruit bat vocalizations.

    ヨッシー・ヨベルは15,000のエジプトフルーツコウモリの発声を統計モデルに学習させた。

  • Which was able to identify the emitter of the call, the context of the call, its behavioral response, and who the call was addressed to.

    その結果、鳴き声の発信者、鳴き声の文脈、鳴き声の行動反応、鳴き声の宛先を特定することができた。

  • And we annotated them manually.

    そして、手作業で注釈をつけた。

  • You know, I'm already saying this is a restriction of the study because maybe we're missing something.

    もしかしたら、私たちは何かを見逃しているかもしれない。

  • We're humans, we're not bats.

    我々は人間であり、コウモリではない。

  • And that's the problem with supervised learning models.

    それが教師あり学習モデルの問題点だ。

  • They are limited by what we humans already know about animal communication in order to label the training data.

    訓練データにラベル付けするために、私たち人間が動物のコミュニケーションについてすでに知っていることに制限されるのだ。

  • And we don't know a lot.

    そして、私たちは多くのことを知らない。

  • That's why some AI researchers say self-supervised models hold the most potential for decoding animal communication.

    一部のAI研究者が、自己教師モデルが動物のコミュニケーションを解読する上で最も可能性を秘めていると言うのはそのためだ。

  • This is how natural language processing models like ChatGPT are trained.

    これが、ChatGPT のような自然言語処理モデルの学習方法である。

  • Instead of human-labeled examples, they are trained on a large amount of unlabeled data.

    人間がラベル付けした例の代わりに、大量のラベル付けされていないデータで学習する。

  • And they can sort it according to patterns and categories it detects all on its own.

    そして、パターンやカテゴリーに従って分類することができる。

  • In the example of ChatGPT, it learned from all the books, websites, social media feeds, and anything else it could scrape from the internet and came to its own conclusions about how language works.

    ChatGPT の例では、あらゆる書籍、ウェブサイト、ソーシャルメディアのフィード、その他インターネットからかき集めることができるあらゆるものから学習し、言語がどのように機能するかについて独自の結論を導き出した。

  • Every language has a shape that AI discovers.

    どの言語にもAIが発見する形がある。

  • This is Eze Raskin.

    エズ・ラスキンだ。

  • He co-founded the Earth Species Project, one of a few organizations that want to build models like this for animal communication.

    彼は、動物とのコミュニケーションにこのようなモデルを構築したいと考えている数少ない組織のひとつであるアース・スペシーズ・プロジェクトを共同設立した。

  • What he means by language having a shape is that language models are built out of relationships among words.

    彼が言う「言語には形がある」とは、言語モデルが単語間の関係から構築されているということだ。

  • Words that mean similar things are placed near each other.

    似たような意味を持つ言葉同士を近づける。

  • Words that share a relationship, share a distance and direction.

    関係を共有する言葉は、距離と方向を共有する。

  • So man is to king as woman is to queen.

    つまり、男は王にとって、女は女王にとってそうである。

  • So this is the shape of all those relationships among the English language's 10,000 most common words, visualized here by the Earth Species Project.

    これは、地球種プロジェクトによって視覚化された、英語の最も一般的な10,000語のすべての関係の形である。

  • Flattened out, it looks something like this.

    平らにするとこんな感じだ。

  • Something really miraculous happened in 2017.

    2017年、本当に奇跡的なことが起きた。

  • And that was researchers discovered that you could take the shape of any one language and match it to the shape of any other language and the point which is dog ends up in the same spot.

    そして研究者たちは、ある言語の形を他の言語の形に合わせると、犬である点が同じ場所に行き着くことを発見した。

  • This idea that similar words can be located in other languages in roughly the same place is what gives the Earth Species Project hope we could do a version of this for animal communication.

    似たような単語が他の言語でもほぼ同じ場所にあるというこの考え方は、地球種プロジェクトに、動物とのコミュニケーションにこのバージョンができるかもしれないという希望を与えてくれる。

  • To do a translation without needing any examples, without needing a Rosetta stone.

    例文を必要とせず、ロゼッタストーンを必要とせずに翻訳をする。

  • This is complicated though because we know that animals don't just communicate with sound but with other senses too.

    というのも、動物は音だけでなく、他の感覚でもコミュニケーションをとることがわかっているからだ。

  • But Eiza points out that we can learn from the fact that image generation models like Dali and Midjourney are built on the same large language model structure used for text.

    しかしエイザは、ダリやミッドジャーニーのような画像生成モデルが、テキストに使われるのと同じ大規模な言語モデル構造の上に構築されていることから学ぶことができると指摘する。

  • It turns out behind the scenes, it's again these kinds of shapes.

    舞台裏では、またこのような形をしていることがわかった。

  • There's the shape that represents sound, the shapes that represents images.

    音を表す形があり、映像を表す形がある。

  • Those two shapes get aligned and now you can translate between images and text.

    この2つのシェイプを整列させれば、画像とテキストの翻訳が可能になる。

  • Their expectation is that where non-human animals communication would line up with ours will tell us even more about what we have in common.

    彼らの予想では、人間以外の動物のコミュニケーションと私たちのコミュニケーションが一致すれば、私たちの共通点についてさらに多くのことがわかるだろう。

  • Dolphins look in mirrors and recognize themselves.

    イルカは鏡を見て自分を認識する。

  • Elephants too.

    象もだ。

  • That's a kind of self-awareness.

    それは一種の自己認識だ。

  • One concern with this plan is related to a step in self-supervised learning called validation.

    この計画で懸念されるのは、検証という自己教師あり学習のステップに関することだ。

  • Meaning humans still need to refine these models by grading them on their answers.

    つまり、人間はまだこれらのモデルを改良する必要があるのだ。

  • How would we do that in a communication so foreign from our own?

    自分たちとはあまりにも異質なコミュニケーションの中で、どうすればいいのだろう?

  • We also might have too high of expectations of this overlap or the capacity for having a conversation with a non-human animal in a shared language and about shared experiences.

    私たちはまた、この重なりや、人間以外の動物と共通の言語で、共通の経験について会話する能力に対して、過大な期待を抱いているのかもしれない。

  • Hey Kurt, how are you doing, dude?

    クルト、調子はどうだい?

  • So I'm about to translate that into a meow.

    だから、私はそれをニャーに翻訳しようとしている。

  • We said hi, hi, hi, hi.

    私たちはハイ、ハイ、ハイと言った。

  • You know, next time you want to say how are you.

    今度、お元気ですか と声をかけるんだ。

  • I do not think that humans should be considered more important than other species,

    だからといって、言語という非常に特殊な行動を区別することに何の意味もないとは思わない。

  • but that doesn't mean that there's no usefulness in distinguishing between language which is this very specific behavior that at least based on what we currently know seems to be unique to humans and other forms of communication.

    しかし、だからといって、私たちが現在、人間や他のコミュニケーション形態がユニークなことを知っていて、言語という非常に特殊な行動を区別することに何の有用性もないということにはならない。

  • In order to build these models, the first step is collecting a lot more data on animal sounds than exists right now.

    このようなモデルを構築するためには、まず動物の鳴き声に関するデータを今よりもたくさん集める必要がある。

  • And so I'm actually at the moment building up a database with all the individual calls so close to 10,000 records in that which is very small actually.

    だから今、個々の鳴き声をすべて記録したデータベースを構築しているんだ。

  • Around the world, animal researchers are in the midst of a massive data collection effort tagging and recording animals with video and sound and spatial data to feed these data-thirsty models.

    世界中で、動物研究者たちは、動物にタグを付け、映像や音声、空間データを記録し、データに飢えたモデルに提供するための大規模なデータ収集に取り組んでいる。

  • Time will tell whether true interspecies communication will be facilitated by AI but researchers hope that discoveries along the way will continue to have an impact on our appreciation and protection of the species we share the planet with.

    本当の意味での異種間コミュニケーションがAIによって促進されるかどうかは時間が解決してくれるだろうが、研究者たちは、その過程で発見されたことが、私たちが地球を共有している生物種への感謝や保護に影響を与え続けることを願っている。

  • We're not the only ones on the planet who can communicate, who care about one another, who have thoughts about the past and about the future.

    コミュニケーションができ、互いを思いやり、過去や未来について考えることができるのは、地球上で私たちだけではない。

  • They also have a right to be here and a reason for being here. you

    彼らにもここにいる権利があり、ここにいる理由がある。

Way back in the '80s, I noticed that sometimes when an elephant called a member of her family, one individual would answer and everybody else ignored the calling animal.

80年代にさかのぼるが、ゾウが家族の一員を呼ぶと、一頭だけ返事をして、他のゾウはそのゾウを無視することがあった。

字幕と単語
審査済み この字幕は審査済みです

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます