字幕表 動画を再生する
What is consciousness?
「意識」とは何でしょうか?
Can an artificial machine really think?
人工機械は本当に考えることができるのでしょうか?
Does the mind just consist of neurons in the brain, or is there some intangible spark at its core?
心は脳の神経細胞だけで構成されているのか、それとも何か無形の輝きがその中心にあるのでしょうか?
For many, these have been vital considerations for the future of artificial intelligence.
このような問いは、多くの人にとって、AI の未来を考える上で欠かせないものでした。
But British computer scientist Alan Turing decided to disregard all these questions in favor of a much simpler one: Can a computer talk like a human?
しかし、イギリスのコンピューター科学者であるアラン・チューリングは、これらの問いをすべて捨て、もっと単純な疑問の方を選びました。「コンピュータは人間のように話すことができるのか?」
This question led to an idea for measuring aritificial intelligence that would famously come to be known as the Turing test.
この問いは、後に「チューリングテスト」として有名になる人工知能の測定方法のアイデアにつながりました。
In the 1950 paper, "Computing Machinery and Intelligence," Turing proposed the following game.
1950年の論文「計算機と知能」の中で、チューリングは次のようなゲームを提案しました。
A human judge has a text conversation with unseen players and evaluates their responses.
人間の審査員が、見知らぬプレーヤーとテキストで会話をし、その反応を評価するというものです。
To pass the test, a computer must be able to replace one of the players without substantially changing the results.
このテストに合格するためには、コンピューターは結果が大きく変化させずにプレイヤーの一人を入れ替えなければなりません。
In other words, a computer would be considered intelligent if its conversation couldn't be easily distinguished from a human's.
つまり、人間と容易に見分けがつかないような会話をするコンピューターが知的であるということになります。
Turing predicted that by the year 2000, machines with 100 megabytes of memory would be able to easily pass his test.
チューリングは、2000年には100メガバイトのメモリを持つ機械が、彼のテストに簡単に合格できるようになるだろうと予測しました。
But he may have jumped the gun.
しかし彼 (の予測は) は少し早すぎたのかもしれません。
Even though today's computers have far more memory than that, few have succeeded,
現在のコンピューターはそれよりもはるかに多くのメモリを搭載しているにもかかわらず、成功したコンピューターはほとんどありません。
and those that have done well focused more on finding clever ways to fool judges than using overwhelming computing power.
そして、成功したコンピューターは、圧倒的な計算能力を駆使するよりも、裁判官を巧みに騙すことに重点を置いていました。
Though it was never subjected to a real test, the first program with some claim to success was called ELIZA.
本格的なテストは行われませんでしたが、初めて成功したと言えるプログラムが「ELIZA」です。
With only a fairly short and simple script, it managed to mislead many people by mimicking a psychologist,
かなり短くシンプルなスクリプトで、多くの人を惑わせることに成功したのです。心理学者を模倣し、
encouraging them to talk more and reflecting their own questions back at them.
もっと話すように促し、そしてそれらを自分たちの質問を反映させたりすることで。
Another early script PARRY took the opposite approach by imitating a paranoid schizophrenic who kept steering the conversation back to his own preprogrammed obsessions.
初期のスクリプト「PARRY」では、偏執狂な統合失調症患者を模して、あらかじめプログラムされた自分の強迫観念に話を戻し続けるという逆のアプローチをとりました。
Their success in fooling people highlighted one weakness of the test.
人をだますことに成功した結果、このテストの弱点が浮き彫りになりました。
Humans regularly attribute intelligence to a whole range of things that are not actually intelligent.
人間は通常、実際には知的でない様々なものに、知性を与えます。
Nonetheless, annual competitions like the Loebner Prize, have made the test more formal with judges knowing ahead of time that some of their conversation partners are machines.
しかし、ローブナー賞のように毎年開催されるコンテストでは、審査員が会話の相手の何人かが機械であることを事前に知っていることで、より正式なテストが行われるようになりました。
But while the quality has improved, many chatbot programmers have used similar strategies to ELIZA and PARRY.
しかし、品質が向上した一方で、多くのチャットボットプログラマーが ELIZA や PARRY と同様の戦略をとっています。
1997's winner Catherine could carry on amazingly focused and intelligent conversation, but mostly if the judge wanted to talk about Bill Clinton.
1997年の優勝者キャサリンは、驚くほど集中した知的な会話を続けることができましたが、その会話のほとんどは審査員がビル・クリントンのことを話したいと思った場合のみでした。
And the more recent winner Eugene Goostman was given the persona of a 13-year-old Ukrainian boy,
さらに最近の受賞者であるユージン・グーストマンは、13歳のウクライナの少年という人格を与えられました。
so judges interpreted its nonsequiturs and awkward grammar as language and culture barriers.
そのため、審査員たちは、文脈と関連のない文章や不自然な文法を、言語や文化の壁として解釈しました。
Meanwhile, other programs like Cleverbot have taken a different approach by statistically analyzing huge databases of real conversations to determine the best responses.
一方、Cleverbot のような他のプログラムは、実際の会話の巨大なデータベースを統計的に分析し、最適な応答を決定するという異なるアプローチをとっています。
Some also store memories of previous conversations in order to improve over time.
また、時間をかけて改善するために、過去の会話の記憶を保存しているものもあります。
But while Cleverbot's individual responses can sound incredibly human, its lack of a consistent personality and inability to deal with brand new topics are a dead giveaway.
Cleverbot の一つ一つの反応は驚くほど人間的ですが、性格が一貫しておらず、真新しいトピックに対応できないことが致命的です。
Who in Turing's day could have predicted that today's computers would be able to pilot spacecraft,
チューリングの時代に、今日のコンピューターが宇宙船を操縦できるようになると誰が予想できたでしょう。
perform delicate surgeries and solve massive equations, but still struggle with the most basic small talk?
そしてコンピューターが繊細な手術、巨大な方程式を解くことができても、最も基本的な世間話に苦労すると誰が予測できたでしょう。
Human language turns out to be an amazingly complex phenomenon that can't be captured by even the largest dictionary.
人間の言葉というのは、どんなに大きな辞書でもとらえきれない、驚くほど複雑な現象であることがわかります。
Chatbots can be baffled by simple pauses, like "umm..." or questions with no correct answer.
チャットボットは、「うーん」といった単純な間や、正解のない質問には困惑してしまうことがあります。
And a simple conversational sentence, like, "I took the juice out of the fridge and gave it to him, but forgot to check the date,"
そして、「冷蔵庫からジュースを取り出して彼に渡したが、日付を確認するのを忘れた」というような、簡単な会話文は、
requires a wealth of underlying knowledge and intuition to parse.
解析するためには豊富な基礎知識と直感が必要です。
It turns out that simulating a human conversation takes more than just increasing memory and processing power,
人間の会話を模倣するには、メモリや処理能力の向上だけでは不十分であることがわかりました。
and as we get closer to Turing's goal, we may have to deal with all those big questions about consciousness after all.
そして、チューリングの目標に近づくにつれて、私たちは意識に関する大きな問題に対処しなければならないかもしれません。