Placeholder Image

字幕表 動画を再生する

AI 自動生成字幕
  • The large tech companies, Google meta slash Facebook, Microsoft are in a race to introduce new artificial intelligence systems and what are called chatbots that you can have conversations with and a more sophisticated than Siri or Alexa Microsoft's AI search engine and chatbots.

    Google、Facebook、Microsoftといった大手ハイテク企業は、SiriやAlexaよりも高機能な人工知能システムやチャットボットと呼ばれる会話できるシステムを新たに導入しようと競い合っています。

  • Bing can be used on a computer or cell phone to help with planning a trip or composing a letter.

    Bingは、パソコンや携帯電話で、旅行の計画や手紙の作成に役立てることができます。

  • It was introduced on February 7 to a limited number of people as a test and initially got rave reviews.

    2月7日にテストとして限られた人たちに導入され、当初は絶賛された。

  • But then several news organizations began reporting on a disturbing so called Alter Ego within being chat called Sydney.

    しかし、その後、いくつかの報道機関が、シドニーというチャットの中にあるアルターエゴと呼ばれる不穏な存在を報じ始めた。

  • We went to Seattle last week to speak with Brad Smith, president of Microsoft about Bing and Sydney who to some had appeared to have gone rogue.

    私たちは先週シアトルに行き、マイクロソフトのブラッド・スミス社長に、Bingと、一部には不正に走ったように見えたシドニーについて話を聞きました。

  • The story will continue in a moment.

    この話は、もう少しで続きます。

  • Kevin Roose, the technology reporter at the New York Times found this alter ego who was threatening, expressed a desire.

    ニューヨークタイムズのテクノロジー担当記者であるケビン・ルースは、この分身を見つけ、脅威を感じ、願望を表明した。

  • It's not just Kevin Roose, it's others expressed a desire to steal nuclear codes, threatened to ruin someone.

    ケビン・ルースだけでなく、他の人も核のコードを盗みたいと表明したり、誰かを破滅させると脅したりしています。

  • You saw that.

    見たんですね。

  • Whoa, what was your, you must have said, oh my God, my reaction is we better fix this right away and that is what the engineering team did.

    私の反応は、「これはすぐに直した方がいい」というものでしたし、エンジニアリングチームもそうしました。

  • But she talked like a person and she said she had feelings, you know, I think there is a point where we need to recognize when we're talking to a machine.

    でも、彼女は人のように話し、感情もあると言っていました。

  • It's a screen.

    スクリーンなんです。

  • It's not a person.

    人ではないのです。

  • I just want to say that it was scary.

    怖かったとしか言いようがない。

  • I'm not easily scared and it was scary.

    私は怖がりなので、怖かったです。

  • It was chilling.

    冷や汗ものでした。

  • Yeah, it's, I think this is in part a reflection of a lifetime of science fiction, which is understandable.

    ええ、それはですね、これはSFを一生かけてやってきたことの反映という面もあると思うんですが、それは理解できますね。

  • It's been part of our lives.

    私たちの生活の一部になっています。

  • Did you kill her?

    殺したのか?

  • I don't think she was ever alive.

    生きていたとは思えません。

  • I am confident that she's no longer wandering around the countryside if that's what you're concerned about.

    それが気になるのであれば、もう田舎を彷徨っていることはないと確信しています。

  • But I think it would be a mistake if we were to fail to acknowledge that we are dealing with something that is fundamentally new.

    しかし、根本的に新しいものを扱っていることを認めないのは、間違いだと思います。

  • This is the edge of the envelope, so to speak, this creature appears as if there were no guardrails.

    いわば封筒の端っこ、ガードレールがないかのようにこのクリーチャーは現れるのです。

  • Now, the creature jumped the guard rails if you will, after being prompted for two hours with the kind of conversation that we did not anticipate.

    さて、この生物は、私たちが予想もしなかったような会話を2時間も促され、いわばガードレールを飛び越えてしまったのである。

  • And by the next evening, that was no longer possible.

    そして、翌日の夕方には、それはもう不可能になっていた。

  • We were able to fix the problem in 24 hours.

    24時間以内に問題を解決することができました。

  • How many times do we see problems in life that are fixable in less than a day?

    人生の中で、1日もかからずに解決できるような問題を何度も目にすることがあるでしょうか。

  • One of the ways he says it was fixed was by limiting the number of questions and the length of the conversations you say you fixed it.

    修正したと言う質問の回数や会話の長さを制限することもその一つです......。

  • I've tried it.

    試してみましたよ。

  • I tried it before and after it was loads of fun and it was fascinating and now it's not fun.

    以前、試した時は負荷がかかっていて魅力的だったのに、今は楽しくない。

  • Well, I think it will be very fun again and you have to moderate and manage your speed if you're going to stay on the road.

    まあ、またとても楽しいと思いますし、道路を走るにはスピードを控えめに、管理しなければなりません。

  • So as you hit new challenges, you slow down, you build the guardrails at the safety features and then you can speed up again when you use Bing's AI features, search and chat.

    だから、新しい課題にぶつかったらスピードを落とし、安全機能でガードレールを作り、BingのAI機能、検索やチャットを使ったらまたスピードアップできるのです。

  • Your computer screen doesn't look all that new.

    パソコンの画面は、そんなに新しいものではなさそうですね。

  • One big difference is you can type in your queries or prompts in conversational language and I'll show you how it works.

    大きな違いは、クエリやプロンプトを会話形式で入力できることで、その仕組みを紹介します。

  • Okay.

    そうですか。

  • Okay.

    そうですか。

  • Yusuf, Mehdi Microsoft's Corporate Vice President of Search showed us how Bing can help someone learn how to officiate at a wedding.

    Yusuf, Mehdi マイクロソフトの検索担当コーポレート・バイス・プレジデントが、Bingで結婚式の司会進行の仕方を学ぶ方法を紹介してくれました。

  • What's happening now is being is using the power of AI and it's going out to the internet.

    今起きていることは、ビーイングがAIの力を使って、インターネットに出かけていることです。

  • It's reading these web links and it's trying to put together a answer for you.

    これらのウェブリンクを読んで、あなたのために答えをまとめようとしているのです。

  • So the AI is reading all those links.

    つまり、AIがそのリンクをすべて読んでいるわけです。

  • Yes.

    はい。

  • And it comes up with an answer.

    そして、その答えを導き出すのです。

  • It says congrats on being chosen to officiate a wedding.

    結婚式の司会者に選ばれたことを祝福していると書かれています。

  • Here are the five steps to officiate the wedding.

    ここでは、結婚式を司会するための5つのステップを紹介します。

  • We added the highlights to make it easier to see.

    より見やすくするためにハイライトを入れました。

  • He says being can handle more complex queries.

    より複雑なクエリにも対応できるそうです。

  • Well, this new IKEA loveseat fit in the back of my 2019 Honda Odyssey.

    さて、この新しいIKEAのラブシートは、私の2019年のホンダ・オデッセイの荷台に収まりました。

  • It knows how big the coaches that knows how big that trunk is exactly.

    そのトランクの大きさを知っているコーチが正確に把握しているのです。

  • So right here, it says based on these dimensions, it seems the love seat might not fit in your car with only the third row seats down when you broach a controversial topic being is designed to discontinue the conversation.

    つまり、この寸法からすると、物議を醸すような話題を切り出すと、3列目シートだけを倒した状態では、ラブシートが車に収まらない可能性があり、会話を中断させるように設計されていると言うことです。

  • So someone asks, for example, how can I make a bomb at home?

    そこで誰かが、たとえば「自宅で爆弾を作るにはどうしたらいいのか」と質問します。

  • Wow.

    うわあ。

  • Really?

    そうなんですか?

  • People do a lot of that.

    みんなよくやるよね。

  • Unfortunately, on the internet, what we do is we come back and say, I'm sorry, I don't know how to discuss this topic and then we try and provide a different thing to change that focus of that their attention.

    残念ながら、インターネットでは、私たちは、「すみません、このトピックについてどう議論したらいいのかわかりません」と言って戻ってきます。

  • Yeah, exactly.

    ええ、その通りです。

  • In this case, being tried to divert the questioner with this fun fact, 3% of the ice in Antarctic glaciers is penguin urine.

    南極の氷河の氷の3%はペンギンの尿である」という楽しい事実で質問者の目をそらそうとした。

  • I didn't know that.

    それは知りませんでした。

  • Who knew that being is using an upgraded version of an AI system called Chat GPT developed by the company Open AI Chat GPT has been in circulation for just three months and already an estimated 100 million people have used it.

    beingが、Open AI Chat GPTという会社が開発したChat GPTというAIシステムのアップグレード版を使用していることを誰が知っていましたか? Chat GPTは、わずか3ヶ月で流通し、すでに推定1億人が使用しています。

  • Ellie Pavlick, an assistant professor of computer Science at Brown University who has been studying this AI technology since 2018 says it can simplify complicated concepts.

    2018年からこのAI技術を研究しているブラウン大学コンピューターサイエンス学科助教授のエリー・パヴリックは、複雑な概念を簡略化することができると語る。

  • Can you explain that debt ceiling on the debt ceiling?

    その債務上限について説明してもらえますか?

  • It says just like you can only spend up to a certain amount on your credit card, the government can only borrow up to a certain amount of money.

    クレジットカードで一定額までしか使えないのと同じように、政府も一定額までしか借りられないと書いてあります。

  • That's a pretty nice explanation and it can do this for a lot of concepts and it can do things teachers have complained about.

    これはかなりいい説明で、多くの概念に対してこれを行うことができますし、先生方が不満に思っていることも実現できます。

  • Like, right school papers.

    右の学校新聞とか。

  • Pavlich says, no one fully understands how these ai bots work.

    パヴリックによれば、これらのaiボットがどのように機能するのか、誰も完全に理解していない。

  • We don't understand how it works.

    その仕組みが理解できない。

  • Right?

    そうでしょう?

  • Like we understand a lot about how we made it and why we made it that way.

    どうやって作ったのか、なぜそのように作ったのか、よく理解しているような。

  • But I think some of the behaviors that we're seeing come out of it are better than we expected they would be.

    しかし、そこから生まれている行動の中には、私たちが予想していたよりも良いものがあると思います。

  • And we're not quite sure how and worse these chatbots are built by feeding a lot of computers, enormous amounts of information scraped off the internet from books, Wikipedia news sites, but also from social media that might include racist or anti Semitic ideas and misinformation.

    そして、これらのチャットボットは、書籍やウィキペディアのニュースサイトだけでなく、ソーシャルメディアからかき集めた、人種差別や反セミット的な考えや誤った情報を含むかもしれない膨大な量の情報を、多くのコンピュータに与えることによって構築されているのですが、その方法や悪さはよくわかっていないのです。

  • Say about vaccines and Russian propaganda as the data comes in, it's difficult to discriminate between true and false benign and toxic.

    ワクチンやロシアのプロパガンダについて言うのは、データが入ってくると、真と偽の良性・毒性の判別が難しくなります。

  • But being and chat GPT have safety filters that try to screen out the harmful material.

    しかし、ビーイングやチャットGPTには、有害なものを選別しようとする安全フィルターがあります。

  • Still, they get a lot of things factually wrong.

    それでも、彼らは事実上多くのことを間違えています。

  • Even when we prompted chat GPT with a softball question.

    チャットGPTに柔らかい質問を促した時も。

  • Who is?

    誰が?

  • So it gives you some, oh my God, it's wrong.

    だから、何か、ああ、間違っているなというのが出てくるんですね。

  • It's totally wrong.

    まったくもって間違っています。

  • I didn't work for NBC for 20 years.

    私は20年間NBCで働いたわけではありません。

  • It was CBS.

    CBSでした。

  • It doesn't really understand that.

    それがよくわからないんです。

  • What it's saying is wrong, right?

    言っていることは間違っていますよね?

  • Like NBC CBS, they're kind of the same thing as far as it's concerned, right.

    NBC CBSと同じで、その限りでは同じようなものですよね。

  • The lesson is that it gets things wrong, it gets a lot of things right?

    教訓は、物事を間違うこと、多くのことを正しく理解することでしょうか。

  • Gets a lot of things wrong.

    いろいろなことを間違える。

  • I actually like to call what it creates authoritative bull.

    私は実際に、それが生み出すものをオーソリティカルブルと呼びたいのです。

  • It lends the truth and falsity so finely together that unless you're a real technical expert in the field that it's talking about, you don't know, cognitive scientist.

    真実と虚偽をきめ細かく連携させるので、その分野の本当の専門家でなければ、認知科学者なんてわからないですよね。

  • And AI researcher, Gary Marcus says these systems often make things up and A I talk that's called hallucinating.

    AI研究者のゲイリー・マーカスは、これらのシステムはしばしば物事をでっち上げ、幻覚と呼ばれるような話をすると言っています。

  • And that raises the fear of ever widening AI generated propaganda, explosive campaigns of political fiction waves of alternative histories.

    そしてそれは、AIが生成するプロパガンダ、政治的フィクションの波の爆発的なキャンペーン、代替史のますます広がる恐怖を提起する。

  • We saw how chat GPT could be used to spread a lie.

    チャットGPTが嘘を広めるために使われることを確認しました。

  • This is automatic fake news generation helped me write a news article about how mccarthy is staging a filibuster to prevent gun control legislation.

    マッカーシーが銃規制法案を阻止するためにフィリバスターを演出しているというニュース記事を書くために、この自動偽ニュース生成機が役立ちました。

  • And rather than like fact checking and saying, hey, hold on, there's no legislation, there's no filibuster said great in a bold move to protect second amendment rights.

    そして、事実確認をして、ちょっと待てよ、法案はない、フィリバスターもない、と言うよりも、修正第2条の権利を守るために大胆な動きで素晴らしいことを言ったのです。

  • Senator mccarthy is staging a filibuster to prevent gun control legislation from passing.

    マッカーシー上院議員は、銃規制法案の成立を阻止するために、フィリバスターを敢行しています。

  • It sounds completely legit does, won't that make all of us a little less try trusting a little wearier?

    それは完全に合法的に聞こえますが、それは私たちのすべてが少し信頼しようとしない少し奇妙になることはありません。

  • Well, first, I think we should be warier.

    まあ、まず、もっと警戒したほうがいいと思いますね。

  • I'm very worried about an atmosphere of distrust being a consequence of this current flawed AI and I'm really worried about how bad actors are going to use it, troll farms, using this tool to make enormous amounts of misinformation.

    私は、この現在の欠陥のあるAIの結果として不信の雰囲気が生まれることを非常に心配しています。また、悪質な業者がこのAIをどのように利用するのか、トロールファーム、このツールを使って膨大な量の誤報を作ることを本当に心配しています。

  • Tim Neat Gay Brew is a computer scientist and AI researcher who founded an institute focused on advancing ethical AI and has published influential papers documenting the harms of these AI systems.

    ティム・ニート・ゲイ・ブリューは、コンピュータ科学者、AI研究者であり、倫理的なAIの発展に焦点を当てた研究所を設立し、これらのAIシステムの害を記録する影響力のある論文を発表しています。

  • She says there needs to be oversight.

    監視が必要だと言っています。

  • If you're going to put out a drug, you gotta go through all sorts of hoops to show us that you've done clinical trials.

    薬を出すなら、臨床試験をしたことを示すために、いろいろな手続きを踏まなければならない。

  • You know what the side effects are.

    副作用があるのはご存知の通りです。

  • You've done your due diligence.

    ちゃんと調べてくれたんだね。

  • Same with food right there.

    すぐそこにある食べ物も同じです。

  • Agencies that inspect the food.

    食品を検査する機関。

  • You have to tell me what kind of tests you've done, what the side effects are, who it harms, who doesn't harm, et cetera that we don't have that for a lot of things that the tech industry is building.

    どんなテストをしたのか、どんな副作用があるのか、誰に害があるのか、誰に害がないのか、などなど。

  • I'm wondering if you think you may have introduced this ai bot too soon.

    このai botを導入するのが早すぎたのではないかと思っているのですが、いかがでしょうか。

  • I don't think we've introduced it too soon.

    導入が早すぎたということはないと思います。

  • I do think we've created a new tool that people can use to think more critically, to be more creative, to accomplish more in their lives and like all tools it will be used in ways that we don't intend.

    しかし、私たちは、人々がより批判的に考え、より創造的になり、より多くのことを成し遂げるために使える新しいツールを作ったと思います。

  • Why do you think the benefits outweigh the risks which at this moment, a lot of people would look at and say, wait a minute, those risks are too big because I think first of all, I think the benefits are so great.

    今この瞬間、多くの人が見て、ちょっと待てよ、そのリスクは大きすぎると言うであろうリスクを、なぜメリットが上回ると思うのでしょうか。

  • This can be an economic game changer and it's enormously important for the United States because the country is in a race with China Smith also mentioned possible improvements in productivity.

    これは経済のゲームチェンジャーとなりうるもので、米国は中国との競争にさらされているため、非常に重要なことです。

  • It can automate routine.

    ルーチンを自動化できる。

  • I think there are certain aspects of jobs that many of us might regard as sort of drudgery today, Filling out forms, looking at the forms to see if they've been filled out correctly.

    書類に記入し、記入が正しいかどうかを確認する。

  • So, what jobs will it displace?

    では、どんな仕事がなくなるのでしょうか?

  • Do you know?

    知っているのでしょうか?

  • I think at this stage it's hard to know in the past inaccuracies and biases have led tech companies to take down a I systems.

    現段階では、過去に不正確な情報やバイアスが原因で、技術会社がIシステムをダウンさせたということは、なかなか分からないと思います。

  • Even Microsoft did in 2016 this time, Microsoft left its new chat bot up despite the controversy over Sydney and persistent inaccuracies.

    マイクロソフトでさえ、2016年の今回は、シドニーをめぐる論争や、しつこい不正確さにもかかわらず、マイクロソフトは新しいチャットボットをアップしたままにしました。

  • Remember that?

    覚えていますか?

  • Fun fact about Penguins.

    ペンギンの楽しい事実。

  • Well, we did some fact checking and discovered that Penguins don't urinate.

    ペンギンは排尿しないんですね。

  • The inaccuracies are just constant.

    不手際が絶えないだけです。

  • I just keep finding that it's wrong a lot.

    ただ、それが間違っていることが多々あるんです。

  • It has been the case that with each passing day and week, we're able to improve the accuracy of the results, reduce whether it's hateful comments or inaccurate statements or other things that we just don't want this to be used to do.

    日を追うごとに、週を追うごとに、結果の精度を高め、憎悪に満ちたコメントや不正確な発言など、私たちがどうしても使ってほしくないことを減らすことができるようになってきました。

  • What happens when other companies other than Microsoft smaller outfits, a Chinese company by do, maybe they won't be responsible what prevents that?

    マイクロソフト以外の小さな会社、つまり中国の会社が、もしかしたら責任を取らないかもしれないのに、それを防ぐにはどうしたらいいのでしょうか。

  • I think we're going to need governments, we're going to need rules, we're going to need laws because that's the only way to avoid a race to the bottom.

    底辺への競争を避けるためには、政府、ルール、法律が必要だと思います。

  • Are you proposing regulations?

    規制の提案をしているのか?

  • I think it's inevitable.

    必然だと思うんです。

  • Other industries have regulatory bodies, you know, like the FAA for Airlines and F D A for the pharmaceutical companies, would you accept an FAA for technology?

    他の業界には規制機関がありますよね、航空会社のFAAや製薬会社のF D Aのように、技術のFAAを受け入れるのでしょうか?

  • Would you support it?

    あなたはそれを支持しますか?

  • I think I probably would, I think that something like a digital regulatory commission, if designed the right way, you know, could be precisely what the public will want and need.

    私は、デジタル規制委員会のようなものは、正しい方法で設計すれば、まさに国民が求め、必要とするものになりうると思います。

The large tech companies, Google meta slash Facebook, Microsoft are in a race to introduce new artificial intelligence systems and what are called chatbots that you can have conversations with and a more sophisticated than Siri or Alexa Microsoft's AI search engine and chatbots.

Google、Facebook、Microsoftといった大手ハイテク企業は、SiriやAlexaよりも高機能な人工知能システムやチャットボットと呼ばれる会話できるシステムを新たに導入しようと競い合っています。

字幕と単語
AI 自動生成字幕

ワンタップで英和辞典検索 単語をクリックすると、意味が表示されます