字幕表 動画を再生する 審査済み この字幕は審査済みです 字幕スクリプトをプリント 翻訳字幕をプリント 英語字幕をプリント It's safe to say that our private information isn't private anymore. 私たちの個人情報は、もはやプライベートなものではないと言っていいでしょう。 New technologies are collecting data to be sold or shared between companies in sometimes questionable ways. 新しい技術がデータを収集し、時には怪しい方法で、企業間で販売または共有されています。 Y'all really think that "Black Mirror" isn't gonna happen? 「ブラック・ミラー」が起きないと本当に思っているのですか? Well, it's not going to happen; it's already happening. それはこれから起きることはなく、もう始まっているのです。 Let's start in China, where employers are monitoring their employees' brain waves⏤oh, yeah, you heard that right, monitoring their brain waves. まずは、雇用主が従業員の脳波をモニターしている中国から始めましょう。そうです、脳波をモニターしているんです。 To be clear, they're not attempting to read the workers' thoughts, but their emotions. 正確には、彼らは労働者の思考を読もうとしているのではなく、感情を読もうとしているのです。 Factories, state-owned enterprises, and sections of the Chinese military are placing wireless sensors in employees' hats that record and transmit data similar to an electroencephalogram, or EEG. 工場、国有企業、中国軍の一部が、従業員の帽子にワイヤレスセンサーを付けることで、脳波図 (EEG) と似たデータを記録し、送信しています。 By analyzing the incoming sensor data, AI models can detect anomalies that might indicate a spike in anger, depression, or anxiety. 受信したセンサーデータを分析することで、AIモデルが、怒り、落ち込み、不安の急上昇を意味する異常を検知することができます。 This system is said to help employers find out who's stressed, modulate break times, and increase productivity, in turn, spiking company profits by an estimated ¥2 billion since 2014. このシステムは、雇用主がストレスを感じている人を見つけ出し、休憩時間を調整し、生産性を向上させることに役立ち、それにより2014年以降、企業の利益が20億元以上上昇していると言われています。 This tech is being used elsewhere, too, like assessing fatigue in high-speed train drivers and monitoring patients in hospitals. この技術は、高速鉄道の運転士の疲労度評価や病院での患者の観察など、他の分野でも活用されています。 Sure, it would be dope to find out if your significant other is really fine when they say "I'm fine" after a fight. 確かに、ケンカして「大丈夫」と言われたときに、自分の大切な人が本当に大丈夫なのかどうかを見極めることができるのはいいですよね。 But how do you regulate something like this? しかし、このようなものをどうやって規制するのでしょうか? If emotional data is mineable, what happens if companies nefariously use it to abuse their power? 感情データがマイニング可能な場合、企業がその力を悪用したらどうなるのでしょうか? I listen to a lot of SZA and Drake⏤I'm emotional; please don't use my emotions against me. SZA や Drake をよく聴いています! --私は感情的ですね。私の感情を逆なでしないでください。 China has a social credit score, a clout score based on your criminal record, donations to charity, loyalty to political parties, how many video games you buy, and even your friends' social credit scores. 中国には、犯罪歴、慈善事業への寄付、政党への忠誠心、テレビゲームの購入数、そして友人のスコアまでを元にした、社会信用スコアがあります。 This is just like "Black Mirror" series three's "Nosedive", where everyone has a score based on social interactions. これはまるで、社会的交流を元にした点数を全員が持っている、ブラックミラーシリーズ3の「Nosedive」のようです。 The Chinese government claims it's trying to build "trust" with this score, but its implications can be more sinister. 中国政府は、このスコアで「信頼」を築こうとしていると主張していますが、その意味は、もっと邪悪なものです。 For instance, in 2016, a man was denied a plane ticket because a judge deemed a court apology "insincere" and placed him on a blacklist, tanking his score. 例えば2016年には、男性が、裁判での謝罪を「不誠実」と判断され、ブラックリストに登録され、スコアが急降下したことで、航空券の購入を拒否されました。 "Insincerity" is hella subjective, so how would we regulate for everyone's opinions? 「不誠実」は主観的なもので、皆の意見に対して、どのように規制をかけるのでしょうか? Finally, China is using all this information to make you into a precog. 最後に、中国はあなたを予知するために、これらすべての情報を使っています。 They're literally trying to predict political instability using feeds from surveillance cameras, phone usage, travel records, and religious orientation. 監視カメラの映像、電話の使用状況、旅行記録、宗教的志向などを使って、政治の不安定性を予測しようとしているのです。 Extrapolating the negative consequences, this taps into personal data and can unfairly target groups based on prejudice, specifically the Uyghur and other predominantly Muslim populations. ネガティブな結果を予測して、個人情報へのアクセスし、偏見に基づいて不公平にグループ、特にウイグルなどイスラム教徒が多い集団、がターゲットとなる可能性があるのです。 And let's just say you protest this state-sponsored measure. この国家主導の施策にあなたが抗議するとしましょう。 That affects your social credit score, which then can deny you things like plane tickets and jobs, keeping you trapped by the system. その結果、あなた社会的信用度が低下し、航空券などの購入や仕事が拒否される可能性があります。あなたが、システムから抜け出せないようになっています。 Tracking every arena⏤personal, professional, recreational, political, etc.⏤is dangerous, especially in the United States, where we value life, liberty, and the pursuit of happiness. 個人、仕事、娯楽、政治など、あらゆる分野を追跡することは、生命、自由、幸福の追求を重要視するアメリカでは特に危険です。 Like we don't already know that the government is in our webcams, Siris, and Alexas. ウェブカメラやSiri、Alexaに政府が入り込んでいることを、私たちはまだ知らないようですね。 Than... thank you? ...ありがとうございます? It's pretty spooky to think about how the systemic issues were already grappling pretty hard with this society, such as all of these biases, could be magnified by technology we already developed. 私たちが社会としてすでに懸命に取り組んでいるシステム的な問題、たとえばこうしたあらゆる偏見が、私たちがすでに開発したテクノロジーによって拡大されるかもしれないと考えると、とても不気味です。 America has a lot to deal with right now, so maybe we should sit this tech out. アメリカは今、いろいろなことに取り組んでおり、この技術は見送ったほうがいいかもしれません。 All of these tools can have a pro-social end goal, but it's too soon to tell if the ends justify the means. これらのツールはすべて、社会的に良い目的を持ちうるのですが、その目的が手段を正当化するかどうかを判断するのは時期尚早です。 Data will continue to be collected on us⏤that's for sure. これからも私たちのデータは収集され続けることでしょう。 But, with few regulatory systems in place, we gotta keep an eye on this new tech that's already just chillin' here and stop pretending that this is all happening in some distant dystopian future. しかし、規制制度がほとんどないため、この恐ろしい新しい技術に目を向け、これがどこか遠い国のディストピア的未来の出来事であるかのようなふりをするのはやめるべきです。 Not only is AI gonna run the world someday, but it's already being used to predict the next global pandemic. AIはいつか世界を動かすだけでなく、AIはすでに次の世界的なパンデミックを予測するのに使われています。 Wanna find out how? Bet you do. その方法を知りたいですか?そうでしょうね。 Check out this video right here. そのビデオはこちらでご覧ください。 Thanks for watching, subscribe to Seeker, and come back for new videos every day so you can watch your computer as much as it's watching you. ご覧いただきありがとうございます。シーカーを登録して、毎日新しいビデオを見に来てください。コンピュータがあなたを監視しているのと同じくらい、あなたはコンピュータを見ることができます。
B2 中上級 日本語 米 脳波 データ スコア ai 社会 感情 中国のやばすぎる最新監視システム:脳波を刺激して生産性アップ?! 11640 135 Misaki に公開 2022 年 08 月 04 日 シェア シェア 保存 報告 動画の中の単語