字幕表 動画を再生する 字幕スクリプトをプリント 翻訳字幕をプリント 英語字幕をプリント [MUSIC PLAYING] [2017年 TensorFlow開発者会議] BRETT KUPREL: I'm Brett Kuprel. 私はブレット・キュプレルです I'd like to tell you about some of the work スタンフォード大学での we're doing at Stanford on skin cancer image classification. 皮膚がんの画像分類に関する 取り組みについてお話します This project has been a collaboration このプロジェクトは人工知能研究室と 医学部との共同作業となっています between the Artificial Intelligence [現状] Lab and the medical school. 皮膚がんの脅威について So, let me warm up with some facts 動機付けとなる現状を お話しすることから始めましょう to motivate the threat of skin cancer. 皮膚がんは米国でもっとも一般的ながんです It's the most common cancer in the United States. 5人に1人のアメリカ人が 人生のある時点で皮膚がんを発症しています One in five Americans will develop skin cancer 2017年には8万7千件の 黒色腫の新しい症例があり at some point in their lifetime. 最悪の型の皮膚がんであるこの黒色腫により And in 2017, it's estimated that there 約1万人の死者が出ると推定されています will be 87,000 new cases of melanoma, which 幸い朗報もあります is the deadliest form of skin cancer, 黒色腫の生存率は 早期発見できれば98%です and almost 10,000 deaths from it. また2020年までに Fortunately, there is good news, there's hope. 61億台のスマートフォンが 世界で流通すると推定されています The survival rate for melanoma is 98% この共同作業は2年前に始まりました if you can detect it early on. スタンフォード大学のある皮膚科医が Also, by 2020, it's estimated that there コンピュータビジョンにおける 近年の飛躍的進歩を見て will be $6.1 billion smart phones in circulation globally. 人工知能研究室長にメールを送り So, this collaboration began a couple of years 研究室のプログラムが 数百の犬種を識別できるのであれば ago when a dermatologist at Stanford 皮膚科学においても 非常に大きな貢献になり得ると伝えました saw the recent breakthroughs in computer vision. [データセット] And he e-mailed the director of the Artificial Intelligence 貢献に向けての最初の段階は データセットの取得でした Lab. 私達が取得したデータセットは And he said, if your program can differentiate between hundreds 2000件の疾患に渡る 約13万枚の画像から成るものでした of dog breeds, I believe it can make a great contribution 医学部との共同で to dermatology. 画像を整理しました これはその部分集合の分類です So, the first step to making a contribution この分類に緑と赤のノードがあります is acquiring a data set. 緑は安全 赤は危険 黒は致死的 So, we have acquired a data set of almost 130,000 images spread またどちらにもなり得る オレンジ色のノードもあります out over 2000 diseases. 明らかに2分類のタスクではありません We worked with the medical school 次のスライド2枚で 良性病変と悪性病変をお見せしましょう to clean it up and put it into this nice taxonomy, a subset こちらは悪性病変です of which is shown here. こちらが良性病変です So, in this taxonomy, you can see green nodes and red nodes. この2種類を直接見ると Green is safe, red is dangerous, black is deadly. 視覚的な差異がわかりますが And there's also some orange nodes, 良性と悪性で非常に似ている病変もあります which could go either way. 例として緑で強調したものです It's not clearly a binary task. データセットを取得したあとの 次の段階はトレーニングでした So, on the next couple of slides I'll 細かい種類での分類のトレーニングが 良い成績結果を示すのがわかりました show some benign and malignant lesions. 図を見てください So here's some malignant lesions. 緑のノードでトレーニングする― Here's some benign lesions. 実際は700ぐらいのトレーニング数ですが So, you can kind of see flipping, back and forth, ともかく緑のものに トレーニングしたと思ってください a visual distinction. 推論時間で But there's also some lesions that ツリーを登り赤のノードに悪化する確率 影響力の等級を総計算します are very similar between the two, which I highlighted green, そしてさらに2分類タスクで 病変を区別する場合 for instance. 悪性黒色腫と 双対的に似通った良性病変ー OK, so now we have a data set, next up is to train it. 黒色腫的な良性病変とを区別する場合 We find that training on finer classes 確率合計を1に正規化します results in better performance. これはベイズの定理の条件付き確率に 一致します So, if you consider the figures shown, つまり疾患は2分類で 9つの赤ノード全部の1つではありません if we train on the green nodes, we actually train on more-- [不明瞭] モデルを 微調整することで like 700 of them-- but just, imagine 最高の成績を得られることがわかりました we trained on the green ones. いくつか別のアーキテクチャも試しました At inference time, we would sum the probabilities AlexNetとVGG Inceptionの1と3の バージョンでトレーニングしました up the tree to the red nodes, the classes of interest. そのうちInception 3が 一番良く機能しました And then further, if we're interested in a binary task また空間的変換ネットワークでも 画像変換を試みました of distinguishing malignant melanoma from its binary 離れた場所から撮影された 病変画像が多かったからです look alike-- オッカムの剃刀の定理は用いましたが 成績改善は見られませんでした from its benign look alike, melanistic benign lesions, だから これは使用しませんでした we would renormalize the probability sum to 1. 次の段階は評価でした And this is consistent with Bayes' rule condition 皮膚科医と比較するため 2つの基準を使いました on the information, that the disease 真陽性率として知られる感度と is one of two things, not one of all the nine red nodes. 真陰性率として知られる特異度です So, we found that we got the best performance by fine-tuning 皮膚科医に良性・悪性病変の画像を たくさん見てもらいました an [INAUDIBLE] pretrain model. これで感度が計算でき We tried a few different architectures. 生検を要求された 悪性病変の率がわかりました We train with AlexNet, VGG Inception, versions one 同様に特異度は and three. 生検を要求されなかった 良性病変の率です We found Inception version three worked the best. 生検を病理学者に要求された場合 ほぼ完璧な診断結果でした We also tried feeding with a spatial transformer network, ネットワークに対しては because many of our images have lesions taken from far away. 分類器に悪性の確率を出力しました We didn't find improved performance, 同じ画像を入力して ご覧の確率を得たと思ってください and using Occam's Razor, we just didn't use it. 感度は悪性病変の率で 選択しきい値の右となります So, the next step is evaluation. 同様に特異度は良性病変の率で しきい値の左となります We used two metrics to compare with dermatologists-- この特定のしきい値の中で 感度の分類器となります sensitivity, which is known as the true positive rate, なぜならほぼすべての 悪性病変がしきい値の右にあるからです and specificity, known as the true negative rate. このしきい値を変えて 異なった範囲の 感度と特異度の組み合わせを得られます So, we show the doctors-- そのようにして 3つの異なるタスクに関する結果を得ます dermatologists-- a bunch of images of benign and malignant 1番目のタスクはもっとも予防可能な 広く行き渡ったタイプの皮膚がんです lesions. 2番目のタスクは見かけに対して もっとも危険なタイプの皮膚がんです We can then calculate their sensitivity 3つ目のタスクは 2番目のタスクと同じですが as the percent of malignant lesions 違いはダーモスコープで撮影された ダーモスコピー画像を使用していることです they were shown that they ordered a biopsy for. 分極光を照らして組織下層の 病変を見えるようにする特別な装置です Similarly, the specificity is the percent of benign lesions ダーモスコピーの方が 難しいと思うかもしれませんが they were shown that they did not order a biopsy for. そんなことはありません 完全に異なるセットの病変というだけです And if they ordered a biopsy, it goes さらに皮膚科医の成績がこのデータセットでは それほど良くはないとわかりました to a pathologist, which results in a near-perfect diagnosis. 皮膚科医の成績を見てみましょう And for a network, we actually, for a classifier, これはもっとも重要なスライドです we output a malignant probability. 1つわかるのは線が前のものより ギザギザしていることです So, imagine we fed the same images through, 理由はこれが私達のテストセットの サブセットだからです and we got the probabilities as shown. 皮膚科医には重要な仕事がありますが 何千という画像は分類できません Then the sensitivity would be the percent それを私達は高速で行えます of malignant lesions that falls to the right of some chosen もう1つ気付くことは threshold. 皮膚科医の成績が 広範囲でさまざまであることです Similarly, the specificity would be the percent benign lesions このグラフから 皮膚がんの病変画像の分類において that lie to the left of the threshold. 私達は 皮膚科医レベルでの成績を達成したと 結論付けられます And in this particular threshold, ここに9分類のタスクに関して 混同行列があります it would be a sensitive classifier, これらに類似性が見られるのは興味深いです because almost all malignant lesions lie 1つは 私達が炎症に関する予測を 誤ることが多いことです to the right of the threshold. カテゴリーがとても広いからです And we can vary this threshold to get もう1つ気付くことは a whole range of sensitivity and specificity pairs. 皮膚科医は 悪性病変を良性と誤るよりも So, doing that, we get these results 良性病変を悪性と誤る傾向があることです on three different tasks. 悪性を良性と誤ると 致命的ミスになり得るからです So, the first task is the most prevalent type of skin cancer. このマトリックスから わかります Second task is the most dangerous type この分類器のデモを持って来ました of skin cancer versus its look alike. これです テキストは読めませんが― And the third task is the same as the second task, これが悪性の色素だとわかります except it's using dermoscopy images, which もう2つやってみましょう are taken with a dermoscope. これは表皮性の悪性病変です It's a special device that shines polarized light これで多分良いです at the lesion to expose underlying layers of tissue. うまくいきましたね And you might think that dermoscopy is harder, 私達の業績が高評価を 受けていることは名誉なことです but, no, it's just a completely different set of lesions. このプロジェクトを始めた時 アンドレと私が 皮膚病について無知だったけど And we also see that the dermatologists don't これは深層学習の精神と いったものだと思います do as well in that data set. 莫大で十分なデータセットを得て Googleの最新画像分類器に入力し So, let's see how the dermatologists do. 微調整して あらゆる大変な仕事は任せて So, this is the most important slide. 手柄を得られるのです We can see, for one, the line is more jaggedy than the previous, 人口知能研究者として 今は非常に素晴らしいときです and that's because this is a subset of our test set. 3冊の『ネイチャー』の表紙が 人工知能の躍進を取り上げ Dermatologists have important things to do. そのうち2つが Googleでの研究論文でした They can't just classify thousands of images. 最後に皮膚科学に適用される 人口知能の将来についてお話します We can do it really fast. これは他の皮膚疾患にも適用されると思います Another thing you notice is dermatologists 利便性も高まるでしょう are actually widely varied in their performance. 皮膚科医の検査を受けられなくても Anyway, from these plots, we conclude 多くの人がスマートフォンへの アクセスを持つようになるからです that we have achieved dermatologist level performance 病変を分類するのに より便利になるでしょう at skin lesion image classification of skin cancer. 利便性が高まることで うまくいけば早期発見につながります So, here's some confusion matrices on a nine way 早期発見した場合の 生存率も遥かに良くなります classification task. ありがとうございました It's interesting to look at these to see the similarity. One thing you might notice is that we often mispredict inflammatory. It's such a broad category. Another thing you can notice is that dermatologists will err on the side of guessing a benign lesion is malignant than the malignant lesion is benign. Because that would be a deadly mistake. And you can see that from this box. OK, so I brought a demo of this classifier. So this one-- I can't actually read the text, but-- Yeah, you can see it's malignant pigmented. Let's do a couple of these. This one's epidermal malignant. There, that's probably good. Don't want to embarrass myself. So, I just want to say I'm honored at how well received our work has been. It's remarkable that Andre and I didn't know anything about dermatology going into this, and I think that's kind of the spirit of deep learning. You can just get a large enough data set and feed it through Google's latest image classifier. Fine tune it, let them do all the hard work, take the credit. And it's just a really amazing time to be an AI researcher, as evidenced by three covers of "Nature" dedicated to breakthroughs in artificial intelligence, two of them here at Google. I just wanted to comment a little bit on the future of AI applied to dermatology. And I think this could also apply to other skin diseases. But there will be increased access, because a lot of people might have access to a smartphone who don't have access to a dermatologist. Also, it will be more convenient to classify your lesion, and because it's more convenient, it will hopefully lead to earlier detection. And the survival rate is much better when you detect it early. Thank you.
B2 中上級 日本語 米 皮膚 分類 がん 画像 タスク 成績 皮膚がん画像分類(TensorFlow Dev Summit 2017 (Skin Cancer Image Classification (TensorFlow Dev Summit 2017)) 53 7 alex に公開 2021 年 01 月 14 日 シェア シェア 保存 報告 動画の中の単語