Facebook AI Research(FAIR)のチームとNew York University(NYU) School of Medicineは共同で、胸部X線を使ってCOVID-19患者の予後予測を行うディープラーニングモデルを開発した。比較調査の結果では、このモデルは人間の放射線科医を上回っており、病院における酸素吸入や集中治療の需要予測を支援するために使用できる。
arXivで公開された論文には、このシステムについて詳しく説明されている。このモデルは、一般公開されている2つの胸部X線写真データセットを使って事前トレーニングされた後、NYUにあるCOVID-19患者の写真データセットで調整を行ったものだ。生成されたモデルは3つで、それぞれが単一のX線写真からの患者の悪化予測、一連のX線写真を基にした患者の悪化予測、単一のX線写真からの患者の酸素吸入の必要性予測を行う能力を持っている。一連のイメージを使用するモデルは、人の専門家が行う2日後までを上回り、最大4日後までの予想を事前生成することができる。研究チームによると、
この研究をリリースすることによって、私たちがこれまでやってきたことを基盤に、病院やコミュニティ全体によって新たなものが生み出されることを期待しています — そして、 私たちのモデルが、専門家たちの重要な意思決定を支援し、限られた時間とリソースでよりよいサービスを患者の皆さんに提供する一助になればと思っています。
FAIRとNYUは昨年、COVID-19感染者の予後の予測を行う畳み込みニューラルネットワークの運用結果を公開した。COVID-GMICと呼ばれるこのシステムでは、Globally-Aware Multiple Instance Classifier(GMIC)アーキテクチャが採用されている。NYUで4,722人のCOVID-19陽性患者を撮影した、19,957枚の胸部X線写真を含むデータセットを使ってトレーニングと評価が行われたこのモデルは、人の専門家に"匹敵する"結果を達成している。
新しいシステムも同じく、NYUの患者X線写真のデータセット上でトレーニングされた。このデータセットはディープラーニングモデルのトレーニング用としては比較的小規模であるため、研究者たちは、MIMIC-CXR-JPGとCheXpertという2つの公開データセット上で、Momentum Contrast(MoCo)と呼ばれる自己教師あり学習テクニックを使って事前トレーニングを実施する、転移学習(transfer learning)という手法を採用した。このスキームでは、ネットワークは、イメージをより小さなベクトル空間にマップするエンコーダを学習する。互いに相似するイメージは、互いに"より近い(closer)"ベクトルにマップされる。
3つのモデルは、いずれもMoCoエンコーダをベースにしている。単一イメージを予測するSingle Image Prediction(SIP)とOxygen Requirement Prediction(ORP)の2モデルは、出力されたモデルを線形分類器(Linear Classifier)で微調整することによって構築され、患者の悪化や酸素吸入の必要性を予測する。第3のモデルであるMultiple Image Prediction(MIP)では、イメージのシーケンスからのエンコーダ出力をTransformerの入力として使用することで内部表現を生成し、それを線形分類器の入力に用いている。チームはMIPモデルの結果を、24、48、72、96時間の予測時間枠を使用して、専門の放射線科医2人の予測と比較した。その結果、24時間の予測時間枠を除くすべてのケースにおいて、モデルが人を上回る結果を出したのだった。
多くのAI研究者が、COVID-19パンデミックとの闘いを支援するために自身のシステムを使用している。Amazon Web Services、Google Cloud Platform、Microsoft Azureの3大クラウドプロバイダはすべて、マシンラーニングで使用するために公開されているCOVID-19データセットをいくつかホストしている。昨年Googleは、自社のAlphaFoldモデルを使用して、ウィルスのタンパク質構造のいくつかを予測した。先日のNatureの記事ではDanishの研究チームが、年齢、BMI、血圧といったデータを使用して、COVID-19感染者の人工呼吸器の必要性を80パーセントの精度で予測する、独自のAIシステムについて説明している。
FAIRのソースコードと事前トレーニング済のモデルファイルがGitHubで公開されている。