亞洲資本網(wǎng) > 資訊 > 國際 > 正文
清華校友立功!谷歌發(fā)布首個全科醫(yī)療大模型,14 項任務 SOTA
2023-08-03 19:22:16來源: ZAKER科技

全球首個全科醫(yī)療大模型正式發(fā)布:

由谷歌 Research 和 DeepMind 共同打造的多模態(tài)生成模型Med-PaLM M,懂臨床語言、懂影像,也懂基因組學。

在 14 項測試任務中,Med-PaLM M 均接近或超過現(xiàn)有 SOTA,前提是所有任務都使用一組相同的模型權重。

而在 246 份真實胸部 X 光片中,臨床醫(yī)生表示,在高達 40.50% 的病例中,Med-PaLM M 生成的報告都要比專業(yè)放射科醫(yī)生的更受采納,這表明 Med-PaLM M 并非 " 紙上談兵 ",用于臨床指日可待。


(資料圖)

對此,谷歌也自己給出了評價:

這是通用醫(yī)學人工智能史上的一個里程碑。

所以,Med-PaLM M 具體什么來頭?

全球首個全科醫(yī)療大模型來了

在正式了解 Med-PaLM M 之前,我們先簡單介紹谷歌自建的多模態(tài)醫(yī)學測試基準MultiMedBench。

谷歌表示,在 MultiMedBench 之前,市面上缺乏這樣一個全面的多模態(tài)醫(yī)學基準。

該基準由 12 個開源數(shù)據(jù)集和 14 個單獨的任務組成,用于測量通用生物醫(yī)學 AI 執(zhí)行各種臨床任務的能力。

其中 12 個數(shù)據(jù)集共包含了六種生物醫(yī)學數(shù)據(jù)模式(文本、放射學(CT、MRI 和 X 光)、病理學、皮膚病學、乳房 X 光檢查和基因組學),14 個任務則涵蓋五種類型(問題回答、報告生成和摘要、視覺問題回答、醫(yī)學圖像分類和基因組變體調(diào)用)。

Med-PaLM M 就在上面進行了微調(diào)。

正如其名 "M" 代表多模態(tài),Med-PaLM M 相比之前谷歌發(fā)布的 Med-PaLM、Med-PaLM-2 等醫(yī)療大模型,是一個主打全科、通才的醫(yī)療 AI,不僅能回答各種醫(yī)學問題,還能直接看片、懂基因組學。

它的基本架構是 PaLM-E(多模態(tài)語言模型),并采用 ViT 預訓練模型作為視覺編碼器,具體實現(xiàn)了三種組合:

-PaLM 8B+ViT 4B ( PaLM-E 12B )

-PaLM 62B+ViT 22B ( PaLM-E 84B )

-PaLM 540B+ViT 22B ( PaLM-E 562B )

通過 MultiMedBench 對 PaLM-E 模型進行微調(diào),并將其與生物醫(yī)學領域?qū)R,Med-PaLM M 得以誕生。以下是一些實現(xiàn)細節(jié):

(1)數(shù)據(jù)集和預處理方面,將 MultiMedBench 中所有圖像大小調(diào)整為 224 × 224 × 3,同時按需使用填充來保留原始縱橫比。

(2)由于谷歌的目標是訓練一個通用的生物醫(yī)學 AI 模型,使用統(tǒng)一的模型架構和模型參數(shù),用多模式輸入執(zhí)行多個任務。為此,他們?yōu)?Med-PaLM M 提供了特定于各種任務的指令以及一個純文本的 " 一次性示例 "。

如下圖所示的胸部 x 光解讀和皮膚病變分類任務所示,這些指令有一種寫提示語的味道,以 " 你是一個很給力的放射科助理 " 開頭。

(3)訓練過程中,作者對 PaLM-E 進行了端到端的微調(diào)。在多模態(tài)任務中,圖像標記與文本標記交錯,以形成對 PALM-E 模型的多模式上下文輸入。對于所有微調(diào)任務,多模式上下文輸入最多包含 1 個圖像,然而 Med-PaLM M 能夠在推理過程中處理具有多個圖像的輸入。

14 項任務接近 or 超 SOTA,臨床戰(zhàn)勝 40% 放射科醫(yī)生

性能評估階段,作者主要測試 Med-PaLM M 的 " 多面手 "(即全科)能力、突發(fā)涌現(xiàn)能力以及放射學報告生成質(zhì)量(與真實放射科醫(yī)生進行對比)。

結果顯示:

(1)與專業(yè) SOTA 模型和無生物醫(yī)學領域微調(diào)的廣義模型(PaLM-E 84B)相比,Med-PaLM M 在 MultiMedBench 上的所有任務、數(shù)據(jù)集和指標組合(共計 14 項)中,性能均基本接近 SOTA 或超過 SOTA。

需要注意的是,該結果是在沒有任何特定任務定制的情況下使用相同的模型權重集實現(xiàn)的。

(2)在 scale 實驗中,三個不同規(guī)模的 Med-PaLM M 對各類任務的影響各不相同:

粗略來看,對于純語言任務和需要調(diào)整的多模式任務來說,模型越大越好;但對圖像分類和胸部 X 光報告生成任務來說,84B 的效果比 562B 表現(xiàn)反而更好一些。

(3)零樣本思維鏈推理能力涌現(xiàn)。Med-PaLM M 可以通過胸部 X 射線圖像檢測沒有訓練過的結核病,與針對該類數(shù)據(jù)集進行專門優(yōu)化過的 SOTA 結果相比,它的準確率已相差不大。不過,它給出的具體報告還是存在具體錯誤,說明還有不足。(4)放射性報告生成測試中,80B 參數(shù)的 Med-PaLM M 平均有 40.50% 的報告比放射科醫(yī)生做的更好(被臨床醫(yī)生采納),而 12B 和 562B,分別為 34.05% 和 32.00%。另外,遺漏和錯誤率測試顯示,Med-PaLM M 12B 和 84B 模型平均每份報告的遺漏率最低,為 0.12,其次是 562B 模型為 0.13。這一結果與 MIMIC-CXR 上人類放射科醫(yī)生基線報告的相當。

多久能實用?

作為人類首個全科醫(yī)學大模型,Med-PaLM M 多久能投入實用,想必也是大家關心的問題。

雖然它被 " 自詡 " 為里程碑(主要是因為靠一組模型權重在各種生物醫(yī)學任務上接近或超過 SOTA),但谷歌也指出目前還有不少局限性待解決。

比如缺乏高質(zhì)量的測試基準。谷歌表示,這是迄今為止通用生物醫(yī)學人工智能發(fā)展的關鍵瓶頸,因為只有高質(zhì)量的基準才能在很大程度上促進相關領域的發(fā)展。

而目前的 MultiMedBench 還存在單個數(shù)據(jù)集大小有限以及模式和任務多樣性有限(比如缺乏轉錄組學和蛋白質(zhì)組學)等問題。

再比如,擴展(scale)多模態(tài) AI 模型也具有挑戰(zhàn)性。

在語言領域,這一操作可以顯著提高性能和應急能力。然而,谷歌在 Med-PaLM M 上的初步實驗表明,由于醫(yī)學數(shù)據(jù)的稀缺性,這對于生物醫(yī)學任務領域的多模態(tài)廣義模型來說并沒有這么簡單。

作者介紹

目前,谷歌僅發(fā)布了 Med-PaLM M 的論文。

它一共有兩位共同一作,其中一位叫 Tao Tu。

他本科畢業(yè)于北理工(2010 年),碩士畢業(yè)于清華大學,博士為美國哥倫比亞大學,專業(yè)都是醫(yī)學工程。目前已在谷歌擔任軟件工程師快兩年。

論文地址:

https://arxiv.org/abs/2307.14334

關鍵詞:

專題新聞
  • 芝加哥商業(yè)交易所的數(shù)據(jù)顯示,截至8月2日,旗下COMEX黃金期貨未平倉合約為440074手,較上個交易日增加691手
  • 京津冀晉四地“牽手”  推動信用體系加速協(xié)同
  • 8月1日東明石化石油焦價格平穩(wěn)
  • 9.9元的AI芭比寫真,會搶走攝影師的飯碗?
  • 中鐵裝配:公司將持續(xù)關注國家相關政策與行業(yè)發(fā)展動態(tài),積極把握市場機遇,持續(xù)推動公司向好發(fā)展
  • 新華全媒+|為人民群眾生命安全筑防線——天津防汛泄洪現(xiàn)場直擊

京ICP備2021034106號-51

Copyright © 2011-2020  亞洲資本網(wǎng)   All Rights Reserved. 聯(lián)系網(wǎng)站:55 16 53 8 @qq.com