當大模型踏入醫(yī)療行業(yè)與人類醫(yī)生一較高下時,它能達到什么水平?
就在最近,醫(yī)學頂刊BMJ便給出了這樣一個結論:
在遵循公認的臨床抑郁癥治療標準方面,先進大模型可能比醫(yī)生要強!
從研究結果上來看,大語言模型(LLM)在輕度和重度抑郁癥治療方面,已經(jīng)達到了公認的治療標準。
不僅如此,它們還不會被患者的外在因素所影響(包括性別、社會階層等等),這就比人類初級醫(yī)生還要強上一點了。
這是否就意味著類LLM選手們現(xiàn)在可以“持證上崗”了呢?
非也,非也。
考慮到抑郁癥治療的持續(xù)性和患者病情的多樣性,這項研究認為,真正的治療過程還是需要人類醫(yī)生來進行。
不過研究同樣指出,LLM對于現(xiàn)階段醫(yī)療可以起到輔助決策的幫助:
有可能加強初級衛(wèi)生保健的決策,提高精神衛(wèi)生服務的質量和公正性。
畢竟自從LLM熱潮以來,包括谷歌在內(nèi)的眾多AI玩家,都致力于推動其在醫(yī)學領域中的作用。
甚至像“男孩閱醫(yī)無數(shù),最后竟被AI成功診出病因”這樣的新聞也是頻頻被曝出。
那么問題來了——LLM在現(xiàn)實中的醫(yī)療領域,到底走到了哪一步?
LLM,已然深扎醫(yī)療
一直以來,醫(yī)療行業(yè)都被視為AI落地的重要領域。
在深度學習浪潮剛剛興起之時,深度學習三巨頭之一Hinton就說出了名言:
5年內(nèi)AI可以取代放射科醫(yī)生。
盡管這個表達有些激進,但它揭露了一個事實,至少在科研層面,AI和醫(yī)療的結合是非常被看好的。
在過去一段時間以來,AI醫(yī)療場景不斷開拓,比如利用CV算法識別病灶、檢測心電圖等。科技巨頭們都緊跟趨勢,如微軟、谷歌、IBM等都在持續(xù)投入資金,推進AI醫(yī)療落地。
尤其在ChatGPT趨勢到來以后,LLM更強的學習能力、更好的遷移能力以及更深的理解能力,都為AI醫(yī)療落地打開新局面。
而且這會是一個很確定的趨勢,因為技術、應用落地和行業(yè)發(fā)展都準備好了。
首先技術方面,今年是大模型爆發(fā)的一年,目前國內(nèi)已經(jīng)形成“百模大戰(zhàn)”格局。
諸多大模型廠商都主打To B路線,正在加速推動大模型在各個行業(yè)的應用。還有一些廠商直接推出面向醫(yī)療的行業(yè)大模型,比如谷歌推出的Med-PaLM 2就已經(jīng)在診所實測。
所以對于醫(yī)療領域而言,當下是不缺“模”的。
其次,大模型和醫(yī)療領域也天生非常契合。
在常見的問診、病歷生成、患者病史分析等場景,都需要醫(yī)生基于歷史信息進行整合總結、分析判斷,這正是大模型的長項。
比如利用大模型的總結摘要能力,可以快速對多類數(shù)據(jù)進行總結并形成摘要,幫醫(yī)生完成繁瑣、重復性高的工作,提升效率。
并且實際落地上,只需以基座大模型為底,應用專業(yè)醫(yī)療數(shù)據(jù)訓練,就能得到一個強大的醫(yī)療大模型,這能從根本上加速AI醫(yī)療落地。還能在一個系統(tǒng)中集成多個子模型,即可快速覆蓋更多場景。
再來看行業(yè)發(fā)展方面,以國內(nèi)情況為例,數(shù)字化醫(yī)療、AI醫(yī)療逐漸發(fā)展為一個獨立賽道,玩家們利用數(shù)據(jù)分析、自然語言處理(NLP)、結構化數(shù)據(jù)等技術,已經(jīng)成功將AI引入臨床診斷決策、病例數(shù)據(jù)管理等。
如惠每科技開發(fā)的面向醫(yī)院的核心應用Dr.Mayson。
簡單理解,這是一個能優(yōu)化醫(yī)院看診、決策、預警、管理等方面的智能應用,核心目標就是讓醫(yī)院數(shù)字化系統(tǒng)運行更加絲滑流暢,提高醫(yī)生診療效率。
它主要融入了PDCA過程管理和CDSS(臨床決策支持系統(tǒng))。利用機器學習、深度學習、大數(shù)據(jù)挖掘等技術,可以智能識別分析病歷文書、LIS/RIS報告等患者完整病歷數(shù)據(jù);為醫(yī)院構建專門的醫(yī)學知識庫;給醫(yī)生、醫(yī)技、護士、管理方提供實時智能參考與建議。
在惠每科技最新發(fā)布的CDSS 3.0架構中,新一代AI大數(shù)據(jù)處理平臺已集成了醫(yī)療大模型,并已經(jīng)在某合作醫(yī)院的病歷生成等場景中獲得了醫(yī)生的認可。
綜上,醫(yī)療大模型應用落地路徑已經(jīng)比較明確。但是落地的過程卻沒有想象中的那般容易。
醫(yī)療大模型落地,怎么解?
醫(yī)療大模型落地目前遇到的兩大核心問題,都非常具有原生性:
-
為保證患者數(shù)據(jù)安全,醫(yī)院數(shù)據(jù)僅能內(nèi)網(wǎng)使用
-
當前GPU算力緊張,醫(yī)院很難負擔如此高昂的采購成本
這意味著,醫(yī)療大模型需要進行私有化部署,且需要尋找一條能夠針對于提升大模型算力的“性價比”道路。
所以,AI加速成為了近來業(yè)界備受關注的領域。它直接關乎大模型落地的效率和成本,行業(yè)內(nèi)各大廠商的加速方案也都受到熱捧。
比如剛剛提到的惠每科技便攜手英特爾,在基于第四代英特爾至強可擴展處理器的基礎設施上,打造了量化和非量化兩種大模型推理加速方案。
如何實現(xiàn)?
先來看量化部分,也就是通過降低模型精度來實現(xiàn)加速。
以FP32量化到INT8為例,它能讓GPU或CPU適應更快、更低成本的8位張量來計算卷積和矩陣乘法,可有效提高計算吞吐量。還能減少模型數(shù)據(jù)搬運所需的時間和資源,這是數(shù)據(jù)從內(nèi)存移動到計算單元的必然消耗,精度從32位降低到8位,能實現(xiàn)4倍減少量。
同時量化也能減少內(nèi)存的使用,讓模型需要更少的存儲空間、參數(shù)更小、緩存利用率更高。
具體實現(xiàn)方案上,惠每科技引入了英特爾開發(fā)和開源的BigDL-LLM大語言模型加速庫,其提供對各種低精度數(shù)據(jù)格式的支持與優(yōu)化,同時配合不同型號和代際的英特爾處理器內(nèi)置指令集(如英特爾AVX-512_VNNI、英特爾AMX等)在大模型應用中可以實現(xiàn)較優(yōu)推理加速。
使用方面,此方案提供了便捷命令和編程接口兩種方法,能方便預覽量化后模型性能是否符合預期;另外在性能達標的情況下,憑借BigDL-LLM提供的HuggingFace API/Langchain API,用戶可以輕松將優(yōu)化性能整合到部署推理服務中去。
△BigDL-LLM為醫(yī)療大模型提供推理加速
對于非量化技術路徑,英特爾也能提供鍵值(KV)緩存、算子融合的OpenVINO加速方案。
KV緩存用于通過鍵值對的方式存儲數(shù)據(jù),能加速和優(yōu)化數(shù)據(jù)訪問。算子融合是將神經(jīng)網(wǎng)絡中多個連續(xù)運算符融合成一個運算符,從而減少內(nèi)存訪問、提高計算效率。
在惠每科技主要使用的開源基座大模型ChatGLM上,基于英特爾OpenVINO工具套件打造的非量化方案能利用零拷貝(Zero-Copy)視圖傳遞預分配的KV所需的內(nèi)存副本空間,避免數(shù)據(jù)的多次拷貝,實現(xiàn)KV緩存加速;
也能引入第四代英特爾至強可擴展處理器內(nèi)置的英特爾AMX指令集,幫助ChatGLM等醫(yī)療大模型加速BF16/INT8計算,實現(xiàn)算子融合,在保證精度的前提下提升運算效率、加速推理;
同時OpenVINO工具套件提供了在HuggingFace上的Optimum接口,讓優(yōu)化效果可擴展到更多醫(yī)療大模型推理應用中。
總結來看,英特爾與惠每科技聯(lián)手打造的兩個大模型加速方案,成功幫助醫(yī)療機構用較低成本部署了高質量大語言模型,并且為更多準備“入局”的同行們提供了一套完整教程。
更關鍵的是,本次合作也讓我們看到了一個事實:大模型訓練推理并非唯GPU一種解法,CPU也可以作為大模型在行業(yè)落地的平臺。
CPU,大模型的另一種解法
或許很多人一提到大模型,刻板印象往往會是“堆GPU”。
但事實上,英特爾在通過自身的實踐在證明——CPU,亦是一種解法。
例如在我們耳熟能詳且經(jīng)典的OCR(光學字符識別)領域,在英特爾第四代至強可擴展處理器的加持之下,響應延時指標在原有基礎上足足提升達25倍!
△數(shù)據(jù)來源:英特爾合作伙伴
再比如媒體娛樂場景中,尤其在AMX加速引擎加持下,英特爾能幫助個性化內(nèi)容推薦速度提升達6.3倍;零售行業(yè)里,能將視頻分析速度提升高達2.3倍,還有像工業(yè)缺陷檢測、醫(yī)療服務也都能從容應對。
即便是在生命科學和醫(yī)藥等前沿探索領域,CPU也已經(jīng)成為不容忽視的存在:甚至在某些場景下的表現(xiàn)效果比GPU還要好。
而這些案例,也只是英特爾CPU在大模型時代表現(xiàn)中的一隅;更重要的應當是英特爾在過去一段時間和未來,所堅持的 “走法”:不僅重視硬件產(chǎn)品性能的提升,對于軟件優(yōu)化和打造生態(tài)系統(tǒng)同樣付出大量心血,給用戶提供全流程支持。
這也是為什么在今年的Intel Innovation 2023上,英特爾敢于喊出“AI everywhere(讓AI無處不在)”的口號;為什么在12月中旬即將發(fā)布的新一代至強可擴展處理器、產(chǎn)品和加速方案,充斥著“AI”和“大模型”的味道。
總而言之,CPU巨頭英特爾,在大模型時代之下確實在開辟著與眾不同的路數(shù)。
至于新一代至強可擴展處理器和其他產(chǎn)品又會給大模型帶來怎樣的性能提高,也是值得期待一波的。
本文轉載自:量子位-
英特爾
+關注
關注
61文章
9985瀏覽量
171964 -
cpu
+關注
關注
68文章
10882瀏覽量
212241
原文標題:AI診療或更準確,來自頂刊新研究!大模型搞醫(yī)療現(xiàn)狀:在CPU上成功落地
文章出處:【微信號:英特爾中國,微信公眾號:英特爾中國】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論