每日經濟新聞 2023-08-25 18:17:32
“通用大模型訓練用的全是公開的對話、演講,但醫療大模型訓練用的數據全部都是個人隱私,醫生、病人的數據能不能用,什么時候愿意讓你用?我覺得這點特別難?!?/p>
每經記者|淡忠奎 每經實習記者|劉旭強 每經編輯|劉艷美
圖片來源:每經實習記者 劉旭強 攝
“大模型的技術走在了前面,但在醫療領域的應用落地時,用于訓練的隱私數據如何獲取、如何保護?我覺得這非常難。”8月24日,在2023CCS成都網絡安全大會期間,四川大學網絡安全空間學院副院長張意接受《每日經濟新聞》記者采訪時直言,醫療大模型距離實際落地還很遠,還有很多的問題和風險需要研究。
張意指出,理論上,大模型在醫療領域的應用場景眾多。除智慧問診外,還可以預測病人的病重程度、致死率以及30天內再度入院的可能性。甚至可以用于管理醫院床位、預測病人治療費用能夠被保險公司報銷的概率。
但討論大模型應用前,必須充分認識醫療行業的特殊性。醫療領域容錯率低,通用大模型偶發的“胡說八道”在醫療場景下不僅可能導致誤診,甚至還可能對患者的生命健康造成嚴重傷害。張意認為,通用大模型不能滿足醫療領域對安全性、性能型、可靠性的要求,需要重新搭建面向醫療領域的垂直大模型。
專業能力訓練需要大量數據,然而,醫療數據大多是私有數據,鑒于安全、隱私、知識產權等多方因素,難以提供給外部廠商用于模型訓練。
“通用大模型訓練用的全是公開的對話、演講,但醫療大模型訓練用的數據全部都是個人隱私,醫生、病人的數據能不能用,什么時候愿意讓你用?我覺得這點特別難。”談到大模型的數據獲取,張意認為,目前并沒有好的解決方式。
據介紹,現階段一個應對方法是加密處理,即把醫療數據加密處理后的譯文傳輸到云端大模型服務器上,再將得到的結果解密傳回。測試表明,加密和明文操作下的生成結果差別不大。
此外,張意還指出,大模型在黑盒(流程)內,生成一個概率性、預測性的結果,這怎么用于輔助診斷?其實也需要醫生和學者共同研究。
“我們現在最大的難題是,需要基于專業知識和數據,訓練一個過程安全可靠的領域大模型,也是我們研究落地最重要的一個研究方向。”張意直言。
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP