台灣網路講堂:AI 醫療與個資隱私是兩難課題 會後報導

台灣網路講堂於7月31日(一)舉辦「AI 醫療與個資隱私是兩難課題?」專題講座,由2位國內在醫療保健與智慧科技領域的專家,包含中央研究院歐美研究所何之行副研究員以及國立中山大學資訊工程學系范俊逸教授,帶領大家了解醫療保健 AI 應用涉及的法規協調課題,以及如何透過技術來達到醫療資料的安全與隱私保護。

何之行博士的演講主要討論了AI在醫療與照護領域的個人隱私問題,以及AI帶來的監理困境。何博士首先解釋我國的相關法源依據是個人資料保護法,該法的上位原則是蒐集須有目的,而醫療資訊屬敏感個資,原則不得蒐集、處理或利用,但例外允許,在個資法第六條則訂有但書,例如法律明文規定、當事人書面同意等。但大部分的應用情境是,既沒有法律明文也沒有取得當事人同意。此外,大部分國內的商業公司都會先與學校有產學合作關係,才有機會取得如健保資料,在資料無法識別的情況下能進行二次利用。最難處理的就是去識別化,何博士提及國內經常會把假名化當作匿名化來使用。再參考健保資料對外提供使用的大法官解釋案111字憲判字第13號判決,可發現當沒有考慮當事人意願時,都會有適法性問題。台灣花了很多努力在解決醫療資料的二次利用,參考歐盟的做法,其一是限定公共利益之目的,其二是要有去識別化的安全處理措施。台灣比較欠缺的是法律授權。

在有關AI演算法決策的偏差課題上,何博士提到偏見的來源可能存在於演算法開發過程中使用了片面或部分的資料、或受到人類主觀影響的資料蒐集與分類;也可能是在設計過程中缺乏適當監理,導致演算法反映且複製人類的偏見,而出現演算法偏差,導致健康不平等結果。她進一步以皮膚科的AI輔助系統CNN(卷積神經網路)為例,當訓練系統的皮膚病變樣本影像有九成以上來自於白人患者,診斷準確性只剩下一半;另外,當演算法將健康花費做為健康需求的表徵時,也會錯誤結論認為黑人的醫療支出較少,所以黑人比白人患者更為健康,因此做出黑人獲取較少健康福利資源分配之建議。現實面是,有色人口醫療支出較低的理由是,該族群多沒有足夠資源可前往醫療院所,導致病歷資料量不足。

最後何博士結論認為所有的問題都可以回到歐盟可信任AI的7個準則,包括安全提升、較好的資料至、尊重隱私,讓AI應用更透明化、包容性、提高可歸責性等;過程中我們需要不斷地回顧並檢視是否以人為中心。

范俊逸教授的演講主要涵蓋了智慧醫療領域的資安與隱私問題,以及有可運用的工具。在問題部分,范教授首先回顧了疫情期間的全球重大網路攻擊事件,而在後疫情時代,在地緣政治與戰爭影響下又有不同的網路安全問題持續發生。他也提到醫療領域成為網路攻擊的重點目標之一,而醫療領域組織遭駭的平均復原時間為4天左右。他也引用Palo Alto針對醫療院所所使用來自於7家醫療設備製造商的20多萬台物聯網輸液幫浦的分析結果發現,有75%的設備有安全漏洞。他強調資安是跨領域課題,每個組織都應當要理解自己的系統與需求後再來決定如何處理。

他提出以密文驅動的技術工具來處理資療資料的保護之想法。范教授進一步以Google的聯邦式學習模型為例,說明可以透過多個本地端模型同時訓練雲端上的大模型,兼顧各個本地端模型的資料隱私;而為避免學習過程中駭客竊取傳輸中的資料,所有的資料都是加密的,而學習動作也是在加密過程中進行。他認為資料為安全核心,當今也已經有許多工具可讓資料在加密情況下也可以被處理,范教授建議以加密作為方案,當資料透過加密保護到極致時,亦即核心問題解決後,就能精準地規劃其他資安措施。

本場次全程直播,歡迎至影音專區回看。

Scroll to Top