時下熱門的人工智慧(AI)應用,正在各產業持續發酵,讓人力密集工作得以借助日漸成熟的資訊技術,突破現有生產力的瓶頸,例如醫療領域。
本身是醫學博士的Google研究團隊產品經理彭浩怡,運用Google於2015年貢獻給開放原始碼陣營的機器學習框架TensorFlow,投入視網膜影像研究專案,以及判讀癌症細胞的演算法模型,只待未來經過臨床驗證,獲得醫療團隊的信任後,即可讓人工智慧演算法模型,基於簡單、直覺的操作介面來執行,輔助醫生日常的診斷。
大數據加運算力 深度學習彰顯效益
自1960年代開展的人工智慧技術,可說是電腦資訊科學家致力追求的目標,彭浩怡觀察,其中機器學習領域最具發展前景,讓機器可藉由自學、自我訓練的方式,從實際案例中執行學習,而非以往輸入指令、輸出結果的運作模式,建立類似於人腦的思維邏輯。
在過去五年來機器學習領域的發展中,深度學習框架如今已有顯著成效,主要歸功於現代的龐大資料量可產生更多資料集(Dataset),可提供訓練龐大、複雜的數學運算模型,讓神經網路(或稱為類神經網路)的運算單元得以組合關聯成為多階層網路,建構規模更大的訓練模式。即使未建立精確的特徵工程(Feature Engineering),亦可透過原始資料學習特徵,達到高正確性。因此深度神經網路(Deep Neural Network,DNN)開始被廣泛應用於解決視覺、語言識別、語言理解等各式問題。
另一方面,由於深度學習需要執行龐大的數學運算,在最初發展時期的硬體運算能力尚無法支應,如今處理運算晶片能力已經是過去的千倍,才使得深度學習得以發揮效益。
卷積神經網路提升圖像辨識效率
現階段可具體展現深度神經網路能力的應用,當屬圖像辨識領域。彭浩怡以電腦視覺社群每年舉辦的圖像標籤挑戰賽ImageNet為例,自2012年起開始有參賽團隊採用深度神經網路技術贏得勝利,並且準確度逐年攀升,到了2015年達到與人類圖像辨識相同的水準。
她進一步說明,在傳統電腦視覺領域中,若研究人員欲建構熊貓分類機制,必須先把熊貓的特徵輸入到淺分類,也就是經由研究人員對資料進行分析研究後,理解特性所定義的特徵,此程序即為特徵工程;而深度學習網路架構中最常見的卷積神經網路(Convolutional Neural Network,CNN),主要是透過足夠數量的資料集實作,也就是說,只要提供很多不一樣的熊貓照片學習理解後,再提供非熊貓的照片,不用人工撰寫規則,卷積神經網路即可自主學習辨識熊貓的能力。如此一來,研究人員以往大多時間耗費在打造特徵工程,現在則轉變為準備原始資料,即可建立模型架構、數據優化,讓圖像辨識更有效率。
但是究竟需要多大的資料量才足夠?彭浩怡指出,當然是資料量愈多愈有助於學習,若應用於建立通用規則,例如分類,相同的物件具備五千筆資料就已足夠。比如說,提供是熊貓與不是熊貓的照片各五千張,即可訓練機器具備辨識熊貓的能力。
準確度可控為前提 輔助判讀圖像資訊
Google為機器學習設計的框架TensorFlow,在2015年年底貢獻為開放原始碼,讓所有人皆可基於TensorFlow研究人工智慧,包含Google內部也是採用同樣的框架進行研究,具執業醫師資格的彭浩怡則是應用於視網膜影像研究專案。
|
▲電腦視覺社群每年舉辦的圖像標籤挑戰賽ImageNet,自2012年起開始有參賽團隊採用深度神經網路技術贏得勝利,並且準確度逐年攀升,到了2015年達到與人類圖像辨識相同的水準。(資料來源:Google) |
糖尿病視網膜病變是全球失明人數迅速攀升的主因,在全球目前有4.15億糖尿病患者,都有罹患視網膜病變的風險,但這種失明其實是可預防的。為了預防病變導致失明,每年定期篩檢是關鍵,採用醫療相機拍攝視網膜影像,再由眼科醫生進行判讀。常見作法是檢查眼底圖像評估嚴重程度等級,依據視網膜病變的型態,例如微型動脈瘤、出血、滲出物等,皆為檢驗指標。
以現代醫學知識,糖尿病視網膜病變本就足以預防,但是在印度卻因欠缺近12.7萬名眼科醫生,導致近45%的患者未及接受診斷而飽受失明之苦。為了改善印度的狀況,Google研究團隊與美國EyePACS,以及印度的3家眼科醫院緊密合作,創建了一個128,000張圖像的開發資料集,並聘請54名專業眼科醫師,每組圖像由3至7名眼科醫生進行評估,以執行訓練深度神經網路。
「在兩個臨床實驗中運用深度學習演算法辨識了約12,000張圖像,再將診斷結果與由8名經過美國眼科醫師認證的醫師判斷結果相互對照,以驗證診斷的靈敏度。最終實驗結果顯示,我們的演算法表現與54名專業眼科醫生的辨別結果達高度一致性。」彭浩怡說。
另一個研究案例是檢測淋巴結中的乳腺癌轉移瘤。由於病理切片的判斷相當仰賴病理師透過顯微鏡分析,需要長時間訓練累積才有能力解讀複雜的資訊,但不同病理師的診斷結果往往各異,可能導致誤診的狀況發生。
彭浩怡指出,每12人的乳腺癌切片中就有1人可能被誤診(比例依各地人口數不同而有差異),準確率有時候僅有48%。主要是因為準確的判斷需要非常龐大的資訊加以分析,在一般情況下,病理師負責審查切片上可見的所有生物組織,每位患者的病理切片在進行40倍放大時,大約有10億的像素,相當於用普通相機拍攝上千張影像,對於病理師而言,要在短時間內辨識出病變資訊自然不容易。
為了解決時間限制和診斷差異性偏高的問題,Google正研究導入深度學習來打造能協助病理學家有效提升工作流程的自動檢測演算法,主要採用醫學中心提供過去的圖像來訓練並優化演算法,協助針對已經擴散或轉移到乳腺相鄰淋巴結的乳腺癌,進行更精準的定位。
「運用演算法分析圖像目前還在早期發展階段,接下來還必須經過臨床驗證才可實際被應用。依照過去美國食品和藥物管理局(FDA)審查新技術的時程,平均大約五年,由此來看仍需一段臨床驗證時間才能夠上市。」彭浩怡說。