望遠鏡前端那片被鎖住的鏡片
一個賞鳥老手坐在山坡上,盯著天邊密密麻麻的椋鳥群。老鷹她一眼就能認出來,可要從幾千隻長得幾乎一樣的小鳥裡分辨細微差異,光靠遠距離掃視不夠,還得湊近看羽毛上那些只有手臂長度才看得清的花紋。肝癌細胞的分級也是這樣:顯微鏡底下,癌細胞乍看都差不多,真正決定嚴重程度的線索,藏在巨大影像裡極細微的紋理中。
多年來,病理科醫師一張一張玻片用肉眼判讀。同一張片子,兩位專家有時會給出不同等級。電腦辨識影像帶來了希望,但常見做法有個限制:拿一套已經看過幾百萬張日常照片的視覺系統,只換掉最尾端的標籤輸出。這就像把一副為風景設計的望遠鏡交給賞鳥人,卻只准她調目鏡蓋。大輪廓看得到,細緻的羽毛花紋還是糊的。
新的做法不只換目鏡蓋,還把望遠鏡前端那幾片負責捕捉最細緻紋理的鏡片也解鎖,重新對焦到癌細胞上。後段那些抓輪廓、抓邊線的光學元件不動,因為那些能力放到哪個場景都好用。同時,原本一步到位的分類標籤被換成一條更長的篩選鏈,像加了好幾組中間濾鏡,一層一層把幾千種可能縮窄到正確等級。前端重新對焦加上多層篩選,就是這次的關鍵突破。
這套升級在八種不同的底層視覺架構上都測過,用了三批不同來源的玻片:一批公開的肝癌資料、一批來自印度醫院的肝癌玻片、還有一批公開的大腸癌資料。每一種架構升級後都比鎖住前端的版本表現更好。公開肝癌那批裡,最佳的升級版在重複測試中把三種組織類別全部判對,準確率比鎖住版高了將近兩個百分點。印度醫院那批,最佳版達到大約九成七的準確率,跳升了將近五個百分點。
更讓人意外的是,之前有團隊用了十倍多的訓練影像,成績還不如這次。其中一個先前的嘗試用了大約三萬九千張影像切片,在同一批公開肝癌資料上只達到約九成準確率。這次只用了大約三千五百張,卻做到全對。資料更少,結果更好。就像那位賞鳥人:與其硬掃更大的鳥群,不如把前端鏡片調準、篩選流程做細。
沒有哪一種底層架構在所有場景都拿第一。公開肝癌表現最好的那套,換到印度醫院的片子就不是冠軍了,大腸癌又是另一個贏家。不同的鳥群需要不同的鏡片組合。但「解鎖前端、加深篩選鏈」這個升級策略,在每一種架構、每一批資料上都有效。這份一致性,比任何單一滿分都更有說服力。
這些系統體積大、需要強大的運算能力,短期內還沒辦法裝進偏鄉診所的普通電腦裡,縮小它們是下一步的挑戰。不過,在一個連兩位病理專家都可能對同一張玻片意見不同的世界裡,一個能在反覆測試中幾乎完全跟自己一致的工具,意義很不一樣。賞鳥人沒有換掉自己的眼睛,她只是終於把望遠鏡前端那片鏡片調對了,細微的羽紋一下子就清楚了。