观鸟人的望远镜:用更少的数据看清癌细胞
一个老练的观鸟人坐在山坡上,几千只椋鸟在面前飞。老鹰好认,远远一个轮廓就够了。可要在密密麻麻的鸟群里分辨两种长得几乎一样的小鸟,光靠远景不行,还得凑近了看羽毛上细微的花纹。分辨肝癌细胞的恶性等级,面对的就是同样的难题:显微镜下那些细胞乍一看差不多,真正的区别藏在极其细小的纹理里。
一直以来,病理医生靠肉眼一张张看切片,费时费力,两位专家看同一张片子有时还会给出不同判断。后来有人想让电脑帮忙,通常的做法是拿一个已经认识了几百万张日常照片的图像识别系统,只把最后的标签换成癌细胞等级。这就好比给观鸟人一副专门看风景的望远镜,只允许她调调目镜盖。远处的大轮廓能看清,可羽毛上的细纹还是模糊的。
新的思路是:别光换目镜盖,把靠近被观察物体的那几片前镜组也解锁,重新对焦。望远镜深处那些捕捉基本轮廓的镜片不用动,因为边缘、形状这些通用特征放哪儿都管用。但前镜组负责抓取最精细的纹理和色彩变化,这部分专门针对癌细胞重新调校。同时,原来一步到位的分类标签被换成了一条更长的渐进式筛选链,就像在望远镜后面加了好几层滤镜,一层层把成千上万种可能性收窄,最终锁定准确的等级。
团队在八种不同的底层图像识别架构上都试了这套升级,用了三组不同来源的切片:公开的肝癌切片集、一家印度医院的肝癌切片,还有一组公开的结肠癌切片。每一种架构升级后都比锁定状态时表现更好。在公开肝癌集上,最好的升级版本在反复测试中把三类组织全部分对,准确率比升级前提高了将近两个百分点。在印度医院的切片上,最好的版本达到了大约百分之九十七的准确率,提升接近五个百分点。
更让人意外的是,之前别的团队用了十倍多的训练图片,效果反而不如它。有人用了大约三万九千张图片碎片,在同一个公开肝癌集上准确率大概百分之九十。而这套升级方案只用了大约三千五百张,准确率却到了百分之百。数据更少,结果更好。就像那个观鸟人,把前镜组调准、筛选链加长,比拿着旧望远镜在更大的鸟群里硬扫要有效得多。
有意思的是,没有哪一种底层架构在所有切片集上都拿第一。公开肝癌集的冠军和印度医院集的冠军不是同一个,结肠癌集又换了一个赢家。不同的鸟群需要不同的镜片配置。但这套升级策略本身,重新对焦前镜组加上更深的筛选链,在每种架构、每组切片上都带来了提升。这种一致性比任何单次满分都更有说服力。
这些系统体积大、算力要求高,短期内还没法装进偏远诊所的普通电脑里,怎么把它们缩小是下一步要解决的事。不过,在两位病理医生看同一张切片都可能意见不一的现实里,一个反复测试都能跟自己高度一致的工具,已经改变了讨论的起点。观鸟人没有换掉自己的眼睛,她只是给望远镜做了正确的调校,那些细小的羽毛花纹终于清清楚楚地显现出来了。