对话翼方健数罗震:天下无难用的数据,如何让“机器人医生”更智能 | SDBD2020・算力在线

大数据 算力智库 2020/08/31 20:14



算力说



医疗领域被认为是对于隐私数据要求最高的场景,而在这个方向的数据若是共享,其效应将会巨大。医疗平台集聚个人最私密的数据,共享是否意味着即失守?开放应用生态更成无本之木?改弦更张,尝试用新一代智能数据技术替代传统的共享方式以释放数据价值,逐步成为发展共识。那么,新技术有哪些落地方式,又如何提升诊疗准确度?
8月25日,翼方健数 CEO 罗震 在SIGKDD·SDBD2020 第二届智能数据和区块链应用国际研讨会上带来《隐私安全计算下的数据和算法的互联互通》的专题分享,谈谈怎样为医疗信息系统装上智能的“最强大脑”。


1

你所认知的医疗行业的数据问题,其实在行业具有普适性  

罗震介绍说,翼方健数主要在医疗行业做隐私安全计算的生根和应用。而在行业深耕多年后,最大的体会是医疗行业中间遇到的数据安全、数据共享以及数据应用方面问题,并且具有普遍性,促使我们去做更为深入的思考。 

我们身处由信息时代转化到智能时代的变革中,两个时代显著的区别在于对数据的重视程度与认知方式。

信息时代我们更关注解决具体问题,当我们发现解决过程中产生的数据有很大的价值与应用空间,才逐渐开始使用。在当下的时代,更多的是我们拥有这样的数据,可以解决什么问题,这是主次先后重要性的区别。我们认为智能时代会产生海量的数据,处理数据主角是智能模型机器而不是人,而必须有大量数据才能产生比较好的智能,对数据的处理方式产生根本性的转变。

基于此,国家会提出数据是新的生产要素,并把数据和土地、资本、劳动力等同起来。但是数据作为生产要素,其实与很多传统的生产要素有许多区别。

首先数据是信息时代的遗留,由于分布在不同信息系统里边,自诞生便相互隔离,是非标准化、非结构化的,质量有高有低。 

数据作为生产要素有非常独特的经济特征。其一是虚拟可再用的;其二是非竞争性的,如果我有一份数据共享给你,你就有一份一模一样的数据;其三是产生数据需要高昂成本,但分享数据几乎可以忽略成本。

数据的价值有外在性,当我们产生数据,很难确定数据价值几何。此外还有数据的非经济特征,在每个行业里边都有隐私保护,合规数据安全等行业方面的规范,在医疗行业更加如此,因为我们接触到的数据都是个人最隐私最保密的数据。

正是因为所有数据特点,恰恰是阻碍数据共享最核心的原因。从经济的角度我花了很多的价钱,产生数据,而后分享给你,数据将失去我的保护,而你有一份同样的财产。对你将来如何使用数据,我将完全失控,无法得知你可能会产生新的价值。

从另一角度,一旦原始数据流失并产生伤害,这些伤害也很难被挽回。所以我们认为数据在本质上不能被共享。共享的方式不是将原始数据拷贝给他人,而是应是试图去通过计算来共享数据的价值。

2

Alice与Bob谁更多金?不仅仅是“百万富翁”

数据的时代特性引出我们所讲的隐私安全技术,或者说隐私计算基本的理念。


举例而言,有一家医学统计公司,想做筛查效果及评估。如做完癌症筛查后,想了解做过筛查的人后续是否有问题。涉及到医学统计中经常会提及的两个词,一个叫灵敏度,一个叫特异性。

一般比较直观的做法是在数据平台找到所有做过筛查的人群,观察后续发生的事情。通过原始数据和分析,最后得到评估结果。最大的问题在于如果医疗行业原始数据一旦离开数据平台保护,将来会产生问题。而统计公司其实只想知道筛查手段的结果,即灵敏度与特异性。所以可以将计算放在安全的环境,计算完毕之后,只需拿走统计结果。不用看到原始数据,不用将数据导出,通过这种计算的方式,实现不分享原始数据,而是分享数据的价值。

实际上,隐私安全计算面临较大的挑战。首先隐私安全计算,囊括的范围很广泛。三个主流的安全计算方式。一个方式称为多方安全计算和同态加密,实现方法完全不同,但是信任假设是相同的。

假如没有任何可以信任的第三方,如何做计算?第二个方式使用比较多的方式是联邦学习。联邦学习是解决模型训练、模型推断的问题,在机器学习方面来解决没有信任的前提下,如何做联合模型训练和推断。

联邦学习一个的缺陷是指计算的方式仅仅是在机器学习的方式。如果我们有可以信任第三方,比如Alice、Bob信任第三人Charlie,他们如果将自己有多少钱告诉Charlie,Charlie就会立刻的告诉Alice、Bob你们俩谁钱更多,就可以通过一些安全计算的方式计算出结果。在这里,安全计算中主要防备的是应用本身对平台产生的威胁。如果说安全沙箱做得好,对系统本身产生的风险小,就可以非常安全将它算出来。

另一方面,第三方中间有特殊的硬件叫 称之为TEE,Trusted Execution Environment,可信任执行环境。我们将安全沙箱计算放到TEE中算。此时可以解除对Charlie的信任,因为硬件可以保证哪怕Charlie是恶意的人,也没有办法看到Alice和Bob到底有多少钱。

除了安全计算之外,罗震在数据透明、差分隐私、云计算等做了详细阐释。

比如说常见的数据透明,对于平台数据内个人的信息脱敏处理,但是无法解决所有问题。因为在大数据的年代,当你对数据主体的了解足够多,甚至可以通过对其日常生活的了解,到平台找到这个人。

如何解决隐私保护问题,差分隐私是一套非常好的量化隐私保护的解决方案。这套理论体系内,我们将每一个查询中间的隐私法用量化的方式表达。可以在过程中比较精准的衡量平台用户做了query后,有多大的可能性定位到他想找的每一个人。平台可以通过一些加噪音的方法和限制查询的手段来防碍它。

此外,当我们在大数据的平台内做不同的计算,在很多底层技术使用等方面与云计算、区块链有很大关系。数据不出平台,当数据在平台内部演化、计算产生新的结果过程中,可以利用区块链完整的记录数据演化的过程。

3

让天下没有难用的数据

这些问题我们认为是在隐私计算中可以考虑到极具挑战性且很有意思的技术问题。罗震认为隐私计算的技术范畴非常广泛,我们公司最主要想做的事情是想让大家把数据利用起来。 

所以提出的口号是我们努力成为“数据和算法互联网”的推动者,建立一个由安全数据和计算(特别是AI应用);数据所有者、数据用户和服务提供商所组成的活跃生态系统。

Step1, 建立独立的隐私安全生态,将数据所有者的数据利用起来。如我们和地方卫计委合作,将来自于医院、妇幼保健、基层卫生等不同来源的数据,进行加工治理。 

罗震列举团队在厦门做的落地案例。厦门17年是国家健康医疗大数据首批试点的4个城市之一。我们为厦门搭建了医疗数据能力平台,平台内已经有大量的科研机构将数据有效利用起来。

科研项目在平台内完成,全部做到需要多维度的数据。所以在平台中,如果把所有的数据都打通,就能够支持高质量的应用。

机器人医生的水平受几个因素的影响,一是老师的水平,二是学生的学习能力,三是最终机器人医生的水平

举一个具体的例子,在一家医院内用他自己的数据训练出的模型做一个具体的应用,观察这家医院医生诊疗过程中整体以及个体表现。我们发现在模型训练的时候,以肺炎和支气管肺炎为例,它的 Top 1的符合率比较低,但是Top3符合率比较高,背后的原因是某院肺炎和支气管肺炎诊断经常混用,所以造成符合率不高。

我们整体的思路是,首先帮助有数据的人将数据治理好,通过隐私安全计算方式,在中间通过他的数据产生AI并且把AI通过一种能力的方式输出,改造现有的医疗信息系统,为医疗信息系统装上智慧的脑袋。

Step2,罗震介绍团队通过计算连接隐私安全计算平台,进一步发掘数据价值。

具体落地方面,在中国一些不同的城市中,我们先使用医疗数据,而后将它们相互连接起来。期间我们进行智能应用部署、将数据产生智能服务为医院质控,并将部署点与应用命名。另一方面与比如与第三方数据源合作,有地理位置信息数据的,做智能营销方面工作。

总结而言,形成中的数据和计算互联网(IoDC)。很多时候需要这样的信息帮助我们发现疾控中间的一些新发的创业热点,通过有机的计算和数据的建设、网络的建设,最终实现将各个点连起来,其实质是开放的生态。

所以我们现在和比如像微众银行、蚂蚁链做合作,在区块链上采用大量第三方技术,同时我们热切期盼更多生态合作伙伴一道加入,充分挖掘数据价值。

文章所载观点仅代表作者本人

且不构成投资建议

敬请注意投资风险