在不久的将来,机器学习、深度学习、自然语言处理以及认知计算的结合,将会改变我们与环境相处的方式。人工智能驱动的智能服务,将会感知我们正在做的事情,从过去的行为中分析我们的偏好,甚至以真正无缝隙对接的方式潜移默化地指引我们的日常生活。
为了清楚这一系统究竟是如何运作的,我们不妨体验下去医院探望病人的场景。
情景1:医院大厅
走进医院,你会看到医院的智能服务正在搜索你要探望的病人。(通过早期的接触,机器人对你已经有所了解。)系统应用人脸识别技术,将你的信息与提供的照片以及允许通过的拜访人员名单进行匹配。在接待服务台,系统注意到你空手而来,而且气喘吁吁。考虑到这些因素,系统会询问你想先去四楼看病人,还是先喝点东西、逛礼品店。你回答想先喝东西以及挑选礼物。
情景2:自助餐厅
如果需要,智能服务会将去自助餐厅、礼品店的路线发送到你的移动设备上。到了自助餐厅,你选择了一款苏打水。人工智能服务会记住当时的天气、时间、地点以及你的心率,从而今后帮你做出更好的选择。在你离开自助餐厅时,付款已经自动完成了。
情景3:礼品店
你要去探望的病人是一个5岁的孩子,人工智能服务为你提供的礼物选择分别是:一束假花、一束气球或者是毛绒玩具。因为你本打算送一束鲜花,所以觉得智能服务提供的推荐很奇怪,于是你向店员询问。店员在看到病人的名字后,告诉你由于病人有过敏性症状,所以不适合送鲜花。他为你推荐了同样的三个礼物选择以及一张下次使用的85折优惠券。
情景4:病人房间
在你走向智能电梯时,它会告诉你要探访的病人住在 4楼的儿童病房。走出电梯后,智能系统会邀请你下载关于儿童健康的最新信息,以及为你规划最快的行走路线,并提醒你探望时间在晚上9点结束。你带着礼物走进病房,看望病人。由于不是直系亲属,所以智能服务不会为你提供最新的病情状况。不过,它会询问你是否愿意与护理人员聊聊,或者为你介绍其他的智能服务。
与人工智能进行的这些互动,并不是遥不可及的愿景。为了考虑得更深入一些,我们来看看人工智能究竟是如何赋能医院体验的。
人工智能链条包括七个步骤:
1. “感知”是对正在发生事情的描述。
“感知”主要根据明显和非明显的发现,来提供基本信息以及进行相关推荐。在上面的示例中,这就意味着要提前把医院的物理布局告诉智能系统,它才能指明方向。为智能系统提供的信息包括地理空间位置、限制进入区域以及设备存放区域。其中,大部分信息是要人工输入的。
2. “通知”会告诉你想要知道的信息。
通过人工输入和机器学习,“通知”会以警示、工作流、提示器以及其他信号的方式来传递额外信息。初级编程会为智能系统设定“如果—那么”的动作路径。例如,如果到了吃药时间,那么病人和其家人就会收到相关通知。
3. “建议”推荐你需要采取的行动。
“建议”主要是基于过去行为提出的,另外随着时间推移,还会根据加权性质、决策管理以及机器学习等不断改进。通过应用最佳实践以及规划客户体验,智能系统会根据相关规定和条款,给出切实的建议,比如指出病人的楼层位置,点餐时进行饮食推荐以及根据生命体征情况建议休息等。
4. “自动化”重复你一直想做的事情。
随着机器学习的日趋成熟和完善,自动化带来越来越多的便利。如果智能系统知道你总是喝“热的伯爵茶,”那么系统就会始终遵循你的习惯。算法基于神经网络的交互而逐渐了解人们的喜好。比如,系统会基于之前的模式,自动弹出提醒病人吃药的消息。
5. “预测”告诉你可以期待什么。
基于深度学习和神经网络,“预测”会推算将要发生的行为。如果智能系统知道,从家到医院有45分钟的车程,而你在出门前喝了一杯咖啡,那么当你到达医院时,系统会自动告诉你洗手间的位置。
6. “防范”帮助你避免不良后果。
“防范”通过认知计算来识别潜在威胁。比如,根据病人的过往病历以及医生开具的处方,就可以避免药物的相互作用。
7. “情境意识”知道你此时需要什么。
在某种程度上,“情境意识”很像人类的决策能力。病人和医护人员可以放宽心了,因为智能系统只会为需要的人提供相关信息。如果病人出现紧急情况,遥感技术会根据需要知道的优先顺序给护士、医生、手术室以及家庭成员等发送有针对性的信息。
正是以上7个环节的结合,人工智能驱动的智能服务才得以出现。智能服务主要包括5个关键要素:
1.由于数字足迹和数据排放,人工智能服务才得以建立文档。
每一个人、每一台设备以及每一个网络都提供了信息。数字足迹或者数据排放来自面部分析、网络IP地址,甚至一个人的行走步态。通过人工智能以及认知计算,系统可以进行模式分析以及关联身份。这就意味着,在不同的情境下,人工智能服务可以对我们进行个体识别。
2.沉浸式体验让自然交互成为可能。
在人工智能服务中,情境、内容、合作以及渠道的融合,给每个人带来了沉浸式、独特的体验。智能服务会根据当时的情境特点,比如地理位置、时间、天气、心率甚至情绪,并结合之前对我们身份、偏好的了解,提供高关联、合适的内容。“感知—响应机制”使得参与者与机器之间的合作成为可能,合作的形式包括交谈与文本对话。渠道包括所有的联系点,例如手机、社交聚会、前台以及面对面交流等。总之,目标是基于个人身份的自然用户体验。
3.大规模提供个性化数字服务。
预期分析、刺激因素以及选择,将带来大规模的个性化。预期分析会基于对客户的过往了解,来调整客户体验。刺激因素为客户的反应提供了触发点。选择是客户自己做的决定。这三个因素的结合,使得人工智能系统可以基于客户身份、过往喜好以及当时的需求实时设计体验。
4.价值交换使信任流程得以实现。
一旦采取了行动,价值交换就可以加强这一交易。货币、非货币以及意见的交流是价值交换的三种常见形式。虽然货币价值交换可能是最明显的方式,但是非货币的价值交换(包括识别、进入和影响)往往更引人注目。另外,一份简单的意见或协议也可以提供价值交换,比如投保人要求的医疗索赔是否真实或者对病人治疗方案的意见是否一致等。
5.持续的反馈和检测,让人工智能可以持续学习。
通过机器学习和其他智能工具的赋能,智能系统的交付形式主要包括以下几种:一次、临时安排、重复、订阅以及阈值驱动。通过机器学习技术,智能系统可以学习如何为特定的患者群体提供智能服务,以及将这些服务应用在未来的互动中。例如,系统可以检测出哪些服务更能取悦孩子以及何时提供这些建议。
虽然人工智能驱动的自动化会让一些人感到焦虑,但是担忧机器人将掌控世界的想法未免过于夸张。人工智能驱动的智能服务将提升人类的智慧,就像之前机器提升了人类的体力能力一样。通过减少错误、提高决策速度、识别需求信号、预测结果、防范灾难,人工智能驱动的智能服务将在我们未来的生活中扮演关键角色。
延伸阅读:
看病难,看病贵?这不是中国特色,某种程度上美国比中国要严重得多。全球都面临着类似的问题。世界卫生组织估计,全球约有430万医生和护士的缺口。这种欠缺在不发达国家更为严重,而发达国家也面临医疗费用日益高昂的挑战。
资源缺乏带来的影响,往往体现在每个患者可以得到的诊疗时间。一项研究估计,美国医生在每个病人身上平均花费13-16分钟。而在国内,此前有报道称医生平均接诊时间4-6分钟,更有调查称:“门诊医生平均只肯听病人述说病情19秒”。
然而我们并不能据此过多指责医生,至少作者遇到的医生绝大多数认真负责,候诊的病患每日数以百计,忙得中午饭都来不及好好吃。怎么办?
人工智能(AI)也许是解决之道。至少在以下五个方面,AI已开始发挥作用:
替医生做诊断
去年8月,老牌人工智能产品IBM Watson分析了数千个基因突变,最终确诊一位60岁的日本女性,患有一种非常罕见的白血病,并提供了适当的治疗方案,而几个月前她曾被医院误诊。Watson的整个诊断过程不到10分钟,如果换做人类医生,这个诊断需要耗时数周才能做到。
东京大学附属医院的Arinobu Tojo医生表示:“说AI拯救了她的生命可能有一点点夸张,但是AI确实非常迅速的给出了所需数据”。现在,Watson的肿瘤解决方案已经进入了21家中国医院。
在人工智能诊疗领域,除了Watson这样的成熟应用,还有活跃于学术界的各种创新研究。
比如说最近一期(第542期)Nature的封面,就是关于人工智能诊断皮肤癌的。斯坦福大学人工智能实验室在Nature发表论文展示了这一成果:他们用12.9万张皮肤病变的照片训练深度卷积神经网络,让它对皮肤损伤进行分类,诊断皮肤癌。这一算法的准确率达到91%以上,与人类皮肤科医生无异。未来,这种算法可以用于移动App,让用户在家就能自行拍照诊断皮肤癌。
国内的中山大学最近也有AI诊断方面的成果发表。该校科研人员在Nature biomedical engineering上发表的论文显示,他们开发的人工神经网络CC-Cruiser诊断先天性白内障的准确率,已经达到人类眼科医生的水平。这些科研人员表示,该技术未来也可以别用于诊断其他疾病。
机器学习技术也被用到了精神疾病的诊断中,比如说纽约大学Langone医学中心的Charles Marmar就在使用机器学习来挖掘语音中的特征,从而帮助医生来诊断PTSD(创伤后应激障碍),Sonde Health则用类似的方法来诊断产后抑郁,以及老年痴呆症、帕金森病等老年性疾病。
解读医疗影像
如果说AI替代医生做诊断,甚至给出治疗方案似乎还是巨头和科研界的游戏,离我们稍嫌遥远,那么人工智能帮医生解读医疗影像则是正发生在我们身边的现实,大量国内外创业公司涌入了这个热门的领域。
我们还从老牌厂商IBM说起。去年8月,IBM斥资10亿美元,将一家医疗影像公司Merge收入麾下,并与Watson健康部门合并。Merge是美国最具影响力的医疗影像公司,不仅拥有大量的医学数据和图像(CAT扫描、乳房摄像),还有帮助医生存储、分析医学图像的顶尖技术平台。
2014年创立的Enlitic也专注于这一领域,该公司的图像识别软件利用CNN(卷积神经网络),读取X光片和CT图像筛查恶性肿瘤。
国内,也有众多创业公司在研究如何用AI解读医疗影像,“量子位”根据公开数据进行的不完全统计显示,仅在去年完成天使轮融资的就有6家,包括推想科技、DeepCare、图码深维、连心医疗、森亿智能和迪英加。
科研领域也依然在研究这一课题,伦敦帝国学院的研究人员正在尝试应用机器学习治疗创伤性脑损伤。研究人员把这种损伤的图片,“喂送”给人工智能算法进行学习,随后电脑学会了识别脑损伤,并能够分辨灰质和白质。这种能力将为研究人员提供有价值的信息。
慢性病预测和健康管理
在健康管理方面,IBM同样早有布局。IBM的人工智能系统Watson与美国药店CVS合作,CVS向Watson开放海量患者行为信息,包括临床数据、购药数据和保险数据等,Watson对用户行为和相关指标进行分析,来提前预知患者的病情。
长期血糖偏高会引发多种并发症,例如导致失明等。去年,Google发出最新研究成果:利用深度学习算法,来筛查糖尿病患者的视网膜病变情况。结果显示,人工智能做出的判断与专业医生旗鼓相当,甚至在部分指标上比医生还好。
同样是针对眼部疾病。微软去年在印度利用了Azure的机器学习能力来处理数据,并用Power BI服务将数字可视化,以从中找出隐含的意义。据报道这些数据不但能帮助医生确定病人的眼部疾病离恶化还有多长时间,而且能预测进行眼部手术的成功率。
不久前,英国科学家公布的研究成果显示,AI还能预测心脏病人何时死亡。通过分析血检以及心脏扫描结果,人工智能可以发现心脏即将衰竭的迹象。
此外,Lumiata推出的Risk Matrix能够基于唾液分析等数据,预测食管癌发病的风险。Next IT推出的Alme Health Coach通过人工智能技术评估慢性病人的整体状态,并给出个性化的健康管理方案。虚拟护士Molly也能通过机器学习的方式帮助患者康复。
走进手术室
这个领域最知名的莫过于达芬奇。
2000年,Intuitive Surgical达芬奇系统正式获批上市。这个手术机器人最初用于支持微创心脏搭桥手术,后来又在前列腺癌治疗方面取得进展。达芬奇机器人由三部分组成:外科医生控制台、床旁机械臂系统、成像系统。
数据显示,目前美国四分之一的手术中都使用了达芬奇系统。2006年,301医院引入第一台达芬奇手术机器人。但有报道说达芬奇价格高昂,后续的维护成本也不低。
除了达芬奇之外,还有很多公司也在不同领域推出了手术机器人。人工智能也在手术室里辅助进行麻醉管理,包括术前评估、方法选择以及术中管理等等方面。
值得一提的是,Google母公司Alphabet旗下生命科学部门Verily与强生合作,共同创立了Verb Surgical公司,主打机器人手术助手。将来,可能会有更多企业进入该市场,并探索不同的细分空间,打造出一个感知、数据分析和自动化生态系统。
机器人还被用于在医院内进行送餐送货等服务。Aethon公司推出的TUG机器人,能够包揽医院里各种事务杂活等后勤工作,比如处理递送药品、医疗用品、实验室标本,处理医疗垃圾等任务。还能让医护人员与病人远程聊天和互动。
医生的助理
《福布斯》此前曾经报道:医生花费27%的时间在诊室问诊,还有49.2%的时间在做书面工作,其中包括使用电子健康记录系统。即便在诊室,医生只花52.9%的时间在跟患者沟通,还有37%的时间在处理书面工作。
一些医疗健康机构已经开始使用人工智能程序来减少医生和护士收集患者信息的时间,这有助于降低成本,但是有可能反而进一步减少医生和患者交流的时间。
除了在工作中协助医生之外,人工智能系统也在协助医生更好地学习新知识。扎克伯格夫妇的慈善组织“陈-扎克伯格行动”(CZI)半个月前收购的科研搜索引擎Meta,就是这样一个产品。
Meta使用人工智能技术,帮助科研人员跟进自己领域的最新进展,目前主要用于医疗领域。科研人员可以利用Meta找到新技术,理解冠状动脉疾病;研究生可以看到,两种疾病以同样的方式激活人体的免疫机制;医生可以更快地找到正在开发寨卡病毒治疗手段的科学家。