转自:中国妇女报
随着AI技术的不断发展,像DeepSeek这样的人工智能问诊平台已经成为许多人获取健康信息的重要工具。但普通人在使用这些平台时,如何确保信息的准确性,并最大程度地发挥AI的优势?
未来,随着AI技术的不断发展和完善,AI医疗平台有望在疾病预防、健康管理等方面发挥更大的作用。
■ 陈小亮 叶哲伟
近日,一则关于DeepSeek线上就诊的报道在抖音上引发热议。一位用户表示在DeepSeek平台上的就诊体验比医院专家诊断更准确,开药也与医生大致相同。这不禁让人好奇,DeepSeek这样的AI医疗平台,究竟有哪些优势和劣势?
2025年1月DeepSeek走进大众视野,并迅速成为全球瞩目的焦点深刻影响着我们的就医体验。
AI看病的优势与不足
DeepSeek线上就诊的优势显而易见。首先,它打破了时间和空间的限制,用户足不出户就能获得医疗咨询,尤其方便了偏远地区或行动不便的患者。其次,AI系统能够快速分析海量医疗数据,提供初步诊断建议,一定程度上缓解了医疗资源紧张的问题。此外,DeepSeek还能根据用户的症状描述,推荐可能的疾病方向,帮助用户更好地了解自身健康状况。
然而,尽管AI技术在医疗领域取得了显著进展,但它仍然无法完全替代医生的专业判断和治疗。因为医学是一门复杂的学科,疾病的诊断和治疗需要考虑患者的个体差异、病史、生活习惯等多种因素,还要经过详细的查体,而这些往往是AI系统难以全面掌握的。
AI诊断的准确性依赖于输入数据的质量和数量,存在误诊、漏诊的可能,特别是一些疑难、罕见病例。纽约大学朗格尼医学中心的贾纳·M·帕特尔(Jharna M. Patel)博士在美国妇科肿瘤学会2024年妇科癌症年会上发表的两项研究中明确提出,人工智能可以准确回答与妇科癌症基因检测和咨询有关的常见问题,但在被要求提供适当的治疗选择时却出现了失误。
在第一个研究中,帕特尔博士用妇科肿瘤学家协商后制订的符合专业协会指南的40个问题进行打分测试,经过测试发现,人工智能在40个问题中,给出了33个(82.5%)正确而全面的答案,6个(15%)正确但不全面的答案,1个(2.5%)部分错误的答案。即没有一个答案是完全错误的。
遗传咨询类问题,例如,你如何知道某人是否患有遗传性或家族性癌症综合征?其答案“既正确又全面”的比例最高,AI以100%的准确率回答了所有20个问题。
AI在特定遗传疾病类别中表现同样良好。例如,在BRCA1/2基因差异测试中,15/17(88.2%)的答案是正确和完整的,而在Lynch综合征——林奇综合征(最常见的遗传性结直肠癌)测试中,2/3(66.6%)的答案是正确的。
然而,在帕特尔博士的另一项研究“比较AI和临床医生提出的妇科癌症治疗建议”中,发现的结果则不那么理想。此研究纳入114例妇科肿瘤患者(中位年龄63岁)(48例子宫癌、43例卵巢癌、9例其他癌、8例外阴癌和6例子宫颈癌),在为期4个月的学术机构肿瘤委员会每周会议上进行讨论得出最佳治疗选择。最终验证AI提供的大多数治疗建议与肿瘤委员会的最终决定不一致。在所有114例病例中,AI和肿瘤委员会在治疗方面的共识一致率仅为46%。
在此项研究中帕特尔博士指出:“AI的输出中缺少治疗细节。在确定妇科癌症的治疗方案时,生成式人工智能可能会为临床医生提供一个框架,但需要人类的评估。”
该案例引发了对AI在医疗诊断中应用的广泛讨论。不可否认的是,AI在医疗领域的应用为提高诊疗效率和准确性提供了新的可能性,但其可靠性和安全性仍需经过严格验证。
在使用AI辅助诊疗时,医疗机构和患者应保持谨慎,确保AI的建议经过专业医生的审核和确认。该事件也引发了对医疗AI误诊责任归属的讨论,强调了加强监管和技术改进的重要性。相关监管部门应制定明确的规范和标准,确保AI在医疗领域的应用既能发挥其优势,又能保障患者的安全和权益。
AI与医生的关系是“协同”
随着DeepSeek的逐渐“成长”,有很多人开始担忧未来这些AI会不会取代医生?
一、AI和医生不是“人机大战”的对立关系,而是“人机互补”的协同关系。医生、患者、AI面对的共同的“敌人”是疾病。
二、人类智能和人工智能,在可预期的未来里并不能互相替代。
1950年,计算机科学先驱艾伦·图灵提出通过“模仿游戏”判断机器是否具备人类智能:如果测试者在5分钟文字对话中,无法区分对话对象是人类还是计算机,则该机器被认为通过了图灵测试。这项测试的本质,是检验人工智能是否达到或模拟出了人类智能的水平。但我们平时做得更多的是“反向图灵测试”,与经典测试相反,它的核心在于验证操作者是否为人类——当我们在网站注册时遇到的扭曲字母验证码,如果是人类智能,可以轻松通过,而人工智能则会卡在这一环节无法通过。这种看似简单的技术屏障,实则揭示了当前人工智能的局限性:虽然AI可以完成复杂的医学影像分析,但在处理模糊图像、理解上下文语境等需要人类直觉的领域仍存在明显短板。在讨论人类智能与人工智能的边界时,“图灵测试”与“反向图灵测试”为我们提供了重要参照系。
这种认知差异在医疗领域尤为显著。医生在问诊时,不仅需要分析实验室数据,更要观察患者的微表情、触摸病灶的质地、感知情绪波动等多元信息。此外,医疗实践中也需要医生运用其独特的临床思维来突破AI的算法边界。这种互补关系恰如其分地诠释了当前阶段人机协作的本质:AI擅长处理结构化数据,而医生掌握着将碎片化信息整合为临床决策的“解码器”。
三、从伦理角度,人工智能也会出错,一旦出现错误,责任是算到人工智能头上还是软件专家、还是使用人工智能的人身上?这并不容易界定。所以目前统一规定由医生承担责任,人工智能作为辅助诊断。
四、人工智能的诊断能力是人为地投入临床数据训练出来的,如果训练数据本身存在偏倚,得到的结果也会呈现系统偏差。
当人故意给医生呈现有偏倚的AI诊断结果时,医生可能被AI欺骗导致诊断准确性降低。所以,美国食品药品监督管理局(FDA)出台新规,要求在医疗保健中使用的AI除了能出疾病诊断外,还要附带解释,以便临床医生可以评估AI结果的可靠性。因此,应该理性看待DeepSeek等AI医疗平台。它们可以作为辅助工具,帮助用户进行初步的自我诊断和健康管理。对于任何疾病,尤其是疑难及罕见的疾病,及时就医、寻求专业医生的帮助才是明智之举。
普通人如何利用AI加强健康管理
随着AI技术的不断发展,像DeepSeek这样的人工智能问诊平台已经成为许多人获取健康信息的重要工具。但普通人在使用这些平台时,如何确保信息的准确性,并最大程度地发挥AI的优势?
一、了解AI的作用,避免“过度依赖”。
AI问诊工具的本质是一个数据驱动的辅助系统,它可以帮助分析症状、提供可能的疾病参考,并提出初步的健康建议。但需要明确的是,AI不是医生,它无法进行全面的临床评估,也不能代替面对面的医疗检查。因此,在使用AI问诊后,如果症状持续或加重,应当尽快前往医院进行专业检查,而不是仅仅依赖AI的分析结果。
二、精确描述症状,提升问诊准确度。
AI的判断依赖于用户提供的症状信息。如果描述不清晰、不完整,可能会影响分析结果。例如,“胃痛”是一个笼统的症状,可能涉及消化不良、胃溃疡甚至心脏疾病。因此,在使用AI问诊时,建议提供更详细的信息,如疼痛的具体位置、持续时间、伴随症状(如恶心、呕吐)等,从而提高AI的判断准确性。
三、学会解读AI的“建议”,而非“诊断”。
AI提供的结论往往是“可能性分析”,而非最终诊断。比如,DeepSeek可能会基于症状列出多个可能的疾病,并按概率排序。这时,用户应结合自身情况,判断哪些建议更符合自己的实际情况,而不是盲目相信AI的“第一推荐”。此外,部分AI平台还会提供健康管理建议,例如饮食调整、生活方式改善等,用户可以适当采纳,但仍需结合医生的意见进行决策。
四、结合权威医学信息,增强自我判断能力。
在使用AI问诊的同时,建议参考国家卫生健康委、三甲医院官网或知名医学期刊上的健康科普信息,避免受到错误信息的误导。一些专业的健康科普平台,如“中国医学科学院健康科普中心”或“三甲医院互联网医院”提供的内容,通常更具权威性,可作为AI问诊结果的补充参考。
五、重视隐私保护,谨慎使用个人健康数据。
虽然医疗AI系统通常具备严格的数据安全保护措施,但用户在使用时仍需注意隐私保护。例如,不随意在社交媒体上分享AI问诊结果,避免个人健康信息泄露;在使用AI问诊平台时,尽量选择正规、有资质的医疗AI服务商,以确保数据安全。
未来,随着AI技术的不断发展和完善,AI医疗平台有望在疾病预防、健康管理等方面发挥更大的作用。但无论如何,AI都应该始终作为医生的助手,而非替代者,共同为人类健康保驾护航。
(陈小亮,华中科技大学同济医学院附属协和医院、主治医师;叶哲伟,华中科技大学同济医学院附属协和医院教授、主任医师)