
视觉中国 资料图
在人工智能 (AI)对社会所产生的各类影响中,就业问题备受关注。武汉“萝卜快跑”被叫停,除了技术成熟度不足,其对就业的影响也是当地政府的重要考虑因素。在医疗领域,随着AI逐步渗透到医疗各个环节,从诊断、治疗到护理都明显感受到了这种冲击力。一些三甲医院已经在积极探索“AI医院”、“AI科室”等新运营模式。从业人员对AI情感复杂,担心被替代。在当前强调“稳就业”“稳民生”的大环境下,这些担忧理应受到重视。
回顾历次技术革命,通用技术的出现总会带来“创造性破坏”,冲击现有社会系统,引发失业浪潮,但也会催生新职业和岗位,如MRI放射科医生、网络工程师等。因此,在讨论AI对医疗岗位的替代性影响时,也应看到其创造新工作的潜力,这对于产业升级转型、提供高质量工作岗位和生活保障意义重大。
一、如何理解AI对医疗岗位的影响
理解AI对医疗岗位的影响,需回归任务本质的分析框架。MIT学者Autor提出的"常规化假说"揭示,技术进步对中等技能岗位冲击最大。这类岗位(如检验科样本分类)依赖规则明确的重复性操作,易被算法与机器人替代;而高技能抽象任务(如复杂手术决策)与低技能手工任务(如患者搬运)则因技术替代成本过高,需求不降反升,形成就业市场的"极化现象"。
诺贝尔经济学奖得主阿西莫格鲁进一步指出,任务层级的替代性分析是预测AI影响的关键。医疗服务的全流程可拆解为数百项子任务,每项任务对知识类型、环境适应与责任归属的要求差异显著。因此,本文将从上岗要求、实施过程和影响三个维度分析医疗工作任务的AI可替代性。
(一) 上岗要求:知识标准化与经验壁垒
知识和技能标准化程度:AI替代的核心门槛在于任务所需知识的可编码性。以放射科为例,肺部结节识别的影像学标准相对统一,AI通过海量数据训练即可达到高精度诊断;而肿瘤科医生制定化疗方案时,需综合患者基因、并发症、药物耐受性等动态因素,这类依赖临床直觉的"隐性知识"难以被算法完全捕捉。
培训周期影响替代成本:某些任务只需短期见习适应,如护士静脉穿刺技能,500次练习后达标率可达92%。而有些任务需长期培训和实践,如经验丰富的肿瘤科医生制定治疗方案,需综合患者多种因素判断并调整,其准确率高于仅靠AI辅助的医生。还有些工作虽知识要求不高,但需大量实践经验,如资深护士凭借多年经验判断病情和处理突发状况。
体力劳动的自动化边界:医院急救、后勤人员从事大量体力劳动,如患者移动、物资搬运等。AI可替代部分高强度体力劳动,如物流机器人运输物资,但因医院环境复杂、人流量大,需人工干预确保患者和物资准确到位,完全用AI替代存在困难。
(二)任务实施:从规则驱动到情境适应
任务重复性和规律性:规则明确、流程固定的任务构成AI替代的"低垂果实"。某三甲医院检验科引入全自动生化分析仪后,样本分类效率提升300%,人力需求缩减70%。与之相对,外科医生在腹腔镜手术中遭遇血管变异时,需在数秒内调整操作策略,此类非结构化决策远超当前AI的技术边界。
表1. 不同岗位的重复性任务

参考:晶泰科技《实验室自动化白皮书》(2023);Brown & Badrick(2022)
环境复杂感知和操作能力:在实验室封闭环境中,相关任务更容易被AI替代,如一些手术机器人对特定手术的成功率可达9%。但护理机器人在病房场景的应用受阻,主因在于难以适应人流密集环境中的动态避障需求。
决策复杂性和实时性:部分任务需在短时间内做出复杂决策,且受多种动态因素影响,需强大计算能力和复杂算法,更难被AI替代。例如心脏骤停抢救需在10秒内决定除颤能量,不同患者病情和身体状况千差万别,需医生灵活制定个性化治疗方案,人类医生现场决策几乎不可替代。
人际密切互动和情感支持:如果任务执行需与人频繁互动、提供情感支持、安慰或建立信任关系,交互复杂度较高,AI替代性低。同时,AI缺乏情感和伦理认知,在理解和处理复杂人类情感方面有局限性。典型的如护士需与患者、家属及其他医护人员沟通协作,建立良好人际关系,这对患者治疗和康复至关重要。AI虽可承担部分沟通任务,但无法满足患者情感支持和伦理决策需求,更无法完全替代护士与患者的情感互动。
(三) 任务影响
错误容忍度:指任务失误可能造成的损害程度与可逆性。低风险场景如健康档案管理,AI替代较易;高风险场景如手术操作,AI替代较难。世界卫生组织报告提出“首先,不可伤害”是卫生保健服务基本原则,但现实是每10名患者中约1人在卫生保健中受伤害,每年300多万患者因不安全医护死亡,在低收入和中等收入国家,每100人中就有4人死于不安全医护。因此,涉及患者安全问题成为医疗机构引进AI等新技术时最关注的事项。
长期影响性:AI侧重短期数据和即时结果,难以全面评估和承担长期影响。若医生诊断和治疗方案对患者健康和生命有长期影响,需综合考虑患者长期健康和生活质量来制定方案,如慢性病管理,需持续数年监测患者病情并调整治疗方案,这种情况下,不适宜用AI替代。
法律和伦理责任承担:任务涉及生命权、隐私权等核心伦理范畴时,因AI无法独立承担责任,涉及重大伦理和法律责任的决策和任务,很难完全替代人类。例如器官移植过程需考虑伦理问题和法律规定,不能由AI独立决策。在责任可追溯和归因问题上,若医疗事故原因可明确归因于技术或人为因素,则AI较易被接受;相反,在模糊责任场景下,如涉及价值观决策,很难将责任归咎于哪一方,AI难以完全替代人类承担最终责任。

图1 医疗岗位任务AI可替代性的三大维度
二、破局之道:AI医疗可能兴起的四类新岗位
在医疗领域AI替代传统岗位过程中,预计会催生出四类新型岗位,即技术增强型岗位、人机协作型岗位、伦理治理型岗位和新型服务型岗位。这些岗位包含的任务通常需要人类与AI深度协作,而非完全由AI或人类独立完成。未来医疗领域会出现大量人-AI团队任务协作情况,这是未来“AI医院”重点建设方向。
1. 技术增强型岗位
针对人类能独自完成的工作,借助AI技术助手,工作人员能更高效、高质量地完成任务,以人为主,技术为辅。
例如医疗AI训练师,核心任务是标注医疗影像数据、优化诊断算法、构建知识图谱。针对胸部CT的肺炎AI诊断系统训练,需呼吸科医生与数据工程师联合工作,利用AI自动识别80%标准化病例,医生负责标注数据、评估模型,数据工程师负责构建算法、优化模型。
又如数字疗法设计师,核心任务是开发AI心理干预程序、构建慢性病管理算法。在针对抑郁症患者的数字疗法方面,设计者需构建AI聊天机器人,通过分析患者言语和行为,提供个性化心理支持和认知行为疗法。
2. 人机协作型岗位
针对原有需团队协作完成的工作,AI可作为团队成员加入,形成人-AI团队。AI可配合团队工作,成为协调员、初审员等,使团队更高效合作。
例如手术机器人协调员,核心任务包括术前将外科医生操作习惯转化为机器参数,术中监控AI视觉导航系统,接管突发状况,术后分析机器人手术日志,优化动作库。
还有AI诊断审核员,负责审核AI初诊结果,确保诊断的准确性和可靠性。若置信度不足,则由人工标注错误类型并反馈至训练系统。
3. 伦理治理型岗位
AI可作为解决方案用于其应用本身导致的问题。一般AI并不真正了解人类伦理道德规范,需经专门训练的AI辅助人类开展审计和监督,形成“专家+AI”协作模式。
例如医疗算法审计师,需熟悉算法审计、数据隐私保护、伦理学和医学知识。其任务包括检测算法偏见,如皮肤癌诊断模型在深色人种的准确率偏差;评估数据隐私保护等级,进行GDPR/HIPAA合规性验证;建立可解释性标准,如X光诊断AI的决策路径可视化等。
人机责任界定专员是法学与医学的交叉岗位,主要任务包括手术机器人事故溯源,区分机械故障(厂商责任)还是操作失误(医生责任);以及AI用药推荐纠纷,判定算法缺陷(训练数据不足)还是临床误用(超适应症使用)。
4. 新型服务型岗位
AI应用深入会激发出全新产品和服务,涌现出很多创业公司和全新的岗位。
例如数字孪生健康管家,需掌握医学知识、AI技术、用户体验设计等知识。其任务包括通过AI构建患者虚拟化身,模拟不同治疗方案效果,需人类专家解读模拟结果,设计“治疗沙盘推演”。
AI医疗设备运维工程师,需掌握电子工程、计算机技术和医疗设备维护知识。其任务是负责维护智能手术机器人、AI影像设备、远程诊疗系统的软硬件运行,处理设备与AI平台的数据交互故障。
三、相关建议
AI在医疗领域的应用牵涉面广泛,未来将成为医疗健康服务流程中的“智能伙伴”,对从业者的角色定位、能力要求以及行业的整体人才战略产生颠覆性影响。为引导这场变革朝着积极方向发展,本文提供分析框架和医疗新岗位技术预判,供医疗机构和从业人员参考。而要构建AI赋能、人机协同、高效、公平、人性化的医疗大健康新生态,主管部门应采取以下措施:
一是跟踪AI医疗的现实应用,更新变革原有政策法规,鼓励创业。在上位法缺失情况下,上海可先行先试,进行“AI医疗责任”立法试点,补充完善现有《医疗事故处理条例》空白,要求AI系统记录完整决策日志,确保可追溯性,区分算法缺陷责任与临床误用责任等不同责任类别。
二是推出积极劳动力市场政策,缓解AI带来的就业结构性冲击。一方面,鼓励医疗机构和企业创造新AI医疗相关岗位,调整偏重AI技术的税收和补贴政策,改成为企业净增新岗位提供更多激励;另一方面,为面临失业风险的医疗人员提供技能再培训和转岗支持,帮助他们适应新工作环境。
三是推动教育改革,适应AI医疗新要求。医学院相关专业需增加《医疗AI系统原理》《人机协作诊疗实务》等必修课程,临床实习阶段需增加AI工具操作认证。强化批判性思维和创新能力培养,推动终身学习和技能升级,鼓励跨学科交叉学习,培养具备多学科知识的复合型人才。
四是高度关注AI伦理问题。强制医疗机构设立人工智能伦理相关机构和一定比例的伦理审核岗位(例如规定AI应用每达到一定数量,需要新增1个伦理审核岗位),定期、系统性地审查AI应用方案。建立“算法影响评估”制度,避免灾难性的后果。
(作者赵付春系上海社会科学院信息所副研究员;AI医疗创新研究中心黄浩、顾文兵对此文亦有贡献)
还没有评论,来说两句吧...