
在医疗AI领域,企业面临的首要问题并非“是否需要合规”,而是“应当适用哪一条监管路径”。当前实践中,医疗AI产品大致可以分为三类:一是医疗AI大模型/医疗智能体;二是临床决策支持系统(CDSS);三是人工智能医用软件(医疗器械软件)。不同类型对应不同的监管部门、审批路径和合规成本。例如:是否构成医疗器械,是否需要按照《医疗器械监督管理条例》第二条进行注册管理;是否属于生成式人工智能服务,是否适用《生成式人工智能服务管理暂行办法》第二条;是否属于算法推荐服务,是否触发《互联网信息服务算法推荐管理规定》第二条意义上的算法备案;是否嵌入互联网诊疗流程,是否适用互联网诊疗相关规范等。因此,对医疗AI产品进行清晰的“监管三分法”定性,是企业设计产品架构、规划注册路径和安排合规资源的基础工作。
医疗AI产品通常同时处于三个监管体系的交叉地带。
(一)药监主线:是否构成“人工智能医用软件”医疗器械
药监监管的核心在于:产品是否属于医疗器械,以及是否属于“人工智能医用软件”。
1. 医疗器械的基本判断
根据《医疗器械监督管理条例》第一百零三条,医疗器械是指直接或者间接用于人体的仪器、设备、器具、体外诊断试剂及校准物、材料以及其他类似或者相关的物品,包括所需要的计算机软件;其效用主要通过物理等方式获得,不是通过药理学、免疫学或者代谢的方式获得,或者虽然有这些方式参与但是只起辅助作用;其目的是:(一)疾病的诊断、预防、监护、治疗或者缓解;(二)损伤的诊断、监护、治疗、缓解或者功能补偿;(三)生理结构或者生理过程的检验、替代、调节或者支持;(四)生命的支持或者维持;(五)妊娠控制;(六)通过对来自人体的样本进行检查,为医疗或者诊断目的提供信息。
2. 人工智能医用软件的界定
国家药监局发布的《人工智能医用软件产品分类界定指导原则》提出:若软件处理对象为医疗器械数据,核心功能是对该数据进行处理、测量、建模计算、分析,并用于诊断、监护、治疗等医疗用途,一般作为医疗器械管理;辅助决策类、算法不成熟、对临床决策影响较大的产品,多数按三类医疗器械管理。在此框架下,是否属于人工智能医用软件核心判断在于产品是否处理“医疗器械数据”,以及输出是否直接用于医疗用途。
(二)卫健主线:是否进入医疗服务与互联网诊疗场景
卫健监管关注的是医疗行为本身及其质量安全。医疗AI产品一旦嵌入诊疗流程,尤其是互联网诊疗流程,即进入卫健监管视野。
1. 医疗行为与互联网诊疗
互联网诊疗相关规范(如《互联网诊疗管理办法(试行)》《互联网医院管理办法(试行)》及配套细则)等强调:诊断、治疗、处方等核心医疗行为必须由取得相应资质的医师实施,互联网诊疗活动应当在依法设置的医疗机构内开展,医疗机构应当对使用的信息系统和相关技术工具进行管理和质量控制。
2. CDSS与院内应用
各地卫健委和医院信息化规范普遍将临床决策支持系统视为“辅助决策工具”,要求:不得替代医师独立判断;应当纳入医疗质量与安全管理体系;应当建立使用管理制度、不良事件报告机制和日志留存机制。因此,医疗AI产品一旦参与诊疗决策、处方生成、病历书写等医疗行为,或者嵌入互联网医院、线上问诊流程,就需要同步考虑卫健监管要求。
(三)网信主线:算法推荐与生成式AI服务监管
网信监管关注的是算法服务、生成式AI服务以及数据安全。
1. 算法推荐服务
《互联网信息服务算法推荐管理规定》第二条规定,利用生成合成、个性化推送、排序选择等算法向用户提供信息服务的,属于算法推荐服务。若具有舆论属性或社会动员能力,还需履行算法备案义务。
2. 生成式AI服务
《生成式人工智能服务管理暂行办法》第二条规定,利用生成式人工智能技术向境内公众提供生成文本、图像、音频、视频等内容的服务,适用该办法。服务提供者应当开展安全评估,履行算法备案等义务。对于面向公众提供健康咨询、报告解读、医学知识问答等生成式服务的医疗AI产品,网信监管往往与药监、卫健监管并行存在。
在上述三条主线下,可以将医疗AI产品归纳为三类典型形态:医疗AI大模型/智能体、CDSS、人工智能医用软件。
(一)医疗AI大模型与医疗智能体
1. 典型应用形态。
面向医生主要体现为医生助手大模型,用于病历撰写、文献检索、指南解读、病例讨论;结合院内信息系统的智能问答、智能质控。面向患者主要体现为健康咨询智能体、检查/检验/影像报告解读助手;慢病管理中的智能随访、用药提醒等。面向研发与管理主要体现为科研辅助、真实世界数据分析、医学教育与培训等。
2. 是否构成医疗器械。
医疗AI大模型本身是否构成医疗器械,取决于其具体用途和数据类型:若主要用于文献检索、知识问答、科研辅助等“知识工具”场景,且不直接处理医疗器械数据、不直接用于诊断或治疗,一般不作为医疗器械管理;若大模型被封装为具体疾病场景下的诊断、分型、预后评估工具,处理对象为医疗器械数据,且输出直接用于临床决策,则应当按照《人工智能医用软件产品分类界定指导原则》进行医疗器械属性判断。实践中,通用医疗大模型往往作为底层能力存在,其本身不注册为医疗器械,而是通过上层具体应用(如影像AI软件、专病辅助诊断软件)进入医疗器械监管体系。
3. 是否触发生成式AI与算法监管
若医疗AI大模型或智能体面向公众提供服务,例如:面向公众的健康咨询、报告解读、用药建议;面向公众的医学知识问答、健康管理建议等。则通常属于《生成式人工智能服务管理暂行办法》第二条意义上的生成式AI服务,需要建立训练数据来源和合法性说明;建立内容审核与风险防控机制;按照《互联网信息服务算法推荐管理规定》第二条、第二十四条履行算法备案等义务(如具有舆论属性或社会动员能力)。
4. 是否进入互联网诊疗监管
当医疗AI大模型或智能体嵌入互联网医院、线上问诊、电子处方等流程时,应当遵守互联网诊疗相关规范。核心要求包括不得以AI自动作出诊断结论或开具处方;不得冒用医师身份与患者沟通;医师对诊疗行为负最终责任,AI仅为辅助工具。
因此,医疗AI大模型的合规重点在于:用途边界设计、输出形式控制、与医师行为的责任分工,以及生成式AI与算法监管要求的落实。
(二)临床决策支持系统(CDSS)
1. 典型应用形态
CDSS通常嵌入医院信息系统,面向医务人员使用,典型功能包括:诊疗路径推荐、用药提醒、禁忌症提示;影像、病理等检查结果的辅助分析与提示;病历规范性检查、质控提示;慢病管理中的风险分层与随访建议。
2. “辅助决策工具”的定位
各地卫健委和医院信息化规范普遍强调,CDSS属于“辅助决策工具”,应当满足:不得替代医师独立判断;不得直接向患者作出诊断或治疗承诺;医师对诊疗决策负最终责任。在产品设计层面,这一定位应当通过界面提示、输出形式、使用说明书、培训材料等多种方式予以体现。例如:输出“建议”“提示”“参考意见”,而非“诊断结论”;明确要求医师在使用前进行独立判断和核查;在系统中保留医师操作记录和决策依据。
3. 是否构成医疗器械软件
CDSS是否构成医疗器械软件,取决于其处理对象和用途。若CDSS处理对象为医疗器械数据(如影像、监护数据等);输出用于疾病诊断、治疗方案选择、风险评估等;则通常符合《医疗器械监督管理条例》第二条及《人工智能医用软件产品分类界定指导原则》中对医疗器械软件的定义,应当按照医疗器械进行注册管理。
4. 医院端的合规要求
医院在引入CDSS时,通常需要:将CDSS纳入医院信息化建设规划和等级评审体系;通过医务处、信息科、伦理委员会等多部门论证;制定CDSS使用管理制度、不良事件报告制度和日志留存制度;对医务人员进行培训,明确使用范围和注意事项。
对于企业而言,能否提供完整的合规材料(包括产品技术文档、风险管理报告、院内管理制度建议等),直接影响CDSS能否顺利进入医院并稳定运行。
(三)人工智能医用软件(医疗器械软件)
1. 典型应用形态
人工智能医用软件通常以具体疾病或具体检查场景为单位进行设计和注册,例如:肺结节、乳腺、脑卒中等影像辅助检测与诊断软件;专病辅助诊断、分型、预后评估软件;基于可穿戴设备数据的心电、血糖等监测与预警软件。
2. 医疗器械属性与分类
在《医疗器械监督管理条例》第二章框架下,人工智能医用软件属于医疗器械,应当按照风险程度进行分类管理。结合《人工智能医用软件产品分类界定指导原则》:对临床决策影响较大、错误后果严重的人工智能医用软件,多数按三类医疗器械管理;风险相对较低的监测、提示类软件,可能按二类管理。
3. 注册与技术审评要求
人工智能医用软件在注册和技术审评中,监管部门通常关注产品预期用途、适用人群、使用环境的明确性;算法模型的训练数据来源、代表性和质量控制;性能验证方法、评价指标及临床评价或临床试验结果;算法更新策略(固定模型、受控更新或持续学习)及其风险控制;可解释性、可追溯性和人机协同机制。在此基础上,企业还需要建立符合医疗器械要求的质量管理体系,确保产品在全生命周期内的安全性和有效性。
4. 与大模型和CDSS的关系
实践中,人工智能医用软件往往以具体疾病场景为单位注册,形成“点状”产品;在医院内部被纳入CDSS或影像工作站的一部分;底层可能调用通用医疗大模型,但监管关注点在“封装后的具体功能”,而非底层大模型本身。
从企业视角看,可以通过以下维度对三类产品进行对比:

在产品规划阶段,企业可以依次回答以下三个问题,以初步确定监管路径:核心价值是“通用能力”还是“具体疾病场景”;输出是“知识工具”还是“临床决策依据”;服务对象是“公众”还是“专业人员/机构”。在此基础上,再结合药监、卫健、网信三条主线,形成清晰的合规路线图。
(一)单一关注“是否医疗器械”,忽视多线监管
部分企业仅关注产品是否构成医疗器械,而忽视生成式AI服务和算法推荐服务的网信监管要求;互联网诊疗和院内医疗服务的卫健监管要求;数据安全和个人信息保护的合规要求。在当前监管格局下,医疗AI产品往往同时处于药监、卫健、网信多线监管之下,单一视角难以覆盖全部风险。
(二)以形式性免责声明替代实质合规
在产品界面或协议中简单加入“仅供参考,不构成诊断或治疗建议”等免责声明,并不能改变产品的客观功能和法律属性。在责任认定和监管判断中,监管机构更关注:产品的实际功能和输出内容;产品在诊疗流程中的实际作用;企业在设计、培训和管理中是否尽到合理注意义务。因此,合规工作应当体现在产品设计、流程控制、院内制度和证据留存等实质层面,而非仅依赖形式性声明。
(三)忽视算法更新带来的持续合规义务
医疗AI产品的算法更新具有高频和持续性,但监管要求并非“一次性合规”。例如:对于医疗器械软件,重大算法更新可能触发变更注册或再注册;对于生成式AI服务,模型优化和参数调整可能影响安全评估和备案内容;对于CDSS,知识库更新和规则调整需要院内审批和记录。因此,企业需要在立项阶段就设计算法更新策略,并将其纳入质量管理体系和合规管理流程。
在监管持续演进、技术快速迭代的背景下,医疗AI企业需要从“产品定性”出发,构建系统性的合规路线图:在产品设计阶段,基于“大模型/智能体—CDSS—人工智能医用软件”的三分法,明确产品类型和监管路径;在业务场景层面,区分院内与院外、2B与2C、科研与商业化等不同场景,针对性设计合规策略;在组织层面,将药监、卫健、网信及数据合规要求嵌入研发流程、产品管理、院内合作和运营策略中,形成可持续的合规能力。在这一过程中,合规不应被视为单纯的成本,而应当成为医疗AI产品进入高门槛场景(如三甲医院、国家级试点项目、跨区域合作)的“准入门票”,也是企业构建长期竞争优势的重要组成部分。
律师简介
