对于临床试验行业的医药研发从业者来说,2025年算是AI+临床试验合规化要求的元年。因为备受各界广泛期待的ICH GCP E6(R3)已于2025年1月正式落地。
这份作为全球临床试验核心准则的文件,首次将人工智能(AI)工具纳入GCP监管框架之中,配合AI工具的快速发展,也终结了此前在临床试验领域内AI应用“无规可依、边界模糊”的状况。
至此,不管是药企、CRO、临床试验机构,还是负责AI医疗工具研发的团队,只要在临床试验全流程用到AI(患者招募、影像评估、数据管理、疗效分析、不良事件监测等),都必须严格对标E6(R3)要求,否则极易面临合规风险、试验数据不被认可,甚至项目叫停的后果。
在ICH-GCP中虽然没有明确提及“人工智能”的措辞,也没有AI的专门章节,但还是可以把E6(R3)针对临床试验AI应用的具体硬性要求,进行梳理、拆解,形成实践操作的要点,即合规底线的要求。
先明确核心原则:
AI是“辅助”,绝非“替代”——ICH GCP E6(R3)通篇贯穿一个核心立场:临床试验的核心决策主体,始终是具备资质的研究者、医学团队和相关责任人,AI定位为辅助工具。
禁止将AI输出直接作为临床试验的最终决策依据,所有AI分析结果、筛查结论、评估建议,都必须经过人工复核确认,责任主体不可转嫁至AI系统或供应商,这是所有合规要求的前提,也是不可触碰的核心红线。
关键提醒:E6(R3)监管覆盖AI全生命周期,从前期设计、开发验证,到上线部署、迭代更新、停用销毁,全程需留存完整记录,做到全程可追溯、可审计。 |
具体而言,在ICH GCP E6(R3)中临床试验AI应用的5大合规要求:
一、质量源于设计:提前规划,杜绝“事后补证”
E6(R3)明确要求,AI工具不能随意“临时上线”“事后套用”,必须在临床试验方案设计阶段,就明确AI的具体应用场景、使用目的、预期功能、适用范围,以及对应的质量控制标准。
设计者必须要清楚:这款AI工具在试验中承担什么角色?关键输出指标是什么?哪些环节属于高风险操作?同时要针对性制定质量保障措施,识别并防控AI算法偏差、数据误差、系统故障等潜在风险,形成完整的设计与风险评估文档,作为临床试验方案的配套文件留存备查。
二、基于风险的分级管理:拒绝“一刀切”
新规推行风险分级管控,根据AI工具对临床试验数据质量、受试者安全、试验结果科学性的影响程度,划分为高、中、低三个风险等级,分级实施监管要求。不同的AI有不同的风险,不能头发胡子一把抓。
高风险AI:直接影响疗效评估、安全性判断、受试者筛选入排的工具(如AI医学影像疗效判定、AI不良事件严重程度分级、AI入组资格核心判定),需执行最严格的验证、复核和审计流程;
中风险AI:辅助数据整理、初步筛查、流程提醒的工具,需常规验证和定期复核;
低风险AI:单纯的语音转文字、文档整理、进度提醒等非核心辅助工具,简化验证流程。
核心要求:风险等级划分要有理有据,配套管控措施要与风险匹配,严禁高风险AI工具按低风险标准粗放管理。
三、数据治理与全流程可追溯:数据真实、完整、可审计
临床试验数据的真实性和完整性是GCP的核心,E6(R3)对AI相关数据提出了严苛的可追溯要求:
AI训练数据、测试数据、实际应用数据,必须来源合法、合规,严禁使用未经授权、不完整、有明显偏差的数据;
AI系统所有操作日志、算法版本、参数调整、迭代记录、输出结果、人工复核记录,必须全程锁定、不可篡改,留存完整审计轨迹;
数据处理流程透明,算法逻辑(尤其是高风险AI)需具备可解释性,避免“黑箱操作”,确保监管方和研究者能清晰追溯数据流转和结果生成逻辑;
严格遵守受试者隐私保护要求,做好数据去标识化、匿名化处理,符合伦理和个人信息保护相关规定。
四、人机协同+责任清晰:责任到人,不甩锅给AI
这是E6(R3)最核心的责任界定要求:AI工具没有“法律主体资格”,临床试验相关责任必须由人类责任人承担。
具体落地要求:
明确AI系统的负责人、复核人、操作人员,所有岗位职责清晰写入SOP;
高风险AI输出结果,必须由具备相应资质的研究者逐一审验确认,并签署复核记录,无人工复核的AI数据视为无效数据;
严禁通过合同、协议等方式,将AI相关的合规责任、数据责任转嫁至AI供应商或第三方团队,申办者和研究者始终承担主体责任。
五、系统验证+供应商穿透式管理:严把工具准入关
AI工具不能“拿来就用”,上线前必须完成全流程验证,确认其功能、准确性、稳定性、可靠性符合临床试验场景需求,验证方案、验证过程、验证结果需形成完整报告留存。
同时,E6(R3)强化了供应商管理,要求申办者对AI工具供应商进行穿透式审计:
审核供应商资质、研发能力、质量管控体系;
核查AI工具的开发流程、验证数据、算法合规性;
明确供应商的售后服务、系统维护、迭代更新义务,确保AI工具全生命周期合规可控。
总结起来,就是5条合规底线:
质量设计、风险分级、数据治理、人机责任、工具准入。逐条拆解:
从源头就是质量保证,要靠设计,即用AI工具的场景、目的、功效;
从实施过程就是风险分级管理,资源合理投入和使用;
从结果产出就是数据真实、客观、完整,能够说明有效性和安全性;
从AI参与来看,始终要明晰人的责任、AI的工具属性;
从工具属性来看,又要确定准入的标准,必须功能稳定、安全可靠,结果可解释、可验证。
避坑要点: 1.误区:事后补做验证和记录就行 → 纠正:E6(R3)要求质量源于设计,全程留痕,事后补证视为不合规; 2.误区:AI都有风险,全部严加监管,全流程跟踪验证→ 纠正:高风险场景必须100%人工复核,无例外; 3.误区:AI效率高,直接替代人工审核→ 纠正:AI数据来源必须合规,数据处理流程透明; 4.误区:算法黑箱没关系,结果准就行 → 纠正:高风险AI必须具备可解释性,全程可追溯,如果出问题,是“人”担责。 5.误区:AI供应商负责合规,我方无需管控 → 纠正:申办者/研究者承担主体责任,必须管控供应商。 |
ICH GCP E6(R3)的落地,为行业划定了清晰的合规边界,让合规、可控、科学的AI工具能真正赋能临床试验,实现缩短招募周期、降低研发成本、提升数据质量、保障受试者安全的核心价值。
对于行业从业者而言,当下最关键的是尽快梳理现有AI应用场景,对标E6(R3)要求完成合规自查,完善SOP、验证记录、复核流程,提前布局全生命周期合规管理,抓住AI赋能医药研发的行业机遇。
注:本文的撰写有AI辅助,供业内人士交流、参考实践。