学习笔记:ICH GCP E6(R3)正式落地:临床试验用AI,必须守住这5条合规底线
ICH-GCP的46-57行,讲得很好:原则是灵活的,技术是中性的,设计是核心的,质量要保证,考量要审慎。原文如下:
GCP的原则是灵活的,广泛适用于各种类型的临床试验。本指导
原则以及ICH E8(R1)共同倡导对各个临床试验中特定方面和
可能存在的独特性进行审慎思考与周密规划。这包括评估试验特
征,例如设计要素、拟评价的试验用药品、拟针对的医疗状况、
试验参与者的特征、实施临床试验的场景以及收集的数据类型。
就每项临床试验而言,与确保试验质量有关的因素均需进行审慎
考量。
这些原则旨在支持采用高效的方法进行试验设计和实施。例如,
可穿戴设备和传感器等数字健康技术可能拓展试验实施的方法。
此类技术可被纳入现有的医疗保健基础设施,使得临床试验能够
使用多种相关数据源。这将有助于使临床试验的实施与先进的科
学技术发展保持同步。
问题一:AI应用于临床试验,法规依据文件有什么?
据此,可以认为,ICH GCP文件针对AI工具的合规性要求已有明确阐述,虽未设置专门的AI章节,但核心涵盖验证、风险管理、数据完整性、可追溯性以及全生命周期等要点。
2025年1月定稿的ICH GCP E6 (R3) 是将 AI 纳入GCP框架的核心文件,五大要求如下:
要求 | 核心内容 | 红线的语义风险 |
质量源于设计 | 试验设计阶段即明确 AI 用途,识别关键质量因素 | 不得事后随意引入未经评估的 AI |
基于风险的管理 | 对 AI 工具进行分层风险管理(高 / 中 / 低风险) | 不得 “一刀切” 管理 |
数据治理与算法验证 | 数据有代表本,算法有版本,结果锁定,完整审计追踪 | 不得使用非合规版本处理关键数据 |
人机协同与责任界定 | AI 仅辅助决策,关键输出需人工审核确认 | 责任不可外包给 AI 或供应商 |
系统验证与供应商管理 | 系统满足 ALCOA + 原则,需按受监管形式审计 | 不得未经验证直接部署 |
(此表为AI整理)
ICH 文件没有专门的 AI 工具合规章节,但通过E6(R3)、Q9、Q10、M15等,将 AI 纳入计算机化系统 + 质量 + 数据 + 风险管理的通用合规体系,核心是验证、风险、数据完整性、可追溯、全生命周期、人类监督。
问题二:AI究竟可以在临床试验中做什么?
一、根据应用场景来看:AI 能做什么?
阶段 | 应用场景 | 具体价值 |
试验设计 | 文献分析、方案优化、数字患者模拟 | 辅助终点筛选、识别设计缺陷、预演试验流程 |
患者招募 | 电子病历解析、精准匹配 | 毫秒级匹配,缩短入组周期 30%-50% |
试验执行 | 医学影像识别、可穿戴设备实时监测 | 客观评估疗效,主动预警不良事件 |
数据管理 | 自动化清洗、逻辑核查 | 大幅缩短数据清理周期,提升质量 |
分析研究 | 合成对照组、真实世界数据分析 | 减少安慰剂组依赖,支持上市后安全性监测 |
(此表为AI整理)
二、这意味着什么应用价值?
好处明显:
1.效率提升:从 “年” 到 “月”—— 患者招募缩短 30%-50%,数据库锁库从数月压缩至数周。
2.质量保障:从 “稀疏” 到 “连续”—— 连续监测取代阶段性检查,标准化评估减少人为差异。
3.成本优化:从 “高投入” 到 “降本增效”—— 精准筛选减少浪费,合成对照组降低研发支出。
4.风险控制:从 “被动应对” 到 “主动预测”—— 提前识别脱落风险,实时预警不良事件。
但也会造成公平性挑战和隐私威胁:
先说,数据出境与隐私保护。当使用海外可控设备及数据需传输至境外服务器时,必须通过法定路径。要点提醒:
·涉及基因数据或近期连续生理数据(如心电),需同步申报《人类遗传资源管理条例》,履行备案或审批义务。
·境外组织不得在中国境内采集、保藏人类遗传资源,不得向境外提供。
·知情同意书必须单独列出 “数据出境同意” 条款,获得受试者单独同意。数据出境后需为受试者建立保障其使用与保护的问责条款。
路径 | 适用条件 | 核心要求 |
数据出境安全评估 | 关键信息基础设施运营者 / 重要数据 / 10 万 + 敏感个人数据 | 向国家网信办申报,周期 6 个月以上 |
标准合同 | 未触发安全评估条件(最常用) | 签署标准合同,10 个工作日内备案 |
个人信息保护认证 | 跨国公司内部全球数据汇聚 | 获专业机构认证 |
(此表为AI整理)
再说,公平性与歧视性挑战:AI 会加剧不平等吗?肯定会。而且,如果不加干预,AI 可能加剧 “数字鸿沟”。
有以下几点:
培养依赖:一是,技术依赖:研究可能仅针对对原始数据的独立 “拟合”,仅确认 “管用与否”,而非 “为何有效”。二是,系统依赖:AI 故障时缺乏人工干预预案,试验可能瘫痪。
责任模糊:算法变更未及时同步至研究者,责任边界模糊。
不公平性挑战:一是,基础设施差距,欠发达地区除了缺乏电力、网络及技术设备之外,数据代表性偏差;而基于发达地区数据训练的AI,在欠发达地区无法施展。二是,人才与维护响应,后期维护人才进一步向发达地区集中。三是,成本与可及性问题,AI工具成本高昂,最终转嫁至药企/患者,而这对欠发达地区和群众不利。
具体案例情形:可穿戴设备的实施监测,是否侵犯隐私?
AI 应用在可穿戴设备的连续监测中,必然会侵犯隐私。因此,合规的连续监测,是在受试者充分知情同意与保障的前提下,用技术手段将识别风险降至可接受水平。对策至少应包括:
1.伦理审查与知情同意:伦理委员会审查数据使用用途,获得书面明确知情同意。
2.去标识化与匿名化:移除直接标识符,转换为唯一研究编码,切断与个人身份的联系。
3.数据聚合与去重:随时间与维度提高,防范重识别。
4.安全技术保障:加密传输与存储,严格访问控制,所有操作留痕可追溯。
5.法规强制:《个人信息保护法》《数据安全法》《人类遗传资源管理条例》对数据出境、存储、处理有严格限制。
示例:AI 药物研发及临床试验产品示例
当谈论 “AI 药物研发” 时,具体指以下代表性工具与平台(AI整理提供以下结论):
1.分子筛选与设计
·DeepMind:AlphaFold 蛋白质结构预测
·Recursion Pharmaceuticals:表型筛选 + AI 重定位老药
·Insilico Medicine:端到端 AI 药物发现(从靶点到临床)
2.临床运营与数据平台
·Medidata AI:基于 Rave 的患者招募预测、风险监测与智能编码
·Oracle Health Sciences:AI 驱动的源数据验证与不良事件自动识别
·Veeva Vault CDMS:智能数据清理与医学编码
·Clindata AI / Castor EDC AI:多模态数据提取与结构化
3.真实世界证据(RWE)
·IBM Watson for Oncology:肿瘤 RWD 分析与治疗匹配
·Flatiron Health:真实世界数据 AI 建模,支持上市后安全性与有效性研究
·Parexel AI:合成对照组构建与 RWE 分析
注:感叹AI的强大,在整理的同时也非常困惑其“幻觉”,有的不存在的可能会被“幻想”出来,一本正经的胡说八道,有的张冠李戴,但即便如此,AI在信息搜索与整合、逻辑推演等方面,极大程度地帮助了我。这也是我整理成本文的一大“功臣”。而且,我还是要提醒说:仅供参考,不能迷信权威、也不尽信AI给的信息与结论。