AI如何向監管證明自己?
近年來,AI在制藥領域的應用持續深化,從分子生成、工藝設計,到臨床開發、上市后評價,AI技術正逐步嵌入藥品全生命周期的各個關鍵環節。但伴隨技術落地,一個核心問題愈發凸顯:當AI產出用于支撐藥物研發、生產、上市后監測等關鍵決策時,這些產出能否以可追溯、可復核、可治理的方式,融入既有的藥品注冊審評與質量管理體系。這并非附加要求,而是AI從“展示性應用”走向“監管可接受證據”的關鍵門檻。
在此背景下,歐美藥品監管機構加速協同,相繼出臺了一系列指導文件,逐步形成了一套統一的監管邏輯與實踐框架,這也為我國藥企開展國際化申報、構建體系化AI治理能力提供了可參考的路徑。
監管共識形成
今年1月,美國食品藥品管理局(FDA)和歐洲藥品管理局(EMA)聯合發布《Guiding Principles of Good AI Practicein Drug Development》(《藥物開發中人工智能良好實踐指導原則》,以下簡稱指導原則),確立了貫穿藥物全生命周期的10項核心原則,為企業在藥物研發、生產、上市后監測等場景中應用AI技術提供指導。EMA在相關公告中明確,指導原則將為后續更具體、更細化的監管指南提供重要支撐。
要精準理解指導原則,需將其置于同一政策脈絡下的兩份文件中統籌把握。
2024年9月,EMA發布《Reflection paper on the use of Artificial Intelligence (AI) in the medicinal product lifecycle》(《藥品生命周期中使用人工智能(AI)的反思文件》,以下簡稱反思文件),首先明確了AI/機器學習技術應用是否屬于EMA及歐盟成員國藥品監管機構的職責范疇,監管審查力度將以此為直接依據。在此基礎上,反思文件圍繞數據偏倚與代表性、模型透明性、驗證與變更控制、倫理與法律合規、監管溝通等關鍵議題展開深入探討,為企業明晰監管審查重點、優化與監管機構的溝通路徑提供了框架。
2025年1月,美國FDA發布AI指南草案《Considerations for the Use of Artificial Intelligence To Support Regulatory Decision-Making for Drug and Biological Products》(《使用人工智能支持藥品和生物制品監管決策的考量》),進一步將監管要求落地為可操作的可信度證明路徑。FDA指出,該指南草案面向使用AI生成信息或數據,用于支持藥品與生物制品安全性、有效性及質量相關的監管決策,不涵蓋僅用于藥物發現或單純提升運營效率、不直接影響患者安全與研究結果可靠性的AI應用情形。該指南草案提出“基于風險的可信度評估框架”,用于在明確使用情境下,建立與評價AI模型的可信度。這里的“可信”,指的是驗證模型輸出是否足以支撐對應決策,并通過合理的驗證、文檔留存與持續監測,滿足監管機構對可靠性與可審計性的要求。
綜上可見,歐美監管口徑已形成層次清晰的體系架構:指導原則確立統一的基本要求,EMA反思文件系統化呈現監管關注點與風險討論框架,FDA指南草案則提供以使用情境為核心的可信度評估與證據組織方法。三者共同指向同一核心邏輯:對AI制藥的監管不以“模型是否先進”為中心,而是聚焦AI輸出如何進入證據鏈、如何開展驗證與治理。
合規實踐轉向
歐美協同構建的AI監管框架,為我國創新藥企業開展國際化申報、搭建合規AI應用體系提供了重要參考。未來企業與歐美藥品監管機構溝通時,將擁有統一的“監管語言”,溝通焦點也將聚焦于證據鏈的可治理性,以及明確使用情境下的可信度證明。
在藥物研發領域,明確使用情境的引入,將重塑企業對AI價值的定位與構建證據體系的整體思路。歐美系列監管文件釋放出明確信號:AI應用越接近影響藥品安全性、有效性及關鍵開發決策的核心環節,越需要清晰界定其使用情境(或用于支持哪一類判斷),并匹配與風險等級相符的驗證、監測及文檔證據。若企業僅圍繞模型區分能力、參數規模等技術指標展開說明,極易在審評溝通中被追問更關鍵的問題,比如模型輸出具體支撐哪個決策環節、適用邊界如何、潛在誤差可能引發的后果,以及對應的驗證與持續監測策略等。
在生產制造與藥物警戒領域,監管關注點更集中于藥品全生命周期管理與變更控制。在生產制造環節,AI可用于工藝監控、偏差識別、放行輔助判斷與持續工藝驗證等場景;在藥物警戒方面,AI可用于信號檢測、病例處理分流與風險評估輔助。EMA反思文件強調監管審查強度與職責范圍相關,并重點探討驗證與變更控制等議題,這也提示企業,在高風險環節應用AI技術時,需將模型性能隨時間變化的風險納入體系化管理,通過持續監控、回歸驗證與變更控制,保障模型在明確使用情境下持續滿足預期的可信度要求。
治理體系構建
當前,我國藥企的核心任務,是將歐美形成的監管共識,轉化為適配自身發展、可落地、可審計、可持續運行的AI治理體系,具體可從六個方面推進。
一是構建可審計的AI證據鏈。將模型輸出視為進入研發與質量決策流程的“數據來源”,在質量體系中建立全流程追溯機制,涵蓋數據版本、特征工程/預處理、標簽與人工規則、訓練與推理配置、模型版本與閾值設定,以及輸出結果接入決策節點的完整路徑。實踐中,可從模型訓練與上線環節入手,實施日志化、版本化管理,確保未來在審評或核查場景下,能夠完整復原數據來源、處理流程、判斷主體及結論形成邏輯。
二是細化并明確AI使用情境。對內管理與對外溝通需統一回應一組問題:模型支撐的具體決策是什么,輸出將用于哪一步判斷;其功能邊界與適用限制;是否需要人機協同完成最終判斷;哪些輸入變化會觸發失效或再驗證。相較于單純展示性能指標,清晰界定使用情境更能幫助監管方與合作方快速識別風險點,明確所需補充的證據。
三是匹配驗證與監督策略。驗證強度需與風險等級掛鉤,風險既取決于模型在業務流程中的影響程度,也關聯決策后果。針對高風險應用,需實施嚴格的前瞻性測試與性能度量,設定明確的性能閾值與失效應急預案,上線后開展定期監測與回歸驗證。在生產放行、偏差識別等場景,需將模型更新與閾值調整納入現有變更控制程序。可優先為關鍵模型建立“性能漂移監測計劃”,提前固化觸發條件、復驗證路徑與升級匯報機制。
四是強化數據代表性與偏倚控制。數據治理需從追求規模與效率,轉向可審計的代表性與偏倚管理,驗證訓練與測試數據是否覆蓋多樣性的目標人群及應用場景,確保模型在性別、年齡、遺傳背景、臨床分層等關鍵子群中性能一致。針對真實世界數據,還需同步建立覆蓋數據質量、一致性、使用授權與合規鏈條的審計記錄,以滿足跨境合作與境外申報的合規要求。
五是建立跨學科協作與責任邊界。AI應用落地不能僅依賴算法團隊,需整合研發、臨床、法規、質量、藥物警戒、隱私倫理等多領域人員,共同界定使用情境、風險等級與證據要求;同時,明確責任分工與升級機制,厘清輸出結果、放行決策、持續監測的責任主體,構建可執行的治理結構。
六是推進前置化、持續性監管溝通。針對擬納入關鍵決策鏈的AI應用,盡早與監管機構溝通可有效減少后期返工。溝通材料應聚焦使用情境、風險分級、可信度評估計劃、驗證與監測安排,明確材料提交的時機與顆粒度。
AI技術對于制藥行業的真正價值,并非技術概念的前沿性,而是能否以合規、可信、可控的方式融入藥品證據鏈。當全球藥品監管機構以“風險為本”“使用情境”“全生命周期管理”為核心關鍵詞來組織政策語言時,中國藥企的核心競爭力也將更多體現在體系化治理能力與可審計證據組織能力上。唯有建立適配全球監管的AI質量管理體系,才能真正讓AI成為驅動藥物研發與產業升級的可靠動力。[作者為泓惠醫藥科技(北京)有限責任公司首席科學家]
(責任編輯:劉思慧)
右鍵點擊另存二維碼!