KI-gestützte Anwendungen in der Pharmakovigilanz

Technologische und regulatorische Rahmenbedingungen und Entwicklungen

Die Pharmakovigilanz (PV) dient der systematischen Überwachung der Arzneimittelsicherheit nach Marktzulassung. Angesichts stark wachsender und heterogener Datenquellen stoßen manuelle, dokumentenbasierte Prozesse zunehmend an Skalierungsgrenzen.

Dieser Beitrag diskutiert Künstliche Intelligenz als Ansatz zur automatisierten Datenextraktion, priorisierten Signaldetektion und perspektivisch kontinuierlichen, datenstrombasierten Überwachung relevanter Quellen. Das Potenzial für eine proaktive Überwachung ist immens. Dennoch steht die breite Praxisnutzung noch an einem Wendepunkt: Trotz technologischer Fortschritte verbleiben viele Anwendungen im Pilotstadium, insbesondere aufgrund von Unsicherheiten hinsichtlich regulatorischer Validierungsanforderungen, Datenschutzvorgaben und limitierter Trainingsdaten. Eine nachhaltige Implementierung erfordert auditierbare, risikobasierte KI-Architekturen, die in bestehende GxP- und GVP-Systeme integriert sind.

Die Datenflut als Treiber für KI in der Pharmakovigilanz

Die Pharmakovigilanz ist mit stark wachsenden, heterogenen Datenquellen, von Spontanmeldungen, Fachliteratur, Real-World Daten (RWD) bis hin zu Social Media, konfrontiert. 2024 wurden in EudraVigilance rund 1,76 Mio. Einzelfallmeldungen (ICSRs) erfasst [1]. Manuelle, dokumentenbasierte Prozesse stoßen dabei zunehmend an Grenzen.

Die Datenformate reichen von strukturierten E2B(R3)-Dateien gemäß ICH-Standard bis hin zu unstrukturierten Freitextquellen. Eine vollständige Standardisierung aller Eingangsquellen ist weder realistisch noch regulatorisch intendiert, da auch PatientInnen und nicht-fachkundige Personen niederschwellig Nebenwirkungen melden können sollen. Die zentrale Herausforderung liegt daher in der Transformation heterogener Informationen in interoperable, maschinenlesbare Formate. Um diese Komplexität beherrschbar zu machen, setzen moderne KI-Lösungen genau an diesen Schmerzpunkten an: Sie zielen primär darauf ab, repetitive Schritte zu automatisieren, die automatisierte Extraktion aus eben jenen heterogenen Quellen zu ermöglichen und schließlich die daraus resultierende Informationsflut analytisch zu priorisieren. Regelbasierte Lösungen sind für Standardaufgaben wie einfache Plausibilitätsprüfungen bereits etabliert [2] Das Potenzial lernender, modellbasierter Verfahren wird hingegen bislang nur partiell ausgeschöpft. 

Besonders datenintensive Prozesse eignen sich für KI-gestützte Verfahren. NLP-Modelle unterstützen die strukturierte Verarbeitung von Fallberichten und Kodierungsaufgaben, während statistische und maschinelle Lernverfahren die Signaldetektion durch Mustererkennung in großen, multidimensionalen Datensätzen ergänzen. Zudem eröffnen KI-Systeme perspektivisch ein kontinuierliches, datenstrombasiertes Monitoring relevanter Quellen von Social-Media-Quellen bis hin zu elektronischen Gesundheitsdaten [3] und erweitern damit die Möglichkeiten einer zeitnahen Risikobewertung. 

Trotz gestiegener Modellleistung verbleiben viele Anwendungen im Pilotstadium. Als zentrale Skalierungshemmnisse gelten die begrenzte Verfügbarkeit hochwertiger Trainingsdaten, regulatorische Validierungsanforderungen sowie fortbestehende Unsicherheiten in der praktischen Implementierung [4,5].

Regulatorische Rahmenbedingungen und globale Initiativen 

Die Etablierung von KI in der Pharmakovigilanz erfolgt in einem zunehmend strukturierten regulatorischen Umfeld. In den USA nutzt die FDA mit Sentinel und BEST bereits datengetriebene Überwachungssysteme [6] und konkretisiert in aktuellen Leitlinien den Einsatz von ML- und NLP-Verfahren [7]. Parallel dazu hat die europäische Seite mit dem Multi-annual AI Workplan 2023–2028 [8] von EMA und HMA sowie dem Big Data Workplan 2023–2025 [9] einen klaren Fahrplan vorgelegt. Diese Initiativen zielen auf den Aufbau eines KI-gestützten Netzwerks ab, das automatisierte Signaldetektion, neue Analytics-Zentren und die Nutzung von LLMs für regulatorische Aufgaben forciert.

Auf internationaler Ebene formuliert CIOMS (Arbeitsgruppe XIV) Anforderungen an Governance, Verantwortlichkeiten und Lebenszyklus-Management von KI-Systemen in der Pharmakovigilanz [10]. Insgesamt zeichnet sich eine zunehmende institutionelle Rahmensetzung für den regulierungskonformen Einsatz von KI ab.

Qualitäts- und Validierungsanforderungen

Die Überführung von KI-Pilotprojekten in den regulären GxP-Betrieb erfordert strikte Validierungsmaßstäbe, um Zuverlässigkeit und regulatorische Belastbarkeit zu garantieren. Zentral ist hierbei ein risikobasierter Ansatz, bei dem sich die Anforderungen nach dem spezifischen Einsatzkontext (Context of Use) und dem potenziellen Risiko für die Patientensicherheit richten [11,12].

Ein validiertes KI-System in der Pharmakovigilanz muss heute drei Kernsäulen erfüllen:

1. Technische Integrität: Dies umfasst die lückenlose Dokumentation vom Dateneingang bis zum Modelltraining sowie die strikte Trennung von Trainings-, Validierungs- und Testdaten, um Overfitting zu vermeiden.

2. Transparenz und Fairness: Methoden zur Erklärbarkeit müssen Entscheidungen nachvollziehbar machen, während gezielte Bias-Kontrollen systematische Benachteiligungen (z. B. nach Alter oder Geschlecht) verhindern.

3. Governance und Kontrolle: Das Lebenszyklus-Management stellt sicher, dass adaptive Modelle durch Change-Control-Verfahren kontrolliert bleiben. Der Human-in-the-Loop-Ansatz dient dabei als unverzichtbare Instanz, um durch klare SOPs und Reviews unkontrollierte KI-Entscheidungen bei sicherheitskritischen Aufgaben zu unterbinden.

International orientieren sich diese Anforderungen zunehmend an etablierten GAMP-Prinzipien [13]. Der Übergang in den Routinebetrieb hängt wesentlich davon ab, ob KI-Pipelines als auditierbare Bestandteile bestehender GVP-Systeme integriert werden können.

Datenschutz und Datensicherheit als Basis

Der Einsatz von KI in der Pharmakovigilanz betrifft regelmäßig Gesundheitsdaten im Sinne von Art. 9 DSGVO [14]. Eine vollständige Anonymisierung ist bei komplexen Datensätzen praktisch kaum erreichbar, sodass in der Regel pseudonymisierte Daten verarbeitet werden. Entsprechend sind Privacy-by-Design-Prinzipien, Zugriffskontrollen und technische Sicherheitsmaßnahmen zwingend erforderlich.

Innovative Ansätze wie das Federated Learning [15] bieten hier eine Lösung: Modelle können über verschiedene Standorte hinweg trainiert werden, ohne dass die zugrunde liegenden Patientendaten ihren Ursprungsort verlassen müssen. Ergänzend fordern sowohl die DSGVO (Art. 13–15, Art. 22) als auch der EU AI Act [16] umfassende Transparenz- und Erklärbarkeitspflichten, insbesondere wenn KI-Systeme Entscheidungen mit unmittelbarer Wirkung für Betroffene treffen. Datenschutz und Modellvalidierung sind dabei eng miteinander verknüpft, da Datenminimierung und Zweckbindung nur bei präzise definiertem Einsatzkontext gewährleistet werden können.

Ausblick und Zukunftsperspektiven

Künstliche Intelligenz besitzt das Potenzial, die Pharmakovigilanz durch skalierbare Datenverarbeitung, priorisierte Signaldetektion und kontinuierliches Monitoring substantiell weiterzuentwickeln. Eine nachhaltige Implementierung erfordert jedoch die konsistente Verzahnung technologischer Leistungsfähigkeit, regulatorischer Anforderungen, validierter Qualitätsprozesse und datenschutzrechtlicher Absicherung. Entscheidend wird sein, KI-Systeme als kontrollierbare, auditierbare Komponenten innerhalb bestehender Arzneimittelsicherheitsstrukturen zu etablieren.

Der gesamte Artikel erschien in: Pharmind 88 Nr. 2 (Februar 2026)

Kontaktieren Sie die Autorinnen bei Interesse! 

Literatur

  1. European Medicines Agency. (2024). Annual Report on EudraVigilance for the European Parliament, the Council and the Commission. European Medicines Agency, 31(March), 1–36. https://www.ema.europa.eu/en/documents/report/2024-annual-report-eudravigilance-european-parliament-council-commission_en.pdf
  2. Baby, A. (2025, Preprint). Leveraging Artificial Intelligence in Pharmacovigilance: Enhancing Drug Safety Through Data-Driven Approaches (pp. 4–7). https://doi.org/10.20944/preprints202503.0428.v1 
  3. Badary, O. A. (2025). The Potential of Artificial Intelligence and Machine Learning in Pharmacovigilance: An Update. GenoMed Connect, 2(1), 1. https://doi.org/10.69709/genomc.2024.176699 (zuletzt aufgerufen am 29.08.2025)
  4. Kassekert, R., Grabowski, N., Lorenz, D., Schaffer, C., Kempf, D., Roy, P., Kjoersvik, O., Saldana, G., & ElShal, S. (2022). Industry Perspective on Artificial Intelligence/Machine Learning in Pharmacovigilance. Drug Safety, 45(5), 439–448. https://doi.org/10.1007/s40264-022-01164-5(zuletzt aufgerufen am 29.08.2025)
  5. Ghosh, R., Kempf, D., Pufko, A., Barrios Martinez, L. F., Davis, C. M., & Sethi, S. (2020). Automation Opportunities in Pharmacovigilance: An Industry Survey. Pharmaceutical Medicine, 34(1), 7–18. https://doi.org/10.1007/s40290-019-00320-0 (zuletzt aufgerufen am 29.08.2025)
  6. Food and Drug Administration. (2019). Sentinel System 5-Year Strategy 2019-2023. January 2019, 1–32. https://www.fda.gov/media/120333 (zuletzt aufgerufen am 29.08.2025)
  7. Food and Drug Administration. (2025). Considerations for the Use of Artificial Intelligence To Support Regulatory Decision-Making for Drug and Biological Products. January 2025, 1–23. https://www.fda.gov/media/184830/download(zuletzt aufgerufen am 29.08.2025)
  8. European Medicines Agency & Heads of Medicines Agencies. (2023). Multi-annual AI work plan 2023-2028. HMA-EMA Big Data Steering Group. https://www.ema.europa.eu/en/documents/work-programme/multi-annual-artificial-intelligence-workplan-2023-2028-hma-ema-joint-big-data-steering-group_en.pdf(zuletzt aufgerufen am 29.08.2025)
  9. European Medicines Agency & Heads of Medicines Agencies. (2023). Big Data Workplan 2023-2025. HMA-EMA Big Data Steering Group https://www.ema.europa.eu/en/documents/work-programme/workplan-2023-2025-hma-ema-joint-big-data-steering-group_en.pdf(zuletzt aufgerufen am 29.08.2025)
  10. CIOMS Working Group XIV. (2025). Artificial Intelligence in Pharmacovigilance and Materiovigilance. Artificial Intelligence and Biological Sciences, May, 421–427. DOI tbd
  11. European Medicines Agency. (2024). Reflection paper on the use of Artificial Intelligence (AI) in the medicinal product lifecycle- EMA/CHMP/CVMP/83833/2023. European Medicines Agency, 31(September). https://www.ema.europa.eu/en/documents/scientific-guideline/reflection-paper-use-artificial-intelligence-ai-medicinal-product-lifecycle_en.pdf (zuletzt aufgerufen am 29.08.2025)
  12. Food and Drug Administration. (2023). Using Artificial Intelligence & Machine Learning in the Development of Drug & Biological Products- Disussion Paper and Request for Feedback. Food and Drug Administration FDA, 2023(May 2023), 1–33. https://www.fda.gov/media/167973 (zuletzt aufgerufen am 29.08.2025)
  13. International Society for Pharmaceutical Engineering (ISPE) — GAMP® Good Practice Guides (GAMP 5 / GAMP RDI Guides etc.). https://ispe.org/product-types/gamp-good-practice-guides(zuletzt aufgerufen am 29.08.2025)
  14. Europäische Union. (2016). DSGVO (Verordnung (EU) 2016/697). 72, 1–78. https://dsgvo-gesetz.de (zuletzt aufgerufen am 29.08.2025)
  15. Balendran, A., Benchoufi, M., Evgeniou, T., & Ravaud, P. (2024). Algorithmovigilance, lessons from pharmacovigilance. Npj Digital Medicine, 7(1), 1–6. https://doi.org/10.1038/s41746-024-01237-y (zuletzt aufgerufen am 29.08.2025)
  16. European Parliament, & European Council. (2024). Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024. Official Journal of the European Union, 1689(3), 1–144. https://eur-lex.europa.eu/eli/reg/2024/1689/oj (zuletzt aufgerufen am 29.08.2025)

Verfasst von

Dr Juliane Brümmer, Expert in Digital Transformation in Drug Development & Safety
d-fine

Dr Irina Tihaa, Expert in Change and AI in Pharma & Healthcare
d-fine

Expertin

Dr. Juliane Brümmer

Gerne können Sie sich mit Ihren Fragen direkt an mich wenden.

d-fine verzichtet auf Tracking und verwendet nur technisch notwendige Cookies.   [ MEHR ]

Bitte hier scrollen
Kopiert!