Navigieren im Datenmeer
Derzeit ist die Medizin von einem überwältigenden Anstieg an Daten geprägt. Diese stammen aus verschiedenen Quellen – und zu einem nicht geringen Teil aus der Labordiagnostik. Für die behandelnden Mediziner:innen ist es von herausragender Bedeutung, dass erstens alle Daten von allen Personen verfügbar sind und dass zweitens alle relevanten Daten in die medizinische Entscheidungsfindung einfließen können. Inzwischen stehen zahlreiche Software- und KI-basierte Lösungen zur Unterstützung zur Verfügung.
Ein wichtiger Schritt in diese Richtung ist die Einführung der elektronischen Patientenakte (ePA). Voraussetzung für den reibungslosen Austausch von Labordaten zwischen Patient:innen und Behandlungsteams über die ePA ist die Einführung des Medizinischen Informationsobjekts (MIO) Laborbefund.
Besonders deutlich wird die Notwendigkeit für eine Zusammenschau der vorliegenden Befunde bei komplexen Krankheitsbildern wie der Adipositas. Nur wenn viele verschiedene Quellen wie Anamnese, klinische Untersuchung und Labordiagnostik einbezogen werden, kann eine fundierte Therapieentscheidung erfolgen und können die Betroffenen bei Bedarf an die richtigen medizinischen Fachleute beispielsweise aus der Endokrinologie, Kardiologie oder Chirurgie überwiesen werden.
Erfolgversprechend ist auch das Fischen im Datenmeer der Laborwerte: So können zum Beispiel im Falle von Gesamt- und LDL-Chorlesterin Referenzintervalle aus Routinemesswerten berechnet werden. Auch hier müssen aber weitere Informationen wie das Vorliegen von schlecht abgrenzbaren Hyperlipidämien und die Gabe von lipidsenkenden Medikamenten mit einbezogen werden, da sie möglicherweise zu Störungen der Methodik führen.
Dass große Datenmengen schon bei einer einzelnen Untersuchung anfallen können, zeigt immer wieder eindrucksvoll das Next Generation Sequencing, welches unter anderem bei der Untersuchung auf die CHIP-Mutation für die Abschätzung des Risikos für kardiovaskuläre Erkrankungen zum Einsatz kommt. Eine Auswertung der resultierenden Datenflut ist ohne Software-Unterstützung nicht denkbar.
Bei der Informationsbeschaffung werden Large Language Models in Zukunft eine bedeutende Rolle spielen. Sie könnten die Literaturrecherche in der Medizin revolutionieren, indem sie aktuelle Studien und relevante Daten zielgerichtet auswerten. Jakob Adler zeigt in seinem Beitrag die Möglichkeiten und Grenzen dieser KI-gestützten Ansätze auf.
Dieses Zusammentragen und die Auswertung von bereits vorhandenen Forschungsergebnissen bilden die Basis für die Etablierung von neuen Biomarkern. In der Neurologie stehen seit einigen Jahren zahlreiche neue Biomarker – zum Beispiel für die blutbasierte Diagnostik von Morbus Alzheimer und Multipler Sklerose – zur Verfügung. Wichtig sind hier eine Standardisierung von Analysemethoden sowie die Evaluation der Spezifität der Assays.
Zusammenfassend lässt sich sagen, dass das Navigieren im Datenmeer der Medizin eine multidisziplinäre Anstrengung erfordert. Es gilt geeignete Technologien zu integrieren, gesetzliche Vorgaben einzuhalten und eine interdisziplinäre Zusammenarbeit zu fördern. Nur so können wir das immense Potenzial der medizinischen Daten ausschöpfen und die Gesundheitsversorgung von morgen gestalten.