Total Laboratory Automation: Vom „AutoAnalyzer“ zum Labor 4.0

DOI: https://doi.org/10.47184/td.2024.05.01

Die Welt wandelt sich. Waren bisher die Ingenieursdisziplinen in der führenden Rolle, so sind es im 21. Jahrhundert die Software-Unternehmen, die den Ton angeben. Diese Entwicklung spielt auch bei der Automation im medizinischen Labor eine entscheidende Rolle. Während die Hardware-Automationslösungen der unterschiedlichen Hersteller relativ vergleichbar arbeiten, unterscheiden sich die Softwarelösungen für das Labor (LIS, Middleware etc.) mitunter erheblich. Kann mehr und bessere Software einen Beitrag zur Linderung des Fachkräftemangels leisten?

Schlüsselwörter: Total Laboratory Automation, Labor 4.0, Big Data, maschinelles Lernen

Wann und wo auch immer der Mangel an Arbeitskräften zur Sprache kommt, lautet die erste Forderung von Ökonomen: Personal­einsparung. Und fast reflexhaft folgt als Lösungsansatz der Ersatz von Menschen durch Maschinen – womit wir beim Thema Laborautomation wären. Sie hat in den vergangenen rund 75 Jahren dazu beigetragen, die Produktivität pro Arbeitskraft enorm zu steigern: Wo einstmals eine menschliche Fachkraft am „Sechsfach-Küvettenwechsler“ nur wenige Dutzend Enzymbestimmungen pro Stunde schaffte, ermitteln moderne Analysestraßen heute Tausende von Werten pro Stunde.

Die Frage ist berechtigt, ob sich diese Produktivität allein durch mehr Hardware noch weiter steigern lässt oder ob es neue Konzepte braucht, um den sich immer stärker verschärfenden Fachkräftemangel sowohl auf ärztlicher als auch medizinisch-technischer Ebene in den Griff zu bekommen.

Drei Generationen der Automation

Die erste Welle der Laborautomation wurde bereits in den 1950er-Jahren eingeläutet und dominierte Ende der 1960er den Markt. Pioniere waren die Continous-Flow-Systeme AutoAnalyzer und SMA von Technicon (später Bayer, heute Siemens) sowie der Blutbildanalysator von Coulter (Abb. 1 links).

Sie konnten Analyseserien ohne manuelle Pipettierschritte abarbeiten; nur die Probenzufuhr und bestimmte Schritte der Auswertung erfolgten von Hand.

Auf biochemischer Ebene ging der „Mono­test“ von Boehringer Mannheim (heute Roche) mit der Erfindung von Testkits in eine ähnliche Richtung: Beginnend mit der enzymatischen Cholesterinbestimmung kamen schrittweise immer mehr gebrauchsfertige Reagenzsätze auf den Markt, die keine manuellen Schritte wie etwa Einwiegen oder Pipettieren benötigten.

Etwa 25 Jahre nach dem Start folgte in den 1970er-Jahren die zweite Generation, bei der Gerät und Reagenz zunehmend aus einer Hand stammten und sowohl Computer als auch einfache Rotober in die Gerätesysteme integriert wurden. Von Technicon kam der „Sequential Multiple Analyzer with Computer“ (SMAC) mit einem starren Profil von bis zu 64 Analyten auf den Markt, der aber bald von Selektiv­analysatoren abgelöst wurde. Diese Geräte erhielten die Untersuchungsaufträge online, führten mithilfe von Robotik nur die Tests durch, die tatsächlich angefordert waren, und stellten die Ergebnisse auf einem integrierten Bildschirm dar. Proben- und Reagenzzufuhr erfolgten weiterhin manuell. Parallel dazu entstanden erste Laborinforma­tionssysteme (LIS), die die Laboratoriumsdiagnostik damals zum Vorreiter der Digitalisierung in der gesamten Medizin machten.

Noch einmal 25 Jahre später wurde die dritte Generation der Laborautomation entwickelt [1]. Sie ging von Japan aus, fasste zu Beginn des neuen Jahrtausends weltweit Fuß und beinhaltet heute alle prä- und postanalytischen Arbeitsschritte von der Probenvorbereitung und Beladung der Analysatoren bis zur Archivierung und Entsorgung. Auf solchen Systemen kann heute ein Großteil aller Arbeitsabläufe im Labor automatisiert werden, sodass zu Recht von „totaler Laborautomation“, kurz TLA, gesprochen wird (Abb. 1 rechts).

 

Auf dem Weg zum Labor 4.0

Auch wenn kleinere Labore noch immer in der zweiten Generation der „Stand-alone-Analyzer“ verharren, steht aufgrund der bisherigen Erfahrung etwa ab 2025 die vierte Generation automatisierter Laborsysteme ins Haus. Wie auch in der Industrie 4.0 dürfte die Hardware (Laborgeräte und Testkists) bei dieser Entwicklung keine so dominierende Rolle wie bisher spielen. Zu erwarten ist vielmehr eine stärkere Fokussierung auf die Software. Die neue Generation sollte als zentrale Elemente vor allem eine massive Vernetzung über das Internet und die Nutzung von Künstlicher Intelligenz (KI) beinhalten. Es geht darum, zentralisierte wie auch in der Fläche verteilte, patientennahe Laborbereiche auf Software­ebene in überregionalen Strukturen zusammenzufassen und zudem durch den Einsatz von intelligenter Massendatenverarbeitung einen Mehrwert zu erzeugen, der das medizinische Labor aus der Ecke des reinen Dienstleisters auf die Bühne eines „Decision Maker Hub“ bringt [2].

 

Aktueller Automationsstand

Der Grad der Automation schwankt in Deutschland abhängig von der Labor­größe und dem Testangebot mitunter erheblich. Zum Beispiel arbeiten kleine Labore die Immun­hämatologie noch komplett oder partiell manuell ab, indem die Analytik wie in den 1980er-Jahren auf „Stand-alone-Analysatoren“ ohne TLA-Anschluss erfolgt und Prä- und Postanalytik manuell durchgeführt werden. Vor dem Hintergrund des Fachkräftemangels im medizinisch-technischen Bereich kann man deshalb Herstellern von TLA-fähigen immunhämatologischen Systemen sehr gute Vermarktungschancen vor allem im Krankenhauslabor prophezeien.

Auch andere aufwendigere Techniken wie die HPLC (High Pressure Liquid Chromatography) ggf. gekoppelt mit einer massenspektrometrischen Detektion (LCMS/MS) sind bisher bestenfalls teilautomatisiert, aber noch nicht im Rahmen einer TLA verfügbar. Hier zeichnen sich aber aktuell spannende Entwicklungen ab, die den TLA-Markt bereichern und dem Mangel an hochspezialisierten Fachkräften entgegenwirken werden.

Im Vergleich dazu ist die Klinische Chemie in fast allen Laboren zu einem Großteil mindestens „subtotal“ automatisiert. In mittelgroßen Laboren (50 bis 150 Mitarbeitende) herrschen oft kleine konsolidierte Einheiten (automatisierte Workbenches) vor, weil sich große Hochdurchsatzsysteme nicht rechnen (Tab. 1).

Tab. 1: Kriterien für und gegen die Einführung einer totalen Laborautomation (TLA).

Vorteile

Nachteile

  • Reduktion der Fehler bei hochrepetitiven Aufgaben (Aliquotierung, Decapping/
  • Recapping und Sorting)
  • Hoher organisatorischer Aufwand durch komplette Umstellung der Arbeitsabläufe im Labor
  • Hoher Grad an Automation (lange Walk-away-Zeiten)
  • Abhängigkeit des Personals von der Automation
  • Automatisierte Wiederholungsunter­suchungen und Verdünnungen
  • Großer Platzbedarf und räumliche Umstrukturierung des Labors erforderlich
  • Möglichkeit der Nutzung eines Clinical Decision Support Tools (CDS/CDSS)
  • Höheres Risiko eines Stillstands im Labor bei Geräteausfall
  • Langfristiges Return of Investment (ROI)
  • Hohe initiale Investionskosten
  • Langfristig weniger Personalbedarf
  • Amortisation benötigt in der Regel Jahre

Die Einhaltung von Qualitäts- und Sicherheitsstandards hängt hier weiterhin stark von menschlicher Arbeitskraft ab, sodass die subtotale Labor­automation in den meisten Fällen zwar zu einer Effizienzsteigerung, nicht aber zu einer Reduktion von Vollzeitstellen führt. Je größer die Labore werden, desto eher ist die Einführung von TLA gerechtfertigt (Tab. 1).

Entlastung durch Software

Bisher stand bei der Automation von Laborprozessen die Hardware im Vordergrund. Dies gilt ganz besonders für Deutschland, einem Land, das zwar bekannt für seine Ingenieurskunst, nicht aber unbedingt für Progressivität auf der Softwareseite steht. Dabei erleben wir gerade in so gut wie allen Wirtschaftsbereichen, dass Software die Hardware als entscheidenden wirtschaftlichen Faktor ablöst.

Bei der Leistungsfähigkeit von Labor­informationssystemen erkennt man leider durchaus Parallelen zur deutschen Automobilbranche: früher einmal hervorragend, aber für das 21. Jahrhundert aus der Zeit gefallen. Dabei könnten uns zeitgemäße Softwarelösungen, zum Beispiel in Form von Clinical Decision Support Systemen (CDSS) oder Business Intelligence Tools, Möglichkeiten eröffnen, die Labormedizin auf eine neue Stufe zu heben und erheblichen Mehrwert für die Anbieter auf Laborseite wie auch die Befundempfänger zu erzeugen.

Wenn wir zum Beispiel CDSS nutzen, um Entscheidungsbäume aus Leitlinien und aktuellen Studien als Wenn-Dann-Regeln automatisiert abzubilden, können wir uns selbst von repetitiven Tätigkeiten entlasten und die klinisch tätigen Kolleg:innen bei der Auswahl der richtigen Tests wie auch der Interpretation der Ergebnisse beraten, ohne wertvolle Personalressourcen am Telefon zu vergeuden. Wie eine Studie aus Schottland am Beispiel der Leberdiagnostik zeigte, lässt sich so der Outcome der Patientendaten ohne Mehraufwand verbessern [3]. Das leit­liniengerechte Anforderungsverhalten wird durch CDSS im Sinne automatisierter labordiagnostischer Pfade verbessert [4], sodass Über- und Unter­diagnostik reduziert, fachlich unsinnige Anforderungen vermieden und zeitaufwendige Nachforderungen mit Probensuche im Archiv minimiert werden.

Ausblick: Big Data und KI

Hochdurchsatzlabore versorgen die Medizin nicht nur mit hochwertiger Diagnostik, sondern generieren auch gewaltige Datenmengen. die für die Gesundheits­politik, die Versorgungsforschung sowie die Entwicklung neuer diagnostischer und therapeutischer Strategien von Bedeutung sind. Von Big Data spricht man in diesem Zusammenhang, wenn riesige Mengen an oftmals wenig strukturierten Daten kontinuierlich in Computersysteme fließen (V3-Konzept: Volume, Velocity, Variability) und dort auch für Fragestellungen zur Verfügung stehen, die bei der Datenerhebung ursprünglich keine Rolle spielten.

Exakt diese Voraussetzungen sind in der modernen Laboratoriumsmedizin erfüllt, denn allein in Deutschland werden nach vorsichtigen Schätzungen rund vier Millionen Messwerte pro Tag erzeugt. Die Datenformate reichen von numerischen Werten über Textinformationen bis hin zu digital gespeicherten Bildern, und nach geeigneter Anonymisierung lassen sie sich retrospektiv ohne große ethische Hürden für die Wissenschaft und Politik nutzen.

Bei der Abarbeitung von Abertausenden Aufträgen pro Tag sollte deshalb bereits heute jedes große Labor darauf achten, dass Datenstrukturen, Schnittstellen und Auswertungstools im Rahmen der Data Governance die FAIR-Data-Prinzipien [5] berücksichtigen (F für „findable“, A für „accessible“, I für „inter­operable“ und R für „reuseable“). Dadurch ergeben sich vielfältige Möglichkeiten, große Datenmengen für den Routinebetrieb nutzbar zu machen. Dies betrifft etwa die regelmäßige Überprüfung der im LIS hinterlegten Referenzintervalle nach ISO 15189 [6] oder die zlog-Standardisierung von Laborwerten für die Langzeitspeicherung in elektronischen Patientenakten [7] sowie die multivariate Auswertung mit Algorithmen des maschinellen Lernens [8], einem zunehmend
bedeutsamen Zweig der KI.

Eine Übersicht über existierende KI-Applikationen in der Laboratoriumsmedizin erschien Anfang dieses Jahres in Trillium Diagnostik [9]. Das Verbandsorgan J Lab Med der DGKL hat zudem soeben eine Sonderausgabe herausgebracht, die sich schwerpunktmäßig dem praktischen Einsatz von Algorithmen des maschinellen Lernens und der Künstlichen Intelligenz widmet [10].

So tragen moderne Softwareentwicklungen nicht nur dazu bei, personelle Engpässe zu überwinden, sondern machen die Laboratoriumsmedizin auch im Wettbewerb um die klügsten Köpfe attraktiv für junge, IT-affine Menschen, die in der Medizin praktische Erfüllung und intellektuelle Herausforderungen suchen.