Ein Hauch von Big Data
Im Sammeln sind wir gut. Es gehört neben der Jagd zu den menschlichen Urtrieben, die schon in der Steinzeit das Überleben unserer Spezies sicherten. Im 21. Jahrhundert aber sammelt die Menschheit nicht mehr Pilze und Beeren, sondern Riesenmengen an Daten.
Bislang wissen wir vor allem von NSA und BND, Google und Facebook, dass sie raffinierte Algorithmen einsetzen, um aus mehr oder weniger ungezielt erhobenen Daten hochspezifische Informationen herauszufiltern. Doch auch in der Medizin und speziell in der Laboratoriumsmedizin wird in letzter Zeit immer häufiger von Big Data gesprochen. Damit man diesen Terminus technicus anwenden darf, müssen nach gängiger Definition drei Kriterien erfüllt sein, die unter dem Kürzel V3 zusammengefasst werden: Volume, Variability und Velocity. Es geht also um große Volumina unstrukturierter Daten, die ständig mit hoher Geschwindigkeit in einen Speicher strömen.
Die Informationsmenge, die ein Laborinformationssystem täglich verarbeitet, ist im Vergleich zu Google und Co natürlich winzig, und man kann Labordaten auch nicht wirklich als unstrukturiert bezeichnen; aber die nachfolgenden Beiträge zeigen doch, dass zumindest ein „Hauch von Big Data“ durch die Labore weht. Bis zu 5.000 unterschiedliche Untersuchungsverfahren pro Labor sind wahrlich eine stattliche Zahl, und durch die fehlende Standardisierung der Einheiten, Referenzintervalle und Entscheidungsgrenzen kommt auch ein hohes Maß an Variabilität hinzu. Prof. Eberhard Gurr schildert auf S. 180–183 Algorithmen, die zu einer datengetriebenen Vereinheitlichung und situationsgerechten Interpretation von Laborwerten beitragen und den Big-Data-Techniken zugerechnet werden können.
Dr. Gabriele Egert, Mitglied der Redaktion