Künstliche Intelligenz - Vom Vater aller Dinge
Der Krieg ist der Vater aller Dinge – und somit wohl auch der Vater der Künstlichen Intelligenz. Oder ist der Vater der KI der britische Mathematiker Alan Turing? Auf jeden Fall war er es, der im zweiten Weltkrieg mit Computerhilfe die Enigma-Verschlüsselungsmaschine der deutschen Wehrmacht knackte – ein erster Erfolg dessen, was der Visionär unter Vorwegnahme der späteren Entwicklung „Maschinenintelligenz“ nannte.
Nach ihm ist auch der Turing-Test benannt, der etwas verkürzt besagt: Ein Computer darf als künstlich intelligent bezeichnet werden, wenn er einer fragenden Person Antworten gibt, die diese nicht von den Antworten eines Menschen unterscheiden kann. Spätestens mit ChatGPT & Co. scheint jeder Laptop und jedes Smartphone diesen Test zu bestehen – zumindest in der öffentlichen Wahrnehmung.
Allerdings bezweifelt unser Autor Jakob Adler, der auf den nächsten Seiten einen Überblick über die technischen Grundlagen der KI aus Sicht der Laboratoriumsmedizin gibt, diesen Anspruch: Wohlklingendes „Chatten“ darf man keineswegs mit Intelligenz im Sinne von Erkenntnis und Einsicht, Problemverständnis und Lösungskompetenz gleichsetzen.
Vier Phasen der Entwicklung
Die Entwicklung der KI kann man grob in vier sich überlappende Phasen einteilen: In den 1950er-Jahren wurden die theoretischen Grundlagen erarbeitet, ab etwa 1960 entstanden sog. Expertensysteme (XPS), ab 1980 wurden künstliche neuronale Netze (ANN) aus der Forschung in die Praxis überführt, und um die Jahrhundertwende begann die Ära des maschinellen Lernens (ML), das derzeit vor allem durch den Einsatz von aufwendiger Statistik und mehrschichtigen neuronalen Netzen für das Deep Learning (DL) aufsehenerregende Erfolge erzielt.
Interessanterweise wurden die Prinzipien der gesamten Entwicklung bereits in der ersten Welle grundgelegt. In den 1950ern entbrannte ein heftiger wissenschaftlicher Streit darüber, ob man KI-Programme mit den Symbolen der Logik kodieren solle oder ob man selbstlernende Systeme auf der Basis der Neurophysiologie implementieren könne. Erneut spielte der Krieg – diesmal der kalte – eine wichtige Rolle für die weitere Entwicklung, denn die USA förderten beide Forschungsansätze mit großen Summen, um einen strategischen Vorsprung gegenüber der Sowjetunion zu erlangen. Die Vertreter der „symbolischen KI“ gewannen den Wettstreit und die „Konnektionisten“ verloren alle Fördergelder. In den 1980er-Jahren wendete sich das Blatt dank verbesserter Lernalgorithmen und höherer Rechenleistung. Heute beherrschen selbstlernende Systeme das Feld.
Einsatz im medizinischen Labor
Die Laboratoriumsmedizin ist in diese Entwicklung bereits seit dem Ende der zweiten Welle mit dem Einsatz regelbasierter Expertensysteme intensiv involviert. Ab Seite 57 stellen wir aktuelle Lösungen aus dem Bereich des maschinellen Lernens vor, beispielsweise bei der Bilderkennung in der Präanalytik oder der Hämatologie, und geben einen Einblick in die Programmierung von ML-Applikationen.
Den Abschluss bildet ein Ausblick in die Welt der Quantencomputer, die nicht mehr auf der herkömmlichen TRUE-FALSE-Logik basieren, sondern ein „sowohl als auch“ verarbeiten können. Gerade in der medizinischen Diagnostik bildet dieses neuartige Paradigma die Realität womöglich besser ab als das herkömmliche Schwarz-Weiß-Denken. Unsere Autorin Jeanette Lorenz zeigt mögliche Anwendungen für künstliche neuronale Netze in der Labormedizin auf. Wir werden diese Entwicklung mit Interesse weiterverfolgen.