Künstliche Intelligenz im Gesundheitswesen?

Thomas Krone 28.01.2016

Wir kaufen online, nutzen Bezahlsysteme wie Bitcoin, kommunizieren über Facebook und WhatsApp, sehen Filme via Netflix, fahren Taxi mit Uber, liefern Päckchen mit Drohnen aus, bauen Häuser per 3-D-Drucker, wundern uns über die globale Überwachung, werden bald von autonomen Fahrzeugen chauffiert und von Robotern gepflegt. Nur das (deutsche) Gesundheitswesen ist noch analog. Warum ist das so?
 
Wir leben in einer Welt voller Daten. Daten werden immer wichtiger und von allen gesammelt. Wir selbst sammeln Daten, wenn wir Produkte im Internet vergleichen, nach Größe, Lage und Miete einer neuen Wohnung suchen oder eine Urlaubsreise planen.
 
Amazon sammelt Daten über unsere Kaufgewohnheiten, Lufthansa sammelt Daten über unsere Lieblingsurlaubsziele. Der Einkauf eines Stahlunternehmens sammelt Daten über die günstigsten und besten Zulieferer.
 
Die Menge an verfügbaren Daten ist in den letzten Jahren exponentiell angestiegen, Studien zufolge verdoppelt sich das weltweite Datenvolumen alle 2 Jahre. Dies liegt vor allem an der gestiegenen Speicherkapazität der Rechner. In den 1950er Jahren entwickelt von IBM war die erste Festplatte so groß wie ein Kühlschrank und hatte 5 MB Speicherkapazität, soviel braucht heute ein einzelnes Handy-Foto.
 
Im Übrigen können auch heute schon unsere Kühlschränke Daten sammeln.
 
Nur Daten alleine nützen allerdings nichts. Erstens ist die Menge an verfügbaren Informationen schon lange für ein menschliches Gehirn unüberschaubar groß und zweitens müssen aus den Daten die richtigen Schlüsse, Informationen oder Handlungsanweisungen herausgefiltert werden.
 
Eine Aufstellung aller Mietswohnungen in Deutschland hilft mir nichts. Eine Aufstellung über alle Dinge in meinem Kühlschrank hilft mir auch nur wenig. Hilfreich werden Daten erst dann, wenn Sie zu Information werden: Also verfügbare 2-Zimmer-Wohnungen im präferierten Stadtteil; oder die Information, dass Weißwein fehlt, der sonst immer im Kühlschrank steht.
 
Um solche Informationen oder Handlungsanweisungen zu erhalten braucht es Algorithmen.
Ein Algorithmus ist eine systematische, logische Regel oder Vorgehensweise, die zur Lösung eines vorliegenden Problems führt.
 
Ein Algorithmus kann zur Bedienung einer Kaffeemaschine benutzt werden:
  1. Wasser, Filter und Kaffee in Maschine
  2. Maschine anschalten
  3. Tasse mit Kaffee füllen
Wenn Algorithmen komplizierter werden, sich auf andere Datenquellen beziehen, Schleifen eingebaut werden oder mehrere Algorithmen verbunden werden, spricht man von Maschinellen Lernverfahren (machine learning).
 
Diese Verfahren sind in unserem täglichen Leben allgegenwärtig. Man findet sie in selbstgesteuerten Autos, Spracherkennung, Internet-Suchmaschinen; in den meisten Fällen merken wir wohl nicht einmal mehr, dass ein Algorithmus uns hilft und möglicherweise steuert.
 
Machine learning wird ebenfalls in der Forschung eingesetzt, beispielsweise zum besseren Verständnis der menschlichen Genstruktur oder des menschlichen Gehirns (-> vgl. Artificial Intelligence).
 
Man spricht von machine learning, wenn Computer Dinge lernen und daraus Ergebnisse oder Handlungsanweisungen generieren, ohne explizit programmiert worden zu sein.
 
Beispielsweise zeigt man einem Rechner 30 Bilder von Bierflaschen und er lernt, dass ein 31. Bild auch eine Bierflasche zeigt, oder eben nicht.
 
An diesem Beispiel sieht man auch, wie wichtig es ist, die Qualität des Modells/Verfahrens zu überprüfen; dies wäre z.B. eine Information in wie vielen Fällen der Rechner das falsche Ergebnis liefert (false negatives, false positives).
 
An diesem Beispiel lässt sich ebenfalls das Problem der Überspezifikation demonstrieren. Wenn der Rechner gelernt hätte, dass alle Bilder von Bierflaschen das Wort Bier enthalten, dann wäre ein gutes Erkennen weiterer Bilder nicht möglich.
 
Oder allgemeiner; das überspezifizierte Modell enthält irrelevante Variablen, die keinen Einfluss auf das gewünschte Ergebnis haben. Dann kann der Rechner nicht mehr abstrahieren oder verallgemeinern und ein ähnliches Beispiel erkennen.
 
Um einen Eindruck davon zu bekommen, wie vielfältig diese Verfahren heute sind, werden hier Kategorien  von machine learning, datamining, statistical pattern recognition genannt:
  1. Überwachtes Lernen / supervised learning (parametric/non-parametric algorithms, support vector machines, kernels, neural networks).
  2. Aus gegebenen Paaren von Ein- und Ausgaben lernt der Rechner die richtigen Ausgaben (output). Dem System wird die Fähigkeit antrainiert aus neuen Eingaben den richtigen Output zu generieren.
  3. Unüberwachtes Lernen / unsupervised learning (clustering, dimensionality reduction/Hauptkomponentenanalyse, recommender systems, deep learning).
Dem Rechner wird kein korrektes Ergebnis (output) zur Verfügung gestellt, sondern er stellt Beziehungen selbst her und macht daraus Vorhersagen.
 
Für die Daten, die man aufbereiten möchte, muss das jeweils passende Modell/Verfahren gefunden werden. Man kann auch mehrere Verfahren testen und dann mit einem weiteren Algorithmus das Verfahren wählen, das das beste Ergebnis liefert. Trial and Error Methoden sind in diesem Bereich ebenfalls üblich.
 
Sehr wichtig ist die Datenqualität. Modelle erfinden nichts Neues, sondern stellen nur neue Zusammenhänge her. Die Qualität der Vorhersage (output) hängt direkt von der Qualität der Eingaben ab („rubbish in, rubbish out“). Deshalb ist es sehr wichig zu wissen, welche Daten und Datenquellen man hat, diese Daten zu reinigen (process the data) und ggf. neu zu skalieren.
 

Konkretes Beispiel:
Künstliches Neuronales Netz (ANN – artificial neural network)
 
Neuronale Netze werden in der Wissenschaft zum besseren Verständnis des menschlichen Gehirns oder zur Lösung von spezifischen Problemen eingesetzt. Für die Lösung spezifischer Probleme kann man unterscheiden zwischen Black Box Netzen (mit versteckten Neuronen) und assoziativen Netzen, die z.B. der Mustererkennung dienen.
 
Man unterscheidet zwischen der Trainingsphase und der Testphase:
  • In der Trainingsphase lernt das neuronale Netz anhand des vorgegebenen Lernmaterials. Dementsprechend werden in der Regel die Gewichte zwischen den einzelnen Neuronen modifiziert (Optimierung der Gewichte). Lernregeln geben dabei die Art und Weise an, wie das neuronale Netz diese Veränderungen vornimmt.
  • In der Testphase werden hingegen keine Gewichte verändert. Stattdessen wird hier auf Grundlage der bereits modifizierten Gewichte aus der Trainingsphase untersucht, ob das Netz etwas gelernt hat. Dazu präsentiert man den Inputneuronen Reize und prüft, ob der vom Neuronalen Netz berechnete Output dem tatsächlichen Output in den Daten entspricht.
 
In der Trainingsphase nutzen die Netze entweder Überwachtes Lernen (der korrekte output Vektor ist gegeben) oder Unüberwachtes Lernen (kein output Vektor ist gegeben).
 
Ein neuronales Netz besteht üblicherweise aus drei Arten von Units/Neuronen: Input-Units, versteckte Unis und Output-Units.
 
Alle Neuronen sind miteinander verbunden. Die Stärke der Verbindung (Assoziationsstärke) zwischen zwei Neuronen wird durch ein Gewicht ausgedrückt (W ji). Je größer der Absolutbetrag des Gewichts, desto größer ist der Einfluss einer Unit auf eine andere Unit.
  • Ein positives Gewicht bringt zum Ausdruck, dass ein Neuron auf ein anderes Neuron einen exzitatorischen, erregenden Einfluss ausübt.
  • Ein negatives Gewicht bedeutet, dass der Einfluss inhibitorisch, also hemmender Natur ist.
  • Ein Gewicht von Null besagt, dass ein Neuron auf ein anderes Neuron derzeit keinen Einfluss ausübt.
  • ein neuronales Netz mit einer versteckten Schicht kann in einer Matrix dargestellt werden
Der Score gibt den Risikofaktor für jedes Input Neuron, also die Höhe der Relevanz des einzelnen Input-Faktors
 
Die Prognosegüte kann beispielsweise durch den Chi²-test gegeben werden.
 
Das Wissen eines neuronalen Netzes ist in seinen Gewichten gespeichert. Lernen wird bei neuronalen Netzen zumeist als Gewichtsveränderungen zwischen den Einheiten definiert.
 
 
Ansprechpartner: Antje Lechner –
  « zurück zur Übersicht