Künstliche Intelligenz sorgt seit einigen Jahren für eine regelrechte Revolution in der Medizin. Smarte Algorithmen helfen Ärztinnen und Ärzten dabei, Krankheiten zu diagnostizieren und auf Patienten zugeschnittene Behandlungen einzuleiten, unterstützen aber auch Pharmahersteller bei der Entwicklung von Medikamenten und der Auswertung von klinischen Studien. Besonders groß ist das Potenzial bei der Analyse medizinischer Bildaufnahmen, weil moderne bildgebende Verfahren sehr hochwertige digitale Aufnahmen liefern und KI-Anwendungen in diesen sehr schnell und zuverlässig Auffälligkeiten entdecken, die auf Erkrankungen hindeuten können.
Das Training der Algorithmen ist ob der großen Datenmengen sehr aufwändig – Schritt für Schritt müssen die Lernmodelle immer weiter verfeinert werden, bis sie tatsächlich für den Praxiseinsatz taugen. Sehr gut geeignet für die Klassifizierung von Bilddaten sind neuronale Netze und baumbasierte Lernalgorithmen, die nach reichlich Rechenkraft verlangen. Sie müssen nicht nur eine große Zahl an Bildern auswerten, sondern dabei auch mehrere Millionen Parameter berücksichtigen. Das erfordert viele parallele Berechnungen, die üblicherweise Grafikprozessoren (GPUs) übernehmen, weil in ihnen, anders als in klassischen Zentralprozessoren (CPUs), eine große Anzahl einfacher Kerne steckt.
In der KI-Entwicklung kommen daher sehr rechenstarke Systeme zum Einsatz. Das bAIome – das Zentrum für biomedizinische KI am Universitätsklinikum Hamburg-Eppendorf (UKE) – setzt in seinem Rechenzentrum beispielsweise zwei Nvidia DGX-1 sowie ein Nvidia-DGX-A100-System ein. Diese speziell für Deep Learning entwickelten Server nutzt auch das Institut für Medizinische Systembiologie des Zentrums für Molekulare Neurobiologie (ZMNH), unter anderem für die Entwicklung intelligenter Software zur Erkennung von Gefäßveränderungen infolge von Malaria-Erkrankungen. Die Software soll helfen, die Krankheit besser zu verstehen und die Auswirkungen von Interventionen zu untersuchen – die irgendwann zu besseren Behandlungsmethoden führen können.
Aktuell konzentrieren sich die Forscherinnen und Forscher auf die Untersuchung von Veränderungen in den Nieren, wobei sie verschiedene Modelle für die semantische Segmentierung der Bilder einsetzen, um die Gefäßknäuel innerhalb der Nierenkörperchen – der sogenannten Glomeruli – zu detektieren und zu zählen. Künftig wollen sie aber auch Veränderungen im Gehirn erforschen.
Der Corona-bedingte Wechsel ins Homeoffice stellte die Mitarbeiterinnen und Mitarbeiter des Instituts im vergangenen Jahr vor große Herausforderungen. Insbesondere die Übertragung der rund 20 GByte großen 3D-Scans zum Training der KI-Modelle auf die Server im Rechenzentrum war kaum praktikabel. Abhilfe schaffte erst die von Dell Technologies bereitgestellte mobile Workstation-Lösung Precision 7740: Die Data Science Workstation ist für die KI-Entwicklung ausgelegt und bringt das Data-Science-Softwarepaket von Nvidia mit, das die GPU-Beschleunigung der Grafikkarte – einer Nvidia Quadro RTX 4000 mit 8 GByte GDDR6-Speicher – für KI-Algorithmen nutzbar macht. Zwei NVMe-SSDs mit jeweils 512 GByte stellen die Bilddaten nahezu verzögerungsfrei für die Lernmodelle bereit. Mit ihrem Intel Xeon E2286M (8 Cores, 2,40 GHz, Turbo-Boost bis 5,00 GHz) und 64 GByte DDR4-RAM agiert die Workstation-Lösung allerdings auch abseits von KI-Berechnungen äußerst schnell.
Mit der Dell-Workstation können die Mitarbeiterinnen und Mitarbeiter ihre neuronalen Netze und baumbasierten Lernalgorithmen im Homeoffice trainieren, und das ohne große Wartezeiten durch den Bilder-Upload auf den Server oder langwierige Berechnungen mit normalen Büro-PCs. Die Arbeit klappt so gut und reibungslos, dass sie die Lösung nicht mehr missen möchten und auch nach ihrer Rückkehr ins Institut anstelle der dortigen Rechner nutzen wollen.