ProCAncer-I
In Europa ist Prostatakrebs (PCa) die zweithäufigste Krebsart bei Männern und die dritttödlichste Krebserkrankung. Die derzeitige klinische Praxis, die häufig zu einer Überdiagnose und Überbehandlung von indolenten Tumoren führt, leidet an mangeldner Präzision, so dass es fortgeschrittener KI-Modelle bedarf, um genauere Prognosen zu stellen. Diese Modelle müssen über den derzeitigen Stand der Technik hinausgehen, indem sie nicht-intuitive medizinische Bildmuster auf hohem Niveau entschlüsseln und zu einer Verbesserung der Unterscheidung zwischen indolenter und aggressiven Tumoren, der Früherkennung von Rezidiven und der Erkennung von Metastasen oder zu der Vorhersage der Wirksamkeit von Therapien beitragen. Bislang gibt es nur vereinzelte Bemühungen, die auf Datensätzen basieren, die nur von einer einzigen Institution stammen, größenbeschränkt und herstellerspezifisch sind, während die verfügbaren öffentlichen PCa-Datensätze (z.B. US TCIA) nur wenige hundert Fälle umfassen, was eine Verallgemeinerbarkeit der Modelle unmöglich macht. Das Projekt ProCAncer-I bringt 20 Partner zusammen, darunter PCa-Referenzzentren, weltweit führende KI-Unternehmen und innovative KMU mit anerkannter Fachkompetenz in ihren jeweiligen Bereichen, mit dem Ziel, eine cloudbasierte, sichere europäische Bildinfrastruktur mit Werkzeugen und Diensten für die Datenverarbeitung zu entwerfen, zu entwickeln und aufrechtzuerhalten. Die Plattform beherbergt die weltweit größte Sammlung von PCa multiparametrischen (mp)MRI, anonymisierten Bilddaten (>17.000 Fälle), basierend auf einer Datenspende, welche im Einklang mit der EU-Gesetzgebung (DSGVO) erfolgte. Es werden robuste KI-Modelle entwickelt, die auf neuartigen Ensemble-Learning-Methoden basieren und zu herstellerspezifischen und -neutralen KI-Modellen für die Behandlung von 8 klinischen PCa-Szenarien führen. Um die klinische Umsetzung von PCa-KI-Modellen zu beschleunigen, konzentrieren wir uns auf die Verbesserung des Vertrauens in die Lösungen im Hinblick auf Fairness, Sicherheit, Erklärbarkeit und Reproduzierbarkeit. Metriken zur Überwachung der Modellleistung und eine kausale Erklärungsfunktionalität werden entwickelt, um das klinische Vertrauen weiter zu erhöhen und über mögliche Ausfälle und Fehler zu informieren. Es wird ein Fahrplan für die Zertifizierung von KI-Modellen definiert, der mit den Regulierungsbehörden interagiert und so zu einem europäischen Regulierungsfahrplan für die Bestätigung der Wirksamkeit von KI-basierten Modellen für die klinische Entscheidungsfindung beiträgt.
Weitere Informationen zum Projekt finden Sie hier.
An diesem Projekt arbeiten folgende Expert*innen des Instituts:
- Forgó, Nikolaus (Projektleiter)
- Wimmer, Martina (Projektadministratorin)
- Henne, Theresa (Wissenschaftliche Projektmitarbeiterin)
- Marquez, Rodessa May (Wissenschaftliche Projektmitarbeiterin)
- Saillant, Clara (Wissenschaftliche Projektmitarbeiterin)