Nach positiver Absolvierung der Lehrveranstaltung sind Studierende in der Lage, wesentliche Aspekte des Machine Learning für medizinische Anwendungen zu erläutern und in kleinen Projekten Lösungen zu programmieren.
Aktualisierte Informationen finden Sie auf der Kurs-Webseite: https://human-centered.ai/machine-learning-for-health-informatics-class-2020/Maschinelles Lernen trifft auf Medizinische Informatik, Einführung in die Problematik der Domäne Medizin, Herausforderungen und zukünftige Entwicklungen; Grundlagen und Besonderheiten biomedizinischer Daten, Informationen und Wissen, Entscheidung, Kognition, Wahrscheinlichkeit, Unsicherheit, Bayes'sche Statistik, Gaußsche Prozesse;Der Kurs 2020 konzentriert sich insbesondere auf Datenschutz, Sicherheit, Datensicherheit, ethische und soziale Fragen und insbesondere auf erklärbare KI.
Aufgrund der in der Europäischen Union aufgeworfenen Rechts- und Datenschutzfragen werden transparente Lernalgorithmen in Zukunft wichtig werden, um Entscheidungen transparent, verständlich und rückverfolgbar machen zu können.
Unser Ziel ist es, zu erklären, warum eine Maschinenentscheidung getroffen wurde, und so den Weg für eine erklärbare KI zu ebnen.
Vortrag. Ausarbeitung von Beispielen.
ECTS-Aufschlüsselung (Summe=75h, entspricht 3 ECTS, wobei 1 ECTS = 25 h Arbeitsbelastung der Studierenden):a) Anwesenheit während der Vorlesung 8 x 3 h = 24 hb) Vorbereitung vor und nach der Vorlesung 8 x 1 h = 8 hc) Durchfühurng der Programmierarbeiten und Präsentation 28 h + 2 h = 30 hd) Schriftliche Prüfung inklusive Prüfungsvorbereitung 1 h + 12 h = 13 hSumme des gesamten Arbeitsaufwands der Studierenden = 75 h
Beurteilung der programmierten Projektlösung. Schriftliche Abschlussprüfung.
Eintrag in die Lehrveranstaltungsliste:
Dienstag, 10. März 2020, 17:30-20:30 und
Dienstag, 17. März 2020, 17:30-20:30.
Holzinger, A. 2016. Interactive Machine Learning (iML). Informatik Spektrum, 39, (1), 64-68, doi:10.1007/s00287-015-0941-6.
Interesse am maschinellen Lernen mit Anwendung auf die Medizininformatik und mit besonderem Interesse an Fragen der Privatsphäre, Sicherheit, Datenschutz, ethische und soziale Fragen und an einer erklärbaren K [1], [2]
[1] Andreas Holzinger (2018): Explainable AI (ex-AI). Informatik-Spektrum, 41, (2), 138-143, doi:10.1007/s00287-018-1102-5.
[2] Andreas Holzinger (2018): Interpretierbare KI: Neue Methoden zeigen Entscheidungswege künstlicher Intelligenz auf. c't Magazin für Computertechnik, 22, 136-141.