Cookie Hinweis

Wir verwenden Cookies, um Ihnen ein optimales Webseiten-Erlebnis zu bieten. Dazu zählen Cookies, die für den Betrieb der Seite notwendig sind, sowie solche, die lediglich zu anonymen Statistikzwecken, für Komforteinstellungen oder zur Anzeige personalisierter Inhalte genutzt werden. Sie können selbst entscheiden, welche Kategorien Sie zulassen möchten. Bitte beachten Sie, dass auf Basis Ihrer Einstellungen womöglich nicht mehr alle Funktionalitäten der Seite zur Verfügung stehen. Weitere Informationen finden Sie in unseren Datenschutzhinweisen .

Essentiell

Diese Cookies sind für die Funktionalität unserer Website erforderlich und können nicht deaktiviert werden.

Name Webedition CMS
Zweck Dieses Cookie wird vom CMS (Content Management System) Webedition für die unverwechselbare Identifizierung eines Anwenders gesetzt. Es bietet dem Anwender bessere Bedienerführung, z.B. Speicherung von Sucheinstellungen oder Formulardaten. Typischerweise wird dieses Cookie beim Schließen des Browsers gelöscht.
Name econda
Zweck Session-Cookie für die Webanalyse Software econda. Diese läuft im Modus „Anonymisiertes Messen“.
Statistik

Diese Cookies helfen uns zu verstehen, wie Besucher mit unserer Webseite interagieren, indem Informationen anonym gesammelt und analysiert werden. Je nach Tool werden ein oder mehrere Cookies des Anbieters gesetzt.

Name econda
Zweck Measure with Visitor Cookie emos_jcvid
Externe Medien

Inhalte von externen Medienplattformen werden standardmäßig blockiert. Wenn Cookies von externen Medien akzeptiert werden, bedarf der Zugriff auf diese Inhalte keiner manuellen Zustimmung mehr.

Name YouTube
Zweck Zeige YouTube Inhalte
Name Twitter
Zweck Twitter Feeds aktivieren
Data Science Seminar

Safety, Robustness and Explainability in Supervised Tasks using Invertible Neural Networks

Invertible Neural Networks (INNs) are largely used for unsupervised generative modelling. However, our recent work demonstrates that INNs produce various unique benefits when applied to supervised tasks. For medical applications, some of these are especially important, such as accurate uncertainty quantification, explainability and interpretability of decisions, and explicit detection of abnormal or unreliable inputs. In the talk, we present two complementing approaches to this, in line with the paradigms of transductive vs. inductive learning.

Virtual Talk

Biosketch Lynton Ardizzone

Lynton Ardizzone completed his Bachelor's and Master's Degree in Physics at Heidelberg University between 2012 and 2017. His Masters' thesis concerned characterizing and quantifying uncertainties for 3D Lidar measurements used for autonomous driving. In 2018, he began his PhD in computer vision at the Visual Learning Lab led by Prof. Carsten Rother, under the supervision of Prof. Ullrich Köthe. His research centers around Invertible Neural Networks and normalizing flows, and their applications to conditional modelling, focussing especially on uncertainty quantification and explainability.

Contact: https://hci.iwr.uni-heidelberg.de/vislearn/people/

to top
powered by webEdition CMS