Cookie Hinweis

Wir verwenden Cookies, um Ihnen ein optimales Webseiten-Erlebnis zu bieten. Dazu zählen Cookies, die für den Betrieb der Seite notwendig sind, sowie solche, die lediglich zu anonymen Statistikzwecken, für Komforteinstellungen oder zur Anzeige personalisierter Inhalte genutzt werden. Sie können selbst entscheiden, welche Kategorien Sie zulassen möchten. Bitte beachten Sie, dass auf Basis Ihrer Einstellungen womöglich nicht mehr alle Funktionalitäten der Seite zur Verfügung stehen. Weitere Informationen finden Sie in unseren Datenschutzhinweisen .

Essentiell

Diese Cookies sind für die Funktionalität unserer Website erforderlich und können nicht deaktiviert werden.

Name Webedition CMS
Zweck Dieses Cookie wird vom CMS (Content Management System) Webedition für die unverwechselbare Identifizierung eines Anwenders gesetzt. Es bietet dem Anwender bessere Bedienerführung, z.B. Speicherung von Sucheinstellungen oder Formulardaten. Typischerweise wird dieses Cookie beim Schließen des Browsers gelöscht.
Name econda
Zweck Session-Cookie für die Webanalyse Software econda. Diese läuft im Modus „Anonymisiertes Messen“.
Statistik

Diese Cookies helfen uns zu verstehen, wie Besucher mit unserer Webseite interagieren, indem Informationen anonym gesammelt und analysiert werden. Je nach Tool werden ein oder mehrere Cookies des Anbieters gesetzt.

Name econda
Zweck Measure with Visitor Cookie emos_jcvid
Externe Medien

Inhalte von externen Medienplattformen werden standardmäßig blockiert. Wenn Cookies von externen Medien akzeptiert werden, bedarf der Zugriff auf diese Inhalte keiner manuellen Zustimmung mehr.

Name YouTube
Zweck Zeige YouTube Inhalte
Name Twitter
Zweck Twitter Feeds aktivieren
Data Science Seminar

Interpretable Representations and Neuro-symbolic Methods in Deep Learning

Abstract

Current state-of-the-art machine learning methods impress with their capabilities for prediction, classification, or when solving even complex analytical tasks in the case of large language models. However, these methods often appear as a "black box" from the outside which makes it hard to understand how a result was achieved.
In this talk I will discuss several approaches to interpretability in machine learning. First, I will describe a method for representation learning which leads to an interpretable latent representation. Second, I will present our work at the interface between symbolic and sub-symbolic representations, so called neuro-symbolic methods, which enable a direct interpretation of a model's intermediate output. The talk concludes with a discussion of the relationship between interpretability and causality.

Biosketch

Jan Stühmer studied Computer Science at the Technical University of Dresden and received his PhD in Computer Science in 2016 at the Technical University of Munich (TUM) in collaboration with the California Institute of Technology (Caltech) and the TUM Institute for Advanced Study. Subsequently he was a visiting researcher at the Computer Science and Artificial Intelligence Laboratory at the Massachusetts Institute of Technology (MIT CSAIL). He joined Microsoft as PostDoc Researcher at Microsoft Research Cambridge and became a Research Scientist at the MR&AI Lab in Zurich before joining the Samsung AI Center Cambridge as Senior Researcher in 2020. Since 2022 he is junior group leader at the Heidelberg Institute for Theoretical Studies and Juniorprofessor at KIT.

to top
powered by webEdition CMS