Affordable Access

deepdyve-link
Publisher Website

Methods for the inspection of learning machines : with a focus on the language domain / Methoden zur Inspektion lernender Maschinen : mit einem Fokus auf die Sprachdomäne

Authors
  • Schwarzenberg, Robert
Publication Date
May 11, 2022
Identifiers
DOI: 10.14279/depositonce-15540
OAI: oai:depositonce.tu-berlin.de:11303/16762
Source
DepositOnce
Keywords
Language
English
License
Unknown
External links

Abstract

Learning machines, like complex Deep Neural Networks (DNNs), are employed in critical infrastructures such as the medical or financial domains. These models affect human lives and therefore humans must be able to inspect them thoroughly. Unfortunately, there is currently a trade-off between the complexity of a neural model and the ability of humans to explain or interpret its decisions or representations. This thesis contributes to efforts that counter the opaqueness of DNNs, in particular in the language domain. Explainability: I first consider feature attribution methods that attribute the output activation of a DNN to its input features. In a first contribution, two established explainers are combined into a hybrid, coined Pattern-Guided Integrated Gradients (PGIG). PGIG inherits important properties from its parent methods and performs favorably in a large-scale experiment in which the parent methods and numerous prior approaches are included. Problematic edge cases are identified, too. The feature attribution methods considered above produce explanations for the input as well as for the hidden layers of the DNN they aim to explain. However, non-linear mappings as well as dimensionality reductions and expansions make it difficult to inspect such intermediate explanations. In a second contribution, the possibility for humans to make sense of hidden explanations is demonstrated for a prominent class of DNNs, so called Graph Convolutional Networks (GCNs). A new method that traces and visualizes the cross-layer hidden state dynamics in GCNs is proposed and evaluated. Efficiency: Several neural explainability methods, including the proposed PGIG explainer, are computationally very expensive. This is why, in a third contribution, the possibility to efficiently model the explanations of such expensive explainers is explored. To this end, efficient feature attribution modelling with Empirical Explainers is proposed. Empirical Explainers learn from data to predict the attribution maps of expensive explainers. Experiments show that Empirical Explainers model their expensive counterparts with significant accuracy, at a fraction of the cost. They could thus become a viable efficient alternative in applications that tolerate an approximation error. In a fourth contribution, I demonstrate how feature attribution methods can be exploited to also increase efficiency on the human side. A system is presented that aids the human expert in analysing machine translation engines by exposing systematic differences between human and machine translations. Interpretability: The feature attribution maps considered above are informative in particular when the input space is fully human-understandable. This generally is not the case for distributed language vector spaces from which models in the language domain consume inputs. In a fifth contribution, I present a novel interpretability method that maps language vectors onto human-understandable concepts. In a sixth contribution, the method is adapted to cross-lingual settings, to make it available for low-resource languages. / Verfahren des maschinellen Lernens, insbesondere tiefe neuronale Netze (TNN), werden mittlerweile in vielen kritischen Infrastrukturen eingesetzt, z.B. in der medizinischen Domäne oder dem Finanzsektor. Die Netze, die dort zum Einsatz kommen, haben einen nicht unerheblichen Einfluss auf das Leben von Menschen. Diese müssen daher unbedingt in der Lage sein, die TNNs eingehend zu inspizieren. Eine Inspektion wird erschwert durch die hohe Komplexität von TNNs, da ein Spannungsverhältnis besteht zwischen Komplexität und Erklärbarkeit, bzw. Interpretierbarkeit. Diese Arbeit leistet Beiträge, die der Undurchsichtigkeit solcher komplexer Modelle entgegenwirken, insbesondere in der Sprachdomäne. Erklärbarkeit: Zunächst berücksichtige ich Methoden, die die Ausgaben eines TNNs der Eingabe zuordnen. Zwei solche Attributionsmethoden werden in einem ersten Beitrag in einem Hybrid kombiniert, Pattern-Guided Integrated Gradients (PGIG). PGIG erbt wichtige theoretische Eigenschaften und in experimentellen Auswertungen übertrifft es die Originale, sowie auch zahlreiche andere Methoden. Jedoch werden auch Grenzfälle identifiziert, in denen der Hybrid unterlegen bleibt.Attributionsmethoden generieren Erklärungen nicht nur für die Ein- und Ausgabeschichten eines TNNs, sondern auch für versteckte Schichten. Diese zu inspizieren ist jedoch sehr herausfordernd wegen nicht-linearen Abbildungen und Dimensionsänderungen. In einem zweiten Beitrag werden solche Inspektionen für sogenannte Graph Convolutional Networks (GCNs) mit einem neuen Ansatz zur Visualisierung versteckter Dynamiken ermöglicht. Effizienz: Viele Methoden der neuronalen Erklärbarkeit, einschließlich PGIG, sind sehr rechenaufwendig. Aus diesem Grund wird in einem dritten Beitrag die Möglichkeit erörtert, rechenaufwendige Attributionen empirisch zu approximieren. Experimente suggerieren, dass dies mit signifikanter Akkuratheit bei einem Bruchteil des Rechenaufwandes möglich ist. Der Ansatz könnte so die Kosten neuronaler Erklärbarkeit in Applikationen deckeln, die einen Approximationsfehler tolerieren. In einem vierten Beitrag demonstriere ich, wie Methoden der neuronalen Erklärbarkeit genutzt werden können, um auch die Effizienz auf der menschlichen Seite zu steigern, insbesondere bei der Diagnose von Modellen zur maschinellen Übersetzung. Das vorgestellte System nutzt Attributionsmethoden, um systematische Unterschiede zwischen menschlichen und maschinellen Übersetzungen aufzuklären. Interpretierbarkeit: Attributionsmethoden sind insbesondere dann informativ, wenn die Eingabe interpretierbar ist. Dies ist für die nun üblichen Sprach-Repräsentationen in verteilten Vektorräumen jedoch i.d.R. nicht der Fall. In einem fünften Beitrag präsentiere ich eine Methode zur Interpretierbarkeit, die solche vektoriellen Repräsentationen auf für Menschen verständliche Konzepte abbildet. In einem sechsten Beitrag wird die Methode in eine mehrsprachige Version konvertiert.

Report this publication

Statistics

Seen <100 times