Research Projects

Forschungsprojekt DAIKIRI: Erklärbare Diagnostische KI für industrielle Daten

Martin Voigt, Johanna Köhler

10.2.2023

Titelbild Forschungsprojekt DAIKIRI mit Einblick in das Whitepaper und CEO Martin Voigt
DAIKIRI Whitepaper Einblick

Der Einsatz von Softwarelösungen mit künstlicher Intelligenz (KI) ist für zahlreiche kleine und mittelständische Unternehmen (KMU) mit Hemmnissen und deutlichen Hürden verbunden. Wenn dabei berücksichtigt wird, dass mehr als 99 Prozent der deutschen Unternehmen ein KMU sind, wird die erhebliche wirtschaftliche Bedeutung des Mittelstands in Verbindung mit den aktuellen Problemstellungen im Umgang mit KI sehr deutlich.1 Die Notwendigkeit, sich mit den Herausforderungen zu befassen, welche für die Unternehmen bestehen, liegt absolut auf der Hand. 

Wo liegen die Probleme von KI-Lösungen für KMU?

Für die Unternehmen, welche KI bereits einsetzen oder über einen entsprechenden Einsatz nachdenken, lassen sich häufig ad hoc nicht die optimalen Praxislösungen finden. Eine Integration in die Unternehmensabläufe, die über eine experimentelle Phase hinausgeht, wird entsprechend selten umgesetzt. Die Hintergründe dafür finden sich zumeist in den vorliegenden Unternehmensstrukturen oder bei der Verfügbarkeit von Daten für die Unternehmen wieder. Weitere Herausforderungen sind:

  • Fehlende technische Infrastruktur,
  • Mangel an Fachpersonal, welches insbesondere im maschinellen Lernen (ML) angesiedelt ist,
  • Implementierungen kreieren oftmals Insel-Lösungen,
  • Hoher, unterschätzter Wartungsaufwand,
  • Fortwährendes Training zur Qualitätssicherung notwendig.

Des Weiteren bedingt das unterschiedliche Verständnis von KI und deren Einsatzmöglichkeit, dass Anspruchsgruppen ein sehr heterogenes Wissen aufweisen. So bringen Machine Learning Engineers ein deutlich tieferes Verständnis mit als bspw. Domänen-Experten.

Das intuitive Verständnis der Modellentscheidungen ist jedoch maßgeblich für den KI-Einsatz in Unternehmen. Die Studie “Erklärbare KI” vom BMWi bestätigt, dass auf diesem Weg eine Steigerung der Akzeptanz erreicht werden kann. Ebenso Zertifizierungen ziehen einen Gewinn aus dem hohen Transparenzanspruch.2   

Im Detail hat sich so der Grundsatz herausgebildet, das Modellentscheidungen, in einem gegebenen Kontext, leicht verständlich sein sollen.

Was bedeutet erklärbare künstliche Intelligenz?

Das Forschungsfeld erklärbarer KI definierte wichtige Kriterien, die erfüllt sein müssen, um von sog. eXplainable AI (kurz XAI) zu sprechen:

  • Verständlichkeit - Die Verfahrensweise, um zum Ergebnis zu kommen, kann erklärt werden.
  • Interpretierbarkeit - Das Ergebnis kann eindeutig erklärt bzw. interpretiert werden.
  • Transparenz - Es werden die Regeln sichtbar gemacht, nach welchen das Modell die Lösung entwickelt hat. 
  • Erklärbarkeit - Bereits während des Prozesses der Entscheidungsfindung kann die Entscheidung erklärt werden.3

Weiterhin wird bei KI-Lösungen zwischen sog. White-Box- und Black-Box-Modellen unterschieden. Der wesentliche Unterschied beider Ansätze ist, dass die Resultate eines White-Box-Modells transparent und erklärbar sind, da sie in der Regel auf logischen Zusammenhängen und nicht auf statistischen Berechnungen basieren. Die Ergebnisqualität und deren Einsatzmöglichkeiten sind jedoch nicht mit derer aktueller Black-Box-Modelle vergleichbar.

Im Hinblick auf die spezifische Problemstellung der fehlenden Erklärbarkeit von Black-Box-Modellen hat sich das gemeinsame Forschungsprojekt DAIKIRI der DICE Gruppe (Universität Paderborn), USU Software AG, pmOne AG und elevait dieser Herausforderung angenommen. Eines ihrer Ziele war es, eine Lösung zu erarbeiten, welche dem Anspruch der Nachvollziehbarkeit auch beim Einsatz der Black-Box-Modelle gerecht wird. Die erreichten Ergebnisse beinhalten verschiedene, eng miteinander kombinierte Konzepte und Modelle, welche u.a. zur Erklärbaren Diagnostischen KI für industrielle Daten (abgekürzt: DAIKIRI) genutzt werden.

Die Abbildung der Modellentscheidungen, welche erklärbar gemacht werden, erfolgt über textuelle oder bildhafte Darstellung der Regeln, nach welchen die Lösungsfindung stattfindet. 

Den technologischen Ansatz dafür bildet das sog. strukturierte maschinelle Lernen (SML). Hierbei wird mit Wissensgraphen, ähnlich zum Google Knowledge Graph4 oder DBpedia5, gearbeitet, welche Informationen als verknüpfte Daten für die verschiedenen Anforderungen repräsentieren können. 

Visualisierung von flachen Daten gegenüber einem Wissengraph anhand eines Beispiels.
Visualisierung von flachen Daten zu einem Wissensgraph

Für das Training der Modelle wird mit einer Kombination von aktivem Lernen und SML gearbeitet. Die Anreicherung der Vorschläge vom Modell mit den Bewertungen durch die Anwender:innen bildet dabei das aktive Lernen ab (Human-in-the-Loop-Ansatz).

Für die Erstellung von Wissensgraphen ist ebenso Spezialwissen notwendig. Zur Lösung dieser Herausforderung wurde im Forschungsprojekt die Open-Source-Bibliothek Vectograph entwickelt. Diese ermöglicht das automatische Generieren von Graphdaten aus gegebenen Tabellendaten, heißt aus flachen Daten die Wissensgraphen zu generieren. Mit diesen Wissensgraphen werden weiterführend Ontologien, also Klassen bzw. Konzepte mit ihren Relationen, (semi-) automatisiert definiert.

Parallel dazu werden die komplexen Black-Box-Modelle für die Klassifikation der Daten im Live-Betrieb trainiert, die anschließend mittels SML zu erklären sind. Dies wird auch als Training des Klassifikators bezeichnet. Grundlage hierfür sind wie üblich annotierte Daten. Diese Daten werden jedoch auch für das Anlernen im SML genutzt, da dieses Verfahren neben dem Wissensgraph auch positive und negative Beispiele für jede Klasse benötigt.

Von den Modellergebnissen zum verständlichen Ausdruck

Es sind nun alle Bestandteile der Pipeline vorhanden: der Wissensgraph, die Ontologie, das Klassifikationsmodell und das SML-Modell. Mit dem DAIKIRI-Verbalizer können nun die im SML erstellten logischen Ausdrücke in natürlichsprachliche Sätze zur Erklärung der verschiedenen Klassen umgewandelt werden. Dies ermöglicht es dem Domänen-Experten, die Ergebnisse sinnvoll zu interpretieren.

Beispielsätze des Verbalizers.
Beispielsätze des DAIKIRI-Verbalizers

Die Ergebnisse im Forschungsprojekt haben gezeigt, dass die Verbalisierung für die Domänen-Experten gut verständlich ist und somit die Nachvollziehbarkeit der Modellentscheidungen maßgeblich voranbringt.

Die weiteren Arbeitsschritte mit weiterführenden Forschungsprojekten liegen nun u.a. in der Entwicklung von Methoden, die eine weitere Automatisierung für die Erstellung der Klassen und Relationen in den Wissensgraphen ermöglicht. Somit werden die Kompetenzen der Domänen-Experten sowie die notwendigen Logik-Skills in Verbindung gebracht und erleichtern in hohem Maße den Aufwand der Modellintegration in den Prozessen.

Whitepaper Einblick mit einem aufgeschlagenen Magazin.

Du möchtest tiefer in das Forschungsprojekt eintauchen? Dann füll gern das Download-Formular aus.

Danke! Deine Nachricht ist bei uns angekommen! 

Neuste Beiträge

Research Projects

elevait als Partner im Projekt DIDYMOS

elevait ist Teil des mFUND Projekts DIDYMOS des Bundesministerium für Digitales und Verkehr, welches die Digitalisierung und Optimierung des Betriebs von Straßentunneln durch den KI-gestützten Aufbau digitaler Zwillinge zum Ziel hat.

mehr lesen...
Company
Tech

Beyond Words: A Glimpse into the Development Challenges of Our Text Annotation Tool

elevait's web application team gives you an introduction to their custom Text Annotation Tool which allows to train and frequently retrain models. Get an insight into the tool's development from an UX integration and development perspective.

mehr lesen...
Company

Entmystifizieren wir die Begriffe: Wo liegt der Unterschied zwischen KI und Automatisierung?

Den Unterschied zwischen KI und Automatisierung zu verstehen, hilft insbesondere bei der Identifikation der passenden Lösungen. Wo grenzen sich die individuellen Anwendungen gegeneinander ab und gibt es Gemeinsamkeiten?

mehr lesen...