Sonderforschungsbereich Transregio 318 „Constructing Explainability“

Sonderforschungsbereich/Transregio 318 „Constructing Explainability“
(TRR 318)
Gründung 2021
Sitz Universität Paderborn
Website trr318.uni-paderborn.de

Der Sonderforschungsbereich/Transregio 318 „Constructing Explainability“ (TRR 318) ist ein interdisziplinäres Forschungsprojekt der Universität Paderborn und der Universität Bielefeld. Seit 2021 wird es von der Deutschen Forschungsgemeinschaft (DFG) gefördert[1]. Die Förderung lief zunächst bis Ende 2025 und wurde für eine zweite Phase bis einschließlich Juni 2029 verlängert.[2] Im Mittelpunkt steht die Untersuchung von Erklärprozessen in unterschiedlichen Kontexten. Die gewonnenen Erkenntnisse werden genutzt, um die Erklärbarkeit von maschinengelernten Systemen mit Künstlicher Intelligenz (KI) weiterzuentwickeln. Dies entspricht den Zielen der sogenannten Explainable Artificial Intelligence (Erklärbare Künstliche Intelligenz), setzt aber auf einen nicht allein technischen Ansatz.

Ziele und Forschungsansatz

Die Wissenschaftler und Wissenschaftlerinnen des TRR 318 verfolgen das Ziel, verständliche und erklärbare KI-Systeme zu entwickeln, die Bürger und Bürgerinnen dazu befähigen, mit solchen Systemen kompetent und kritisch umzugehen und aktiv an einer digitalen Gesellschaft teilzuhaben. Dabei wird ein menschenzentrierter Ansatz verfolgt, der Nutzer und Nutzerinnen in alle Phasen der Forschung einbezieht[3].

Ein zentrales Konzept ist die Ko-Konstruktion.[4] Dies bedeutet, dass Erklärungen nicht vorgegeben sind, sondern von Menschen untereinander oder Menschen und Maschinen in einem interaktiven, schrittweisen Prozess entwickelt werden. Die Adressaten und Adressatinnen einer Erklärung gestalten den Erklärprozess aktiv mit, indem sie etwa Ziele und Inhalte mitbestimmen. Im TRR 318 wurde hierzu der Begriff „Social Explainable AI“ eingeführt – eine Form sozialer erklärbarer KI, die ihre Erklärungen kontextsensitiv und individuell anpasst[5]. Das Konzept Social Explainable AI war 2023 Thema eines internationalen Shonan-Meetings in Japan[6], aus dem ein mit Forschenden anderer Institutionen erarbeiteter Sammelband entstand.[7] Die Idee der Ko-Konstruktion wird in öffentlichen Workshops zum Beispiel auf der Re:publica vermittelt und diskutiert.[8]

Forschungsstruktur

Das interdisziplinäre Forschungsteam setzt sich aus 22 Projektleitungen und rund 40 wissenschaftlichen Mitarbeitenden zusammen, die in 20 Projekten forschen. Beteiligt sind die Fachrichtungen Informatik, Linguistik, Medienwissenschaft, Philosophie, Psychologie, Soziologie und Wirtschaftswissenschaft[9].

Die wissenschaftliche Leitung liegt bei Katharina J. Rohlfing (Sprecherin) und Philipp Cimiano (stellvertretender Sprecher)[10].

Die Projekte sind drei Hauptbereichen[9] zugeordnet:

  • A: Explaining/Erklärprozess
  • B: Social practice/Soziale Praktik
  • C: Representing and computing explanations/Darstellung und Berechnung von Erklärungen

Darüber hinaus existieren vier übergreifende Projekte:

  • INF-Projekt: Weiterentwicklung der Forschungsstruktur und Unterstützung beim Datenaustausch
  • Ö-Projekt: Wissenschaftskommunikation und Öffentlichkeitsarbeit
  • RTG-Projekt: Qualifizierung von Nachwuchswissenschaftlern und Nachwuchswissenschaftlerinnen
  • Z-Projekt: Koordination und Verwaltung

Projekte

Die folgende Tabelle gibt eine Übersicht über die Projekte der zweiten Förderphase. Unterschiede zur ersten Förderphase sind markiert; in der Regel sind sie gering.

Forschungsbereich A – Erklärprozess

Name Kürzel Forschungsgebiete Projektleitung
Adaptives Erklären A01 Linguistik, Psychologie, Informatik Heike M. Buhl, Stefan Kopp, Katharina Rohlfing
Verstehensprozess einer Erklärung beobachten und auswerten A02 Linguistik, Informatik Hendrik Buschmeier, Angela Grimminger, Petra Wagner
Ko-Konstruktion von Erklärungen zwischen KI und Mensch unter Arousal und Nicht-Arousal

(Erste Phase: Ko-Konstruktion von Erklärungen mit emotionaler Ausrichtung zwischen KI-Erklärenden und menschlichen Erklärungsempfangenden)

A03 Wirtschaftswissenschaften, Informatik Kirsten Thommes, Britta Wrede
Ko-Konstruktion dualitätsbasierter Erklärungen

(Erste Phase: Integration des technischen Modells in das Partnermodell beim Erklären von digitalen Artefakten)

A04 Linguistik, Psychologie, Didaktik der Informatik Heike M. Buhl, Friederike Kern, Carsten Schulte
Echtzeitmessung der Aufmerksamkeit im Mensch-Roboter-Erklärdialog A05 Linguistik, Informatik (erste Phase: auch Psychologie) Katharina Rohlfing, Britta Wrede (erste Phase: auch Ingrid Scharlau)
Erklärung der multimodalen Darstellung von Stress in klinischen Erklärungen

(Erste Phase: Inklusive Ko-Konstruktion sozialer Signale des Verstehens)

A06 Psychologie, Informatik, Linguistik Hanna Drimalla, Petra Wagner (Erste Phase: nur Hanna Drimalla)

Forschungsbereich B – Soziale Praktik

Name Kürzel Forschungsgebiete Projektleitung
Modelle des maschinellen Lernens mit einem dialogbasierten Ansatz erklären B01 Soziologie, Informatik Philipp Cimiano, Elena Esposito (Erste Phase: auch Axel-Cyrille Ngonga Ngomo)
Nur erste Phase: Nutzende und Erklärbedürfnisse in real-weltlichen Kontexten B03 Soziologie, Medienwissenschaft Tobias Matzner
Erklärbarkeit ko-konstruieren mit einem interaktiv lernenden Roboter B05 Informatik Anna-Lisa Vollmer, Carsten Schulte (Erste Phase: Nur Anna-Lisa Vollmer)
Ethik und Normativität der erklärbaren KI B06 Philosophie Suzana Alpsancar, Tobias Matzner
Nur zweite Phase: Kommunikative Praktiken des Einholens von Informationen und Erklärungen von LLM-basierten Agenten B07 Informatik, Linguistik Hendrik Buschmeier, Friederike Kern

Forschungsbereich C – Darstellung und Berechnung von Erklärungen

Name Kürzel Forschungsgebiete Projektleitung
Gesundes Misstrauen in und durch Erklärungen C01 Psychologie, Informatik Barbara Hammer, Benjamin Paaßen, Ingrid Scharlau
Interaktives Lernen von erklärbaren, situationsangepassten Entscheidungsmodellen C02 Wirtschaftswissenschaften, Informatik Eyke Hüllermeier, Kirsten Thommes
Interpretierbares maschinelles Lernen: Veränderung erklären C03 Informatik Barbara Hammer, Eyke Hüllermeier
Metaphern als Mittel zur Erklärung C04 Psychologie, Informatik Ingrid Scharlau, Henning Wachsmuth
Erklärbare Entscheidungen in kooperativer Mensch-Maschine-Interaktion finden C05 Informatik Philipp Cimiano, Stefan Kopp
Nur erste Phase: Technisch unterstütztes Erklären von Stimmencharakteristika C06 Linguistik, Informatik Reinhold Häb-Umbach, Petra Wagner
Nur zweite Phase: Ko-Konstruktions-folgende große Sprachmodelle zum Erklären C07 Informatik Axel-Cyrille Ngonga-Ngomo, Henning Wachsmuth

Übergreifende Projekte

Name Kürzel Forschungsgebiete Projektleitung
Abrufgestützte (retrieval-augmented) Informationsbereitstellung

(Erste Phase: Kriterien für die Bewertung von Erklärungsqualität)

INF Informatik Axel-Cyrille Ngonga-Ngomo

(Erste Phase: Philipp Cimiano, Henning Wachsmuth)

Fragen zu erklärbaren Technologien WIKO (Erste Phase: Ö) Pädagogik, Informatik

(Erste Phase: Soziologie, Didaktik der Informatik, Informatik)

Dan Verständig, Britta Wrede

(Erste Phase: Carsten Schulte, Britta Wrede)

Integriertes Graduiertenkolleg RTG Ingrid Scharlau
Zentrales Verwaltungsprojekt Z Katharina Rohlfing

Publikationen (Auswahl)

  • K. J. Rohlfing et al., „Explanation as a Social Practice: Toward a Conceptual Framework for the Social Design of AI Systems,“ in IEEE Transactions on Cognitive and Developmental Systems, vol. 13, no. 3, pp. 717–728, Sept. 2021, doi: 10.1109/TCDS.2020.3044366.
  • Meisam Booshehri, Hendrik Buschmeier, Philipp Cimiano, Stefan Kopp, Jaroslaw Kornowicz, Olesja Lammert, Marco Matarese, Dimitry Mindlin, Amelie Sophie Robrecht, Anna-Lisa Vollmer, Petra Wagner, and Britta Wrede, „Towards a Computational Architecture for Co-Constructive Explainable Systems,“ in Proceedings of the 2024 Workshop on Explainability Engineering (ExEn '24). Association for Computing Machinery, New York, NY, USA, 20–25, 2024. doi:10.1145/3648505.3648509
  • Buschmeier, Hendrik, Heike M. Buhl, Friederike Kern, Angela Grimminger, Helen Beierling, Josephine Fisher, André Groß et al. “Forms of Understanding for Xai-Explanations.” arXiv.org, May 29, 2025. https://arxiv.org/abs/2311.08760.

Einzelnachweise

  1. TRR318. Universität Bielefeld, abgerufen am 3. September 2025.
  2. DFG fördert neun neue Sonderforschungsbereiche. Deutsche Forschungsgemeinschaft, 21. November 2025, abgerufen am 4. Dezember 2025.
  3. Erklärungen gemeinsam entwickeln: Neuer Sonderforschungsbereich zu künstlicher Intelligenz. Abgerufen am 22. September 2025.
  4. Ute Schmid: Constructing Explainability – Interdisciplinary Framework to Actively Shape Explanations in XAI. In: KI – Künstliche Intelligenz. Band 36, Nr. 3, 1. Dezember 2022, ISSN 1610-1987, S. 327–331, doi:10.1007/s13218-022-00767-5.
  5. Forschungsprofil. Abgerufen am 3. September 2025.
  6. Social Explainable AI: Designing Multimodal and Interactive Communication to Tailor Human–AI Collaborations. In: Shonan Meetings. Abgerufen am 24. September 2025 (englisch).
  7. Katharina J. Rohlfing, Kary Främling, Brian Lim, Suzana Alpsancar, Kirsten Thommes (Hrsg.): Social Explainable AI: Communications of NII Shonan Meetings. Springer, Berlin/Heidelberg, ISBN 978-981-9652-90-7.
  8. Mit Künstlicher Intelligenz auf Augenhöhe: Wie Erklärungen das Verständnis zwischen KI und Mensch fördern. In: re:publica. Abgerufen am 24. September 2025.
  9. a b Projekte. Abgerufen am 3. September 2025.
  10. Mitglieder. Abgerufen am 11. Juli 2025.