Sonderforschungsbereich Transregio 318 „Constructing Explainability“
| Sonderforschungsbereich/Transregio 318 „Constructing Explainability“ (TRR 318) | |
|---|---|
| Gründung | 2021 |
| Sitz | Universität Paderborn |
| Website | trr318.uni-paderborn.de |
Der Sonderforschungsbereich/Transregio 318 „Constructing Explainability“ (TRR 318) ist ein interdisziplinäres Forschungsprojekt der Universität Paderborn und der Universität Bielefeld. Seit 2021 wird es von der Deutschen Forschungsgemeinschaft (DFG) gefördert[1]. Die Förderung lief zunächst bis Ende 2025 und wurde für eine zweite Phase bis einschließlich Juni 2029 verlängert.[2] Im Mittelpunkt steht die Untersuchung von Erklärprozessen in unterschiedlichen Kontexten. Die gewonnenen Erkenntnisse werden genutzt, um die Erklärbarkeit von maschinengelernten Systemen mit Künstlicher Intelligenz (KI) weiterzuentwickeln. Dies entspricht den Zielen der sogenannten Explainable Artificial Intelligence (Erklärbare Künstliche Intelligenz), setzt aber auf einen nicht allein technischen Ansatz.
Ziele und Forschungsansatz
Die Wissenschaftler und Wissenschaftlerinnen des TRR 318 verfolgen das Ziel, verständliche und erklärbare KI-Systeme zu entwickeln, die Bürger und Bürgerinnen dazu befähigen, mit solchen Systemen kompetent und kritisch umzugehen und aktiv an einer digitalen Gesellschaft teilzuhaben. Dabei wird ein menschenzentrierter Ansatz verfolgt, der Nutzer und Nutzerinnen in alle Phasen der Forschung einbezieht[3].
Ein zentrales Konzept ist die Ko-Konstruktion.[4] Dies bedeutet, dass Erklärungen nicht vorgegeben sind, sondern von Menschen untereinander oder Menschen und Maschinen in einem interaktiven, schrittweisen Prozess entwickelt werden. Die Adressaten und Adressatinnen einer Erklärung gestalten den Erklärprozess aktiv mit, indem sie etwa Ziele und Inhalte mitbestimmen. Im TRR 318 wurde hierzu der Begriff „Social Explainable AI“ eingeführt – eine Form sozialer erklärbarer KI, die ihre Erklärungen kontextsensitiv und individuell anpasst[5]. Das Konzept Social Explainable AI war 2023 Thema eines internationalen Shonan-Meetings in Japan[6], aus dem ein mit Forschenden anderer Institutionen erarbeiteter Sammelband entstand.[7] Die Idee der Ko-Konstruktion wird in öffentlichen Workshops zum Beispiel auf der Re:publica vermittelt und diskutiert.[8]
Forschungsstruktur
Das interdisziplinäre Forschungsteam setzt sich aus 22 Projektleitungen und rund 40 wissenschaftlichen Mitarbeitenden zusammen, die in 20 Projekten forschen. Beteiligt sind die Fachrichtungen Informatik, Linguistik, Medienwissenschaft, Philosophie, Psychologie, Soziologie und Wirtschaftswissenschaft[9].
Die wissenschaftliche Leitung liegt bei Katharina J. Rohlfing (Sprecherin) und Philipp Cimiano (stellvertretender Sprecher)[10].
Die Projekte sind drei Hauptbereichen[9] zugeordnet:
- A: Explaining/Erklärprozess
- B: Social practice/Soziale Praktik
- C: Representing and computing explanations/Darstellung und Berechnung von Erklärungen
Darüber hinaus existieren vier übergreifende Projekte:
- INF-Projekt: Weiterentwicklung der Forschungsstruktur und Unterstützung beim Datenaustausch
- Ö-Projekt: Wissenschaftskommunikation und Öffentlichkeitsarbeit
- RTG-Projekt: Qualifizierung von Nachwuchswissenschaftlern und Nachwuchswissenschaftlerinnen
- Z-Projekt: Koordination und Verwaltung
Projekte
Die folgende Tabelle gibt eine Übersicht über die Projekte der zweiten Förderphase. Unterschiede zur ersten Förderphase sind markiert; in der Regel sind sie gering.
Forschungsbereich A – Erklärprozess
| Name | Kürzel | Forschungsgebiete | Projektleitung |
|---|---|---|---|
| Adaptives Erklären | A01 | Linguistik, Psychologie, Informatik | Heike M. Buhl, Stefan Kopp, Katharina Rohlfing |
| Verstehensprozess einer Erklärung beobachten und auswerten | A02 | Linguistik, Informatik | Hendrik Buschmeier, Angela Grimminger, Petra Wagner |
| Ko-Konstruktion von Erklärungen zwischen KI und Mensch unter Arousal und Nicht-Arousal
(Erste Phase: Ko-Konstruktion von Erklärungen mit emotionaler Ausrichtung zwischen KI-Erklärenden und menschlichen Erklärungsempfangenden) |
A03 | Wirtschaftswissenschaften, Informatik | Kirsten Thommes, Britta Wrede |
| Ko-Konstruktion dualitätsbasierter Erklärungen
(Erste Phase: Integration des technischen Modells in das Partnermodell beim Erklären von digitalen Artefakten) |
A04 | Linguistik, Psychologie, Didaktik der Informatik | Heike M. Buhl, Friederike Kern, Carsten Schulte |
| Echtzeitmessung der Aufmerksamkeit im Mensch-Roboter-Erklärdialog | A05 | Linguistik, Informatik (erste Phase: auch Psychologie) | Katharina Rohlfing, Britta Wrede (erste Phase: auch Ingrid Scharlau) |
| Erklärung der multimodalen Darstellung von Stress in klinischen Erklärungen
(Erste Phase: Inklusive Ko-Konstruktion sozialer Signale des Verstehens) |
A06 | Psychologie, Informatik, Linguistik | Hanna Drimalla, Petra Wagner (Erste Phase: nur Hanna Drimalla) |
Forschungsbereich B – Soziale Praktik
| Name | Kürzel | Forschungsgebiete | Projektleitung |
|---|---|---|---|
| Modelle des maschinellen Lernens mit einem dialogbasierten Ansatz erklären | B01 | Soziologie, Informatik | Philipp Cimiano, Elena Esposito (Erste Phase: auch Axel-Cyrille Ngonga Ngomo) |
| Nur erste Phase: Nutzende und Erklärbedürfnisse in real-weltlichen Kontexten | B03 | Soziologie, Medienwissenschaft | Tobias Matzner |
| Erklärbarkeit ko-konstruieren mit einem interaktiv lernenden Roboter | B05 | Informatik | Anna-Lisa Vollmer, Carsten Schulte (Erste Phase: Nur Anna-Lisa Vollmer) |
| Ethik und Normativität der erklärbaren KI | B06 | Philosophie | Suzana Alpsancar, Tobias Matzner |
| Nur zweite Phase: Kommunikative Praktiken des Einholens von Informationen und Erklärungen von LLM-basierten Agenten | B07 | Informatik, Linguistik | Hendrik Buschmeier, Friederike Kern |
Forschungsbereich C – Darstellung und Berechnung von Erklärungen
| Name | Kürzel | Forschungsgebiete | Projektleitung |
|---|---|---|---|
| Gesundes Misstrauen in und durch Erklärungen | C01 | Psychologie, Informatik | Barbara Hammer, Benjamin Paaßen, Ingrid Scharlau |
| Interaktives Lernen von erklärbaren, situationsangepassten Entscheidungsmodellen | C02 | Wirtschaftswissenschaften, Informatik | Eyke Hüllermeier, Kirsten Thommes |
| Interpretierbares maschinelles Lernen: Veränderung erklären | C03 | Informatik | Barbara Hammer, Eyke Hüllermeier |
| Metaphern als Mittel zur Erklärung | C04 | Psychologie, Informatik | Ingrid Scharlau, Henning Wachsmuth |
| Erklärbare Entscheidungen in kooperativer Mensch-Maschine-Interaktion finden | C05 | Informatik | Philipp Cimiano, Stefan Kopp |
| Nur erste Phase: Technisch unterstütztes Erklären von Stimmencharakteristika | C06 | Linguistik, Informatik | Reinhold Häb-Umbach, Petra Wagner |
| Nur zweite Phase: Ko-Konstruktions-folgende große Sprachmodelle zum Erklären | C07 | Informatik | Axel-Cyrille Ngonga-Ngomo, Henning Wachsmuth |
Übergreifende Projekte
| Name | Kürzel | Forschungsgebiete | Projektleitung |
|---|---|---|---|
| Abrufgestützte (retrieval-augmented) Informationsbereitstellung
(Erste Phase: Kriterien für die Bewertung von Erklärungsqualität) |
INF | Informatik | Axel-Cyrille Ngonga-Ngomo
(Erste Phase: Philipp Cimiano, Henning Wachsmuth) |
| Fragen zu erklärbaren Technologien | WIKO (Erste Phase: Ö) | Pädagogik, Informatik
(Erste Phase: Soziologie, Didaktik der Informatik, Informatik) |
Dan Verständig, Britta Wrede
(Erste Phase: Carsten Schulte, Britta Wrede) |
| Integriertes Graduiertenkolleg | RTG | Ingrid Scharlau | |
| Zentrales Verwaltungsprojekt | Z | Katharina Rohlfing |
Publikationen (Auswahl)
- K. J. Rohlfing et al., „Explanation as a Social Practice: Toward a Conceptual Framework for the Social Design of AI Systems,“ in IEEE Transactions on Cognitive and Developmental Systems, vol. 13, no. 3, pp. 717–728, Sept. 2021, doi: 10.1109/TCDS.2020.3044366.
- Meisam Booshehri, Hendrik Buschmeier, Philipp Cimiano, Stefan Kopp, Jaroslaw Kornowicz, Olesja Lammert, Marco Matarese, Dimitry Mindlin, Amelie Sophie Robrecht, Anna-Lisa Vollmer, Petra Wagner, and Britta Wrede, „Towards a Computational Architecture for Co-Constructive Explainable Systems,“ in Proceedings of the 2024 Workshop on Explainability Engineering (ExEn '24). Association for Computing Machinery, New York, NY, USA, 20–25, 2024. doi:10.1145/3648505.3648509
- Buschmeier, Hendrik, Heike M. Buhl, Friederike Kern, Angela Grimminger, Helen Beierling, Josephine Fisher, André Groß et al. “Forms of Understanding for Xai-Explanations.” arXiv.org, May 29, 2025. https://arxiv.org/abs/2311.08760.
Weblinks
Einzelnachweise
- ↑ TRR318. Universität Bielefeld, abgerufen am 3. September 2025.
- ↑ DFG fördert neun neue Sonderforschungsbereiche. Deutsche Forschungsgemeinschaft, 21. November 2025, abgerufen am 4. Dezember 2025.
- ↑ Erklärungen gemeinsam entwickeln: Neuer Sonderforschungsbereich zu künstlicher Intelligenz. Abgerufen am 22. September 2025.
- ↑ Ute Schmid: Constructing Explainability – Interdisciplinary Framework to Actively Shape Explanations in XAI. In: KI – Künstliche Intelligenz. Band 36, Nr. 3, 1. Dezember 2022, ISSN 1610-1987, S. 327–331, doi:10.1007/s13218-022-00767-5.
- ↑ Forschungsprofil. Abgerufen am 3. September 2025.
- ↑ Social Explainable AI: Designing Multimodal and Interactive Communication to Tailor Human–AI Collaborations. In: Shonan Meetings. Abgerufen am 24. September 2025 (englisch).
- ↑ Katharina J. Rohlfing, Kary Främling, Brian Lim, Suzana Alpsancar, Kirsten Thommes (Hrsg.): Social Explainable AI: Communications of NII Shonan Meetings. Springer, Berlin/Heidelberg, ISBN 978-981-9652-90-7.
- ↑ Mit Künstlicher Intelligenz auf Augenhöhe: Wie Erklärungen das Verständnis zwischen KI und Mensch fördern. In: re:publica. Abgerufen am 24. September 2025.
- ↑ a b Projekte. Abgerufen am 3. September 2025.
- ↑ Mitglieder. Abgerufen am 11. Juli 2025.