Was machen Menschen, wenn KI erklärbar wird?
Informatik / Digitales

Was machen Menschen, wenn KI erklärbar wird?

Erklärbare KI verspricht, die Black Box des Machine Learnings transparent zu machen. Das kann in einigen Situationen helfen, aber manchmal auch überraschende Nebenwirkungen haben. Zum Beispiel werden Menschen durch Erklärungen teilweise sogar schlechter darin, die Leistung von KI einzuschätzen. Im Vortag wird diskutiert, warum das so ist und unter welchen Bedingungen Erklärungen helfen oder schaden können.
Beginn 20:30 Uhr
Ende 21:00 Uhr

Auf einen Blick

Technische Universität Dresden (TUD)
Ingenieurpsychologie und angewandte Kognitionsforschung
Hörsaalzentrum TUD
105
Bergstraße 64
01069 Dresden (Dresdner Süden)
Romy Müller, Ingenieurpsychologin
Webseite

Beschreibung

Ist erklärbare KI (explainable artificial intelligence, XAI) tatsächlich nützlich? In den letzten Jahren haben zahlreiche Studien mit menschlichen Nutzern immer öfter Zweifel daran gesät, ob Erklärungen wirklich sinnvoll oder einfach nur ansprechend aber im Grunde wirkungslos sind. In einigen Studien wurden die Erklärungen einfach ignoriert. In anderen Studien wurde das Vertrauen in die KI tatsächlich gesteigert, aber dies führte zu einem unkritischen Übervertrauen in falsche Entscheidungen der KI. Der Vortrag fasst die Forschungsergebnisse am Beispiel der Klassifikation von Bildern zusammen. Es wird diskutiert, welche Erklärungsmöglichkeiten es in diesem Anwendungsfeld gibt und wie sie sich auf menschliche Nutzer auswirken.

Information zum Veranstaltungsformat

Vortrag

Information zum Veranstaltungsort

Parkmöglichkeiten am Veranstaltungsort sind vorhanden

Stationen

TU Dresden

  • 63 (bus)
  • 61 (bus)
  • 66 (bus)

Münchner Platz

  • 3 (tram)

Nöthnitzer Str.

  • N6 (bus)
  • 85 (bus)
  • 3 (tram)
Einstellungen Barrierefreiheit