Was machen Menschen, wenn KI erklärbar wird?
Computer Science / Digital

Was machen Menschen, wenn KI erklärbar wird?

Erklärbare KI verspricht, die Black Box des Machine Learnings transparent zu machen. Das kann in einigen Situationen helfen, aber manchmal auch überraschende Nebenwirkungen haben. Zum Beispiel werden Menschen durch Erklärungen teilweise sogar schlechter darin, die Leistung von KI einzuschätzen. Im Vortag wird diskutiert, warum das so ist und unter welchen Bedingungen Erklärungen helfen oder schaden können.
Start 20:30 o'clock
End 21:00 o'clock

At a glance

Technische Universität Dresden (TUD)
Ingenieurpsychologie und angewandte Kognitionsforschung
Hörsaalzentrum TUD
105
Bergstraße 64
01069 Dresden (Dresdner Süden)
Romy Müller, Ingenieurpsychologin
Website

Description

Ist erklärbare KI (explainable artificial intelligence, XAI) tatsächlich nützlich? In den letzten Jahren haben zahlreiche Studien mit menschlichen Nutzern immer öfter Zweifel daran gesät, ob Erklärungen wirklich sinnvoll oder einfach nur ansprechend aber im Grunde wirkungslos sind. In einigen Studien wurden die Erklärungen einfach ignoriert. In anderen Studien wurde das Vertrauen in die KI tatsächlich gesteigert, aber dies führte zu einem unkritischen Übervertrauen in falsche Entscheidungen der KI. Der Vortrag fasst die Forschungsergebnisse am Beispiel der Klassifikation von Bildern zusammen. Es wird diskutiert, welche Erklärungsmöglichkeiten es in diesem Anwendungsfeld gibt und wie sie sich auf menschliche Nutzer auswirken.

Information on the event format

Vortrag Lecture

Venue information

Parking is available at the venue

Stations

TU Dresden

  • 63 (bus)
  • 61 (bus)
  • 66 (bus)

Münchner Platz

  • 3 (tram)

Nöthnitzer Str.

  • N6 (bus)
  • 85 (bus)
  • 3 (tram)