Schwerpunkte

Künstliche Intelligenz

Die Blackbox durchschauen

11. November 2019, 08:00 Uhr   |  Karin Röhricht, Hannes Weik

Die Blackbox durchschauen
© Uni Stuttgart/ U. Regenscheit

Marco Huber vom Fraunhofer IPA: "Je komplexer ein neuronale Netz ist, desto schwerer nachvollziehbare Ergebnisse liefert es."

Künstliche Intelligenz kommt immer häufiger in sicherheitskritischen Anwendungen zum Einsatz. Deshalb ist das Wissen über ihre Entscheidungsfindung essenziell. Forschung und Industrie arbeiten dementsprechend daran, die Blackbox-Algorithmen nachvollziehbar zu machen.

Kurz vor 22 Uhr am 18. März 2018 schob Elaine Herzberg ihr Fahrrad über die vierspurige Mill Avenue in Tempe, einem Vorort von Phoenix, Arizona. Sie trug ein schwarzes Oberteil und nutzte nicht den ausgewiesenen Fußgängerüberweg. Die Algorithmen des selbstfahrenden Testautos von Uber, das genau auf Herzberg zufuhr, waren sich lange uneins, womit sie es zu tun hatten. Der Wagen überfuhr die 49-jährige Obdachlose ungebremst. Sie starb wenig später im Krankenhaus. Die Sicherheitsfahrerin des Testautos hatte nicht eingegriffen. Anstatt auf den Verkehr zu achten und die Hände einsatzbereit über dem Steuer zu halten, hatte sie den Blick nach unten gerichtet, wie das Video einer Überwachungskamera zeigt.

Hätte der Wagen abgebremst und Herzberg die Straße unbeschadet überqueren können, hätte vermutlich nie jemand gefragt, wie die Algorithmen des selbstfahrenden Autos zu ihren Vorhersagen und Wahrscheinlichkeitsberechnungen gekommen waren. Doch weil sie eben manchmal Fehler begehen, ist es ein ernstzunehmendes Problem, dass ihre Lösungswege meist im Verborgenen liegen. Denn moderne Machine-Learning-Algorithmen (ML) gleichen einer Blackbox. Sie folgen nicht mehr vorgegebenen Wenn-dann-Regeln, sondern erzeugen aus den Eingabedaten ein komplexes Modell, auf dessen Ausgestaltung der Mensch allenfalls indirekt Einfluss nehmen kann.

„Je komplexer das neuronale Netz ist, desto genauere aber leider auch schwerer nachvollziehbare Ergebnisse liefert es“, bringt es Professor Marco Huber auf den Punkt, der am Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA in Stuttgart das Zentrum für Cyber Cognitive Intelligence (CCI) leitet. Er hat es sich zur Aufgabe gemacht, diesem ständigen Abwägen zwischen Leistungsfähigkeit und Interpretierbarkeit eines Algorithmus ein Ende zu setzen. Künstliche Intelligenz (KI) soll in Zukunft erklärbare Entscheidungen treffen und nachvollziehbare Prognosen abgeben.
 

Datenschutz verlangt erklärbare KI

‚Explainable Artificial Intelligence‘ – oder kurz xAI – heißt dieser Forschungszweig der Informatik, der auf die Initiative der Defense Advanced Research Projects Agency (DARPA) zurückgeht, einer Behörde des US-Verteidigungsministeriums. Lange hielt sich das Interesse der Industrie daran in Grenzen. Doch seit KI nicht mehr nur bei Amazon Bücher oder bei Netflix Filme empfiehlt, sondern in Produktionshallen Maschinen und Roboter dirigiert, oder Autofahrern dabei hilft, ihren Wagen sicher durch belebte Innenstädte zu steuern und unfallfrei einzuparken, hat sich das grundlegend geändert. Denn warum sollten Menschen ihr Schicksal selbstfahrenden Autos oder kollaborativen Robotern anvertrauen, wenn deren Algorithmen intransparente und mitunter sogar falsche Entscheidungen fällen?

Aber nicht nur das menschliche Bedürfnis nach Sicherheit und einer Erklärung für unerwartete oder tiefgreifende Ereignisse, sondern auch die Datenschutz-Grundverordnung (DSGVO) der Europäischen Union verleiht xAI Relevanz. Gemäß Artikel 12 sind Unternehmen, die personenbezogene Daten verarbeiten, verpflichtet, Betroffenen darüber „in präziser, transparenter, verständlicher und leicht zugänglicher Form“ Auskunft zu geben. Das gilt nach Artikel 13 auch bei „einer automatisierten Entscheidungsfindung“, bei der betroffene Personen Anspruch auf „aussagekräftige Informationen über die involvierte Logik sowie die Tragweite und die angestrebten Auswirkungen“ haben.

Noch grundsätzlicher wird eine 52-köpfige Expertengruppe der Europäischen Kommission, die im vergangenen April ‚Ethik-Leitlinien für eine vertrauenswürdige KI‘ vorgelegt hat. Sie erklärt die EU-Verträge, die EU-Grundrechtecharta und die internationalen Menschenrechte zur Basis für die Entwicklung, Einführung und Nutzung von KI-Systemen und formuliert aufbauend darauf vier ethische Grundsätze: Vertrauenswürdige KI müsse die Autonomie des Menschen achten, Schaden verhüten, fair und erklärbar sein. Denn nur nachvollziehbare Entscheidungen könnten „ordnungsgemäß angefochten werden“.

Seite 1 von 4

1. Die Blackbox durchschauen
2. Erklärbare Modelle
3. Hilfsmittel zur Erklärbarkeit
4. KI für sichere Mensch-Roboter-Kooperation

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Verwandte Artikel

Fraunhofer IPA (Institut für Produktionstechnik und Automatisierung)

SPS 2019