Responsible AI Learning Lab
Wie vermeidet man, dass Künstliche Intelligenz Menschen diskriminiert? Diese Frage treibt den Weltkonzern Microsoft um. Das Fraunhofer IAO hilft, Lösungen zu erarbeiten.
Wenn Menschen andere ausgrenzen oder benachteiligen, ist die Entrüstung groß. Andre Hansel aber kennt eine Art von Diskriminierung, die ihn berufsbedingt fast noch mehr empört: die ungerechte Behandlung von Menschen, wenn sie dadurch entsteht, dass Systeme mit sogenannter Künstliche Intelligenz (englisch abgekürzt AI) genutzt werden. »Weltweit ist lernfähige und zu komplexen Entscheidungen fähige Software in immer mehr Alltagsbereichen auf dem Vormarsch«, erklärt Hansel, Manager Program and Operations bei Microsoft in Berlin. »Es darf nicht sein, dass Personengruppen durch den Einsatz einer unzureichend programmierten oder einseitig ›trainierten‹ AI benachteiligt werden.«
Als Beispiele nennt er in den Medien bekanntgewordene Fälle, bei denen eine Gesichtserkennungs-Software nur die Gesichter weißer Menschen richtig zuordnen konnte. Auch eine Banken-AI, die manche*n Antragsteller*in trotz ausreichender Solvenz keinen Kredit einräumt, wäre indiskutabel. Microsoft hat daher einen Katalog von sechs Kriterien für »Responsible AI« entwickelt und fördert international einen verantwortlichen Umgang mit der Künstlichen Intelligenz. Wichtig ist es dem Software-Weltmarktführer, seine Zielgruppen und die politischen Entscheidungsträger*innen an diesen Erkenntnissen teilhaben zu lassen, sie zu diskutieren und gemeinsam weiterzuentwickeln – gerade auch in der deutschen Hauptstadt Berlin.
»Wir wollten unsere Hauptstadt-Repräsentanz Unter den Linden dazu nutzen, einen angenehmen und transparenten Ort zu schaffen, an dem Menschen aus Unternehmen, der Verwaltung und der Politik gerne mit uns über Responsible AI ins Gespräch kommen«, sagt Hansel. »Die Fachleute vom Fraunhofer IAO haben wir dazu ins Boot geholt, weil sie mit ihrem Center for Responsible Research and Innovation (CeRRI) auf die verantwortungsvolle Gestaltung der digitalen Transformation spezialisiert sind.« Während man bei Microsoft vielfach rein technologisch orientiert sei, habe das CeRRI dazu auch Kompetenzen in Bereichen wie Ethik, Organisationsentwicklung und Kommunikationsdesign, aber eben speziell auch zu Responsible AI.
»Die Idee war«, erinnert sich Jakob Häußermann, Projektleiter auf Seiten des Fraunhofer IAO, »dass man bei diesem sehr abstrakt erscheinenden Thema bewusst einen physischen Ort des Austauschs schafft, eine Art Labor zum Anfassen, Diskutieren, Weiterentwickeln«. Dies könne helfen, Zusammenhänge besser nachzuvollziehen und kollaborativ Lösungen zu entwickeln. Schnell rückte ein von der Straße aus einsehbarer, als Lounge nutzbarer Bereich der Berliner Microsoft-Repräsentanz in den Blickpunkt: der ideale Ort für das »Responsible AI Learning Lab«. Dort sollte unterschiedlichen Zielgruppen aus Wirtschaft, Verwaltung und Politik nicht nur die Relevanz von Responsible AI nähergebracht, sondern gemeinsam mit ihnen auch konkret Ansätze für die jeweils eigene Organisation entwickelt werden.
Das Fraunhofer IAO entwarf daraufhin ein Workshop-Konzept zu »Responsible AI«, bei dem die Kund*innen und Gesprächspartner*innen von Microsoft Berlin sich die Thematik selbst erarbeiten können – moderiert und angeleitet ebenfalls von den Fachleuten des Fraunhofer IAO und orientiert an Fragen wie: Warum benötigen wir in unserer Organisation oder in der Gesellschaft insgesamt verantwortungsvolle AI? Wie können wir schon bei der Entwicklung verhindern, dass sich eine Software später ungewollt diskriminierend verhält? Welche Werte und Prinzipien sollen dabei gelten, und wie kann man diese in der Praxis umsetzen?
Statt sich in dem von Innenarchitekt*innen offen und freundlich gestalteten Raum nur auf virtuelle Formate und Touch-Screens zu verlassen, geht es im Responsible AI Lab mit Absicht »handfest« zu. Es wurden bewegliche Tafeln entwickelt, auf denen Elemente mit aufbereiteten fachlichen Inhalten und Materialien angeordnet und flexibel umgestellt werden können. »Unser Ziel ist es, mit den Teilnehmenden zu erarbeiten, welche Bedeutung Responsible AI in ihrer Organisation haben sollte und gemeinsam konkrete Ansätze für die Umsetzung zu entwickeln«, so Häußermann. »Wichtig war uns, dabei nicht nur auf technische Aspekte zu fokussieren, sondern gerade auch Strategien und Maßnahmen der Governance und Organisationskultur in den Blick zu nehmen.« Das einzige Pech bisher: Corona und Social Distancing machten den geplanten Workshops im realen Raum vorerst einen Strich durch die Rechnung. Doch das wird nachgeholt – »und bis dahin«, sagt Microsoft-Manager Hansel, »stellen wir das Konzept flexibel auf ebenso spannende Online-Formate um«
»Gerade als weltweit führender Softwareentwickler ist Microsoft zentral von Fragen der Ethik und der Verantwortung beim Einsatz von Künstlicher Intelligenz berührt. Es darf nicht sein, dass Personengruppen durch Entscheidungen von Softwaresystemen diskriminiert werden oder Nachteile aufgrund gruppenbezogener Merkmale erleiden. Microsoft engagiert sich seit langem in dieser Frage und hat sechs Prinzipien erarbeitet, nach denen Künstliche Intelligenz – kurz AI – von Anfang an verantwortungsbewusst entwickelt werden kann. Dazu gehören etwa Fairness, Inklusion und Transparenz. In unserer Berliner Repräsentanz bieten wir nun die Gelegenheit, gemeinsam mit unseren potenziellen Kunden sowie Teilnehmenden aus Politik und Verwaltung zu erarbeiten, wie die Prinzipien von Responsible AI in Organisationen umgesetzt werden können. Die Workshops im ›Responsible AI Learning Lab‹ setzen auf eine haptische, also sinnliche Unterstützung des Aneignens von Wissen und Teilhabe. Das Konzept wurde für uns vom Fraunhofer IAO entwickelt, das die Workshops auch kompetent moderiert. Solange dies wegen der Corona-Pandemie nicht vor Ort stattfinden kann, setzen wir das Konzept online um. Wir freuen uns auf zahlreiche Interessierte aus Unternehmen, Verwaltung und Politik!«