Die »High-Level Expert Group on Artificial Intelligence« (kurz AI HLEG) wurde im Juni 2018 von der Europäischen Kommission initiiert mit dem Ziel, die Umsetzung der europäischen Strategie für Künstliche Intelligenz zu unterstützen. Dazu gehört die Ausarbeitung von Empfehlungen zur zukunftsbezogenen Politikentwicklung und zu ethischen, rechtlichen und gesellschaftlichen Fragen, einschließlich sozioökonomischer Herausforderungen. Nach einem offenen Auswahlverfahren hat die Kommission 52 Mitglieder in die unabhängige Expertengruppe berufen, die sich aus Vertreterinnen und Vertretern aus Wissenschaft, Zivilgesellschaft und Industrie zusammensetzt. Dazu gehört auch Prof. Dr.-Ing. Prof. e. h. Wilhelm Bauer, Leiter des Fraunhofer-Instituts für Arbeitswirtschaft und Organisation IAO in Stuttgart, einer der deutschen Vertreter aus der Wissenschaft. »Durch langjährige Forschungslinien im Bereich der KI-Forschung, die Initiative für das KI-Fortschrittszentrum ›Lernende Systeme‹ und die Mitwirkung im Cyber Valley, Europas größter Forschungskooperation auf dem Gebiet der KI, kann das Fraunhofer IAO fundierte Erfahrungen und Expertise aus der angewandten Forschung in die Arbeit der Expertengruppe einbringen«, so Professor Bauer.
Mitte 2019 legte die AI HLEG bereits erste Ergebnisse vor, die nun zum Abschluss ihrer Arbeit konkretisiert, weiterentwickelt und für Unternehmen sowie öffentliche Organisationen anwendbar gemacht wurden.
Ethikrichtlinien: 7 Schlüsselanforderungen zur Selbstbewertung
Seit dem 17. Juli liegen mit der Veröffentlichung der »Assessment List for Trustworthy Artificial Intelligence (ALTAI) for self-assessment« die finalen Richtlinien der Expertengruppe für einen menschenzentrierten Ansatz von KI vor. Darin sind sieben Schlüsselanforderungen formuliert, die ein KI-System erfüllen sollte, um vertrauenswürdig zu sein. Diese beinhalten (1) menschliche Entscheidungsfreiheit und Kontrolle, (2) technische Robustheit und Sicherheit, (3) Datenschutz und Data Governance, (4) Transparenz, (5) Diversität, Nichtdiskriminierung sowie Fairness, (6) ökologisches und gesellschaftliches Wohlergehen und (7) Rechenschaftspflicht. Mit der ALTAI wollen die Expertinnen und Experten sicherstellen, dass die Anwender von KI profitieren, ohne unnötigen Risiken ausgesetzt zu sein, indem eine Reihe konkreter Schritte zur Selbstbewertung der KI-Anwendung durch deren Anbieter vorgestellt wird.
Dynamische Checkliste zur direkten Anwendung per Web-Tool
Um die Leistungsfähigkeit einer solchen Bewertungsliste zu demonstrieren, hat die KI-Expertengruppe ein prototypisches Tool entwickelt. Ziel ist es, Entwickler und Anwender von KI bei der Umsetzung dieser Prinzipien in die Praxis zu unterstützen und bei der Bewertung ihrer eigenen KI-Systeme anzuleiten. Dafür wurden die Schlüsselanforderungen der ALTAI in Detailanforderungen heruntergebrochen und in Form einer frei verfügbaren Checkliste sowie des begleitenden webbasierten Tools bereitgestellt. Letzteres kann direkt durch interessierte Unternehmen online genutzt werden.
Politik- und Investitionsempfehlungen für eine vertrauenswürdige KI
Bereits im Juni 2019 legte die Expertengruppe 33 Empfehlungen vor, die vertrauenswürdige KI zu mehr Nachhaltigkeit, Wachstum und Wettbewerbsfähigkeit in Europa führen und gleichzeitig die Menschen in diesem Kontext stärken, fördern und schützen können. Professor Bauer erklärt den Bezug zur aktuellen Lage: »Die COVID-19-Pandemie hat einmal mehr sowohl die Möglichkeit einer verstärkten Nutzung von Daten und vertrauenswürdiger KI als auch die damit verbundenen Herausforderungen und Risiken in Zeiten schneller Veränderungen hervorgehoben.« Die Expertengruppe will mit ihren Arbeitsergebnissen zu einer angemessenen und sorgfältigen Prüfung der Perspektiven von KI sowie zu einer öffentlichen Debatte beitragen.