Kann Künstliche Intelligenz wertekonform sein?

shutterstock_294782234_OlivierLeMoal(1)(1)

Kann Künstliche Intelligenz wertekonform sein?

Erarbeitung von überprüfbaren Kriterien im Rahmen der Zusammenarbeit mit dem VDE für ein AI Trust Label

Um Systeme auf Basis Künstlicher Intelligenz erfolgreich und flächendeckend in den Markt einzuführen, gibt es eine bislang ungelöste Schlüsselfrage: Wie kann Vertrauen in die Entscheidungen von Algorithmen entstehen? Nur über einen klar definierten Standard können Hersteller und Systembetreiber nachweisen, bis zu welchem Grad bestimmte ethische Anforderungen eingehalten werden. Der VDI hat hierzu zusammen mit Bosch, Siemens und BASF das Projekt VDE SPEC KI-Ethik gestartet, auf wissenschaftlicher Seite ist u.a. das Ferdinand-Steinbeis-Institut beteiligt.

Industrie- und wissenschaftsübergreifend: Vorlage für ein international gültiges AI Trust Label

Sebastian Hallensleben, KI-Experte im VDE und Projektgruppenleitung für das Projekt VDE SPEC KI-Ethik, erklärt: „Das Thema brennt allen unter den Nägeln. Wir haben gemeinsam mit unseren Projektpartnern eine Systematik entworfen, durch die man eine KI mit realistischem Aufwand prüfen und die Ergebnisse klar in Richtung Markt und Regulierer kommunizieren kann.“ In die Entwicklung der VDE SPEC waren Bosch als Mit-Initiator sowie Siemens, TÜV Süd, SAP und BASF involviert. Seitens der Wissenschaft beteiligten sich Vertreter*innen vom iRights.Lab, dem Karlsruher Institut für Technologie, dem Ferdinand-Steinbeis-Institut sowie der Universitäten Tübingen und Darmstadt. Bereits aus dieser Breite an Teilnehmern wird deutlich, dass das Konsortium auf ein allgemeinverbindliches, international anerkanntes AI Trust Label hinarbeitet. „Selbstverständlich bewegen wir uns dabei nicht im luftleeren Raum“, so Dr. Christoph Peylo, der bei Bosch das Thema „Digital Trust“ verantwortet. „Wir haben Vorarbeiten wie die der AI Ethics Impact Group berücksichtigt, und natürlich läuft auch ein Abgleich mit den aktuellen Vorgaben der EU.“ Geplant ist im nächsten Schritt, bis zum Sommer 2022 das AI Trust Label vorzustellen, das Unternehmen für KI-Produkte nutzen können. Am Ende soll das Label je nach Anwendungsfall sowohl eine Eigenerklärung als auch eine Zertifizierung durch unabhängige Instanzen erlauben, was bei besonders risikoreichen Anwendungen erforderlich ist.

Der Schlüssel zur Transparenz: Das VCIO-Modell

Im Forschungsfeld „Autonomisierung und Vertrauenswürdigkeit“ forscht Dr. Jens Lachenmaier im Bereich der Künstlichen Intelligenz am Ferdinand-Steinbeis-Institut. 2020 startete das durch die Baden-Württemberg Stiftung geförderte Projekt WeKI-Go– „Empfehlungen zu einem wertekonformen KI-Einsatz durch fallspezifische Governance-Konzepte“. Ziel des Projekts ist es, insbesondere kleinen und mittelständischen Unternehmen Empfehlungen zum Aufbau unternehmensspezifischer Governance-Strukturen zu geben, die einen wertekonformen KI-Einsatz sicherstellen.

Wertekonforme KI beim Ferdinand-Steinbeis-Institut

Bezüglich der wissenschaftlichen Systematik stützten sich die Projektpartner auf das etablierte VCIO-Modell. Es basiert auf vier Parametern: Auf der obersten Ebene werden Werte (Values) definiert, deren Einhaltung über festgelegte Kriterien (Criteria) überprüft wird. Dies ist möglich über die Beschreibung von Indikatoren (Indicators) und Beobachtungsmerkmalen (Observables). „Das klingt sehr kompliziert, ist aber ganz praktisch vorstellbar“, sagt Dr. Hallensleben. „Für den Wert Transparenz gibt es verschiedene Kriterien, zum Beispiel Herkunft und Charakteristika der Trainingsdaten, die eine KI nutzt, oder die Durchschaubarkeit und Verständlichkeit des Algorithmus. Solche Eigenschaften werden über die in der VDE SPEC vorgestellte Systematik mess- und quantifizierbar in Einklang gebracht.“

„Wir sehen eine hohe Relevanz des Themas und einen Bedarf an Lösungen und Unterstützungsleistungen für Unternehmen, die derzeit wertekonforme KI-Lösungen erarbeiten wollen. Dazu wird das Projekt „WeKI-Go“ einen Beitrag leisten, indem es fallspezifische Empfehlungen ermöglicht. Durch die Diskussion des Themas mit dem VDE und den beteiligten Unternehmen konnten wertvolle Hinweise in alle Richtungen ausgetauscht werden.“

Dr. Jens Lachenmaier

Auch involviert beim VDE SPEC Projekt war Dr. Dirk Slama, der sowohl die wissenschaftliche Seite durch seine Arbeit beim Ferdinand-Steinbeis-Institut eingebracht hat, als auch die Wirtschaftsperspektive durch seine Funktion als Vice President bei Bosch. Dirk Slama war maßgeblich bei der Gründung des Digital Trust Forum (DTF) in 2019 beteiligt. Das Ferdinand-Steinbeis-Institut agierte dabei als neutrale Plattform für das DTF, welches die Vision verfolgt, Vertrauen in digitale Lösungen zu fördern.

Neueste Kommentare