Projektbeschreibung
Ausgangssituation
Jede Entscheidungsfindung durch den Menschen ist durch Fehler und Vorurteile beeinflusst, welche zu Diskriminierung führen können. Da jedoch immer mehr Entscheidungen von KI getroffen werden, drohen diese Fehler und Vorurteile die Gesellschaft in einem viel größeren Ausmaß zu beeinflussen. Die Risiken der KI sind vielfältig. Während Diskriminierung durch den Menschen so alt ist wie die Menschheit selbst, ist die Situation bei KI aufgrund der Undurchsichtigkeit, Komplexität, Unvorhersehbarkeit und des teilweise autonomen Verhaltens von KI in vielerlei Hinsicht noch nie dagewesen. Obwohl Konzepte vertrauenswürdiger/verantwortlicher KI von internationalen Regulierungsbehörden und politischen Entscheidungsträger*innen viel Aufmerksamkeit erhalten, ist es für Unternehmen und öffentliche Verwaltungen eine große Herausforderung diskriminierungsfreie Algorithmen zu entwickeln und einzusetzen.
Ziele
Das Hauptziel des Projekts besteht darin, Lösungen zu entwickeln, zu testen und zu verbreiten, die es KI-Entwickler*innen und anwendenden Organisationen ermöglichen, die Fairness zu erhöhen und das Diskriminierungspotenzial (z. B. gegen Alter, Geschlecht, Abstammung) zu verringern. Der Schwerpunkt liegt auf Entscheidungsunterstützungssystemen, die direkte Auswirkungen auf die Bürger*innen haben und Diskriminierungspotenzial haben.
Dabei sollen Strategien für faire KI in fünf Use Cases in Unternehmen entwickelt und effektive Lösungen im Gesundheitswesen, in den Medien und auf den Arbeitsmärkten geschaffen werden. In weiterer Folge wird ein generisches Prozessmodell und eine Toolbox entwickelt, welche die Entwicklung von fairer KI ermöglichen.
Ergebnisse/Nutzen/Innovation
Im Projekt wird ein interdisziplinäres Prozessmodell für KI "fair by design" entwickelt. Dieser neue Prozess für die KI-Entwicklung zielt darauf ab, Ausgrenzung oder Benachteiligungen durch KI entlang der Unterschiede von Geschlecht, Alter, Herkunft und anderen zu verringern und die Chancen für die Gleichstellung zu verbessern. Dies bringt im Vergleich zum State of the Art eine große Verbesserung, da ein technisches Prozessmodell, das systematisch sozialwissenschaftliche Dimensionen einbezieht, derzeit nicht existiert. KI-Entwickler*innen haben derzeit keine konkrete Anleitung, wie Fairnessfragen in Systemen auf der Grundlage interdisziplinären Denkens integriert werden können. Basierend auf dem interdisziplinären Hintergrund (Sozialwissenschaften, Recht, Technologie) des Projektteams, den Erfahrungen aus konkreten Anwendungsfällen, die während dieses Projekts bearbeitet wurden, und dem Input der beteiligten externen Expert*innen und Stakeholder*innen wird ein Werkzeugkasten für eine faire KI erstellt. Im Gegensatz zum bestehenden Instrumentarium werden auch wesentlich neue Instrumente auf der Grundlage sozialwissenschaftlicher Methoden integriert.
Im Rahmen des Projektes wurde ein fAIr-by-design-Entwicklungsprozess für KI entwickelt, welcher sich an internationalen Standards orientiert und zu einzelnen Schritten im gesamten Lebenszyklus von KI-Systemen Hilfestellungen in Form von Handlungsempfehlungen sowie mögliche Methoden für die Adressierung von algorithmischem Bias angibt. Zudem wurden diverse Informationsunterlagen (sozialwissenschaftliche, juristische, technische) für Personen entwickelt, welche KI-Systeme einsetzen/entwickeln möchten und einige Methoden identifiziert, modifiziert oder teils neu entwickelt, anhand derer Schritte auf dem Weg hin zu fairer KI erleichtert werden. Dieser Prozess und die Methoden wurden mit und für 5 Use Cases aus der realen Welt entwickelt und direkt dort angewandt, um hier möglichst zeitnah Nutzen zu stiften.
Ergebnisse werden laufend über fAIr by design veröffentlicht.
Welche Forschungsfragen sind noch offen bzw. haben sich neu ergeben?
Im Forschungsprojekt hat sich gezeigt, dass die Identifizierung von Fairnessrisiken und Entwicklung von Gegenmaßnahmen in vielen Fällen auf kontextspezifisch und individuell geschehen muss, da sich zwar manche Use Cases ähneln, aber diese doch auch immer unterschiedlichen Rahmenbedingungen unterworfen sind. Dies bedeutete, dass für jeden Use Case ein zeitintensiver Prozess der Impact Analyse durchgeführt werden muss. Obwohl sich der Aufwand dafür im Laufe des Projektes durch das aufgebaute Wissen verringert hat, bleibt trotzdem die Frage offen, welche Teile des Prozesses zur Identifikation von Fairnessrisiken sich in Zukunft beschleunigen bzw. teilautomatisieren lassen, ohne Abstriche in der Qualität der Ergebnisse machen zu müssen. Diesbezüglich wurden im Rahmen des Projektes erste Ideen entwickelt. Es zeigen sich jedoch noch weitere offene Fragen, insbesondere wenn es darum geht, individuelle Use Case-Ergebnisse zu abstrahieren und Erkenntnisse auf andere KI-Einsatzgebiete bzw. Use Cases zu übertragen.
Eckdaten
Programm/Ausschreibung
Laura Bassi 4.0 – 2. Ausschreibung
Projektlaufzeit (von bis)
1. April 2021 (voraussichtlich) bis 1. April 2024
Projektpartner*innen
- winnovation consulting gmbh (Leadpartner)
- Rania Wazir, e.U.
- TU Wien, Institut für Information Systems Engineering
- Universität Wien, Institut für Digitalisierung u. Recht/Zivilrecht
- Rotable technologies GmbH
- Crayon Austria GmbH
- Intact GmbH
- Cultural Broadcasting Archive
Kontakt
Lena Müller-Kress, M.A.
lena.mueller-kress@winnovation.at
Zitat
“It’s not artificial intelligence I’m worried about, it’s human stupidity.” – Neil Jacobstein