Bertelsmann Stiftung und iRights.Lab, Algo.Rules - Regeln für die Gestaltung algorithmischer Systeme (2019)

Die iRights.Lab GmbH hat 2018 im Auftrag des Projekts “Ethik der Algorithmen” der Bertelsmann Stiftung mit hohem Anspruch einen Gütekriterienkatalog für den Einsatz von algorithmischen Systemen kooperativ erarbeitet.

“Der professionsethische Katalog für die Beteiligten an der Gestaltung von Algorithmen soll vergleichbar sein mit dem Hippokratischen Eid für Medizinerinnen und Mediziner oder dem Pressekodex für Journalistinnen und Journalisten.“ (iRights.Lab GmbH)

“Wir wollen zu einer Gestaltung algorithmischer Systeme beitragen, die zu mehr Teilhabe für alle führt. Nicht das technisch Mögliche, sondern das gesellschaftlich Sinnvolle muss Leitbild sein ....“ (Projekt "Ethik der Algorithmen“)

In einer vorbereitenden “Stärken- und Schwächenanalyse“ von drei bereits vorliegenden Forderungskatalogen internationaler Organisationen erstellte die Autorin Noëlle Rohde hierfür eine hilfreiche Zusammenstellung von Merkmalen für die Analyse und den Vergleich der Kataloge und erarbeitete eine Übersicht “übertragbarer Stärken und auszugleichender Schwächen“. Als ein wichtiges Ergebnis ihrer Analyse forderte sie im Blog des Projekts für die anstehende Kriterienkatalogentwicklung, bisher zu wenig beachtete Punkte aufzunehmen:

“Kriterien, die auf ethische Fragen abzielen“, “Rekurs auf die Rolle der Politik“, “Verbote gegen bestimmte Einsätze von Algorithmen und Angaben zur praktischen Implementierung“.

In die Erstellung des eigenen Kataloges wurden Fachleute unterschiedlicher Disziplinen einbezogen und das Zwischenergebnis nach einer öffentlichen Onlinebefragung überarbeitet. Als Ergebnis wurden im März 2019 die Algo.Rules vorgestellt. Aus Sicht von Bertelsmann Stiftung und iRights.Lab “handelt es sich um einen Katalog an formalen Kriterien, die beachtet werden müssen, um eine gesellschaftlich förderliche Gestaltung und Überprüfung von algorithmischen Systemen zu ermöglichen und zu erleichtern.“ (Präambel)

  • “Kompetenz aufbauen
    Die Funktionsweise und die möglichen Auswirkungen eines algorithmischen Systems müssen verstanden werden. ...
  • Verantwortung definieren
    Für die Auswirkungen des Einsatzes eines algorithmischen Systems muss stets eine natürliche oder juristische Person verantwortlich sein. ...
  • Ziele und erwartete Wirkung dokumentieren
    Die Ziele und die erwartete Wirkung des Einsatzes eines algorithmischen Systems müssen vor dessen Einsatz dokumentiert und abgewogen werden. ...
  • Sicherheit gewährleisten
    Die Sicherheit eines algorithmischen Systems muss vor dessen Einsatz getestet und fortlaufend gewährleistet werden. ...
  • Kennzeichnung durchführen
    Der Einsatz eines algorithmischen Systems muss gekennzeichnet sein. ...
  • Nachvollziehbarkeit sicherstellen
    Die Entscheidungsfindung eines algorithmischen Systems muss stets nachvollziehbar sein. ...
  • Beherrschbarkeit absichern
    Ein algorithmisches System muss während seines gesamten Einsatzes gestaltbar sein und bleiben. ...
  • Wirkung überprüfen
    Die Auswirkungen eines algorithmischen Systems müssen regelmäßig überprüft werden. ...
  • Beschwerden ermöglichen
    Fragwürdige oder die Rechte einer betroffenen Person beeinträchtigende Entscheidungen eines algorithmischen Systems müssen erklärt und gemeldet werden können. ...“

Jede dieser neun Forderungen wird jeweils mit wenigen kurzen Sätzen auf insgesamt nur fünf Seiten differenziert. Begründungen werden nicht formuliert.

Die oben genannten vier weitergehenden Anforderungen an einen neuen Krterienkatalog werden m.E. (noch) nicht erfüllt.

Als nächste Schritte wollen die Verantwortlichen “Regeln für unterschiedliche Zielgruppen ... spezifizieren und Implementierungsstrategien erarbeiten.“

Der komplette Kriterienkatalog kann als PDF-Datei (Stand: 7. März 2019) heruntergeladen oder auf der Website https://algorules.org/ der Bertelsmann Stiftung gelesen werden.