Sechs Impulsvorträge zu ethischen Fragen rund um Künstliche Intelligenz (2019)

Arbeitsmaterial für medienpädagogische Fortbildung

Bei der Sitzung der Enquete-Kommission “Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“ am 14. Januar 2019 wurden Kurzreferate vorgetragen, die gut als Arbeitsmaterial für medienpädagogische Fortbildung genutzt werden können:

Quelle: Deutscher Bundestag

Prof. Dr. Knut Löschke, Hochschule für Technik, Wirtschaft und Kultur Leipzig
Wer ist der Handelnde bei KI? Wem gilt die Ethik (dem Menschen)? ab 02:00

Er hält den Begriff KI für ungeeignet und begründet dies. Eine besondere KI-Ethik gibt es nach seiner Sicht nicht. Es entstünden zwar ethische Fragen größerer Komplexität und mit stärkerer Wirkung, die sich jedoch grundsätzlich auf jedes Werkzeug und jedes Instrument beziehen würden.

Zitate: “Eine Geige, gleich wie schön sie klingt, ist nicht musikalisch.“
“Eine Brille ist kein künstliches Auge und vor allem nicht dafür verantwortlich, was gelesen wird.“

Prof. Dr. Alexander Filipovic, Hochschule für Philosophie München, Zentrum für Ethik der Medien und der digitalen Gesellschaft
Ethik und KI – Grundlagen und Grundwerte, ab 13:55

Er beginnt mit Begriffsklärungen und Beschreibung, Systematik und Abgrenzung von Problembereichen und erörtert dann die Frage “Wie entwickeln wir Kriterien für den Umgang mit KI?“

Er empfiehlt hierzu die Herangehensweise der “Hochrangigen Expertengruppe für künstliche Intelligenz”, die aus Grundwerten abstrakte ethische Prinzipien ableitete und dann anhand konkreter Fälle Werte entwickelte, die in der Praxis angewendet werden können. Dabei werde die Diskussion allerdings unvermeidbar kontroverser, je konkreter es dabei werde.

Andrea Martin, Chief Technology Officer für IBM
Umsetzung von Ethik in industrielle Richtlinien und pragmatische Ansätze ab 21:50

Nennt konkrete Ansätze, unter anderem den Leitfaden für IBM-Entwickler.

Prof. Dr. Katharina Zweig, TU Kaiserslautern
Allgemeine Untersuchungsmethode für Algorithmic Decision Making-Systeme, ab 34:30

Ausgehend von einem Modell zur Einschätzung des Risikos eines ADM-Systems stellt sie als Kontrollmöglichkeit die Black-Box-Methode vor, deren Nutzung oft der einfachste Weg sei, um Verhalten von Algorithmen zu verstehen. Sie erläutert dies am Beispiel einer Untersuchung zur Personalisierung von Google-Suchergebnissen.

Prof. Dr. Hannah Bast, Albert-Ludwigs-Universität Freiburg
Transparenz und Fairness von KI und deren Überwachung, ab 43:55

Sie erläutert verständlich und didaktisch gut reduziert “Erklärbarkeit“ und “Bias“an Hand von Anwendungsbeispielen aus der Bildverarbeitung bzw. der Sprachverarbeitung. Sie erläutert “Deep Fool“ und zeigt anschaulich, wie neuronale Netze, die ja bei vielen Bildklassifikationsaufgaben beeindruckende Ergebnisse erzielt haben, durch kleine, gezielt eingeführte Störungen der Bilder getäuscht werden können.

Zitate aus dem Fazit:
“Ohne Weiteres produzieren neuronale Netze keine für Menschen verständlichen Erklärungen.“
“Erklärbarkeit muss (und kann) man extra hinzuführen.“
“Bias muss (und kann) man explizit beseitigen.“

Lothar Schröder, Mitglied des Bundesvorstands der Gewerkschaft Verdi
Erste gewerkschaftliche Antworten zum Thema KI aus ethischen Ansprüchen und Erfahrungen in der Arbeitswelt , ab 1:00:20

Er vermisst eine gesellschaftliche Debatte über Ziele und Zwecke, es fehle eine Vision, “was wir eigentlich mit KI wollen“. Diese müsse z.B. auch den Beschäftigungsaspekt und die Dimension “Gute Arbeit“ beinhalten.

Den Gewerkschaften sei wegen der Ambivalenz von KI wichtig, einen “Optionenraum zu gestalten“ Statt pauschaler Ablehnung oder Zustimmung seien differenzierte Beurteilungen nötig.

Herkömmliche Mitbestimmungsrechte verlören bei einigen KI-Entwicklungen an Wirksamkeit, das Betriebsverfassungsgesetz müsse ergänzt werden.

Abschließend skizziert er ein “Soziales Pflichtenheft KI“.