Future of Life Institute, Die KI-Leitsätze von Asilomar (2017)

Das Future of Life Institute, gegründet von Max Tegmark, MIT, und anderen Wissenschaftlern/innen, folgt dem Motto: “Technology is giving life the potential to flourish like never before... Or to self destruct. Let's make a difference!“
Sie thematisieren besonders existenzielle Risiken in den Bereichen Nuklearwaffen, Biotechnologie, Künstliche Intelligenz und Klimawandel.

Anfang 2017 veranstalteten sie den offenen Kongress Beneficial AI 2017 mit Teilnehmenden aus verschiedenen Wissenschaftsfeldern, der Industrie und der Verwaltung.. Hierfür wurde aus vorliegenden Publikationen eine Liste mit einer Vielzahl von Meinungen darüber zusammengestellt, wie die Gesellschaft in den kommenden Jahrzehnten am besten mit KI umgehen solle. In einem komplexen Beteiligungsprozess erarbeiteten und verabschiedeten die Teilnehmenden eine Liste von 23 Grundsätzen, die “Asilomar AI Principles“:

Forschungsthemen

1) Forschungsziel: Das Ziel von KI-Forschung sollte lauten, keine ungerichtete, sondern nützliche und wohltätige Intelligenz zu erschaffen.

2) Forschungsgelder: Investitionen in KI sollten immer auch solcher Forschung zugutekommen, die ihre wohltätige Nutzung sichert. Dazu gehört die Betrachtung schwieriger Fragen in Bereichen der Computerwissenschaft, Wirtschaft, Rechtswissenschaft, Ethik und Sozialwissenschaft:

  • Wie können wir zukünftige KI-Systeme so stabilisieren, dass sie tun, was wir wollen, ohne dass sie Fehlfunktionen bekommen oder gehackt werden?
  • Wie können wir unseren Wohlstand durch Automation vergrößern und dabei die Bestimmung der Menschheit aufrechterhalten und ihre Ressourcen schützen?
  • Wie können wir unser Rechtssystem fairer und effizienter gestalten, sodass es mit der KI-Entwicklung Schritt halten und auf entsprechende Risiken eingehen kann?
  • Mit welchem Wertesystem sollen KIs ausgestattet werden und wie soll ihr rechtlicher und ethischer Status aussehen?

3) Verbindung von Wissenschaft und Politik: Es sollte einen konstruktiven und gesunden Austausch zwischen KI-Forschern und Entscheidungsträgern geben.

4) Forschungskultur: Zwischen KI-Forschern und -Entwicklern sollte eine Kultur aus Kooperation, Vertrauen und Transparenz gepflegt werden.

5) Vermeidung eines Wettlaufs: Teams, die an KI-Systemen arbeiten, sollten aktiv kooperieren, damit nicht an Sicherheitsstandards gespart wird.

6) Sicherheit: KI-Systeme sollten während ihrer gesamten Funktionszeit sicher sein, und dies soweit anwendbar, möglichst auch nachweislich.

7) Transparenz bei Fehlfunktionen: Falls ein KI-System Schaden anrichtet, muss es möglich sein, die Ursache ermitteln zu können.

8) Transparenz bei Rechtsprechung: Bei der Einbindung autonomer Systeme in jegliche entscheidungsfindenden Prozesse der Rechtsprechung sollten diese Prozesse nachvollziehbar und von einer kompetenten menschlichen Autorität überprüfbar sein.

9) Verantwortung: Entwickler und Ingenieure von fortgeschrittenen KIs haben sowohl die Gelegenheit als auch die Verantwortung, die moralischen Folgen von Gebrauch, Missbrauch und eigenständiger Handlungen dieser Systeme mitzubestimmen.

10) Wertausrichtung: Stark autonome KI-Systeme sollten so entwickelt werden, dass ihre Ziele und Verhaltensweisen während des Betriebs unter fester Gewissheit auf menschliche Werte ausgerichtet sind.

11) Menschliche Werte: KI-Systeme sollten so entwickelt und bedient werden, dass sie mit den Idealen der Menschenwürde, Menschenrechten, Freiheiten und kultureller Vielfalt kompatibel sind.

12)Privatsphäre: Im Hinblick auf die Fähigkeit von KIs, Daten zu analysieren und weiterzuverarbeiten, sollten Menschen das Recht haben, Zugriff auf ihre generierten Daten zu haben und in der Lage sein, sie zu verwalten und zu kontrollieren.

13) Freiheit und Privatheit: Die Anwendung von KIs auf persönliche Daten darf die tatsächlichen oder wahrgenommenen Freiheiten der Menschen nicht auf unangemessene Weise einschränken.

14) Geteilter Nutzen: KI-Technologien sollten so vielen Menschen wie möglich dienen und nutzen.

15) Geteilter Wohlstand: Der wirtschaftliche Wohlstand, der von KIs geschaffen wird, sollte breit verteilt werden, sodass er der ganzen Menschheit nutzt.

16)Menschliche Kontrolle: Wenn es um Aufgaben geht, die von Menschen erdacht worden sind, sollten Menschen bestimmen können, ob und inwiefern Entscheidungen an KI-Systeme delegiert werden können.

17) Kein Umsturz: Die Macht, die durch die Kontrolle hochentwickelter KI-Systeme gewährt wird, sollte die sozialen und bürgerlichen Prozesse, auf denen das Wohlergehen der Gesellschaft beruht, respektieren und verbessern, aber nicht untergraben.

18) KI-Wettrüsten: Ein Wettrüsten von tödlichen autonomen Waffen sollte vermieden werden.

Längerfristige Probleme

19) Vorsicht bei der Leistungsfähigkeit: Da es hier keinen Konsens gibt, sollten wir es vermeiden starke Annahmen zu machen, wenn es um die Obergrenzen zukünftiger KI-Leistungen geht.

20) Tragweite: Fortgeschrittene KI könnte zu weitreichenden Veränderungen für das Leben auf der Erde führen und sollte deshalb mit angemessener Sorgfalt und ausreichenden Ressourcen geplant und verwaltet werden.

21) Risiken: Besonders, wenn es um existenzielle oder katastrophale Risiken geht, die von KIs ausgehen, müssen Planung und Entschärfungsmaßnahmen entsprechend dem zu erwartenden Ausmaß getroffen werden.

22) Rekursive Selbstverbesserung: KI-Systeme, die entwickelt wurden, sich selbst rekursiv zu verbessern oder zu duplizieren, sodass eine rasante Qualitäts- oder Quantitätssteigerung zu erwarten ist, müssen strengen Sicherheits- und Kontrollmaßnahmen unterliegen.

23) Allgemeinwohl: Superintelligenz sollte immer entwickelt werden, um weithin akzeptierten ethischen Idealen und der Menschheit als Ganzem zu dienen, nicht bloß einem Staat oder einer Organisation.

Quelle: futureoflife.org

Zusammenfassende Bewertung durch Noëlle Rohde:

Es “handelt es sich um einen hochdifferenzierten Katalog von Gütekriterien, der eine große Sensibilität für die wichtigsten Grundsatz- und Praxisfragen im Bereich ADM erkennen lässt. Die Kriterien gehen weit über die Anforderungen an ein algorithmisches System hinaus und beziehen indirekt auch Akteure (wie z. B. Sozialwissenschaftler) ein, die in der gesellschaftlichen Gestaltung algorithmischer Entscheidungsfindung häufig vergessen werden. Auf den ersten Blick wirken einige der Forderungen sehr idealistisch und etwas realitätsfern, insbesondere da keine Tools oder Praktiken zur Umsetzung vorgeschlagen werden. Allerdings lässt sich auch argumentieren, dass ein solcher Gütekriterienkatalog wie ein Gesetzestext zu verstehen ist, der die hohen gesellschaftlichen Ideale fixiert und dennoch Auslegungsspielraum bietet, um Einzelfällen im komplexen Feld der algorithmischen Entscheidungsfindung gerecht zu werden.“ Gütekriterien für algorithmische Prozesse - Eine Stärken- und Schwächenanalyse ausgewählter Forderungskataloge, 2018, S. 14