Die KI-Leitsätze von Asilomar

The Future of Life Institute ist eine ehrenamtlich geführte Forschungs- und Kontaktorganisation in der Region Boston, die sich zum Ziel gesetzt hat Forschungsinitiativen anzustoßen, um die die existenzielle Risiken der Menschheit, insbesondere das existenzielle Risiko der fortgeschrittenen künstlichen Intelligenz (KI) zu mindern.

Aktuell hat dieses Institut die KI-Leitsätze der Asilomar Konferenz veröffentlicht, einschließlich der Unterzeichner, die sich zu diesen Leitsätzen bekennen. Im Rahmen der Überlegungen über die Fortsetzung unseres Symposiums Mensch-Sein mit Algorithmen, werden diese Leitsätze zur Diskussion gestellt.

1) Forschungsziel: Das Ziel von KI-Forschung sollte lauten, keine ungerichtete, sondern nützliche und wohltätige Intelligenz zu erschaffen.

2) Forschungsgelder: Investitionen in KI sollten immer auch solcher Forschung zugutekommen, die ihre wohltätige Nutzung sichert. Dazu gehört die Betrachtung schwieriger Fragen in Bereichen der Computerwissenschaft, Wirtschaft, Rechtswissenschaft, Ethik und Sozialwissenschaft:

  • Wie können wir zukünftige KI-Systeme so stabilisieren, dass sie tun, was wir wollen, ohne dass sie Fehlfunktionen bekommen oder gehackt werden?
  • Wie können wir unseren Wohlstand durch Automation vergrößern und dabei die Bestimmung der Menschheit aufrechterhalten und ihre Ressourcen schützen?
  • Wie können wir unser Rechtssystem fairer und effizienter gestalten, sodass es mit der KI-Entwicklung Schritt halten und auf entsprechende Risiken eingehen kann?
  • Mit welchem Wertesystem sollen KIs ausgestattet werden und wie soll ihr rechtlicher und ethischer Status aussehen?

3) Verbindung von Wissenschaft und Politik: Es sollte einen konstruktiven und gesunden Austausch zwischen KI-Forschern und Entscheidungsträgern geben.

4) Forschungskultur: Zwischen KI-Forschern und -Entwicklern sollte eine Kultur aus Kooperation, Vertrauen und Transparenz gepflegt werden.

5) Vermeidung eines Wettlaufs: Teams, die an KI-Systemen arbeiten, sollten aktiv kooperieren, damit nicht an Sicherheitsstandards gespart wird.

6) Sicherheit: KI-Systeme sollten während ihrer gesamten Funktionszeit sicher sein, und dies soweit anwendbar, möglichst auch nachweislich.

7) Transparenz bei Fehlfunktionen: Falls ein KI-System Schaden anrichtet, muss es möglich sein, die Ursache ermitteln zu können.

8) Transparenz bei Rechtsprechung: Bei der Einbindung autonomer Systeme in jegliche entscheidungsfindenden Prozesse der Rechtsprechung sollten diese Prozesse nachvollziehbar und von einer kompetenten menschlichen Autorität überprüfbar sein.

9) Verantwortung: Entwickler und Ingenieure von fortgeschrittenen KIs haben sowohl die Gelegenheit als auch die Verantwortung, die moralischen Folgen von Gebrauch, Missbrauch und eigenständiger Handlungen dieser Systeme mitzubestimmen.

10) Wertausrichtung: Stark autonome KI-Systeme sollten so entwickelt werden, dass ihre Ziele und Verhaltensweisen während des Betriebs unter fester Gewissheit auf menschliche Werte ausgerichtet sind.

11) Menschliche Werte: KI-Systeme sollten so entwickelt und bedient werden, dass sie mit den Idealen der Menschenwürde, Menschenrechten, Freiheiten und kultureller Vielfalt kompatibel sind.

12) Privatsphäre: Im Hinblick auf die Fähigkeit von KIs, Daten zu analysieren und weiterzuverarbeiten, sollten Menschen das Recht haben, Zugriff auf ihre generierten Daten zu haben und in der Lage sein, sie zu verwalten und zu kontrollieren.

13) Freiheit und Privatheit: Die Anwendung von KIs auf persönliche Daten darf die tatsächlichen oder wahrgenommenen Freiheiten der Menschen nicht auf unangemessene Weise einschränken.

14) Geteilter Nutzen: KI-Technologien sollten so vielen Menschen wie möglich dienen und nutzen.

15) Geteilter Wohlstand: Der wirtschaftliche Wohlstand, der von KIs geschaffen wird, sollte breit verteilt werden, sodass er der ganzen Menschheit nutzt.

16) Menschliche Kontrolle: Wenn es um Aufgaben geht, die von Menschen erdacht worden sind, sollten Menschen bestimmen können, ob und inwiefern Entscheidungen an KI-Systeme delegiert werden können.

17) Kein Umsturz: Die Macht, die durch die Kontrolle hochentwickelter KI-Systeme gewährt wird, sollte die sozialen und bürgerlichen Prozesse, auf denen das Wohlergehen der Gesellschaft beruht, respektieren und verbessern, aber nicht untergraben.

18) KI-Wettrüsten: Ein Wettrüsten von tödlichen autonomen Waffen sollte vermieden werden.

19) Vorsicht bei der Leistungsfähigkeit: Da es hier keinen Konsens gibt, sollten wir es vermeiden starke Annahmen zu machen, wenn es um die Obergrenzen zukünftiger KI-Leistungen geht.

20) Tragweite: Fortgeschrittene KI könnte zu weitreichenden Veränderungen für das Leben auf der Erde führen und sollte deshalb mit angemessener Sorgfalt und ausreichenden Ressourcen geplant und verwaltet werden.

21) Risiken: Besonders, wenn es um existenzielle oder katastrophale Risiken geht, die von KIs ausgehen, müssen Planung und Entschärfungsmaßnahmen entsprechend dem zu erwartenden Ausmaß getroffen werden.

22) Rekursive Selbstverbesserung: KI-Systeme, die entwickelt wurden, sich selbst rekursiv zu verbessern oder zu duplizieren, sodass eine rasante Qualitäts- oder Quantitätssteigerung zu erwarten ist, müssen strengen Sicherheits- und Kontrollmaßnahmen unterliegen.

23) Allgemeinwohl: Superintelligenz sollte immer entwickelt werden, um weithin akzeptierten ethischen Idealen und der Menschheit als Ganzem zu dienen, nicht bloß einem Staat oder einer Organisation.

Bisher wurden diese Leitsätze von 1273 KI/Robotik-Forschern und 2541 weiteren Menschen unterzeichnet. Die vollständige Liste der Unterzeichner finden Sie hier.

 

[Total: 0    Average: 0/5]

Gerhard Schimpf, the recipient of the ACM Presidential Award 2016, has a degree in Physics from the University of Karlsruhe. As a former IBM development manager and self-employed consultant for international companies, he has been active in ACM for over four decades. He was a leading supporter of ACM Europe, serving on the first ACM Europe Council in 2009. He was also instrumental in coordinating ACM’s spot as one of the founding organizations of the Heidelberg Laureates Forum. Gerhard Schimpf is a member of the German Chapter of the ACM (Chair 2008 – 2011) and a member of the Gesellschaft für Informatik. --oo-- Gerhard Schimpf, der 2016 mit dem ACM Presidential Award geehrt wurde, hat an der TH Karlsruhe Physik studiert. Als ehemaliger Manager bei IBM im Bereich Entwicklung und Forschung und als freiberuflicher Berater international tätiger Unternehmen ist er seit 40 Jahren in der ACM aktiv. Er war Gründungsmitglied des ACM Europe Councils und gehört zum Founders Club für das Heidelberg Laureate Forum, einem jährlichen Treffen von Preisträgern der Informatik und Mathematik mit Studenten. Gerhard Schimpf ist Mitglied des German Chapter of the ACM (Chairperson 2008 – 2011) und der Gesellschaft für Informatik.


1 thought on “Die KI-Leitsätze von Asilomar”

  1. Es macht absolut Sinn, sich mit allen Aspekten der AI/KI zu beschäftigen. Dazu müssen meines Erachtens die Werteausrichtung und Sicherheitsstandards ganz neue Dimensionen erreichen, um uns ein wertschöpfendes und ethisch fundiertes Hilfsmittel für die Zukunft an die Hand zu geben! Der AI/KI Hype, wie wir ihn zur Zeit erleben – inclusive einer häufig falschen Terminologie – darf in keinem Fall eine fundierte Betrachtung der Basis überlagern! Sehr guter Diskussionsansatz.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

WP Facebook Auto Publish Powered By : XYZScripts.com