Tod der gesamten Menschheit unvermeidbar
KI-Textgeneratoren zu mächtig: Musk und Apple-Gründer Woz fordern Moratorium
Der erschlagende Erfolg von KI-Textgeneratoren wie ChatGPT und die umfangreichen Fähigkeiten von Modellen wie GPT-4 sorgen nicht nur für zahlreiche neue Mac-Anwendungen, praktische Online-Dienste und eine wahre Goldgräber-Stimmung in der Tech-Branche, die menschenähnlichen Kapazitäten von ChatGPT und Co. provozieren auch besorgte Wortmeldungen.
Zu diesen gehört der offene Brief des Future of Life Institute, der unter anderem auch von Apple-Mitbegründer Steve Wozniak, vom Tesla-Chef Elon Musk und von zahlreichen Wissenschaftlern unterzeichnet wurde.
Diese machen unter der Überschrift „Pause Giant AI Experiments“ auf die Risiken von KI-Systemen mit menschenähnlicher Intelligenz aufmerksam und fordern ein Moratorium. Entwicklungen an KI-Systemen, die noch leistungsfähiger als GPT-4 sind, sollen für mindestens ein halbes Jahr ruhen, um sich genauer mit den Risiken entsprechender Systeme auseinandersetzen zu können und sich so gegen unvorhergesehene, negative Auswirkungen in Stellung bringen zu können.
Tod der gesamten Menschheit unvermeidbar
Wie diese aussehen können hat der Wissenschaftlicher Eliezer Yudkowsky im Time-Magazin eindrücklich ausgeführt und zeichnet ein fatales Bild der aktuellen Entwicklung. Zum einen würde es den verantwortlichen KI-Experten wohl erst mal nicht auffallen, wenn diese eine übermenschlich intelligente KI entwickeln würden, zum anderen wäre das Resultat einer entsprechenden Entwicklung die unvermeidliche Auslöschung der gesamten Menschheit:
[…] Viele Forscher, die sich mit diesen Fragen befassen, darunter auch ich, gehen davon aus, dass das wahrscheinlichste Ergebnis der Entwicklung einer übermenschlich intelligenten KI unter den derzeitigen Umständen darin besteht, dass buchstäblich jeder auf der Erde sterben wird. Nicht im Sinne von „vielleicht eine entfernte Chance“, sondern im Sinne von „das ist das Offensichtliche, was passieren würde“. Es ist nicht so, dass man prinzipiell nicht überleben könnte, wenn man etwas erschafft, das viel intelligenter ist als man selbst; es ist nur so, dass es Präzision und Vorbereitung und neue wissenschaftliche Erkenntnisse erfordern würde […]
Aktuell beeindrucken die KI-Systeme, sind aber nur schwer zu überblicken, noch schwerer zu verstehen und langfristig wohl nicht zu bändigen.
Sowohl der offene Brief als auch der fatalistische Aufsatz von Eliezer Yudkowsky haben eure Aufmerksamkeit verdient. Sollte die freie Zeit dafür gerade nicht ausreichen, könnt ihr ChatGPT dafür nutzen, euch eine deutsche Kurzzusammenfassung der englischsprachigen Texte generieren zu lassen.