Wozniak, Musk und führende Forscher fordern eine Pause bei „außer Kontrolle geratener“ KI

Ein neuer offener Brief, der von Technologieführern unterzeichnet wurde, fordert eine sechsmonatige Pause bei der Entwicklung fortschrittlicher Anwendungen der künstlichen Intelligenz, die „tiefgreifende Risiken für die Gesellschaft und die Menschheit“ darstellen könnten.

Apple-Mitbegründer Steve Wozniak, Tesla-CEO Elon Musk, andere Tech-Manager und viele KI-Akademiker unterzeichneten den Brief. Es mahnt zur Vorsicht in Bezug auf „emergierende“ KI, die leistungsfähiger als GPT-4 ist. Wir sprechen hier nicht von Siri (zumindest noch nicht).

Offener Brief fordert dringend eine Pause für eine sorgfältigere Planung zur Verwaltung fortschrittlicher KI

Der Buchstabe erschien auf der Website des Future of Life Institute und zog am Mittwoch mehr als 1.123 Unterschriften an. Es erfordert keine Pause alleKI-Entwicklung, nur „immer größere unvorhersehbare Black-Box-Modelle mit aufstrebenden Fähigkeiten“.

„Wir fordern alle KI-Labore auf, das Training von KI-Systemen, die leistungsstärker als GPT-4 sind, unverzüglich für mindestens 6 Monate zu unterbrechen“, hieß es. Es fügte die Pause hinzu, „sollte öffentlich und überprüfbar sein“. Und wenn es nicht schnell geht, „sollten die Regierungen eingreifen und ein Moratorium einleiten“.

„Außer Kontrolle geratenes Rennen“

Der Brief beschrieb die KI-Entwicklung als außer Kontrolle geraten, riskant, unvorhersehbar und dank des lebhaften Wettbewerbs für die eigenen Macher sogar unverständlich. Es zitiert die Asilomar KI-Prinzipien entwickelt auf der Beneficial AI Conference 2017:

Wie in den weit verbreiteten Asilomar-KI-Prinzipien angegeben, Fortgeschrittene KI könnte eine tiefgreifende Veränderung in der Geschichte des Lebens auf der Erde darstellen und sollte mit entsprechender Sorgfalt und Ressourcen geplant und verwaltet werden. Leider findet dieses Planungs- und Managementniveau nicht statt, obwohl die KI-Labore in den letzten Monaten außer Kontrolle geraten sind Rennen darum, immer leistungsfähigere digitale Köpfe zu entwickeln und einzusetzen, die niemand – nicht einmal ihre Schöpfer – verstehen, vorhersagen oder zuverlässig verstehen kann Kontrolle.

Sollen machen wir das überhaupt?

Die Unterzeichner stellten eine Reihe von Fragen, die sie betonten sollen fragen Sie, bevor Sie die KI-Entwicklung vorantreiben. Der Brief verwies auch auf die Macht der KI, viele Arten von Jobs auf verschiedenen Ebenen wegzunehmen, nicht nur einfache, sich wiederholende Aufgaben.

Sollen wir Maschinen unsere Informationskanäle mit Propaganda und Unwahrheit fluten lassen? Sollen wir alle Jobs wegautomatisieren, einschließlich der erfüllenden? Sollen wir nichtmenschliche Köpfe entwickeln, die uns schließlich zahlenmäßig übertreffen, überlisten, obsolet machen und ersetzen könnten? Sollen riskieren wir den Kontrollverlust über unsere Zivilisation? Solche Entscheidungen dürfen nicht an nicht gewählte Technologieführer delegiert werden. Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Wirkung positiv und ihre Risiken überschaubar sind.

Sogar der Entwickler des AI-Bots ChatGPT hat es vorgeschlagen

In dem Schreiben wurde darauf hingewiesen, dass ChatGPT-Entwickler OpenAI zuvor bemerkte, dass eine Pause notwendig werden könnte.

In der jüngsten Erklärung von OpenAI zur künstlichen allgemeinen Intelligenz heißt es: „Irgendwann kann es wichtig sein, vorher eine unabhängige Überprüfung einzuholen beginnen, zukünftige Systeme zu trainieren, und für die fortschrittlichsten Bemühungen, sich darauf zu einigen, die Wachstumsrate der für die Erstellung neuer Modelle verwendeten Rechenleistung zu begrenzen.“ Wir zustimmen. Dieser Punkt ist jetzt.

Positive Effekte und überschaubare Risiken

Neben den oben genannten positiven Effekten und überschaubaren Risiken wird das Ziel einer Pause in dem Schreiben so zusammengefasst:

KI-Forschung und -Entwicklung sollten sich darauf konzentrieren, die heutigen leistungsstarken, hochmodernen Systeme genauer, sicherer, interpretierbarer, transparenter, robuster, abgestimmter, vertrauenswürdiger und loyaler zu machen.

Und der Brief fuhr fort, notwendige Sicherheitsvorkehrungen durch Governance-Systeme zu beschreiben, die in Zusammenarbeit mit politischen Entscheidungsträgern entwickelt wurden.

KI-Entwickler müssen mit politischen Entscheidungsträgern zusammenarbeiten, um die Entwicklung robuster KI-Governance-Systeme drastisch zu beschleunigen. Diese sollten mindestens umfassen: neue und leistungsfähige Regulierungsbehörden, die sich der KI verschrieben haben; Überwachung und Verfolgung hochleistungsfähiger KI-Systeme und großer Pools von Rechenkapazitäten; Herkunfts- und Wasserzeichensysteme, um zu helfen, echte von synthetischen zu unterscheiden und Modelllecks zu verfolgen; ein robustes Audit- und Zertifizierungs-Ökosystem; Haftung für KI-verursachte Schäden; solide öffentliche Finanzierung der technischen KI-Sicherheitsforschung; und gut ausgestattete Institutionen zur Bewältigung der dramatischen wirtschaftlichen und politischen Störungen (insbesondere der Demokratie), die KI verursachen wird.

Stimmen Sie zu, dass eine Pause erforderlich ist, um fortgeschrittene KI zu überlegen und zu planen? Fühlen Sie sich frei, unten zu kommentieren.

Neuester Blogbeitrag

| Kult des Mac
September 11, 2021

Apple hat möglicherweise versehentlich ein neues MacBook durchgesickertHat Apple versehentlich ein neues MacBook enthüllt?Foto: ApfelApple hat der ...

| Kult des Mac
September 11, 2021

Apples monströse Weihnachtswerbung wird dein frostiges Herz zum Schmelzen bringenEin unerwarteter Urlaubsgast wird endlich herzlich willkommen gehe...

| Kult des Mac
September 11, 2021

So könnte Apple das iPhone 6 unhackbar (und nicht liebenswert) machenFoto: Screenshot von Funny or DieEs tut uns leid, Internet, aber das neues Fun...