Technologieführer fordern eine Entwicklungspause für GPT-4.5 und GPT-5

Die generative KI hat sich in den letzten Monaten mit der Einführung verschiedener Tools und Bots wie z. B. in einem unglaublichen Tempo entwickelt ChatGPT von OpenAI, Google Bard, und mehr. Dennoch löst diese rasante Entwicklung bei erfahrenen Veteranen im KI-Bereich große Besorgnis aus – also So sehr, dass über 1.000 von ihnen einen offenen Brief unterzeichnet haben, in dem sie KI-Entwickler dazu auffordern, sich dagegen zu wehren Bremsen.

Der Brief wurde auf der Website des veröffentlicht Institut für die Zukunft des Lebens, einer Organisation, deren erklärte Mission darin besteht, „transformative Technologie dahingehend zu lenken, dass sie dem Leben zugutekommt und extreme Risiken im großen Maßstab verhindert“. Unter den Zu den Unterzeichnern gehören mehrere prominente Akademiker und Führungskräfte im Technologiebereich, darunter Apple-Mitbegründer Steve Wozniak, Twitter-CEO Elon Musk und der Politiker Andrew Yang.

Empfohlene Videos

Der Artikel fordert alle Unternehmen auf, an KI-Modellen zu arbeiten, die leistungsfähiger sind als die

kürzlich veröffentlichtes GPT-4 die Arbeit sofort für mindestens sechs Monate einzustellen. Dieses Moratorium sollte „öffentlich und überprüfbar“ sein und Zeit lassen, „gemeinsam eine Reihe gemeinsamer Maßnahmen zu entwickeln und umzusetzen“. Sicherheitsprotokolle für fortschrittliches KI-Design und -Entwicklung, die von unabhängiger Seite streng geprüft und überwacht werden Experten.“

Verwandt

  • Der ChatGPT-Hersteller OpenAI steht vor einer FTC-Untersuchung wegen Verbraucherschutzgesetzen
  • Die Bing-Browsing-Funktion von ChatGPT wurde aufgrund eines Paywall-Zugriffsfehlers deaktiviert
  • Der ChatGPT-Konkurrent von Apple schreibt möglicherweise automatisch Code für Sie

In dem Brief heißt es, dies sei notwendig, weil „KI-Systeme mit menschlicher Wettbewerbsintelligenz erhebliche Risiken für die Gesellschaft und die Menschheit darstellen können.“ Diese Zu den Risiken zählen die Verbreitung von Propaganda, die Zerstörung von Arbeitsplätzen, die mögliche Ersetzung und Veralterung menschlichen Lebens sowie der „Kontrollverlust“. unserer Zivilisation.“ Die Autoren fügen hinzu, dass die Entscheidung darüber, ob in diese Zukunft vorgedrungen werden soll, nicht der „ungewählten Technologie“ überlassen werden sollte Führer.“

KI „zum klaren Nutzen aller“

ChatGPT versus Google auf Smartphones.

Der Brief kommt kurz nachdem behauptet wurde, dass GPT-5, die nächste Version der Technologie, die ChatGPT antreibt, könnte künstliche allgemeine Intelligenz erreichen. Wenn das stimmt, bedeutet das, dass es in der Lage wäre, alles zu verstehen und zu lernen, was ein Mensch verstehen kann. Das könnte es auf eine Weise unglaublich mächtig machen, die noch nicht vollständig erforscht ist.

Darüber hinaus heißt es in dem Brief, dass es keine verantwortungsvolle Planung und kein verantwortungsvolles Management rund um die Entwicklung von KI-Systemen gäbe, „obwohl es in den letzten Monaten KI gab.“ Labore befinden sich in einem außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe, die niemand – nicht einmal ihre Schöpfer – verstehen, vorhersagen oder zuverlässig machen kann Kontrolle."

Stattdessen heißt es in dem Brief, dass neue Governance-Systeme geschaffen werden müssen, die die KI-Entwicklung regulieren und den Menschen helfen, von KI geschaffene und zu unterscheiden von Menschen erstellte Inhalte, machen KI-Labore wie OpenAI für jeden Schaden verantwortlich, den sie verursachen, ermöglichen es der Gesellschaft, mit KI-Störungen (insbesondere für die Demokratie) umzugehen, und mehr.

Die Autoren ziehen eine positive Bilanz und behaupten, dass „die Menschheit mit KI eine blühende Zukunft genießen kann … in der wir die Früchte ernten werden, Entwickeln Sie diese Systeme zum klaren Nutzen aller und geben Sie der Gesellschaft die Chance, sich anzupassen.“ Das Drücken der Pause bei KI-Systemen ist leistungsfähiger als GPT-4 würden dies zulassen, behaupten sie.

Wird der Brief seine beabsichtigte Wirkung haben? Das ist schwer zu sagen. Es gibt eindeutig Anreize für OpenAI, weiterhin an fortschrittlichen Modellen zu arbeiten, sowohl finanziell als auch hinsichtlich der Reputation. Doch angesichts der vielen potenziellen Risiken – und des geringen Verständnisses für diese – sind die Autoren des Briefs eindeutig der Meinung, dass diese Anreize zu gefährlich sind, um sie weiterzuverfolgen.

Empfehlungen der Redaktion

  • Google Bard kann jetzt sprechen, aber kann es ChatGPT übertönen?
  • Der ChatGPT-Website-Verkehr ist zum ersten Mal zurückgegangen
  • Laut einer Umfrage halten 81 % ChatGPT für ein Sicherheitsrisiko
  • Ich habe ChatGPT beigebracht, mir Brettspiele beizubringen, und jetzt werde ich nie mehr zurückgehen
  • Anwälte in New York wurden mit einer Geldstrafe belegt, weil sie gefälschte ChatGPT-Fälle in juristischen Schriftstücken verwendet hatten

Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.