Elon Musk und Tech-Manager fordern Pause bei der KI-Entwicklung
Autor: Coinkurier Redaktion
Veröffentlicht:
Aktualisiert:
Kategorie: Nachrichten
Zusammenfassung: ber 2.600 Technologieführer und Forscher, darunter Elon Musk und Steve Wozniak, haben einen offenen Brief unterzeichnet, in dem sie eine vorübergehende Unterbrechung der weiteren Entwicklung künstlicher Intelligenz fordern, da sie Risiken für die Gesellschaft und Menschheit befürchten. Das Future of Life Institute warnt vor einem außer Kontrolle geratenen Wettlauf zwischen KI-Unternehmen und fordert eine sorgfältige Verwaltung und Planung von fortgeschrittener AI.
Über 2.600 Technologieführer und Forscher, darunter Elon Musk, CEO von Tesla, und Steve Wozniak, Mitbegründer von Apple, haben einen offenen Brief unterzeichnet, in dem sie aus Angst vor "tiefgreifenden Risiken für die Gesellschaft und die Menschheit" auf eine vorübergehende Unterbrechung der weiteren Entwicklung künstlicher Intelligenz (KI) drängen. Der Brief wurde am 22. März von der US-amerikanischen Denkfabrik Future of Life Institute (FOLI) veröffentlicht und fordert alle KI-Unternehmen auf, das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, „sofort für mindestens sechs Monate zu pausieren“.
Das Institut warnt davor, dass "menschlich-konkurrierende Intelligenz tiefgreifende Risiken für die Gesellschaft und die Menschheit darstellen kann" und dass es einen "außer Kontrolle geratenen Wettlauf" zwischen KI-Firmen gibt, um leistungsfähigere KI zu entwickeln, die "niemand – nicht einmal ihre Schöpfer – verstehen, vorhersagen oder zuverlässig steuern kann."
Fortgeschrittene KI hat das Potenzial, eine tiefgreifende Veränderung in der Geschichte des Lebens auf der Erde darzustellen, und sollte mit entsprechender Sorgfalt und Ressourcen verwaltet werden. FOLI argumentiert jedoch, dass dieses Maß an Planung und Management nicht stattfindet. Der Brief hebt Bedenken darüber hervor, ob Maschinen Informationskanäle mit Propaganda und Unwahrheit überfluten könnten und ob Maschinen alle Beschäftigungsmöglichkeiten "wegautomatisieren" werden. FOLI schlägt auch vor, dass die unternehmerischen Bemühungen von KI-Unternehmen zu einer existenziellen Bedrohung führen können, und fragt:
"Sollten wir nichtmenschliche Köpfe entwickeln, die uns schließlich zahlenmäßig übertreffen, überlisten, überflüssig machen und ersetzen könnten? Sollten wir riskieren, die Kontrolle über unsere Zivilisation zu verlieren?"
FOLI unterstützt auch eine kürzliche Aussage von OpenAI-Gründer Sam Altman, dass eine unabhängige Überprüfung erforderlich sein sollte, bevor zukünftige KI-Systeme trainiert werden.
Altman hat die Notwendigkeit hervorgehoben, sich auf Roboter mit künstlicher allgemeiner Intelligenz (AGI) und künstlicher Superintelligenz (ASI) vorzubereiten. Allerdings haben sich nicht alle KI-Experten beeilt, die Petition zu unterzeichnen. Ben Goertzel, der CEO von SingularityNET, erklärte in einer Twitter-Antwort an Gary Marcus, den Autor von Rebooting.AI, dass Sprachlernmodelle (LLMs) nicht zu AGIs werden und dass Forschung und Entwicklung für Dinge wie Biowaffen verlangsamt werden sollten und Nukleartechnik.
Zusätzlich zu Sprachlernmodellen wie ChatGPT wurde KI-gestützte Deep-Fake-Technologie verwendet, um überzeugende Bilder, Audio- und Video-Hoaxes zu erstellen.
Die Technologie wurde auch verwendet, um KI-generierte Kunstwerke zu erstellen, was Bedenken darüber aufwirft, ob sie in bestimmten Fällen gegen Urheberrechtsgesetze verstoßen könnte. Mike Novogratz, CEO von Galaxy Digital, kritisierte kürzlich den Mangel an regulatorischer Aufmerksamkeit für KI und argumentierte, dass sie wichtiger sei als die Regulierung von Kryptowährungen.
FOLI hat argumentiert, dass die Regierungen eingreifen und ein Moratorium einführen sollten, wenn eine Pause in der KI-Entwicklung nicht schnell erlassen wird.
"Diese Pause sollte öffentlich und überprüfbar sein und alle Schlüsselakteure umfassen. Wenn eine solche Pause nicht schnell erlassen werden kann, sollten die Regierungen eingreifen und ein Moratorium einführen", schließt der Brief.
Bildquelle: Pixabay