In einer Erklärung betonten Branchenführer und Experten, dass die Bewältigung der Risiken durch KI „neben anderen Risiken wie Pandemien und Atomkrieg“ eine „globale Priorität“ sein müsse, so AFP. Die Erklärung wurde von Dutzenden Experten unterzeichnet, darunter Sam Altman, CEO von OpenAI, dem Unternehmen, das die ChatGPT-Plattform entwickelt hat.
ChatGPT erlangte Ende letzten Jahres Berühmtheit durch seine Fähigkeit, aus kürzesten Eingabeaufforderungen Essays, Gedichte und Chats zu generieren. Der ChatGPT-Hype hat Milliarden von Dollar an Investitionen im KI-Bereich angezogen.
ChatGPT-Logo und das englische Wort „Artificial Intelligence“ (AI)
Branchenexperten schlagen jedoch Alarm, da es viele Gefahren gibt, von voreingenommenen KI-Algorithmen bis hin zum Risiko eines Massenverlusts von Arbeitsplätzen, da die KI-gestützte Automatisierung in den Alltag der Menschen eindringt.
Die jüngste Erklärung, die auf der Website des Center for AI Safety (einer gemeinnützigen Organisation mit Sitz in den USA) veröffentlicht wurde, enthält keine Einzelheiten zu der potenziellen existenziellen Bedrohung durch KI.
Einige der Unterzeichner, darunter auch Geoffrey Hinton, der einige der grundlegenden Technologien für KI-Systeme entwickelt hat und als Vater der Branche gilt, haben in der Vergangenheit bereits ähnliche Warnungen ausgesprochen.
Ihre größte Sorge gilt der Idee der sogenannten künstlichen allgemeinen Intelligenz (AGI). Dabei handelt es sich um ein Konzept, das den Punkt beschreibt, an dem Maschinen in der Lage sind, viele der gleichen Funktionen wie Menschen auszuführen und eigene Programme zu entwickeln.
Das Beunruhigende ist, dass der Mensch nicht länger in der Lage sein wird, KI zu kontrollieren. Experten warnen, dass diese Situation verheerende Folgen für die Menschheit haben könnte.
Dutzende Experten von Unternehmen wie Google und Microsoft unterzeichneten die Erklärung, die laut AFP zwei Monate nach der Forderung des Milliardärs Elon Musk und anderer erfolgte, die Entwicklung von KI-Technologien zu unterbrechen, bis deren Sicherheit bewiesen sei.
[Anzeige_2]
Quellenlink
Kommentar (0)