Vietnam.vn - Nền tảng quảng bá Việt Nam

OpenAIs Spracherkennungs-KI-Tool beim Erfinden von Geschichten ertappt

Báo Tuổi TrẻBáo Tuổi Trẻ31/10/2024

Der Technologieriese OpenAI hat sein Spracherkennungstool Whisper als KI mit „menschlicher Genauigkeit und Robustheit“ angepriesen. Whisper hat jedoch einen großen Fehler: Es generiert völlig falsche Texte und Sätze.


Công cụ AI trong bệnh viện bịa ra những điều không ai nói - Ảnh 1.

Einige der von der KI generierten Texte – sogenannte „Halluzinationen“ – können rassistische Kommentare, gewalttätige Sprache und sogar imaginäre medizinische Behandlungen enthalten – Foto: AP

Laut AP kamen Experten in Interviews mit Softwareingenieuren, Entwicklern und akademischen Forschern zu dem Schluss, dass manche von KI generierten Texte nicht real seien und als „Halluzinationen“ bezeichnet würden. Bezeichnenderweise enthalten sie rassistische Bemerkungen, gewalttätige Sprache und sogar imaginäre medizinische Behandlungen.

Hohe „Illusionsrate“ in KI-generierten Texten

Experten sind besonders besorgt, weil Whisper in vielen Branchen weltweit weit verbreitet ist, um Interviews zu übersetzen und zu transkribieren, Text in gängigen Verbrauchertechnologien zu generieren und Untertitel für Videos zu erstellen.

Noch beunruhigender ist, dass viele medizinische Zentren Whisper nutzen, um Konsultationen zwischen Ärzten und Patienten zu übertragen, obwohl OpenAI davor gewarnt hat, das Tool in „Hochrisikobereichen“ einzusetzen.

Das volle Ausmaß des Problems lässt sich nur schwer bestimmen, doch Forscher und Ingenieure geben an, dass sie bei ihrer Arbeit regelmäßig auf Whisper-„Halluzinationen“ stoßen.

Ein Forscher der University of Michigan sagte, er habe bei acht von zehn von ihm getesteten Audiokonvertierungen „Halluzinationen“ festgestellt. Ein Computeringenieur stellte bei etwa der Hälfte der Konvertierungen von über 100 Stunden Audiomaterial, das er analysierte, „Halluzinationen“ fest. Ein anderer Entwickler sagte, er habe in fast allen der 26.000 Aufnahmen, die er mit Whisper erstellt habe, „Halluzinationen“ festgestellt.

Das Problem besteht auch bei kurzen, klar aufgezeichneten Audiobeispielen weiterhin. Eine aktuelle Studie von Informatikern entdeckte 187 „Illusionen“ in mehr als 13.000 klaren Audioclips, die sie untersuchten. Dieser Trend würde zu Zehntausenden falscher Transkriptionen in Millionen von Aufnahmen führen, sagten die Forscher.

Solche Fehler können „sehr ernste Folgen“ haben, insbesondere im Krankenhausbereich, so Alondra Nelson, die bis letztes Jahr in der Biden-Regierung das Büro für Wissenschaft und Technologie des Weißen Hauses leitete.

„Niemand möchte eine Fehldiagnose“, betonte Nelson, heute Professor am Institute for Advanced Study in Princeton, New Jersey. „Es muss einen höheren Standard geben.“

Whisper wird auch verwendet, um Untertitel für Gehörlose und Schwerhörige zu erstellen – eine Bevölkerungsgruppe, bei der das Risiko von Fehlübersetzungen besonders hoch ist. Der Grund hierfür liegt darin, dass gehörlose und schwerhörige Menschen keine Möglichkeit haben, erfundene Passagen zu identifizieren, die „im restlichen Text versteckt sind“, sagt Christian Vogler, der gehörlos ist und das Technology Accessibility Program an der Gallaudet University leitet.

OpenAI soll das Problem lösen

Die Häufigkeit solcher „Halluzinationen“ hat Experten, Befürworter und ehemalige OpenAI-Mitarbeiter dazu veranlasst, die Bundesregierung aufzufordern, über KI-Regulierungen nachzudenken. Zumindest muss OpenAI diesen Fehler beheben.

„Dieses Problem ist lösbar, wenn das Unternehmen bereit ist, ihm Priorität einzuräumen“, sagte William Saunders, ein Forschungsingenieur in San Francisco, der OpenAI im Februar aufgrund von Bedenken hinsichtlich der Ausrichtung des Unternehmens verließ.

„Es wäre ein Problem, wenn man es auf den Markt bringt und die Leute zu viel Vertrauen in seine Fähigkeiten entwickeln und es dann in all diese anderen Systeme integrieren.“ Ein Sprecher von OpenAI sagte, das Unternehmen suche ständig nach Möglichkeiten, „Illusionen“ zu mildern, und schätze die Erkenntnisse der Forscher. Er fügte hinzu, dass OpenAI Feedback in die Modellaktualisierungen einbeziehe.

Während die meisten Entwickler davon ausgehen, dass Text-to-Speech-Engines Tippfehler oder andere Fehler machen können, sagen Ingenieure und Forscher, sie hätten noch nie eine KI-gestützte Text-to-Speech-Engine gesehen, die so viel „halluziniert“ wie Whisper.

Công cụ AI trong bệnh viện bịa ra những điều không ai nói - Ảnh 2. Nobelpreis für Physik 2024: Die Begründer der KI

Der diesjährige Nobelpreis für Physik wurde den beiden Wissenschaftlern John J. Hopfield und Geoffrey E. Hinton für „die grundlegenden Entdeckungen und Erfindungen, die zur Entwicklung des maschinellen Lernens mit künstlichen neuronalen Netzwerken geführt haben“ verliehen.


[Anzeige_2]
Quelle: https://tuoitre.vn/cong-cu-ai-chuyen-loi-noi-thanh-van-ban-cua-openai-bi-phat-hien-bia-chuyen-20241031144507089.htm

Kommentar (0)

Simple Empty
No data

Gleiches Thema

Gleiche Kategorie

In dem Moment, als die Hubschrauberstaffeln abhoben
In Ho-Chi-Minh-Stadt laufen die Vorbereitungen für den „Tag der nationalen Wiedervereinigung“ auf Hochtouren.
Ho-Chi-Minh-Stadt nach der nationalen Wiedervereinigung
10.500 Drohnen tauchen am Himmel über Ho-Chi-Minh-Stadt auf

Gleicher Autor

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt