Mögliche Risiken bei der Verbreitung von Fehlinformationen
Wissenschaft und Technologie beeinflussen nicht nur die Art und Weise, wie Presse und Medien ihre Botschaften vermitteln, sie beeinflussen auch die Art und Wirksamkeit des öffentlichen Zugangs und haben einen großen Einfluss auf die Qualität der Informationen.
Tatsächlich konnte sich der Journalismus insbesondere in den letzten Jahren schnell an technologische Neuerungen anpassen. Künstliche Intelligenz (KI) erfreut sich in den Medien und Redaktionen zunehmender Beliebtheit. Sowohl Journalisten als auch Medienorganisationen kamen von der Einführung künstlicher Intelligenz zugute. Es befreit Journalisten von mühsamen Routineaufgaben, spart ihnen Zeit und ermöglicht ihnen, sich auf kreativere und anspruchsvollere Arbeit zu konzentrieren.
Obwohl KI viele Vorteile bietet, wirft sie auch einige Bedenken auf. Eines der größten Risiken besteht darin, dass durch KI-generierte Inhalte möglicherweise Fehlinformationen verbreiten.
Die zehn größten Nachrichtenagenturen der Welt fordern gemeinsame und transparente Verhandlungen zwischen Medien und KI-Entwicklern, um zu kontrollieren, welches urheberrechtlich geschützte Material zum Trainieren von KI-Tools verwendet werden kann, und um Voreingenommenheit in KI-Algorithmen zu beseitigen.
In der vergangenen Woche unterzeichneten zehn der weltweit führenden Nachrichtenagenturen einen Brief, in dem sie Transparenz und klare Urheberrechtsgesetze im Hinblick auf KI forderten. Diese Nachrichtenagenturen argumentieren, dass KI das Potenzial habe, „die Nachhaltigkeit des Medien-Ökosystems zu gefährden“, indem sie das Vertrauen der Leser in die Qualität und Integrität der Nachrichten erheblich untergrabe.
Zahlreichen Studien zufolge kann KI dazu verwendet werden, die Geschichten zu filtern und auszuwählen, die die größte Leseratte ansprechen und fesseln. Dadurch entsteht ein Ungleichgewicht in den Nachrichten, das nicht bestehen würde, wenn die Geschichten objektiv und von Menschenhand erstellt präsentiert würden. Die Öffentlichkeit erfährt nur eine Seite der Geschichte und kann daher durch einseitige, von KI generierte Informationen voreingenommen sein. Darüber hinaus kann KI dazu verwendet werden, Fehlinformationen und Fake News in der Öffentlichkeit zu verbreiten, indem neben wahren Geschichten auch falsche Geschichten präsentiert werden.
Darüber hinaus kann KI auch durch Fake News getäuscht werden. KI-Algorithmen sind darauf ausgelegt, Daten schnell und präzise zu verarbeiten. Das bedeutet, dass es schwierig sein kann, zwischen echten und gefälschten Nachrichten zu unterscheiden. Darüber hinaus ist KI nicht in der Lage, die emotionalen und ethischen Auswirkungen der von ihr verarbeiteten Nachrichten zu verstehen. Mit der Weiterentwicklung der KI wird auch die Anfälligkeit für Fake News zunehmen, sodass es noch schwieriger wird, zwischen Wahrheit und Fälschung zu unterscheiden.
Laut Associate Professor Dr. Nguyen Ngoc Oanh, Leiter der Abteilung für Internationale Beziehungen an der Akademie für Journalismus und Kommunikation, ist es, wenn KI an Macht gewinnt, auch an der Zeit, der Gefahr, dass Bösewichte und feindliche Mächte KI zur Verbreitung toxischer und gefälschter Nachrichten nutzen, besondere Aufmerksamkeit zu schenken und proaktiv dagegen vorzugehen. Aus Sicht der Mediensicherheit besteht hierdurch ein potenzielles Risiko von Fehlinformationen, Verzerrungen und Fake News. Sobald künstliche Intelligenz im Informationsbereich eingesetzt wird, kann die Technologie dabei helfen, Stimmen und Bilder zu fälschen sowie gefälschte Geschichten und Aussagen zu erstellen, die echt erscheinen, um die Öffentlichkeit zu täuschen, insbesondere im Bereich der sozialen Netzwerke.
„Personen mit schlechten Absichten missbrauchen die Rolle und den Ruf der Presse, um Informationen zu verfälschen und die Öffentlichkeit über die von der Presse verbreiteten und wiedergegebenen Informationen zu täuschen. Die Entwicklung von Fake News wird immer raffinierter und komplexer. Daher müssen Methoden zur Identifizierung, Reaktion und zum Umgang mit Fake News neben erhöhter Wachsamkeit auf Investitionen in intelligente Technologien und einen systematischen Umgang mit ihnen ausgerichtet sein. Die Kapazitäten des Social Managements und des Managements von Presseagenturen müssen verbessert werden, um sich an die Veränderungen anzupassen“, kommentierte Associate Professor Dr. Nguyen Ngoc Oanh.
Die Nachrichtenbranche muss Wege finden, ihre kreativen Inhalte zu schützen.
Seit der Einführung von ChatGPT im November 2022 werden fast täglich neue Anwendungen auf Basis der Generative-AI-Plattform bereitgestellt. Infolgedessen ist das Internet voll mit KI-generierten Inhalten. Neben den Dingen, die die Leute zum Staunen bringen, gibt es auch viele langweilige, sich wiederholende Inhalte. Dadurch wird die Verbreitung von Fehlinformationen erleichtert und die Medienbranche wird stärker belastet, wenn sie versucht, das Vertrauen der Leser aufzubauen und wiederherzustellen.
Der Journalist Nguyen Hoang Nhat, stellvertretender Chefredakteur der Zeitung Vietnamplus, erinnerte an die Lehren der Vergangenheit, als viele Experten sagten, einer der ersten großen Fehler der Presse sei gewesen, zu langsam auf die Bedeutung und Invasion sozialer Netzwerke zu reagieren. „Wir haben lange Zeit alle unsere Inhalte in den sozialen Netzwerken veröffentlicht und unsere Kernthemen entsprechend geändert, was manchmal weder unsere Stärke noch die Bedürfnisse der Leser sind. Kurz gesagt: Wir haben den sozialen Netzwerken zu viel Macht eingeräumt, was dazu geführt hat, dass die sozialen Netzwerke uns verschluckt haben“, sagte der Journalist Nguyen Hoang Nhat.
Während die vietnamesische Frauenmannschaft an der Weltmeisterschaft teilnahm, tauchten in den sozialen Netzwerken zahlreiche Quellen auf, die verzerrte und erfundene Informationen verbreiteten. (Foto: VTC)
Mit Blick auf die aktuelle Bedrohung durch KI sagte der Journalist Nguyen Hoang Nhat, dass KI Nachrichtenredaktionen im Allgemeinen dabei helfe, ihre Arbeit schneller zu erledigen und Kosten zu sparen. Allerdings werde sie Redakteure und Reporter nachsichtiger machen und außerdem dazu beitragen, dass sich Falschinformationen schneller verbreiten. „Beispielsweise verbreiteten sich während der jüngsten Frauen-Weltmeisterschaft gefälschte Inhalte über die vietnamesische Frauenmannschaft durch mithilfe von KI-Tools erstellte Memes furchtbar viral und trieben die allgemeine Psychologie eines Teils des Publikums auf die Spitze“, nannte der Journalist Nguyen Hoang Nhat ein Beispiel.
Im Ausland veröffentlichte News Guard eine erschreckende Statistik, wonach es 347 Nachrichtenseiten gab, die sich optisch nicht von seriösen Nachrichtenseiten unterschieden, aber mit KI-generierten Inhalten gefüllt waren und Fehlinformationen verbreiteten. Eine aktuelle Studie des Massachusetts Institute of Technology (MIT) ergab, dass Menschen eher von KI generierten Fehlinformationen Glauben schenken als von Menschen verfassten Fake News.
Laut dem Journalisten Nguyen Hoang Nhat zwingt diese Realität die Nachrichtenbranche dazu, Wege zum Schutz ihrer kreativen Inhalte und ihres geistigen Eigentums zu finden, ohne jedoch auf die Annehmlichkeiten verzichten zu müssen, die KI mit sich bringt.
Außerordentlicher Professor Dr. Nguyen Ngoc Oanh bewertete die Herausforderungen im Hinblick auf die Ehrlichkeit von Nachrichten und sagte, dass Chat GPT zwar viele herausragende Funktionen habe, es sich letztlich aber nur um ein Werkzeug handele, das Journalisten beherrschen lernen müssten, um es für ihre Arbeitstätigkeit einzusetzen und Werke und journalistische Produkte gemäß den Grundsätzen des Berufsstandes zu schaffen. Die Frage der Überprüfung der Informationsquellen von Reportern und Journalisten ist äußerst wichtig, wenn sie nicht zur Verbreitung ungenauer Informationen „beitragen“ wollen.
Zahlreiche Seminare und Diskussionen zum Thema künstliche Intelligenz lassen eine Schlussfolgerung zu: Das Risiko, in journalistischen Arbeiten gefälschte Daten und Nachrichten zu verwenden, ist sehr hoch, wenn das Content-Management in den Redaktionen nicht mit der Entwicklung der digitalen Technologie Schritt halten kann. Da der Rechtsrahmen für den digitalen Journalismus in Vietnam noch nicht mit der Realität Schritt gehalten hat, stellen rechtliche Probleme, Bedrohungen der Mediensicherheit, Fälle von Urheberrechtsverletzungen sowie Kontroversen über Presseethik und soziale Verantwortung der Presse bei der Anwendung des automatisierten Journalismus heute große Herausforderungen dar.
Phan Hoa Giang
[Anzeige_2]
Quelle
Kommentar (0)