誤情報の拡散に伴う潜在的なリスク
科学技術は、報道機関やメディアがメッセージを伝える方法や、一般大衆のアクセス方法や有効性に影響を与えるだけでなく、情報の質にも大きな影響を与えます。
実際、ジャーナリズムは近年特に技術革新に素早く適応することができました。人工知能 (AI) は、メディアやニュース編集室でますます人気が高まっています。 AIの導入はジャーナリストとメディア組織の両方に利益をもたらしました。これにより、ジャーナリストは退屈な日常業務から解放され、時間を節約して、より創造的で高度なスキルを要する仕事に集中できるようになります。
AI には多くの利点がある一方で、いくつかの懸念も生じます。最も重大なリスクの 1 つは、AI によって生成されたコンテンツによって誤った情報が拡散される可能性があることです。
世界のトップ10の報道機関は、AIツールのトレーニングに使用できる著作権のある素材を管理し、AIアルゴリズムの偏りを排除するために、メディアとAI開発者の間で集団的かつ透明性のある交渉を行うことを求めている。
先週、世界の主要ニュース通信社10社が、AIを対象とした透明性と明確な著作権法を求める書簡に署名した。これらの報道機関は、AIはニュースの品質と完全性に対する読者の信頼を著しく損なうことにより、「メディアエコシステムの持続可能性を脅かす」可能性があると主張している。
多くの研究によると、AI を使用すると、読者を引き付け、関与させる可能性が最も高いストーリーをフィルタリングして選択できるため、ストーリーが客観的で人間が作成した方法で提示された場合に存在しないニュースの不均衡が生じる可能性があります。一般の人々は、物語の片側しか知らされておらず、そのため、AI によって生成された一方的な情報によって偏見を持たれる可能性があります。さらに、AI は、実際のニュースと並んで偽のニュースを提示することで、誤情報や偽のニュースを大衆に広めるために使用される可能性があります。
さらに、AIはフェイクニュースに騙される可能性もあります。 AIアルゴリズムはデータを迅速かつ正確に処理するように設計されているため、本物のニュースと偽のニュースを区別することが難しい場合があります。さらに、AI は処理するニュースの感情的および倫理的な意味合いを理解することができません。 AIがさらに進化するにつれ、フェイクニュースに対する脆弱性が高まり、真実と偽りの区別がさらに難しくなります。
ジャーナリズム・コミュニケーションアカデミー国際関係学部長のグエン・ゴック・オアン准教授によると、AIが強力になる時こそ、悪者や敵対勢力がAIを使って有害なニュースや偽ニュースを拡散するリスクに対して、特別な注意を払い、積極的に対応する必要がある時でもあるという。メディアのセキュリティの観点から見ると、これは誤報、歪曲、偽ニュースの潜在的なリスクとなります。人工知能が情報分野に応用されると、テクノロジーは、特にソーシャルネットワーキングの分野で、偽の音声や画像、偽のストーリーや発言を本物のように作り出して大衆を欺くのに役立つ可能性があります。
「悪意のある者は、報道機関の役割と評判を利用して情報を偽造し、報道機関が提供・反映した情報であると信じ込ませようとします。フェイクニュースの進化はますます巧妙かつ複雑化するため、警戒心を高めるとともに、フェイクニュースの特定、対応、そして対処方法には、スマートテクノロジーへの投資と体系的な対応に重点を置く必要があります。変化に適応するために、社会管理と報道機関の管理能力を向上させる必要があります」と、グエン・ゴック・オアン准教授は述べました。
ニュース業界は創造的なコンテンツを保護する方法を見つけなければなりません。
2022 年 11 月に ChatGPT がリリースされて以来、Generative AI プラットフォームに基づく新しいアプリケーションがほぼ毎日導入されています。その結果、インターネットは AI によって生成されたコンテンツで溢れています。人々を驚かせる内容がある一方で、味気ない繰り返しの内容も数多くあります。これにより、誤情報が拡散しやすくなり、読者の信頼を構築し回復するためにメディア業界に大きな負担がかかることになります。
ベトナムプラス新聞の副編集長であるジャーナリストのグエン・ホアン・ニャット氏は、多くの専門家が、報道機関の最初の大きな誤りの一つはソーシャルネットワークの重要性と侵略に対する反応が遅すぎたことだと言っていた過去の教訓を思い出した。 「私たちは長年、制作するすべてのコンテンツをソーシャルネットワーク上に公開し、それに合わせてコアとなる部分を変えてきました。しかし、それは時に私たちの強みにも読者のニーズにも合わないものです。つまり、ソーシャルネットワークに力を与えすぎた結果、ソーシャルネットワークに飲み込まれてしまったのです」と、ジャーナリストのグエン・ホアン・ニャット氏は述べた。
ベトナム女子チームがワールドカップに出場していた頃、ソーシャルネットワークには歪曲された情報や捏造された情報が拡散する情報源が数多く登場した。 (写真:VTC)
ジャーナリストのグエン・ホアン・ニャット氏は、現在のAIの脅威について、一般的にAIはニュース編集室の業務の迅速化やコスト削減に役立つが、編集者や記者の寛容性を高め、偽情報の拡散を早めることにもつながると述べた。 「例えば、最近の女子ワールドカップでは、ベトナム女子チームに関する偽コンテンツがAIツールを使って作成されたミームを通じて猛烈に拡散し、一部の視聴者の心理を極限まで刺激した」とジャーナリストのグエン・ホアン・ニャット氏は例を挙げた。
海外では、ニュースガードが、正規のニュースサイトと見た目は変わらないものの、AI生成コンテンツで満たされ、誤情報を広めているニュースサイトが347あるという衝撃的な統計を発表した。マサチューセッツ工科大学(MIT)の最近の調査によると、人間が書いた偽ニュースよりもAIが生成した誤情報を人々が信じる可能性が高いことがわかった。
ジャーナリストのグエン・ホアン・ニャット氏によると、この現実により、報道業界は創造的なコンテンツと知的財産を保護する方法を見つけなければならない立場に立たされているが、同時にAIがもたらす利便性を無視することもできないという。
ニュースの誠実さにおける課題を評価して、グエン・ゴック・オアン准教授は、Chat GPTには多くの優れた機能があるものの、結局のところ、ジャーナリストが習得して仕事に役立て、職業の原則に従って作品やジャーナリズム製品を作成するためのツールにすぎないと述べました。記者やジャーナリストが不正確な情報の拡散を「助長」したくないのであれば、彼らの情報源を検証することは極めて重要です。
人工知能に関する多くのセミナーや議論を通じて、ニュースルームのコンテンツ管理がデジタル技術の発展に追いつかない場合、ジャーナリズム作品で偽のデータやニュースが使用されるリスクが非常に高いという結論に達しました。ベトナムのデジタルジャーナリズムの法的枠組みがまだ現実に追いついていない状況では、自動化されたジャーナリズムを適用する際の法的トラブル、メディアの安全に対する脅威、著作権侵害事件、報道倫理や報道機関の社会的責任に関する論争などが、今日の大きな課題となっています。
ファンホアザン
[広告2]
ソース
コメント (0)