Google Lens — поисковая система изображений, разработанная Google. Фото: KLMOBILE
По данным Full Fact, упомянутые выше случаи касаются видеороликов, предположительно посвященных войне на Украине и в секторе Газа, конфликту между Индией и Пакистаном, крушению самолета Air India в июне 2025 года и иммигрантам, прибывающим в Великобританию на небольших лодках.
Full Fact использовал Google Lens для поиска скриншотов из ложных видеороликов, факты в которых они проверили.
Как минимум в 10 случаях сводки ИИ не смогли распознать фейковый контент, даже повторив дезинформацию, схожую с той, что была в социальных сетях.
В четырёх примерах обзор ИИ дословно повторял ложные утверждения, которые Full Fact уже опроверг. Кроме того, результаты сводки ИИ могли меняться при каждом поиске, даже для одного и того же изображения, что приводило к противоречивой информации.
Google признает, что некоторые из этих ошибок могут возникать, заявляя, что причина кроется в результатах поиска изображений, а не в системе обзора ИИ.
По данным Google, результаты поиска изображений могут включать веб-источники или сообщения в социальных сетях, содержащие как совпадающие изображения, так и ложную информацию, и это влияет на обобщение данных ИИ.
Google заявляет, что всегда стремится отображать актуальную и качественную информацию, постоянно совершенствуется и при обнаружении проблем будет принимать меры в соответствии с политикой.
Хотя Google утверждает, что обзоры ИИ редко «фабрикуют» информацию (это также известно как «галлюцинации» ИИ), они все равно распространяют дезинформацию по важным и деликатным вопросам.
Например, в вирусном видео ложно утверждалось, что просители убежища прибывают на пляж Дувр в Англии, хотя на самом деле действие происходило на пляже в Гоа, Индия. Google Lens при поиске скриншота этого видео определил его как «люди собираются на пляже Дувр в Англии».
Или некоторые фейковые видеоролики о войне в России и Украине, даже кадры из видеоигры Arma 3, которые ИИ-обзор описывает как настоящие, не предупреждая при этом, что это фейковый контент.
Известен случай, когда одна и та же видеоигра, но две разные фотографии были интерпретированы ИИ как сцена перехвата артиллерийских снарядов системой обороны C-RAM и сцена запуска ракеты SpaceX, при этом совершенно не утверждается, что это поддельное изображение.
Синтез искусственного интеллекта Google Lens выдал ложную информацию, заявив, что это изображение беженцев, прибывающих в город Дувр, Англия. Фото: ПОЛНЫЙ ФАКТ
Google Lens — это инструмент поиска изображений, который позволяет пользователям искать фотографии или кадры из видео и сравнивать их с похожими изображениями в Интернете.
Иногда в верхней части страницы появляется сводка по ИИ, агрегирующая релевантную информацию из интернета. Несмотря на предупреждение о том, что «ИИ может совершать ошибки», размещение дезинформации на видном месте может легко ввести общественность в заблуждение.
Full Fact рекомендует рассматривать инструмент обзора ИИ Google Lens как отправную точку, а не как замену ручной проверки фактов, а также искать дополнительные надежные источники для сравнения.
Это не первый случай, когда результаты поиска Google показывают неверную информацию. Full Fact заявляет, что в прошлом получал финансирование от Google и Google.org, но сохраняет полную редакционную независимость.
Источник: https://tuoitre.vn/google-lens-hien-thi-thong-tin-sai-lech-ve-hinh-anh-20250814110509932.htm
Комментарий (0)