Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

Une nouvelle technique permet d'empêcher l'IA d'apprendre à partir de données non autorisées

Selon l'agence scientifique nationale australienne, cette nouvelle technique modifie subtilement le contenu des images pour les rendre illisibles pour les modèles d'IA, tout en restant inchangées pour l'œil humain.

VietnamPlusVietnamPlus12/08/2025

Des scientifiques australiens ont développé une nouvelle technique qui pourrait empêcher les systèmes d’intelligence artificielle (IA) d’apprendre illégalement à partir d’images, d’œuvres d’art et d’autres contenus en ligne.

Selon l'agence scientifique nationale australienne (CSIRO), cette technique modifie subtilement le contenu des images pour les rendre illisibles par les modèles d'IA, tout en restant inaltérés à l'œil nu. Il s'agit d'un projet développé par le CSIRO, en collaboration avec le Centre australien de recherche coopérative sur la cybersécurité (CSCRC) et l'Université de Chicago (États-Unis).

Les auteurs affirment que cette avancée pourrait aider les artistes, les organisations et les utilisateurs des réseaux sociaux à protéger leurs œuvres et leurs données personnelles contre toute utilisation pour entraîner les systèmes d'IA ou créer des deepfakes – des vidéos , images ou sons incroyablement réalistes créés par l'IA. Par exemple, les utilisateurs pourraient appliquer automatiquement une couche de protection aux images avant publication, empêchant ainsi l'IA d'apprendre les traits du visage pour créer des deepfakes.

De même, les organisations de défense peuvent protéger les images satellites sensibles ou les données relatives aux cybermenaces.

Selon le Dr Derui Wang, scientifique au CSIRO, cette méthode utilise une base mathématique solide pour garantir que les modèles d'IA ne peuvent pas apprendre de ce contenu, ou en d'autres termes, cette technique rend les données « impossibles à apprendre » pour l'IA à un niveau qui protège la vie privée et le droit d'auteur, tout en conservant son utilité pour les humains.

Cette protection reste en vigueur même si l'IA tente de s'adapter ou est recyclée, a-t-il ajouté.

Le Dr Wang a déclaré que cette technique pourrait être appliquée automatiquement à grande échelle. Il a ajouté qu'une plateforme ou un site de médias sociaux pourrait intégrer cette couche de protection à toutes les images téléchargées. Cela pourrait freiner la prolifération des deepfakes, réduire le vol de propriété intellectuelle et aider les utilisateurs à garder le contrôle de leur contenu.

Bien que la méthode ne soit actuellement applicable qu'aux images, les chercheurs prévoient de l'étendre au texte, à la musique et à la vidéo. La technologie en est encore au stade théorique et son efficacité n'a été démontrée qu'en laboratoire.

Le travail scientifique ci-dessus, intitulé « Exemples de données prouvablement non apprenables », a reçu le prix de la recherche exceptionnelle lors du Symposium sur la sécurité des réseaux et des systèmes distribués (NDSS) 2025./.

(Vietnam+)

Source : https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp


Comment (0)

Simple Empty
No data
À l'intérieur du lieu d'exposition pour le 80e anniversaire de la Fête nationale, le 2 septembre
Aperçu de la première séance d'entraînement A80 sur la place Ba Dinh
Lang Son élargit sa coopération internationale en matière de préservation du patrimoine culturel
Le patriotisme à la manière des jeunes

Patrimoine

Chiffre

Entreprise

No videos available

Nouvelles

Système politique

Locale

Produit