Científicos australianos han desarrollado una nueva técnica que podría evitar que los sistemas de Inteligencia Artificial (IA) aprendan ilegalmente de imágenes, obras de arte y otros contenidos en línea.
Según la agencia científica nacional de Australia (CSIRO), la técnica altera sutilmente el contenido de las imágenes para que sean ilegibles para los modelos de IA, sin alterarlas para el ojo humano. Este proyecto fue desarrollado por CSIRO, en colaboración con el Centro de Investigación Cooperativa en Ciberseguridad de Australia (CSCRC) y la Universidad de Chicago (EE. UU.).
Los autores afirman que este avance podría ayudar a artistas, organizaciones y usuarios de redes sociales a proteger su trabajo y datos personales, impidiendo que se utilicen para entrenar sistemas de IA o crear deepfakes ( vídeos , imágenes o audios increíblemente realistas creados por IA). Por ejemplo, los usuarios podrían aplicar automáticamente una capa protectora a las imágenes antes de publicarlas, impidiendo que la IA aprenda rasgos faciales para crear deepfakes.
De manera similar, las organizaciones de defensa podrían proteger imágenes satelitales sensibles o datos sobre amenazas cibernéticas.
Según el Dr. Derui Wang, científico de CSIRO, este método utiliza una base matemática sólida para garantizar que los modelos de IA no puedan aprender de ese contenido, o en otras palabras, esta técnica hace que los datos sean "imposibles de aprender" para la IA a un nivel que protege la privacidad y los derechos de autor, al mismo tiempo que conserva su utilidad para los humanos.
Esta protección permanece vigente incluso si la IA intenta adaptarse o se vuelve a entrenar, añadió.
El Dr. Wang afirmó que la técnica podría aplicarse automáticamente a gran escala. Añadió que una plataforma o sitio web de redes sociales podría integrar esta capa protectora en todas las imágenes subidas. Esto podría frenar la proliferación de deepfakes, reducir el robo de propiedad intelectual y ayudar a los usuarios a mantener el control de su contenido.
Aunque el método actualmente solo es aplicable a imágenes, los investigadores planean ampliarlo a texto, música y vídeo. La tecnología aún se encuentra en fase teórica y solo se ha demostrado su eficacia en un entorno de laboratorio.
El trabajo científico mencionado anteriormente, titulado “Ejemplos de datos demostrablemente imposibles de aprender”, recibió el Premio a la Investigación Destacada en el Simposio de Seguridad de Redes y Sistemas Distribuidos (NDSS) de 2025.
Fuente: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp
Kommentar (0)