Австралийские ученые разработали новую технологию, которая может помешать системам искусственного интеллекта (ИИ) незаконно обучаться на изображениях, произведениях искусства и другом онлайн-контенте.
По данным Национального научного агентства Австралии (CSIRO), эта технология позволяет тонко изменять содержание изображений, делая их нечитаемыми для моделей искусственного интеллекта, но при этом невосприимчивыми к человеческому глазу. Этот проект разработан CSIRO совместно с Австралийским центром совместных исследований кибербезопасности (CSCRC) и Чикагским университетом (США).
Авторы утверждают, что этот прорыв может помочь художникам, организациям и пользователям социальных сетей защитить свои рабочие и личные данные от использования для обучения систем искусственного интеллекта или создания дипфейков — невероятно реалистичных видео , изображений или аудио, создаваемых искусственным интеллектом. Например, пользователи смогут автоматически наносить защитный слой на изображения перед публикацией, не позволяя ИИ изучать черты лица для создания дипфейков.
Аналогичным образом оборонные организации могут защищать конфиденциальные спутниковые снимки или данные о киберугрозах.
По словам доктора Деруя Вана, ученого из CSIRO, этот метод использует прочную математическую основу, чтобы гарантировать, что модели ИИ не смогут обучаться на этом контенте, или, другими словами, эта технология делает данные «необучаемыми» для ИИ до уровня, который защищает конфиденциальность и авторские права, сохраняя при этом их полезность для людей.
Он добавил, что эта защита остается в силе, даже если ИИ пытается адаптироваться или переобучается.
Доктор Ван отметил, что эту технологию можно применять автоматически в больших масштабах. Он добавил, что платформа или сайт социальных сетей может встраивать этот защитный слой во все загружаемые изображения. Это может сдержать распространение дипфейков, уменьшить кражу интеллектуальной собственности и помочь пользователям сохранить контроль над своим контентом.
Хотя в настоящее время метод применим только к изображениям, исследователи планируют распространить его на текст, музыку и видео. Технология пока находится на стадии теоретических разработок и её эффективность была продемонстрирована только в лабораторных условиях.
Вышеуказанная научная работа под названием «Примеры данных, которые можно доказать и которые невозможно изучить» была удостоена награды за выдающиеся исследования на Симпозиуме по безопасности сетей и распределенных систем (NDSS) 2025 года./.
Источник: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp
Комментарий (0)