نجح علماء أستراليون في تطوير تقنية جديدة يمكنها منع أنظمة الذكاء الاصطناعي من التعلم بشكل غير قانوني من الصور والأعمال الفنية وغيرها من المحتوى عبر الإنترنت.
وفقًا للوكالة الوطنية الأسترالية للعلوم والبحوث العلمية (CSIRO)، تُغيّر هذه التقنية محتوى الصور بمهارة لجعلها غير قابلة للقراءة بواسطة نماذج الذكاء الاصطناعي، مع بقائها ثابتةً للعين البشرية. هذا مشروعٌ طوّرته CSIRO، بالتعاون مع مركز أبحاث التعاون الأمني السيبراني الأسترالي (CSCRC) وجامعة شيكاغو (الولايات المتحدة الأمريكية).
يقول الباحثون إن هذا الاختراق قد يساعد الفنانين والمؤسسات ومستخدمي وسائل التواصل الاجتماعي على حماية أعمالهم وبياناتهم الشخصية من استخدامها لتدريب أنظمة الذكاء الاصطناعي أو إنشاء مقاطع فيديو وصور ومقاطع صوتية واقعية للغاية من إنتاج الذكاء الاصطناعي. على سبيل المثال، يمكن للمستخدمين وضع طبقة حماية تلقائيًا على الصور قبل نشرها، مما يمنع الذكاء الاصطناعي من تعلم ملامح الوجه لإنشاء مقاطع فيديو مزيفة.
وعلى نحو مماثل، قد تقوم منظمات الدفاع بحماية صور الأقمار الصناعية الحساسة أو البيانات المتعلقة بالتهديدات السيبرانية.
وبحسب الدكتور ديروي وانج، وهو عالم في منظمة البحوث العلمية والصناعية الكومنولثية، فإن هذه الطريقة تستخدم أساسًا رياضيًا قويًا لضمان عدم قدرة نماذج الذكاء الاصطناعي على التعلم من هذا المحتوى، أو بعبارة أخرى، تجعل هذه التقنية البيانات "غير قابلة للتعلم" بالنسبة للذكاء الاصطناعي إلى مستوى يحمي الخصوصية وحقوق النشر، مع الاحتفاظ بفائدتها للبشر.
وأضاف أن هذه الحماية تظل سارية حتى لو حاول الذكاء الاصطناعي التكيف أو إعادة تدريبه.
قال الدكتور وانغ إنه يمكن تطبيق هذه التقنية تلقائيًا على نطاق واسع. وأضاف أن منصات أو مواقع التواصل الاجتماعي يمكنها تضمين هذه الطبقة الواقية في جميع الصور المُحمّلة. هذا من شأنه أن يحدّ من انتشار التزييف العميق، ويُقلّل من سرقة الملكية الفكرية، ويُساعد المستخدمين على الاحتفاظ بسيطرتهم على محتواهم.
بينما تقتصر هذه الطريقة حاليًا على الصور، يخطط الباحثون لتوسيع نطاقها لتشمل النصوص والموسيقى والفيديو. لا تزال هذه التقنية في مرحلتها النظرية، ولم تُثبت فعاليتها إلا في بيئة مختبرية.
حصل العمل العلمي المذكور أعلاه، والذي يحمل عنوان "أمثلة بيانات يصعب تعلمها على نحو مؤكد"، على جائزة البحث المتميز في ندوة أمن الشبكات والأنظمة الموزعة لعام 2025 (NDSS)./.
المصدر: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp
تعليق (0)