يمكن للفنانين استخدام هذه الأداة لحماية أعمالهم من تقليد الذكاء الاصطناعي.

ADVERTISEMENT

صمّم فريق من جامعة شيكاغو برنامجاً جديداً سمّاه Nightshade لحماية الأعمال الفنية من استعمالها دون موافقة ضمن تدريب نماذج الذكاء الاصطناعي. يضيف البرنامج تعديلات دقيقة على الصورة لا يلاحظها الإنسان، لكنها تربك النموذج أثناء التعليم فتخرج نتائج خاطئة، مثل أن يصف السيارة بأنها بقرة أو يخلط بين أساليب فنية متباينة.

كتب بينج إدواردز في Ars Technica أن الصورة التي تبدو عادية تحمل خصائص خفية تعيق سير النموذج. أظهر الفريق أن كمية قليلة من الصور المعدلة تؤدي تغييراً واسعاً: خمسون صورة مشوّهة حوّلت مخرجات Stable Diffusion، وكلما زاد العدد اشتد الخلل حتى اختفت ملامح الكلاب تماماً بعد ثلاثمئة صورة.

ADVERTISEMENT

أُنجز Nightshade جنباً إلى جنب مع أداة Glaze التي تخفي أسلوب الفنان عن تحليل الذكاء الاصطناعي، والهدف دمج الاثنتين لحماية حقوق المبدعين. لا يمنع البرنامج استغلال الأعمال في النماذج التي سبق تدريبها، لكنه يعيق بناء نماذج جديدة من تلك البيانات.

قال الباحث بن تجاو إن التقنية تعزز موقف الفنانين أمام الشركات التقنية التي تتبنى مبدأ «كل شيء مسموح». حذر مع ذلك من استعمال البرنامج في أذى، لأن الهجوم الواسع يحتاج آلاف الصور المعدلة، وهو عائق أمام التخريب.

ترى الباحثة في الفن المعاصر ماريان مازون أن Nightshade خطوة مهمة لصالح الفنانين، لكنها تؤكد ضرورة مواصلة العمل القانوني في ظل الموارد الضخمة والتطور السريع للذكاء الاصطناعي. أعربت الفنانة أوتمن بيفرلي عن شكرها للأداتين اللتين أعادتا إليها الثقة بنشر أعمالها على الإنترنت بعد أن استُخدم فنها سابقاً دون إذنها.

toTop