[ الصفحة الأولى ]مال وأعمال

“ساوند كلاود” تغير سياساتها لتدريب الذكاء الاصطناعي على محتوى المستخدمين

يبدو أن منصة بث الموسيقى والصوت ساوند كلاود قد غيّرت شروط استخدامها سرًا للسماح للشركة بتدريب نماذج الذكاء الاصطناعي على المقاطع الصوتية التي يرفعها المستخدمون على المنصة.

وكما لاحظ خبير أخلاقيات التكنولوجيا إد-نيوتن ريكس، تتضمن أحدث نسخة من شروط ساوند كلاود بندًا يمنح المنصة الإذن باستخدام المحتوى الذي يرفعه المستخدمون لـ”إعلام أو تدريب أو تطوير” الذكاء الاصطناعي.

وتنص الشروط، التي حُدِّثت آخر مرة في 7 فبراير، على ما يلي: “أنت توافق صراحةً على إمكانية استخدام محتواك لإعلام أو تدريب أو تطوير أو كمدخلات لتقنيات أو خدمات الذكاء الاصطناعي أو الذكاء الآلي كجزء من الخدمات ولتقديمها”، بحسب تقرير لموقع “TechCrunch” المتخصص في أخبار التكنولوجيا.

وتستثني الشروط المحتوى بموجب “اتفاقيات منفصلة” مع أصحاب الحقوق من جهات خارجية، مثل شركات التسجيلات. ولدى “ساوند كلاود” عدد من اتفاقيات الترخيص مع شركات إنتاج مستقلة، بالإضافة إلى شركات نشر موسيقى كبرى، بما في ذلك “يونيفرسال ميوزيك” ومجموعة وارنر ميوزيك.

ويتزايد اعتماد “ساوند كلاود”، كغيرها من منصات منشئي المحتوى الكبيرة، على الذكاء الاصطناعي.

وفي العام الماضي، تعاونت “ساوند كلاود” مع ما يقرب من 12 مزودًا لتقديم أدوات مدعومة بالذكاء الاصطناعي على المنصة لإعادة التوزيع (ريمكس)، وإنشاء الأصوات.

وفي منشور على مدونتها الخريف العام الماضي، قالت “ساوند كلاود” إن هؤلاء الشركاء سيتمكنون من الوصول إلى حلول التعرف على المحتوى “لضمان حصول أصحاب الحقوق على التقدير والتعويض المناسبين”، وتعهدت بالالتزام بممارسات أخلاقة وشفافة للذكاء الاصطناعي تحترم حقوق المبدعين.

وغيّر عدد من منصات استضافة المحتوى ومواقع التواصل الاجتماعي سياساتها في الأشهر الأخيرة للسماح بتدريب الذكاء الاصطناعي من جهات خارجية.

وفي أكتوبر، حدّثت منصة إكس (تويتر سابقًا) التابعة لإيلون ماسك سياسة الخصوصية الخاصة بها للسماح لشركات خارجية بتدريب الذكاء الاصطناعي على منشورات المستخدمين. وفي سبتمبر الماضي، عدّلت منصة لينكدإن شروطها للسماح لها بجمع بيانات المستخدمين للتدريب. وفي ديسمبر، بدأت منصة يوتيوب السماح لجهات خارجية بتدريب الذكاء الاصطناعي على مقاطع المستخدمين.

وقد أثارت العديد من هذه الخطوات ردود فعل عنيفة من جانب المستخدمين الذين يزعمون أن سياسات تدريب الذكاء الاصطناعي يجب أن تكون قائمة على الموافقة المسبقة لاختيار المشاركة وليس الرفض اللاحق للمشاركة، ويجادل كثيرون بأنهم يجب أن يحصلوا على تقدير مالي ومعنوي لقاء مساهماتهم في مجموعات بيانات تدريب الذكاء الاصطناعي.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى