حاله  الطقس  اليةم 10.1
لندن,المملكة المتحدة

الذكاء الاصطناعي التوليدي: نظرة على سياسة ميتا الجديدة في الاتحاد الأوروبي

بوابة السعودية
أعجبني
(0)
مشاهدة لاحقا
شارك
الذكاء الاصطناعي التوليدي: نظرة على سياسة ميتا الجديدة في الاتحاد الأوروبي

الذكاء الاصطناعي التوليدي: سياسة جديدة لتدريب النماذج في أوروبا

في خطوة تهدف إلى تطوير قدرات الذكاء الاصطناعي التوليدي، أعلنت مجموعة ميتا الأمريكية عن استخدام المحتوى العام من المستخدمين الأوروبيين على منصاتها، بما في ذلك إنستجرام وفيسبوك، لتدريب نماذجها الذكية.

إشعار المستخدمين وآلية الانسحاب

أوضحت الشركة في بيان رسمي أن المستخدمين الأوروبيين سيتم إعلامهم بهذه السياسة الجديدة عبر إشعارات ستصلهم في الأيام القادمة. سيحتوي الإشعار على رابط مباشر إلى نموذج يتيح لهم رفض المشاركة في هذه العملية. وأكدت ميتا أن الأفراد المقيمين في دول الاتحاد الأوروبي لديهم الحق في اختيار عدم استخدام بياناتهم لأغراض التدريب.

تفاصيل استخدام البيانات

بشكل عملي، ستتمكن برامج الذكاء الاصطناعي التابعة لـ ميتا من التدرب على المنشورات والتعليقات العامة للمستخدمين، مثل الشروحات المصاحبة للصور على إنستجرام. بالإضافة إلى ذلك، ستشمل البيانات المستخدمة الطلبات والأسئلة التي يتم إرسالها إلى ميتا إيه آي Meta AI، وهو برنامج المحادثة الآلية الذي تم إطلاقه في نهاية مارس في دول الاتحاد الأوروبي.

استثناءات هامة

أكدت المجموعة المتخصصة في مجال التواصل الاجتماعي أن هذا التغيير لن يؤثر على الأشخاص الذين تقل أعمارهم عن 18 عامًا. كما لن يشمل الرسائل الخاصة المتبادلة بين المستخدمين البالغين وأصدقائهم وعائلاتهم، مما يحافظ على خصوصية هذه الفئة من المحتوى.

تحديات إطلاق ميتا إيه آي في أوروبا

واجه إطلاق ميتا إيه آي في الاتحاد الأوروبي تأخيرًا تجاوز العام، وذلك بسبب القواعد الأوروبية الصارمة التي تنظم التقنيات الجديدة. من بين هذه القواعد، النظام الأوروبي العام لحماية البيانات (GDPR)، بالإضافة إلى قوانين الأسواق الرقمية والذكاء الاصطناعي.

الاعتماد على قرار مجلس حماية البيانات الأوروبي

تعتمد ميتا حاليًا على قرار صادر عن مجلس حماية البيانات الأوروبي، والذي صدر في ديسمبر الماضي. يرى المجلس أن المصلحة المشروعة يمكن أن تشكل أساسًا قانونيًا صالحًا لاستخدام البيانات الشخصية لتطوير ونشر نماذج الذكاء الاصطناعي داخل الاتحاد الأوروبي. هذا القرار يمثل نقطة تحول في كيفية تعامل الشركات مع البيانات الشخصية في سياق تطوير الذكاء الاصطناعي.

وأخيرا وليس آخرا

تأتي هذه الخطوة من ميتا في سياق سعيها المستمر لتطوير تقنيات الذكاء الاصطناعي التوليدي، مع مراعاة القوانين واللوائح الأوروبية المتعلقة بحماية البيانات والخصوصية. يبقى السؤال مفتوحًا حول كيفية تحقيق التوازن بين الابتكار التكنولوجي وحماية حقوق المستخدمين في هذا المجال المتطور باستمرار. وهل ستنجح ميتا في كسب ثقة المستخدمين الأوروبيين في استخدام بياناتهم لتطوير هذه التقنيات؟

الاسئلة الشائعة

01

ما هو إعلان مجموعة ميتا الأخير؟

تعلن مجموعة ميتا أن جميع المحتويات العامة من المستخدمين الأوروبيين على منصاتها ستكون متاحة لتدريب نماذج الذكاء الاصطناعي التوليدي.
02

كيف سيتم إعلام المستخدمين الأوروبيين بهذا التغيير؟

سيتم إعلام المستخدمين الأوروبيين عبر إشعار على منصات ميتا مع رابط لنموذج يتيح لهم رفض المشاركة.
03

هل يمكن للمستخدمين في الاتحاد الأوروبي منع استخدام بياناتهم؟

نعم، يمكن للأفراد المقيمين في الاتحاد الأوروبي اختيار عدم استخدام بياناتهم لأغراض التدريب.
04

ما هي أنواع البيانات التي ستستخدمها ميتا لتدريب الذكاء الاصطناعي؟

ستستخدم ميتا المنشورات والتعليقات العامة، بالإضافة إلى الطلبات والأسئلة المرسلة إلى ميتا إيه آي.
05

من هم الأشخاص الذين لن يتأثروا بهذا التغيير؟

الأشخاص الذين تقل أعمارهم عن 18 عامًا والرسائل الخاصة بين المستخدمين البالغين.
06

لماذا تأخر إطلاق ميتا إيه آي في الاتحاد الأوروبي؟

تأخر الإطلاق بسبب القواعد الأوروبية التي تحكم التقنيات الجديدة، مثل النظام الأوروبي العام لحماية البيانات (GDPR).
07

ما هو الأساس القانوني الذي تعتمد عليه ميتا لاستخدام البيانات؟

تعتمد ميتا على قرار صادر عن مجلس حماية البيانات الأوروبي يعتبر المصلحة المشروعة أساسًا قانونيًا صالحًا.
08

ما هو ميتا إيه آي؟

هو برنامج محادثة آلية أطلقته ميتا في الاتحاد الأوروبي.
09

متى تم إطلاق ميتا إيه آي في الاتحاد الأوروبي؟

تم إطلاق ميتا إيه آي في نهاية مارس.
10

ما هي المنصات التي يشملها هذا الإعلان؟

يشمل هذا الإعلان منصات مثل إنستجرام وفيسبوك.