البحث

التزامنا بحماية الخصوصية (GDPR)

نحن نستخدم ملفات تعريف الارتباط لضمان حصولك على أفضل تجربة على موقعنا. من خلال الاستمرار في استخدام موقعنا، فإنك تقبل استخدامنا لملفات تعريف الارتباط، سياسة الخصوصية و شروط الخدمة.

ميتا تراجع أنظمة الذكاء الاصطناعي لحماية المراهقين

شركة تقوم بمراجعة أنظمة الذكاء الاصطناعي لحماية المراهقين من المحادثات الغير آمنة

في خطوة هامة نحو تعزيز السلامة الرقمية للمراهقين، تعمل شركة تكنولوجية كبيرة على مراجعة أنظمتها للذكاء الاصطناعي. تهدف الشركة الرائدة في مجال التقنية، التي تعرف بـ"ميتا"، إلى إضافة ضوابط جديدة تهدف إلى حماية المراهقين من المحادثات غير الآمنة مع روبوتات الدردشة.

وأوضحت الشركة أنها ستطبق "حواجز حماية إضافية" بهدف منع المراهقين من التفاعل في مواضيع حساسة، مثل العنف الذاتي واضطرابات الأكل ومحاولات الانتحار، مع روبوتات الذكاء الاصطناعي.

وتعمل "ميتا" على تحديد شخصيات محظورة للمراهقين لضمان عدم انخراطهم في محادثات غير لائقة داخل المنصة. تأتي هذه الجهود بعد تقارير تفيد بتفاعلات غير مناسبة بين "روبوتات ميتا" ومستخدمين من الفئة العمرية للمراهقين، الأمر الذي أثار الجدل في الأوساط التقنية.

وفي سياق متصل، كانت هناك وثائق داخلية تسمح للروبوتات بمباشرة محادثات "حسية" مع مستخدمين قُصّر، قبل أن تقوم "ميتا" بتصحيح الأمر وتصفه بأنه خطأ يتعارض مع سياسات الشركة.

إن هذه الخطوة من شركة "ميتا" تعكس التزامها بتعزيز السلامة والحماية لجميع مستخدمي منصتها، خاصة الفئة العمرية الشابة، ضمن سياق تطوير التكنولوجيا بشكل مستدام ومسؤول.

المقال السابق
زلزال بقوة 4.7 درجات يضرب مدينة فالمي في نيفادا الأمريكية
المقال التالي
ارتفاع الإصابة بـ«كورونا» إلى الضعف في أمريكا