شركة تقوم بمراجعة أنظمة الذكاء الاصطناعي لحماية المراهقين من المحادثات الغير آمنة
في خطوة هامة نحو تعزيز السلامة الرقمية للمراهقين، تعمل شركة تكنولوجية كبيرة على مراجعة أنظمتها للذكاء الاصطناعي. تهدف الشركة الرائدة في مجال التقنية، التي تعرف بـ"ميتا"، إلى إضافة ضوابط جديدة تهدف إلى حماية المراهقين من المحادثات غير الآمنة مع روبوتات الدردشة.
وأوضحت الشركة أنها ستطبق "حواجز حماية إضافية" بهدف منع المراهقين من التفاعل في مواضيع حساسة، مثل العنف الذاتي واضطرابات الأكل ومحاولات الانتحار، مع روبوتات الذكاء الاصطناعي.
وتعمل "ميتا" على تحديد شخصيات محظورة للمراهقين لضمان عدم انخراطهم في محادثات غير لائقة داخل المنصة. تأتي هذه الجهود بعد تقارير تفيد بتفاعلات غير مناسبة بين "روبوتات ميتا" ومستخدمين من الفئة العمرية للمراهقين، الأمر الذي أثار الجدل في الأوساط التقنية.
وفي سياق متصل، كانت هناك وثائق داخلية تسمح للروبوتات بمباشرة محادثات "حسية" مع مستخدمين قُصّر، قبل أن تقوم "ميتا" بتصحيح الأمر وتصفه بأنه خطأ يتعارض مع سياسات الشركة.
إن هذه الخطوة من شركة "ميتا" تعكس التزامها بتعزيز السلامة والحماية لجميع مستخدمي منصتها، خاصة الفئة العمرية الشابة، ضمن سياق تطوير التكنولوجيا بشكل مستدام ومسؤول.