سيعمل تحديث Apple Child Safety على فحص الصور بحثًا عن مواد مسيئة، وحذر الآباء

أعلنت شركة آبل عن مجموعة من الإجراءات الجديدة، التي تهدف إلى الحفاظ على سلامة الأطفال على منصتها والحد من انتشار صور الاعتداء الجنسي على الأطفال.

بالإضافة إلى أدوات الأمان الجديدة في iMessage وSiri وSearch، تخطط Apple لفحص تحميلات iCloud للمستخدمين بحثًا عن مواد الاعتداء الجنسي على الأطفال (CSAM). من المؤكد أن هذا سيكون مثيرًا للجدل بين المدافعين عن الخصوصية، حتى لو كانت الغاية تبرر الوسيلة.

تخطط الشركة لمسح الصور على الجهاز والذي سيتم إجراؤه قبل تحميل الصورة على السحابة. وسيتم فحصها مقابل "تجزئات الصورة" المعروفة التي يمكن أن تؤدي إلى خلل في المحتوى المسيء. تقول Apple إن هذا سيضمن حماية خصوصية المستخدمين يوميًا.

إذا اكتشفت التقنية صور CSAM، فسيتم تجميد حساب iCloud المعني وسيتم الإبلاغ عن الصور المركز الوطني للأطفال المفقودين والمستغلين (NCMEC)، والذي يمكن بعد ذلك إحالته إلى وكالات إنفاذ القانون.

"قبل تخزين صورة في iCloud Photos، يتم إجراء عملية مطابقة على الجهاز لتلك الصورة مقابل تجزئات CSAM المعروفة"، كتبت Apple في مذكرة. شارح.

"يتم تشغيل عملية المطابقة هذه بواسطة تقنية تشفير تسمى تقاطع المجموعة الخاصة، والتي تحدد ما إذا كان هناك تطابق دون الكشف عن النتيجة. يقوم الجهاز بإنشاء قسيمة أمان مشفرة تقوم بتشفير نتيجة المطابقة بالإضافة إلى بيانات مشفرة إضافية حول الصورة. يتم تحميل هذه القسيمة إلى iCloud Photos مع الصورة."

قد ترغب…

أفضل iPhone 2023: أفضل هواتف Apple الذكية التي قمنا باختبارها ومراجعتها

أفضل iPhone 2023: أفضل هواتف Apple الذكية التي قمنا باختبارها ومراجعتها

ماكس باركرقبل 3 أشهر
iOS 15: أفضل الميزات الجديدة القادمة إلى iPhone

iOS 15: أفضل الميزات الجديدة القادمة إلى iPhone

ماكس باركرمنذ عامين
ما هو SharePlay؟ يوفر iOS 15 الموسيقى والأفلام الجماعية لمكالمات FaceTime

ما هو SharePlay؟ يوفر iOS 15 الموسيقى والأفلام الجماعية لمكالمات FaceTime

كريس سميثمنذ عامين

وفي أماكن أخرى، تم تصميم أدوات iMessage الجديدة للحفاظ على سلامة الأطفال من الاستغلال عبر الإنترنت. إذا تلقى الطفل ما تراه تقنية كشف الصور غير مناسب، فسيتم تشويشه وسيصبح الطفل سيتم تحذيرهم و"تزويدهم بموارد مفيدة، وطمأنتهم بأنه لا بأس إذا كانوا لا يريدون مشاهدة هذا صورة."

اعتمادًا على إعدادات الوالدين، سيتم إعلام الوالدين إذا استمر الطفل في مشاهدة الصورة. تقول شركة Apple: "تتوفر وسائل حماية مماثلة إذا حاول الطفل إرسال صور جنسية صريحة". "سيتم تحذير الطفل قبل إرسال الصورة، ويمكن للوالدين تلقي رسالة إذا اختار الطفل إرسالها". مرة أخرى، يتم استخدام تقنية الكشف عن الصور على الجهاز.

وأخيرًا، ستزود الإرشادات الجديدة في Siri وSearch مالكي iPhone وiPad بالبقاء آمنًا على الإنترنت وتقديم التقارير إلى السلطات المختصة.

تضيف الشركة: "يتم أيضًا تحديث Siri وSearch للتدخل عندما يقوم المستخدمون بإجراء عمليات بحث عن الاستعلامات المتعلقة بـ CSAM. ستوضح هذه التدخلات للمستخدمين أن الاهتمام بهذا الموضوع ضار وإشكالي، وستوفر الموارد من الشركاء للحصول على المساعدة في هذه المشكلة.

تأتي هذه التحديثات في iOS/iPadOS 15.

لماذا نثق بصحافتنا؟

تأسست شركة Trusted Reviews عام 2003، وهي تهدف إلى تقديم نصائح شاملة وغير متحيزة ومستقلة لقرائنا بشأن ما يجب شراؤه.

واليوم، لدينا ملايين المستخدمين شهريًا من جميع أنحاء العالم، ونقوم بتقييم أكثر من 1000 منتج سنويًا.