هل تتراجع آبل عن قرار مسح صور الأطفال على “آى كلاود”
قامت آبل بملء مزيد من التفاصيل حول خططها القادمة لمسح صور iCloud لمواد الاعتداء الجنسى على الأطفال (CSAM) عبر أجهزة iPhone و iPad الخاصة بالمستخدمين. أصدرت الشركة ورقة جديدة تتعمق فى الإجراءات الوقائية التى تأمل أن تزيد ثقة المستخدم فى المبادرة. يتضمن ذلك قاعدة للإشارة فقط إلى الصور الموجودة فى العديد من قواعد بيانات سلامة الأطفال ذات الانتماءات الحكومية المختلفة حسبما نقل موقع The Verege.
ستطابق إصدارات iOS و iPadOS القادمة من Apple تلقائيًا بحسابات iCloud Photos فى الولايات المتحدة مقابل مواد الاعتداء الجنسى على الأطفال المعروفة من قائمة تجزئات الصور التى جمعتها مجموعات أمان الأطفال. بينما تقوم العديد من الشركات بفحص خدمات التخزين السحابية عن بُعد ، فإن إستراتيجية Apple القائمة على الأجهزة قد أثارت انتقادات حادة من بعض خبراء التشفير والخصوصية.
تأمل الورقة التى تحمل اسم “مراجعة نموذج التهديد الأمنى لميزات سلامة الأطفال من Apple” ، فى تهدئة مخاوف الخصوصية والأمان حول هذا الطرح. إنها مبنية على مقابلة فى وول ستريت جورنال مع المدير التنفيذى لشركة Apple ، كريج فيديريجى الذى أوجز بعض المعلومات بهذا الشأن.
فى الوثيقة تقول آبل إنها لن تعتمد على قاعدة بيانات واحدة تابعة للحكومة – مثل تلك الخاصة بالمركز الوطنىى للأطفال المفقودين والمستغلين فى الولايات المتحدة أو NCMEC – لتحديد مواد الاعتداء الجنسى على الأطفال، وبدلاً من ذلك سيتطابق فقط مع الصور من مجموعتين على الأقل لهما انتماءات وطنية مختلفة. والهدف هو عدم قدرة أى حكومة بمفردها على إدخال محتوى غير ذى صلة سرًا لأغراض الرقابة، نظرًا لأنه لن يتطابق مع التجزئة فى أى قاعدة بيانات أخرى.