Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تقنية

Facebook و Instagram إنشاء قاعدة بيانات مجزأة لإزالة المواد الإباحية للأطفال


صورة: ليون نيل (GettyImages)

Facebook و Instagram نكون أخذ بعض من أقوى الخطوات ومع ذلك ، قم بتضييق الخناق على مواد الاعتداء الجنسي على الأطفال (CSAM) التي تغرق شبكاتهم الاجتماعية. تقوم Meta ، الشركة الأم لكليهما ، بإنشاء قاعدة بيانات بالشراكة مع المركز الوطني للأطفال المفقودين والمستغَلين (NCMEC) سيسمح ذلك المستخدمين إرسال “بصمة رقمية” لمواد إساءة معاملة الأطفال المعروفة ، وهي رمز رقمي متعلق بصورة أو مقطع فيديو بدلاً من الملف نفسه. سوف الرمز يتم تخزينها ونشرها بواسطة المنصات المشاركة الأخرى للكشف عن علامات نفس الصورة أو الفيديو يتم مشاركتها في مكان آخر متصل.

قال ميتا يوم الاثنين أنه كذلك الشراكة مع NCMEC لتأسيس “نظام أساسي جديد مصمم لمنع الصور الحميمة للشباب بشكل استباقي من الانتشار عبر الإنترنت”. ال مبادرة أطلق عليها اسم Take It Down ، الاستخدامات قيم تجزئة صور CSAM لاكتشاف وإزالة النسخ التي يحتمل مشاركتها على منصات الوسائط الاجتماعية ، سواء كانت مملوكة لشركة Meta أو في أي مكان آخر. يقوم Facebook و Instagram بإزالة الصور الإباحية الانتقامية بهذه الطريقة بالفعل ، وتفتح المبادرة النظام أمام الشركات الأخرى التي ترغب في فعل الشيء نفسه لتطبيقاتها. تشارك المواقع الموجهة نحو المواد الإباحية ومقاطع الفيديو مثل Pornhub و Onlyfans ، وكذلك شبكة التواصل الاجتماعي الفرنسية Yubo.

تعمل ميزة التجزئة بشكل أساسي كـ “بصمة رقمية” لأرقام فريدة مخصصة لكل صورة أو مقطع فيديو. المستخدمون دون السن القانونية على أمل الحصول على عارية أو صورة عارية جزئيًا لأنفسهم تمت إزالتها من الأنظمة الأساسية ، فيمكنهم إرسال الملف إلى Take It Down ، والذي سيقوم بعد ذلك بتخزين التجزئة المرتبطة بالملف في قاعدة بيانات. يمكن للأعضاء المشاركين ، مثل Facebook و Instagram ، بعد ذلك أخذ قاعدة بيانات التجزئة هذه ومسحها ضوئيًا مقابل الصور ومقاطع الفيديو الموجودة على منصاتها. لا يعمل لدى أي من الناس انزله للأسفل ولا ل من المفترض أن تشاهد Meta الصورة أو مقطع الفيديو في الأسئلة على أنها حيازة يعتبر استغلال الأطفال في المواد الإباحية جريمة.

يمكن للناس الذهاب إلى TakeItDown.NCMEC.org واتبع التعليمات لتقديم حالة ستبحث بشكل استباقي عن صورهم الحميمة على التطبيقات المشاركة “، كما جاء في بيان Meta الصحفي.

Take it Down يبني من Meta 2021 منصة StopNCIIالتي دخلت في شراكة مع المنظمات غير الحكومية لاستخدام تقنية التجزئة للكشف والإزالة الصور الحميمة المشتركة عدمبالتراضي. يركز Take It Down بشكل مباشر على الصور العارية والجزئية للمستخدمين القصر. صالإيجارات أو غيرهم من “البالغين الموثوق بهم” يمكنهم أيضًا تقديم مطالبات نيابة عن المستخدمين الشباب.

يمكن لأي شخص يعتقد أن لديه صورة عارية أو عارية جزئيًا للموضوعات المشتركة على منصة غير مشفرة عبر الإنترنت أن يقدم طلبًا لـ Take It Down. تمتد هذه الأهلية إلى المستخدمين الذين تزيد أعمارهم عن 18 عامًا والذين يصدقون صورة الفيديو منهم منذ أن كانوا قاصرين ربما لا يزالون يتربصون في مكان ما على الويب. لا يُطلب من المستخدمين تقديم أي أسماء أو عناوين أو معلومات شخصية أخرى لإنزالها أيضًا. على الرغم من أنه يمنح الضحايا المحتملين عدم الكشف عن هويتهم ، إلا أنه يعني أيضًا أنهم لن يتلقوا أي تنبيه أو رسائل لإبلاغهم إذا تم رصد أي مادة وإزالتها.

وقال رئيس Meta Global للسلامة أنتيجون ديفيس في بيان: “تم تصميم Take It Down بدعم مالي من Meta.” “نحن نعمل مع NCMEC للترويج لـ Take It Down عبر منصاتنا ، بالإضافة إلى دمجه في Facebook و Instagram حتى يتمكن الأشخاص من الوصول إليه بسهولة عند الإبلاغ عن المحتوى الذي يحتمل انتهاكه.”

صور الاعتداء الجنسي على الأطفال في ارتفاع

تأتي شراكة Meta مع NCMEC في الوقت الذي تكافح فيه منصات الوسائط الاجتماعية لتضييق الخناق على ملف زيادة في مواد الاعتداء على الأطفال تم اكتشافه عبر الإنترنت. ان تقرير سنوي تم إصداره العام الماضي من قبل مؤسسة مراقبة الإنترنت اكتشفت 252194 عنوان URL تحتوي على أو تروج لمواد CSAM معروفة. وهذا يمثل زيادة بنسبة 64٪ عن نفس الفترة من العام السابق. هذه الأرقام مقلقة بشكل خاص في الولايات المتحدة: العام الماضي، وفق ال استعراض تكنولوجيا معهد ماساتشوستس للتكنولوجياالولايات المتحدة تمثل نسبة مذهلة تبلغ 30٪ من روابط CSAM المكتشفة عالميًا.

الغالبية العظمى من روابط CSAM المبلغ عنها هي من الولايات المتحدة ظهرت شركات وسائل التواصل الاجتماعي على تطبيقات عائلة Meta. بيانات مطلق سراحه في العام الماضي من قبل NCMEC يظهر أن Facebook وحده يمثل 22 مليون تقرير CSAM. هذا مقارنة بحوالي 87000 و 154000 تقرير من Twitter و TikToك، على التوالى. على الرغم من أن هذه الأرقام تبدو وكأنها تصور Facebook على أنه مرتع لا مثيل له لـ CSAM ماديًا تجدر الإشارة إلى تلك الكبيرة الأرقام جزئيا تعكس جهود Meta الأكثر التزامًا للبحث الفعلي عن مواد CSAM واكتشافها. بعبارة أخرى ، كلما نظرت بجدية أكبر ، ستجد المزيد.

كشف CSAM والتشفير من طرف إلى طرف: لعبة شد الحبل

طرحت العديد من شركات التكنولوجيا الأخرى فكرتها الخاصة حول الحد من مواد CSAM في السنوات الأخيرة بدرجات متفاوتة من الدعم. جاءت أكثر هذه الاقتراحات شهرةً من Apple في عام 2021 عندما أتت مقترح ادعى باحثو الأمن أن أداة جديدة من شأنها أن “تفحص” هواتف المستخدم بحثًا عن أدلة على مواد CSAM قبل إرسال الصور وتشفيرها على iCloud. صرخ المدافعون عن الخصوصية على الفور ، خوفا الأدوات الجديدة يمكن أن تعمل “كباب خلفي” للحكومات الأجنبية أو وكالات الاستخبارات الأخرى ويمكن إعادة توظيفها للانخراط في المراقبة. في ظهر نادرفي الواقع ، أوقفت Apple الأدوات مؤقتًا من قبل رسميًا التخندق الخطة برمتها العام الماضي.

دعاة الخصوصية والتشفير مماثلة محذر تزايد جعنيف اهتمام بطرق جديدة للحد من برودة مادة CSAMد ، عمدا أم لا ، يؤدي إلى تقليل التشفير التام بين الأطراف لمستخدمي الإنترنت اليوميين. هذه المخاوف لا تقتصر على الولايات المتحدة. فقط الأسبوع الماضي ، سيجنال رئيس أخبرت ميريديث ويتاكر Ars Technica أن التطبيق كان على استعداد للمغادرة المملكة المتحدة السوق تمامًا إذا تمضي قدمًا في مشروع قانون الأمان على الإنترنتيهدف التشريع ظاهريًا إلى حظر مواد CSAM ولكن الخصوصية يقول المدافعون إنه يمكن إرسال الأحقاد من خلال التشفير.

قال ويتاكر لـ Ars Technica: “لن يشارك Signal أبدًا ، ولن يشارك أبدًا ، 1000 بالمائة ، في أي نوع من الغش في تقنيتنا التي من شأنها تقويض وعود الخصوصية لدينا” ، “الآليات المتاحة وقوانين الفيزياء وواقع التكنولوجيا و الأساليب التي تمت تجربتها معيبة بشدة من وجهة نظر حقوق الإنسان ومن وجهة نظر تكنولوجية “.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى