[ML] CNN: معادلة الترجمة والثبات

TL ؛ DR
عامل الالتفاف هو متغير ترجمة بمعنى أنه يحافظ على الترجمات ، لكن معالجة CNN تسمح بثبات الترجمة الذي يتحقق عن طريق تقليل الأبعاد المناسب (أي المتعلق بالسمات المكانية).


نسخة طويلة
تسمح عوامل حوسبة التمثيل بالمرور من مساحة الإدخال (مثل الصورة الأولية) إلى مساحة الميزة.
على سبيل المثال ، ما هو تأثير تطبيق الترجمة على الصورة المدخلة على تمثيل الإخراج؟
بشكل عام يقال أن
يكون المشغل متساويًا فيما يتعلق بالتحول عندما يكون تأثير التحويل قابلاً للاكتشاف في ناتج المشغل
المشغل ثابت فيما يتعلق بالتحول إذا كان تأثير التحول غير قابل للاكتشاف في إخراج المشغل
غالبًا ما يقال خطأً أن المشغل التلافيفي هو ثابت الترجمة بينما هو في الواقع مكافئ للترجمة ، وذلك لأنه تم إثبات أن مشغل الالتفاف يتنقل مع مشغل الترجمة وهذه الخاصية تعادل التباين

في هذا المثال لدينا
a C_ {k (f)} مشغل التفاف لـ “k” Kernel ويعمل على إشارة “f” (مثل صورة)
مشغل ترجمة T {\ Delta x} لـ Vector “\ Delta x”
ونتيجة لعملية التخفيف لدينا 3 تطبيقات الالتفاف
في أقصى اليسار ، تقدم عامل الترجمة في النهاية
في المنتصف ، طبق عامل الترجمة على نواة الالتفاف
في أقصى اليمين ، يطبق عامل الترجمة على الإشارة
متكافئة.


لذا ، نظرًا لأن مشغل الالتفاف هو متغير ترجمة ، فهذا يعني ، من خلال تعريفه ، أن الترجمة التي تعمل على إشارة الإدخال (الشكل 1 ، المصطلح الموجود في أقصى اليمين) لا يزال من الممكن اكتشافها في مجموعة مجموعة الإخراج (الشكل 1 أقصى اليسار) وهو عكس ذلك ثبات الترجمة.


إذن ، كيف تحقق CNN ثبات الترجمة؟
“الحيلة” في النوع الآخر من العمليات التي تنفذها سي إن إن: تقليل الأبعاد. تقوم طبقة التجميع بتخفيض الأبعاد المحلية لإزالة المعلومات المكانية ، أي إزالة الترجمات الصغيرة مقارنة بحجم عامل التجميع.