-
شماره ركورد
27745
-
پديد آورنده
صهيب شكري
-
عنوان
حريم خصوصي تفاضلي در شبكه هاي عصبي
-
مقطع تحصيلي
كارشناسي ارشد
-
رشته تحصيلي
مهندسي برق- مخابرات ـ رمز
-
سال تحصيل
1398
-
تاريخ دفاع
1401/8/28
-
استاد راهنما
علي صدر
-
دانشكده
مهندسي برق
-
چكيده
بسياري از شركت ها و سازمان ها داده هاي دريافتي خود از كاربران را توسط شبكه هاي عصبي مصنوعي پردازش مي كنند. در ميان اين داده ها كه براي آموزش شبكه هاي عصبي استفاده مي شود ممكن است اطلاعات خصوصي كاربران نهفته باشد. براي محافظت از اين اطلاعات، روش حريم خصوصي تفاضلي به كار گرفته مي شود. در اين پروژه، روش هاي مختلف حريم خصوصي تفاضلي محلي مانند روش نويز گاوسي، نويز لاپلاسي، رپور RAPPOR و بهبوديافته ي كدگذاري يكنوخت OUE را بر روي شبكه هاي عصبي پيچشي CNN شبيه سازي نموده و مدل هاي مربوطه را توسط دو مجموعه داده ي CIFAR-10 و MNIST آموزش مي دهيم. در نهايت، مقاومت اين مدل ها را در مقابل حمله ي اثبات عضويت بررسي مي كنيم. نتايج نشان مي دهد كه احتمال پيدا كردن يك عضو داده هاي آموزشي براي مدل هايي كه لايه ي حريم خصوصي تفاضلي ندارند، 60 درصد است و براي مدل هايي كه حريم خصوصي تفاضلي دارند، ضعيف ترين روش و قوي ترين روش مقابله با اين حمله، به ترتيب نويز گاوسي و OUE است كه با احتمال 57 درصد و 51 درصد يكي از اعضاي داده هاي آموزشي را پيدا مي كنند.
-
تاريخ ورود اطلاعات
1401/10/21
-
عنوان به انگليسي
Differential Privacy in Neural Networks
-
تاريخ بهره برداري
11/19/2023 12:00:00 AM
-
دانشجوي وارد كننده اطلاعات
صهيب شكري
-
چكيده به لاتين
Many companies and organizations process the data received from users by artificial neural networks. Among these data, which are used to train neural networks, there may be private information of users. To protect this information, a differential privacy policy is applied. In this project, various differential privacy methods such as Gaussian noise, Laplacian noise, RAPPOR, and Optimized Unary Encoding OUE are simulated on CNN convolutional neural networks and the corresponding models are trained by two datasets, CIFAR-10 and MNIST. Finally, we prove the resistance of these models against an attack. The results show that the probability of finding a member from the training data is 60% for models that do not have differential privacy layers, and for models that have differential privacy, the weakest method and the strongest are Gaussian noise and OUE, respectively, which find one member of the training data with a probability of 57% and 51%.
-
كليدواژه هاي فارسي
حريم خصوصي تفاضلي , شبكه هاي عصبي , حمله ي اثبات عضويت
-
كليدواژه هاي لاتين
differential privacy , neural networks , Membership Inference Attack
-
Author
Sohaib Shokri
-
SuperVisor
Dr. Sadr
-
لينک به اين مدرک :