-
شماره ركورد
28779
-
پديد آورنده
زهرا دهقاني محمدآبادي
-
عنوان
ارائه روشي براي دفاع در برابر نمونه هاي خصمانه براساس افزايش قابليت انتقال
-
مقطع تحصيلي
كارشناسي ارشد
-
رشته تحصيلي
مهندسي كامپيوتر
-
سال تحصيل
1399
-
تاريخ دفاع
1402/4/10
-
استاد راهنما
دكتر محمدرضا كنگاوري
-
دانشكده
مهندسي كامپيوتر
-
چكيده
امروزه شبكه هاي عصبي عميق به عنوان بهترين گزينه براي حل مسائل مختلف، از جمله طبقهبندي متن، به كار برده مي شوند. اما اين نوع از شبكه ها علاوه بر كارايي بالايي كه از خود نشان داده اند، داراي مشكلاتي نيز هستند. يكي از مهمترين مشكل شبكه هاي عصبي عميق، عدم وجود پايداري در اين شبكه ها است. يكي از مهم ترين عللي كه مي تواند منجر به ناپايداري در شبكه هاي عصبي شود، حملات خصمانه است. محققان همواره به دنبال روشي براي مقابله با اين نوع از حملات بوده اند. يكي از روش هاي پيشنهادي براي دفاع در برابر حملات خصمانه، يادگيري خصمانه است. به اين صورت كه ابتدا تعدادي نمونه خصمانه براساس يكي از روش هاي حمله خصمانه توليد مي شود و سپس مدل با استفاده از نمونه هاي خصمانه آموزش داده مي شود. در فرايند آموزش خصمانه خلاهايي وجود دارد كه در اين پاياننامه به دنبال رفع آن ها هستيم. يكي از مهم ترين اين خلاها، مربوط به نحوه انتخاب روش حمله اي است كه نمونه خصمانه براساس آن توليد شود. اين روش حمله بايد چه ويژگي داشته باشد كه بتوان كارايي بالاتري در آموزش خصمانه به دست آورد. در اين پژوهش پاسخ به سؤال طرح شده بر اساس قابليت انتقال پذيري نمونه هاي خصمانه صورت گرفته است. هدف ما در اين پاياننامه، استفاده از ويژگي انتقال پذيري براي انتخاب بهترين روش حمله به منظور استفاده در يادگيري خصمانه به عنوان يك راه براي دفاع در برابر حملات خصمانه است. نتايج تحقيق نشان مي دهد كه درصد موفقيت حمله در مدل پايدار شده توسط انتقال پذيرترين، نسبت به مدل اوليه، كاهش پيدا كرده است كه اين مورد بيانگر افزايش پايداري مدل است.
-
تاريخ ورود اطلاعات
1402/07/09
-
عنوان به انگليسي
Provide a way to defend against adversarial examples based on increasing the transferability
-
تاريخ بهره برداري
6/30/2024 12:00:00 AM
-
دانشجوي وارد كننده اطلاعات
زهرا دهقاني محمدابادي
-
چكيده به لاتين
Nowadays, deep neural networks are used as the best option for solving various problems, including text classification. However, in addition to their high performance, these types of networks also have some problems. One of the most important issues with deep neural networks is their lack of robustness. One of the main causes that can lead to fragility in neural networks is adversarial attacks. Researchers have always been looking for a way to deal with such attacks. One proposed method for defending against adversarial attacks is adversarial training. This involves first generating a number of adversarial examples based on one of the adversarial attack methods, and then training the model using these adversarial examples. There are some gaps in adversarial training that we are trying to address in this thesis. One of the most important of these is related to the selection of the adversarial attack method used to generate the adversarial examples. This attack method must have certain features in order to achieve higher effectiveness in adversarial learning. In this study, the question posed has been answered based on the transferability of adversarial examples. Our goal in this thesis is to use transferability features in adversarial training to defend against adversarial attacks. The research results show that the model stabilized by the most transferable attack method achieved greater robustness than the initial state.
-
كليدواژه هاي فارسي
پايداري , دفاع , قابليت انتقال , نمونه هاي خصمانه
-
كليدواژه هاي لاتين
Adversarial example , Defense , Robustness , Transferability
-
Author
Zahra Dehghani Mohammadabadi
-
SuperVisor
Dr. Mohammad Reza Kangavari
-
لينک به اين مدرک :