-
شماره ركورد
28874
-
پديد آورنده
شقايق ابراهيمي
-
عنوان
ارائه يك مدل مقاوم در برابر حملات مخرب براي شناسايي اشياء مبتني بر يادگيري عميق
-
مقطع تحصيلي
كارشناسي ارشد
-
رشته تحصيلي
مهندسي برق - مخابرات امن و رمزنگاري
-
سال تحصيل
1399
-
تاريخ دفاع
1402/04/28
-
استاد راهنما
دكتر موسوي ميركلايي - دكتر صدر
-
دانشكده
مهندسي برق
-
چكيده
شبكههاي عصبي عميق برخلاف تمامي مزايا و ويژگيهاي مثبتي كه دارند در برابر حملات خصمانه بسيار آسيبپذير هستند. اين آسيبپذيري باعث شده است كه دقت خصمانه آشكارسازهاي اشياء به طور قابل توجهي كاهش يابد. با وجود تحقيقات فراواني كه در اين حوزه به عمل آمده است اما كماكان دقت خصمانه شبكههاي عصبي عميق در برابر حملات مخرب پايين است و به مقدار قابل قبول و مطلوبي نرسيده است. همچنين با توجه به پيشرفت سريع در حوزه حملات خصمانه و ظهور حملات جديدتر و پيچيدهتر، مقاومسازي اين شبكهها در برابر حملات خصمانه كار دشواري شده است.
در اين پاياننامه يك روش جديد مبتني بر هيستوگرام براي مقاومسازي آشكارسازهاي اشياء در برابر حملات خصمانه معرفي شده است. در ادامه، اين روش بر روي دو مدل آشكارساز YOLOV5 و FRCNN اعمال شده و از اين طريق دو مدل مقاوم در برابر حملات معرفي شده است. به منظور بررسي عملكرد مدلهاي مذكور، فرآيند آموزش خصمانه اين مدلها را با سه حمله هدفمند TOG-vanishing، TOG-mislabeling و TOG-fabrication و يك حمله بدون هدف DAG انجام شده است. كارآيي مدلهاي معرفيشده نيز بر روي دو مجموعه داده MSCOCO و PASCAL VOC كه از مشهورترين مجموعه دادهها در حوزه شناسايي اشياء هستند، بررسي شدهاند. نتايج نشان ميدهند كه اين روش علاوه بر بهبود دقت خصمانه، دقت پاك مدلهاي شناسايي را نيز تا حدي بهبود ميبخشد. نكته حائز اهميت اين است كه سرعت اين روش نسبت به روشهاي قبلي بيشتر است و فرآيند آموزش با سرعت بالاتري انجام ميشود، زيرا روش هيستوگرام داراي پارامترهاي قابل آموزش نميباشد.
در پايان جهت اطمينان يافتن از عملكرد روش پيشنهادي، نتايج حاصل از اين پژوهش با نتايج كارهاي مشابه قبلي مقايسه شدهاند. نتايج اين مقايسه نشان ميدهد كه روش ارائهشده در اين پژوهش در اكثر حالات و بر روي مجموعه دادههاي مذكور عملكرد بهتري نسبت به روشهاي مشابه قبلي داشته است.
-
تاريخ ورود اطلاعات
1402/07/25
-
عنوان به انگليسي
A Robust Model against Adversarial Attacks for Object Detection Based on Deep Learning
-
تاريخ بهره برداري
7/18/2024 12:00:00 AM
-
دانشجوي وارد كننده اطلاعات
شقايق ابراهيمي
-
چكيده به لاتين
Deep neural networks, despite all their advantages and positive features, are highly vulnerable to adversarial attacks. This vulnerability has led to a significant decrease in the adversarial robustness of object detectors. Despite extensive research in this area, the adversarial robustness of deep neural networks against adversarial attacks is still low and has not reached an acceptable and desirable level. Furthermore, with the rapid progress in adversarial attacks and the emergence of newer and more complex attacks, the defense of these networks against adversarial attacks has become challenging.
In this thesis, a new histogram-based method is introduced to enhance the adversarial robustness of object detectors against adversarial attacks. Subsequently, this method is applied to two object detector models, YOLOV5 and FRCNN, resulting in two robust models against attacks. In order to check the performance of the mentioned models, the adversarial training process of these models has been carried out with three targeted attacks TOG-vanishing, TOG-mislabeling and TOG-fabrication and an untargeted DAG attack.
The effectiveness of the introduced models is also examined on two datasets, MSCOCO and PASCAL VOC, which are among the most popular datasets in the object detection field.
The results demonstrate that this method not only improves adversarial accuracy but also enhances the clean accuracy of the detection models to some extent. It is worth noting that this method is faster compared to previous methods, and the training process is performed at a higher speed since the histogram-based method does not have trainable parameters.
Finally, to ensure the performance of the proposed method, the results of this research are compared with the results of previous similar works. The comparison shows that the proposed method in this study generally outperforms previous similar methods in most cases and on the mentioned datasets.
-
كليدواژه هاي فارسي
شبكههاي عصبي عميق , حملات خصمانه , آشكارسازهاي اشياء , دقت خصمانه , دقت پاك
-
كليدواژه هاي لاتين
Deep Neural Networks , Adversarial Attacks , Object Detectors , Adversarial Accuracy , Clean Accuracy
-
Author
Shaghayegh Ebrahimi
-
SuperVisor
Dr. Seyed Mohammadreza Mousavi Mirkalaei, Dr. Ali Sadr
-
لينک به اين مدرک :