-
شماره ركورد
27293
-
پديد آورنده
شهلا سليماني
-
عنوان
بررسي امنيت يك شبكه ي عصبي عميق در برابر حمله ي تقابلي pgd و ارائه ي يك روش دفاع در برابر اين حمله بر روي تصاوير پزشكي ضايعه پوستي با استفاده از شبكه هاي مولد رقابتي
-
مقطع تحصيلي
كارشناسي ارشد
-
رشته تحصيلي
مهندسي كامپيوتر- هوش مصنوعي و رباتيكز
-
سال تحصيل
1396
-
تاريخ دفاع
1399/10/29
-
استاد راهنما
احمد اكبري ازيراني
-
استاد مشاور
محمود فتحي
-
دانشكده
مهندسي كامپيوتر
-
چكيده
امروزه استفاده از روشهاي مبتني بر شبكههاي عصبي عميق به سرعت در حال پيشرفت است. هراندازهكه قابليت تعميمپذيري شبكههاي عصبي عميق بيشتر باشد، نتيجه مطلوبتر تلقي ميشود. اما تنها قابليت تعميمپذيري نيست كه از اهميت برخوردار است؛ مسئلهي امنيت و مورد اعتماد بودن شبكهي عصبي عميق و قابليت استحكام آن نيز بههماناندازه اهميت دارد. توسعهي كاربرد شبكههاي عصبي عميق با دقت بالا و قابليت استحكام و امنيت بالا در حوزهي پزشكي باعث افزايش اعتماد به اين شبكهها از طرف پزشكها و همچنين بيماران ميشود و باعث جلوگيري از كارهاي پزشكي غيرضروري مانند عملهاي جراحي غيرضروري و بهدنبال آن موجب كاهش هزينههاي بيماران ميگردد. در اين پاياننامه، ما تصاوير ضايعهي پوستي را توسط يك شبكهي عصبي عميق به صورت دو كلاسه طبقهبندي خواهيم كرد. مجموعهدادهي تصاوير ضايعهي پوستي اين پاياننامه داراي چالشهايي بوده است كه به آنها رسيدگي كرديم. در ادامه، حملهي تقابلي PGD را به كمك گراديان و با ايجاد اغتشاش ناچيزي در دادههاي ورودي بهگونهايكه پيشبيني مدل را تغيير دهد، بر اين طبقهبند اعمال خواهيم كرد. در اين پاياننامه ما استفاده از شبكهي مولد رقابتي CT-GAN را بهعنوان روشي دفاعي در مقابل اين حمله پيشنهاد كردهايم. CT-GAN روشي را براي اجراكردن پيوستگي Lipschitz بر توابع مميز بهكار ميبرد كه موجب بهبود روش جريمهي گراديان ميشود و مولد تصاوير واقعگرايانهاي را توليد ميكند. مولد نمونههايي مشابه با نمونههاي ورودي را توليد ميكند و دادههاي توليد شده با مولد به عنوان ورودي به مدل طبقهبند داده ميشوند. نتايج حاصل از آزمايشهاي ما نشان ميدهد كه تصاوير پس از حمله، از لحاظ بصري تغيير محسوسي نداشتهاند اما عملكرد شبكهي عصبي عميق به شدت دچار اختلال شده است. در واقع اين حمله در فريب انسان در تشخيص نمونههاي واقعي از نمونههاي تقابلي و فريب مدل طبقهبند در طبقهبندي تصاوير موفق بوده است. همچنين نتايج اين پاياننامه نشان ميدهد كه تصاوير توليدشده توسط مولد CT-GAN تاثير منفياي كه نمونههاي تقابلي بر پيشبيني مدل داشتهاند را ندارند و درصد قابل توجهي از افت عملكرد مدل جبران شده است.
-
تاريخ ورود اطلاعات
1401/08/17
-
عنوان به انگليسي
Investigating the security of a deep neural network against pgd adversarial attack and presentation of a defense method against this attack on medical images of skin lesions using generative adversaral networks
-
تاريخ بهره برداري
1/19/2022 12:00:00 AM
-
دانشجوي وارد كننده اطلاعات
شهلا سليماني
-
چكيده به لاتين
Nowadays, the use of deep neural network-based methods is making progress rapidly. The greater the generalizability of deep neural networks, the more desirable the result. Not only the generalizability matter, but also the security and reliability of the deep neural network and its strength are equally significant. The development of deep neural networks in terms of application with high accuracy and high strength and security in medicine makes the physicians and patients rely more on these networks, prevents unnecessary medical work such as surgery, and consequently declines the patients' costs. In this study, we classified skin lesion images into two classes by a deep neural network. The skin lesion images of this study has some challenges that we addressed. In the following, we will apply the PGD adversarial attack to this classifier by adding minor perturbations to the input data to change the model prediction. In this research, we proposed using a CT-GAN generative adversarial network as a defense against attack. CT-GAN employs a method to implement the Lipschitz continuum on discriminator functions, which improves the gradient penalty method and generator produces realistic images. The generator produces samples similar to the input samples. The data that generated by the generator is given to the classifier model as input. The our experimental results revealed that the images after the attack did not change significantly visually, but the deep neural network's performance was considerably disturbed. Indeed, this attack has been successful to fool human in distinguishing real examples from adversarial examples and the deception of the classifier model in the classification of images. Our research results indicate also that the generated images by CT-GAN generator do not have the negative effect that adversarial examples have on model prediction and Compensated for the considerable percentage of the model performance drop.
-
كليدواژه هاي فارسي
حمله هاي تقابلي , يادگيري عميق , شبكه هاي عصبي , امنيت , پردازش تصاوير پزشكي
-
كليدواژه هاي لاتين
adversarial attacks , Deep Learning , neural networks , security , medical imaging
-
Author
Shahla Soleimani
-
SuperVisor
Dr. Akbari
-
لينک به اين مدرک :