-
شماره ركورد
25081
-
پديد آورنده
مسعود پيرو
-
عنوان
ارائه يك شتاب دهنده پوياي شبكه عصبي كانولوشني عميق با كارايي بالا بر پايه معماري قابل باز پيكربندي
-
مقطع تحصيلي
كارشناسي ارشد
-
رشته تحصيلي
مهندسي كامپيوتر-معماري سيستمهاي كامپيوتري
-
سال تحصيل
1395
-
تاريخ دفاع
1400/2/25
-
استاد راهنما
خانم دكتر هاجر فلاحتي
-
دانشكده
مهندسي كامپيوتر
-
چكيده
شبكهي عصبي عميق يكي از متداولترين روشهاي يادگيري ماشين است و در كاربردهاي بسياري مانند پردازش تصوير، پردازش متن، تحليل اقتصادي و پزشكي كاربرد دارد. اجراي شبكه¬هاي عصبي عميق نيازمند بستر پردازشي مناسب براي حل چالشهاي پردازشي و حافظه (ذخيره و انتقال حجم بالاي داده) هستند. پژوهش¬هاي اخير روش¬هايي براي پراكنده¬كردن وكاهش دقت داده¬ها در شبكه عصبي ارايه كرده¬اند. با استفاده از اين روش¬ها، شبكه عصبي تنك مي¬شود و احتمال تكرار داده¬ها افزايش مي¬يابد. اگرچه اين روش-ها، نظم محاسباتي را از بين مي¬برند و سربار حافظه دارند. پژوهش¬هاي پيشين براي استفاده از پتانسيل موجود و مديريت سربارها، مكانيزم¬هاي جريان داده و سخت¬افزار آگاه از پراكندگي و شباهت داده ارايه كرده¬اند. هرچند هيچ¬يك از اين روش¬ها همزمان از پراكندگي و اشتراك داده هم در وزن و هم در داده ورودي استفاده نكرده¬اند.
در اين پژوهش، قصد داريم روشي براي مرحله استنتاج شبكه كانولوشني عميق ارايه كنيم، به¬گونه¬اي كه همزمان از پتانسيل پراكندگي، كاهش دقت دادهها و شباهت ميان مقادير داده¬هاي شبكه (هم وزن و هم داده ورودي) بهره بگيرد. براي اين منظور، با بررسي شبكه، وزن¬هاي ورودي و داده¬هاي ورودي، از روش¬هاي كوآنتيزيشن براي وزن¬ها و ورودي¬ها استفاده مي¬كنيم. در ادامه وزن¬ها و داده¬هاي ورودي تكراري و صفر را شناسايي مي¬كنيم و براي كاهش بي¬نظمي، يك جريان داده معرفي مي¬كنيم. روش پيشنهادي، در سطح بالا قابليت انطباق با ساير شتابدهندهها را دارد. در انتها، يك معماري شتاب¬دهنده جديد براي اجراي جريان داده ارايه مي¬كنيم. ارزيابي معماري پيشنهادي بر روي چهار شبكه عصبي معروف نشان مي¬دهد كه روش پيشنهادي، ×18 كارايي بالاتر و ×83 انرژي مصرفي كمتري در مقايسه با شتابدهنده Eyeriss، دارد. همچنين در مقايسه با شتابدهندههاي آگاه از پراكندگي و شباهت ، از لحاظ كارايي به ترتيب ×6/4 و ×5/4 برابر و از لحاظ كاهش انرژي مصرفي به ترتيب ×3 و ×8/5 برابر بهبود داريم.
-
تاريخ ورود اطلاعات
1400/05/13
-
عنوان به انگليسي
Designing a dynamic high performance deep convolutional neural network accelerator based on reconfigurable architecture
-
تاريخ بهره برداري
5/15/2022 12:00:00 AM
-
دانشجوي وارد كننده اطلاعات
مسعود پيرو
-
چكيده به لاتين
Deep neural network is one of the most common methods of machine learning and is used in many applications such as image processing, text processing, economic analysis and medicine. Implementing deep neural networks requires a suitable processing platform to solve processing and memory challenges (storage and transmission of large volumes of data). Recent research has provided methods for scattering and reducing the accuracy of data in the neural network. Using these methods, the neural network is pruned and the likelihood of data duplication increases. However, these methods destroy the computational order and have a memory overhead. Previous research has provided data flow mechanisms and hardware that are aware of data sparsity and similarity to exploit existing potential and manage overheads. However, none of these methods used data processing and sharing in both weight and input data at the same time. However, none of these methods used data sparsity and similarity in both weight and input data at the same time.
In this research, we intend to provide a method for the deep convolution network inference step, so that it simultaneously exploits the potential for sparsity, reducing data accuracy, and similarity between network data values (both weight and input data). For this purpose, by examining the network, input weights and input data, we use quantization methods for weights and inputs. Next, we identify duplicate and zero weights and input data and introduce a data-flow to reduce irregularity. The proposed method is highly compatible with other accelerators. Finally, we present a new accelerator architecture for running data flow. Evaluation of the proposed architecture on four well-known neural networks shows that the proposed method has 18% higher efficiency and 83% lower energy consumption compared to the Eyeriss accelerator. Also, compared to sparsity and similarity aware accelerators, we have 4.6× and 4.5× improvements in efficiency, respectively, and 3× and 5.8× improvements in energy consumption, respectively.
-
كليدواژه هاي فارسي
شبكههاي عصبي كانولوشني عميق , شتابدهنده , پراكندگي , اشتراكگيري , كوانتيزيشن , آرايههاي منطقي برنامهپذير , مدارات يكپارچه خاص منظوره , قابليت بازپيكربندي , شبكه آگاه از داده
-
كليدواژه هاي لاتين
Deep Convolutional Neural Networks , Accelerator , Sparsity , Similarity , Quantization , Field Programmable Gate Arrays (FPGA) , Application Special Integrated Circuits (ASICs) , Configurability , Data Aware Network
-
لينک به اين مدرک :