-
شماره ركورد
28868
-
پديد آورنده
پريا درباني
-
عنوان
شتابدهنده داراي قابليت بازپيكربندي براي اجراي كارآمد شبكههاي عصبي پيچشي
-
مقطع تحصيلي
دكتري تخصصي (PhD)
-
رشته تحصيلي
مهندسي كامپيوتر- معماري سيستمهاي كامپيوتري
-
سال تحصيل
1395
-
تاريخ دفاع
1402/6/20
-
استاد راهنما
حاكم بيت الهي
-
استاد مشاور
پژمان لطفي كامران
-
دانشكده
مهندسي كامپيوتر
-
چكيده
امروزه شبكههاي عصبي پيچشي بهطور گسترده در بسياري از كاربردهاي هوش مصنوعي ازجمله پردازش تصوير استفاده ميشوند. اجراي شبكههاي عصبي پيچشي نيازمند انجام محاسبات زياد با دقت بالا است. فراگيري استفاده از اين شبكهها نيازمند به كارگرفتن روشهايي است كه بدون كاهش دقت محاسباتي، باعث بهبود بهرهوري ميشوند. وجه اشتراك تمام شبكههاي عصبي، وجود چندين لايه با اندازههاي ورودي، وزن و خروجي متفاوت است. شتابدهندۀ مخصوص شبكههاي عصبي پيچشي يك پردازنده با ابعاد مشخص است كه لايههاي شبكۀ عصبي را يكي پس از ديگري اجرا ميكند. در شتابدهندههاي آرايهاي ابعاد آرايه و اندازۀ هر عنصر پردازشي بر اساس برآيندي از تمام لايهها بهينهسازي ميشود. به دليل اختلاف ابعاد لايههاي شبكۀ عصبي با يكديگر و اجرا توسط يك پردازنده با ابعاد ثابت، در اجراي بعضي لايهها مسئلۀ منابع بياستفاده به وجود ميآيد. مسئلۀ منابع بياستفاده مانع از دسترسي شبكۀ عصبي به حداكثر بهرهوري ممكن ميشود. روش پيشنهادي با ارائۀ يك معماري داراي قابليت بازپيكربندي مشكل بياستفاده ماندن منابع را بهبود ميبخشد. واحدهاي بازپيكربند به وسيلۀ سوئيچهاي كوچك، قابليت تغيير ابعاد را براي شتابدهنده فراهم ميكنند و اين امكان را ميدهند كه ابعاد پردازنده با ابعاد لايۀ در حال اجرا سازگار شود. تغيير ابعاد شتابدهنده مستلزم وجود ميانگير بازپيكربندي است كه داده را متناسب با پيكربندي جديد به عناصرپردازشي منتقل كند. در نتيجه معماري پيشنهادي يك ميانگير با قابليت بازپيكربندي را نيز ارائه ميدهد. معماري پيشنهادي به وسيلۀ كاهش تعداد منابع بياستفاده، منجر به افزايش بهرهوري، افزايش گذردهي و كاهش دفعات دسترسي به حافظه خارج تراشه ميشود. بهاينترتيب سرعت محاسبات افزايش مييابد.
-
تاريخ ورود اطلاعات
1402/07/10
-
عنوان به انگليسي
A High-Performance Accelerator to Execution Convolutional Neural Network
-
تاريخ بهره برداري
9/10/2024 12:00:00 AM
-
دانشجوي وارد كننده اطلاعات
پريا درباني
-
چكيده به لاتين
Convolutional Neural Networks (CNNs) have garnered widespread use in real-world applications owing to their remarkable accuracy. The proliferation of machine learning-driven applications has underscored the need for the efficient implementation of CNNs. Array-type architectures have emerged as a well-established platform for optimizing CNN model execution, leveraging parallel computation and data reuse capabilities. However, accelerators face constraints in terms of hardware resources, while CNNs demand substantial communication and computational resources. Moreover, accelerators typically process CNN layers sequentially, which results in suboptimal resource utilization when dealing with layers of varying shapes and sizes. This limitation hampers accelerators from achieving peak performance, a problem exacerbated by the growing scale and complexity of deep learning applications. Consequently, the performance of CNN models is contingent on hardware adaptability to diverse layer configurations, enhancing resource utilization. This research introduces a novel reconfigurable accelerator designed to efficiently execute a wide range of CNNs. The proposed architecture incorporates flexible and cost-effective reconfigurable interconnect units, enabling the array to outperform fixed-size implementations significantly. Additionally, the proposed architecture reduces on-chip memory access, all while maintaining high accuracy levels. This innovative reconfigurable accelerator addresses the pressing need for adaptable hardware solutions in the context of CNNs, demonstrating its potential to enhance the efficiency of deep learning applications across various domains.
-
كليدواژه هاي فارسي
شبكه عصبي پيچشي , شبكه عصبي كانولوشن , بازپيكربندي , محاسبات پيچشي
-
كليدواژه هاي لاتين
Convolution Neural Network , convolutional neural network , Reconfiguration , Convolution calculations
-
Author
Pariya Darbani
-
SuperVisor
Dr. Hakem Beitollahi
-
لينک به اين مدرک :