-
شماره ركورد
25246
-
پديد آورنده
مهدي شكرگزار
-
عنوان
طراحي كاراي چيدمان داده براي شتابدهندههاي سختافزاري شبكههاي عصبي همگشتي
-
مقطع تحصيلي
كارشناسي ارشد
-
رشته تحصيلي
مهندسي كامپيوتر
-
سال تحصيل
1399
-
تاريخ دفاع
1399/8/29
-
استاد راهنما
دكتر مهدي فاضلي- دكتر حاكم بيت الهي
-
استاد مشاور
دكتر هاجر فلاحتي
-
دانشكده
مهندسي كامپيوتر
-
چكيده
امروزه دانش هوش مصنوعي و شبكههاي عصبي عميق، روز بهروز در حال گسترش است و كاربردهاي فراواني در زمينههاي مختلف علوم و تكنولوژي دارد. كاربردهايي مانند پردازش تصوير، متن، صوت، تشخيص الگوها و بسياري از كاربردهاي ديگر. شبكههاي عصبي همگشتي، يكي از اين شبكههاست كه براي پردازش تصاوير و ويدئوها از آن استفاده ميشود.
يكي از مشكلات عمدهي شبكههاي عصبي همگشتي، حجم بالاي دادهها و بزرگي شبكه است. در زمان اجراي شبكههاي عصبي همگشتي در سيستمهاي قابل حمل، با محدوديت در حافظه و توان مواجه ميشويم. ما در اين تحقيق با استفاده از روشهاي فشردهسازي، حجم اين شبكهها را كاهش داديم و ساختار سختافزاري براي شتابدهندههاي اين شبكهها استفاده كرديم كه با فاكتورگيري از وزنهاي مشترك، حجم محاسبات را كاهش ميدهد. براي اين سختافزار خاص منظوره، متناسب با شيوههاي فشردهسازي، چينش دادهاي پيشنهاد كرديم كه استفادهي بهينهاي از منابع سختافزاري داشتهباشد. روش پيشنهادي ما، با استفاده فاكتورگيري از وزنّها، ساختار كاشيكاري در سختافزار و الگوريتمي براي چرخش داده در داخل كرنل، اجراي موازي محاسبات را افزايش داده و مصرف توان را كاهش ميدهد.
در اين روش، ارجاع به حافظهي اصلي تا 13 برابر كاهش مييابد. همچنين حجم محاسبات كم شده و مصرف انرژي تا 5 برابر كاهش مييابد.
-
تاريخ ورود اطلاعات
1400/06/26
-
عنوان به انگليسي
Design of an efficient Data Layout for CNNs Hardware Accelerator
-
تاريخ بهره برداري
1/1/1900 12:00:00 AM
-
دانشجوي وارد كننده اطلاعات
مهدي شكرگزار
-
چكيده به لاتين
Nowadays, the knowledge of artificial intelligence and deep neural networks is expanding fast and has many applications in various fields of science and technology. Applications such as image, text and audio processing, pattern recognition and many other applications. Convolutional neural networks are one of these networks that are used to process images and videos.
One of the major problems of convolutional neural networks is the large volume of data and the size of the network. When running convolutional neural networks in embeded and portable systems, we encounter limitations in memory and power. In this study, we used compression methods to reduce the volume of these networks and used the hardware structure for the accelerators of these networks, which reduces the computational volume by factorizing common weights. For this particular hardware, in accordance with the compression methods, we have proposed data arrangements that make optimal use of the hardware resources. Our proposed method increases execution parallelism, reducing the access to main memory by up to 13x. It also reduces the number of calculations and reduces energy consumption by up to 5x.
Convolutional Neural Networks, Data layout, Data flow, Accelerators
-
كليدواژه هاي فارسي
شبكههاي عصبي همگشتي , چينش داده , جريان داده , شتابدهندهها
-
كليدواژه هاي لاتين
Convolutional Neural Networks , Data layout , Accelerators , Data flow
-
لينک به اين مدرک :