-
شماره ركورد
8148
-
عنوان
مروري بر تفسيرپذيري و انتقالپذيري مدلهاي زباني از پيشآموزشديده
-
سال تحصيل
1398-99
-
استاد راهنما
دكتر محمدطاهر پيله ور و دكتر بهروز مينايي بيدگلي
-
چکيده
امروزه استفاده از مدلهاي زباني از پيشآموزشديده در حوزه پردازش زبان طبيعي، بهطور چشمگيري افزايش يافته است. اين مدلها تنها يك بار و بهصورت خودناظر بر روي پيكرههاي متني بزرگ آموزش ديده و سپس از آنها در مسائل مختلف پردازش زبان استفاده ميشود. اخيرا استفاده از اين مدلها در مسائل مختلف، تنها با تنظيم مختصري از وزنهاي آنها، نتايج بسيار بهتري نسبت به مدلهاي پيشين كه بهطور خاص و جداگانه براي هر يك از مسائل آموزش ديده بودند بههمراه داشتهاند. بهدنبال اين نتايج درخور، تحليل و تفسير رفتار اين مدلها مبني بر اينكه چه دانشهاي زباني را در زمان پيشآموزش فرا گرفتهاند امري ضروري است. با توجه به زياد بودن تعداد پارامترهاي اين مدلها، تكرار فرآيند پيشآموزش آنها هزينهبر بوده و از اينرو موضوع تحليل و تفسير رفتار اين مدلها بيش از پيش مورد توجه قرار گرفته است. نتايج اين تحقيقات، مشكلات مدلها را آشكار كرده و ميتواند منجر به معرفي روشهاي بهتر در گام پيشآموزش و تنظيمسازي وزنها و يا طراحي مجموعه داده جديد در جهت رفع نقاط ضعف مدلهاي قبلي شود. در اين تحقيق، ابتدا مروري بر مدلهاي از پيشآموزشديده جديدي كه اخيرا در حوزه پردازش زبان طبيعي بسيار محبوب شدهاند خواهيم داشت و نحوه پيشآموزش آنها تشريح خواهد شد. سپس روشهاي نوين در تفسيرپذيري اين مدلها و نيز انتقال دانش كسبشده توسط آنها به ساير مسائل دنياي واقعي مرور خواهند شد.
-
نام دانشجو
حسين محبي
-
تاريخ ارائه
12/23/2020 12:00:00 AM
-
متن كامل
70363
-
پديد آورنده
حسين محبي
-
تاريخ ورود اطلاعات
1399/10/28
-
عنوان به انگليسي
A Review of Interpretability andTransferability of Pre-trained LanguageModels
-
كليدواژه هاي فارسي
مدلهاي زباني از پيشآموزشديده , برت , تفسيرپذيري , يادگيري انتقالي
-
كليدواژه هاي لاتين
Pre-trained Language Models , BERT , Interpretability , Transfer Learning
-
لينک به اين مدرک :