-
شماره ركورد
26203
-
پديد آورنده
سيدمحسن طبسي
-
عنوان
يك روش طبقه بندي با نمونه هاي معدود با استفاده از مدل هاي زباني ازپيش آموزش ديده
-
مقطع تحصيلي
كارشناسي ارشد
-
رشته تحصيلي
مهندسي كامپيوتر - هوش مصنوعي
-
تاريخ دفاع
30/8/1400
-
استاد راهنما
دكتر محمدطاهر پيله ور
-
دانشكده
مهندسي كامپيوتر
-
چكيده
مدل هاي زباني يكي از مؤلفه هاي اساسي در پردازش زبان طبيعي هستند. امروزه گسترش مدل هاي زباني مبتني بر شبكه هاي عصبي عميق و ظهور مدل هاي زباني از پيش آموزش ديده منجر به پيشرفت هاي شگرفي در حل مسائل مختلف اين حوزه شده است. اين پيشرفت را مي توان در مسائل گوناگون مرتبط با فهم زباني، از جمله پاسخ دهي به پرسش و انواع طبقه بندي متون مشاهده كرد. در اين مسير، بلندترين گام با معرفي معماري ترنسفورمر و سپس توسعه مدل هاي زباني مبتني بر آن از جمله BERT و GPT برداشته شده است. از ويژگي هاي تعيين كننده معماري ترنسفورمر مي توان به امكان آموزش بر روي حجم عظيم دادگان متني، مقياس پذيري از نظر تعداد پارامترها و سهولت انتقال دانش زباني به مسائل مختلف اشاره كرد.
پس از مشاهده بهبود نتايج در مسائل گوناگون پردازش زبان طبيعي، رويكرد جديدي در به كارگيري مدل-هاي زباني مبتني بر ترنسفورمر شكل گرفت. اين رويكرد سعي دارد با ارتباط با مدل زباني به زبان طبيعي، حداكثر استفاده را از دانش نهادينه شده در مدل داشته باشد. به عنوان مثال براي تحليل احساسات متن، به زبان طبيعي از مدل پرسيده مي شود: «_متن ورودي_ من احساس خيلي __» و مدل زباني با پيشنهاد دادن كلمه بعدي (مثلا «عالي») درباره احساسات متن ورودي اظهارنظر مي كند. نكته مهم درباره اين رويكرد (كه آن را تحريك زباني مي ناميم)، عملكرد قابل توجه آن با استفاده از نمونه هاي آموزشي معدود در برخي مسائل (عموماً طبقه بندي) است كه نشان مي دهد مدل زباني دانش موردنياز براي حل اين مسائل را تا حد خوبي داشته است و كافي است صورت مسئله به نحو مناسبي به مدل تفهيم شود.
تا به امروز موفق ترين روش هاي طبقه بندي مبتني بر تحريك زباني، از مدل هاي زباني جاي خالي استفاده مي كردند. محدوديت عمده اين روش ها ثابت بودن تعداد كلمات جاي خالي (معمولا يك جاي خالي) و در نتيجه محدودكردن مدل زباني در پاسخ دهي است.
در اين پژوهش روش جديدي براي طبقه بندي متن با نمونه هاي معدود ارائه مي دهيم كه با استفاده از مدل زباني علّي (مولد) مانند GPT2 انعطاف بيشتري براي تحريك زباني ايجاد مي كند. در روش پيشنهادي، ابتدا توصيف هاي متعددي براي هر كلاس به صورت خودكار يا توسط انسان توليد مي شود. سپس با پرسش ميزان ارتباط هر توصيف با متن ورودي از مدل زباني، درباره خروجي تصميم گيري مي شود. از ويژگي هاي اين روش مي توان به تفسير پذيري، انعطاف در پاسخ مدل زباني، امكان طراحي هدفمند توصيف ها توسط متخصص و استفاده از مدل زباني استاندارد بدون هيچ گونه پيش فرض اشاره كرد. بررسي هاي كمي و كيفي عملكرد قابل قبول روش پيشنهادي را در مسائل طبقه بندي اخبار، تحليل احساسات، تشخيص عواطف و تشخيص نيت نشان مي دهد كه مسلماً با افزايش كيفيت مدل زباني مورداستفاده قابل بهبود خواهد بود.
-
تاريخ ورود اطلاعات
1400/12/06
-
عنوان به انگليسي
A Few-shot Classification Technique Based on Pre-trained Language Models
-
تاريخ بهره برداري
1/1/1900 12:00:00 AM
-
دانشجوي وارد كننده اطلاعات
سيدمحسن طبسي
-
چكيده به لاتين
Language models (LMs) are one of the core components in natural language processing (NLP). Nowadays, the development of language models based on deep neural networks and the emergence of pre-trained LM have led to dramatic advances in solving various tasks in this field. This improvement can be seen in a variety of issues related to language understanding, including question answering and various types of text classification. In this direction, the most important step has been taken with the introduction of transformer architecture and then the development of language models based on it, including BERT and GPT. One of the key features of transformer architecture is the of training on a large volume of textual data, scalability in terms of number of parameters and ease of transferring linguistic knowledge to various tasks.
After observing the performance improvement in various NLP tasks, a new approach was developed in the use of transformer-based LMs. This approach tries to make the most of the knowledge embedded in the model by prompting it using natural language. For example, the task of emotion recognition, the model is asked in natural language: "_Input text_ I feel very __" and the language model makes remarks about the emotion of the input text by predicting the next word (for example "happy"). The important point about this approach (which is called prompting) is its remarkable performance in few-shot setting, suggesting that the language model has the knowledge needed to solve these tasks -to some extent- and it performs very good if the task description is well understood.
To date, the most successful classification methods based on prompting have used masked language models (MLMs). The main limitation of these methods is the constant number of mask tokens (usually one) and thus the limitation of the LM in response.
In this study, we propose a new few-shot text classification method, which uses a causal language model (CLM) such as GPT2 to provide more flexibility for language model prompting. In the proposed method, several descriptions for each class are first generated automatically or manually. Then, by asking the LM how well each description relates to the input text, a decision is made about the output. The key features of this method include explainability, flexibility for language model response, possibility of description engineering by expert and the use of standard language models without any assumption. Quantitative and qualitative analyzes show the acceptable performance of the proposed method in four classification tasks including news topic classification, sentiment analysis, emotion recognition, and intention detection.
-
كليدواژه هاي فارسي
پردازش زبان طبيعي , مدل زباني از پيش آموزش ديده , يادگيري با نمونه هاي معدود , طبقه بندي متن
-
كليدواژه هاي لاتين
Natural Language Processing , Pre-trained Language Model , few-shot learning , Text classificatioد
-
Author
Seyed Mohsen Tabasi
-
SuperVisor
Mohammad Taher Pilehvar
-
لينک به اين مدرک :