-
شماره ركورد
30284
-
پديد آورنده
پرهام رحيمي
-
عنوان
استخراج رابطه از متن خام با استفاده از مدلهاي زباني بزرگ و رويكرد نظارت از راه دور
-
مقطع تحصيلي
كارشناسي ارشد
-
رشته تحصيلي
مهندسي كامپيوتر - هوش مصنوعي
-
سال تحصيل
1400
-
تاريخ دفاع
1402/08/17
-
استاد راهنما
دكتر بهروز مينايي بيدگلي
-
دانشكده
مهندسي كامپيوتر
-
چكيده
با رشد سريع متون بدون ساختار در وب، استخراج رابطه نقشي حياتي در تحقيقات پردازش زبان طبيعي ايفا كرده و به طور خودكار متون بدون ساختار را به قالبهاي ساختيافته تبديل و ذخيره ميكند. اين وظيفه ميتواند به تكميل و بروزرساني گرافهاي دانش موجود از داده روز نيز كمك شاياني كند. روشهاي استخراج رابطه باناظر به حجم زيادي دادهي آموزشي برچسبگذاري شده نياز دارند كه زمان و هزينه بر است. نظارت از راه دور براي رسيدگي به اين چالش پيشنهاد شده است. با وجود اينكه مدلهاي استخراج رابطه سنتي به موفقيتهاي قابل توجهي دست يافتهاند، پيشرفتهاي اخير در مدلهاي زباني بزرگ دستاوردهاي قابلتوجهي در پيشبرد لبه دانش در وظايف مختلف پردازش زبان طبيعي نشان دادهاند كه آنها را شايسته بررسي در اين وظيفه ميكند.
اين نوشتار استفاده از مهندسي پرامپت و مدلهاي زباني بزرگ را براي غلبه بر چالشهاي موجود در بهبود نتايج لبه دانش در استخراج رابطه ترسيم ميكند. در اين راستا، ابتدا روشي براي توليد پرامپت مهندسيشده بر اساس مجموعهدادههاي استخراج رابطه سنتي ارائه ميشود. سپس با استفاده از روش مذكور مجموعهدادههاي 24 و 56 رابطهاي كه به ترتيب داراي بيش از 60 هزار و بيش از 600 هزار پرامپت هستند، براي استخراج رابطه با رويكرد نظارت از راه دور بر مبناي مجموعهدادهي نيويورك تايمز براي مدلهاي زباني بزرگ ارائه ميشود. در نهايت مدل زباني تي5 به گونهاي تنظيم دقيق ميشود كه ميتواند نتايج بهتري نسبت به مدلهاي لبه دانش فعلي در معيارهاي امتياز اف (1.12 واحد ارتقا) و دقت (2.44 واحد ارتقا) ارائه دهد. همچنين استفاده از رويكرد آموزش كمنمونه و بينمونه مدل زباني بزرگ لاما2 براي به دست آوردن نتايج بهتر در استخراج رابطه براي رابطههاي كم تكرار در مجموعهدادهي آموزش پيشنهاد ميشود.
-
تاريخ ورود اطلاعات
1402/10/09
-
عنوان به انگليسي
Relation Extraction from plain text using Large Language Models with Distant Supervision approach
-
تاريخ بهره برداري
11/7/2024 12:00:00 AM
-
دانشجوي وارد كننده اطلاعات
پرهام رحيمي
-
چكيده به لاتين
With the rapid growth of unstructured texts on the web, relation extraction plays a vital role in natural language processing research, automatically transforming unstructured texts into structured formats and aiding in completing and updating existing knowledge graphs with up-to-date data. Relation extraction methods typically require a substantial amount of labelled training data, which can be time-consuming and costly. Distant supervision has been proposed to address this challenge. Although traditional relation extraction models have achieved significant success, recent advancements in large language models have demonstrated remarkable achievements in advancing knowledge graphs in various natural language processing tasks, making them worthy of investigation in this task.
This thesis outlines the use of prompt engineering and large language models to overcome existing challenges in improving state-of-the-art results in relation extraction. To this end, a method for generating engineered prompts based on traditional relation extraction datasets is presented. Subsequently, datasets of 24 and 56 relations, each containing over 60,000 and more than 600,000 prompts, are provided for relation extraction with distant supervision approach based on the New York Times corpus, for large language models. Finally, the T5 language model is fine-tuned to provide better results (1.12 increase in F-score and 2.44 increase in Precision) than current state-of-the-art models. Furthermore, the use of few-shot and zero-shot learning with the large language model LaMa2 is recommended to achieve better results in relation extraction for less frequent relations in the training dataset.
-
كليدواژه هاي فارسي
استخراج رابطه , نظارت از راه دور , مدلهاي زباني , مدلهاي زباني بزرگ , پردازش زبان طبيعي
-
كليدواژه هاي لاتين
Relation Extraction , Distant Supervision , Language Models , Large Language Models , Natural Language Processing
-
Author
Parham Rahimi
-
SuperVisor
Behrouz Minaei-Bidgoli
-
لينک به اين مدرک :