-
شماره ركورد
12661
-
عنوان
مبدل پيشآموزشديده توليدكننده
-
سال تحصيل
1400
-
استاد راهنما
مرتضي آنالويي
-
چکيده
مبدلهاي پيشآموزشديده (GPT) دستهاي از مدلهاي زباني بزرگ هستند كه با قادر ساختن ماشينها براي توليد متن با كيفيت بالا و منسجم، پردازش زبان طبيعي را متحول كردهاند. اين مدلها بر اساس معماري مبدل هستند و بر روي مقادير انبوه دادههاي متني با استفاده از تكنيكهاي يادگيري بدون نظارت آموزش داده ميشوند. اين مدلها قبل از استفاده در يك وظيفهي خاص مانند طبقهبندي متن، پرسش و پاسخ يا خلاصهسازي، به صورت پيشآموزش ديده ميشوند. مدلهاي GPT با داشتن نتايج بسيار عالي در بسياري از وظايف پردازش زبان طبيعي به شدت به توسعه اپليكيشنهايي مانند چتبات، ترجمه زبان و توليد محتوا كمك كردهاند در اين سمينار انواع مدلهاي زباني، تاريخچه، معماري و كاربردهاي مبدلها و واحدهاي توجه در آنها، مدل Llama، يادگيري تقويتي با بازخورد انساني و تاريخچه و معماري مدلهاي GPT و مقايسهي اين مدلها با روش BERT را بررسي ميكنيم و بر دو مورد از محبوبترين مدلها تمركز ميكنيم: GPT-2 و GPT-3. ما نقاط قوت و ضعف اين مدلها و تأثير آنها بر وظايف مختلف پردازش زبان طبيعي، مانند مدلسازي زبان، طبقهبندي متن و خلاصهسازي را مورد بحث قرار ميدهيم. علاوه بر اين، ما ملاحظات اخلاقي پيرامون استفاده از مدلهاي GPT، مانند احتمال سوگيري و اطلاعات غلط را بررسي ميكنيم. در انتها، در مورد جهتگيريها و چالشهاي آينده در اين زمينه كه به سرعت در حال تحول است بحث ميكنيم.مبدلهاي پيشآموزشديده (GPT) دستهاي از مدلهاي زباني بزرگ هستند كه با قادر ساختن ماشينها براي توليد متن با كيفيت بالا و منسجم، پردازش زبان طبيعي را متحول كردهاند. اين مدلها بر اساس معماري مبدل هستند و بر روي مقادير انبوه دادههاي متني با استفاده از تكنيكهاي يادگيري بدون نظارت آموزش داده ميشوند. اين مدلها قبل از استفاده در يك وظيفهي خاص مانند طبقهبندي متن، پرسش و پاسخ يا خلاصهسازي، به صورت پيشآموزش ديده ميشوند. مدلهاي GPT با داشتن نتايج بسيار عالي در بسياري از وظايف پردازش زبان طبيعي به شدت به توسعه اپليكيشنهايي مانند چتبات، ترجمه زبان و توليد محتوا كمك كردهاند در اين سمينار انواع مدلهاي زباني، تاريخچه، معماري و كاربردهاي مبدلها و واحدهاي توجه در آنها، مدل Llama، يادگيري تقويتي با بازخورد انساني و تاريخچه و معماري مدلهاي GPT و مقايسهي اين مدلها با روش BERT را بررسي ميكنيم و بر دو مورد از محبوبترين مدلها تمركز ميكنيم: GPT-2 و GPT-3. ما نقاط قوت و ضعف اين مدلها و تأثير آنها بر وظايف مختلف پردازش زبان طبيعي، مانند مدلسازي زبان، طبقهبندي متن و خلاصهسازي را مورد بحث قرار ميدهيم. علاوه بر اين، ما ملاحظات اخلاقي پيرامون استفاده از مدلهاي GPT، مانند احتمال سوگيري و اطلاعات غلط را بررسي ميكنيم. در انتها، در مورد جهتگيريها و چالشهاي آينده در اين زمينه كه به سرعت در حال تحول است بحث ميكنيم.
-
نام دانشجو
فرناز حسني
-
تاريخ ارائه
11/15/2023 12:00:00 AM
-
متن كامل
80860
-
پديد آورنده
فرناز حسني
-
تاريخ ورود اطلاعات
1402/08/25
-
عنوان به انگليسي
generative pretrained transformer
-
كليدواژه هاي فارسي
مبدل پيشآموزشديده توليدكننده , مدلهاي زباني بزرگ , پردازش زبان طبيعي , مدلسازي زباني , طبقهبندي متن , يادگيري بدون نظارت
-
كليدواژه هاي لاتين
generative pretrained transformer , gpt-1 , gpt-2 , gpt-3 , gpt-4 , natural language processing , large language model
-
لينک به اين مدرک :