-
شماره ركورد
33354
-
پديد آورنده
سيد محمد عرفان موسوي منزه
-
عنوان
هوش مصنوعي توضيح پذير به زبان طبيعي براي استدلال در زبان طبيعي
-
مقطع تحصيلي
كارشناسي ارشد
-
رشته تحصيلي
مهندسي كامپيوتر
-
سال تحصيل
1401
-
تاريخ دفاع
1403/12/12
-
استاد راهنما
سيد صالح اعتمادي
-
استاد مشاور
ندارد
-
دانشكده
كامپيوتر
-
چكيده
با گسترش روزافزون استفاده از هوش مصنوعي، بسياري از مدل هاي موجود همچنان به عنوان جعبەهاي سياه عمل مي كنند. عدم شفافيت در فرآيند تصميم گيري اين مدل ها، چالشي جدي در بەكارگيري آن ها در حوزەهاي حساسي مانند پزشكي علوم اجتماعي و آموزش ايجاد كرده است. براي مقابله با اين مشكل، روش هايي تحت عنوان هوش مصنوعي توضيح پذير توسعه يافتەاند. با اين حال، اين روش ها اغلب پيچيده هستند و براي تحليل و استفاده مؤثر از آن ها، نيازمند دانش تخصصي در حوزه مربوطه مي باشند. يكي از راەحل هاي اميدواركننده براي رفع اين چالش، استفاده از هوش مصنوعي توضيح پذير با زبان طبيعي است. زبان طبيعي به عنوان ابزاري جهاني و قابل فهم براي انسان ها، مي تواند درك بهتري از عملكرد داخلي مدل هاي هوش مصنوعي ارائه دهد. در اين راستا، استنتاج به زبان طبيعي به عنوان يكي از زمينەهاي كليدي در پردازش زبان طبيعي مطرح مي شود. در اين پژوهش، معماري هاي مختلف استنتاج توضيح پذير بررسي شده و نقاط قوت و ضعف هر يك مقايسه مي شوند. براي اولين بار، دو معماري مبتني بر شبكەهاي مبدل پيادەسازي مي شوند: «توضيح و سپس پيش بيني» و «توضيح و پيش بيني همزمان». نتايج نشان مي دهد كه معماري «توليد توضيح و سپس برچسب» با اختلاف حداقل 3 درصد نسبت به ساير معماري ها برتري دارد. علاوه بر اين، پژوهش حاضر نشان مي دهد كه مجموعەدادگان موجود داراي توضيحات ضعيفي هستند. با استفاده از مدل هاي نوين داراي استدلال منطقي، مجموعەدادگان جديدي شامل بيش از 500 هزار سطر با توضيحات با كيفيت توليد شده و كيفيت اين دادەها ارزيابي مي شود. همچنين، براي اولين بار، اين مجموعەدادگان به همراه توضيحات به فارسي ترجمه ماشيني شده و كيفيت ترجمه نيز مورد بررسي قرار مي گيرد. در ادامه، مدل هايي از خانوادەهاي مختلف بر روي سه مجموعەدادگان آموزش داده شده و نتايج آن ها مقايسه مي شوند. عملكرد مجموعەاي از مدل هاي زباني بزرگ از پيش آموخته و مدل هاي استدلالي نيز بر روي اين مجموعەدادگان ارزيابي مي گردد. اين مجموعەدادگان به عنوان معياري براي سنجش كيفيت توضيحات توليد شده توسط مدل هاي هوش مصنوعي عمل مي كند. اين پژوهش گامي مهم در جهت افزايش شفافيت و قابليت اطمينان مدل هاي هوش مصنوعي در حوزەهاي حساس است و مي تواند به گسترش استفاده از اين فناوري در كاربردهاي حياتي كمك شاياني كند.
-
تاريخ ورود اطلاعات
1404/02/16
-
عنوان به انگليسي
Natural Language Explanation for NLI
-
تاريخ بهره برداري
1/1/1900 12:00:00 AM
-
دانشجوي وارد كننده اطلاعات
سيدمحمدعرفان موسوي منزه
-
چكيده به لاتين
With the increasing use of artificial intelligence, many existing models still act as black boxes. The lack of transparency in the decision-making process of these models has created a serious challenge in their application in sensitive fields such as medicine, social sciences, and education. To deal with this problem, methods called explainable artificial intelligence have been developed. However, these methods are often complex and require specialized knowledge in the relevant field to analyze and use them effectively. One promising solution to overcome this challenge is the use of explainable artificial intelligence with natural language. Natural language, as a universal and understandable tool for humans, can provide a better understanding of the inner workings of artificial intelligence models. In this regard, natural language inference is proposed as one of the key areas in natural language processing. In this research, different architectures of explainable inference are reviewed and the strengths and weaknesses of each are compared. For the first time, two architectures based on transformers are implemented: “explanation then prediction” and “simultaneous explanation and prediction”. The results show that the “explanation then predict” architecture outperforms the other architectures by at least 3%. In addition, the present study shows that existing dataset have poor explanations. Using new models with reasoning, a new dataset containing more than 500,000 rows with high-quality explanations is generated and the quality of this data is evaluated. Also, for the first time, this dataset along with the explanations is machine translated into Persian and the translation quality is also examined. Next, models from different families are trained on three datasets and their results are compared. The performance of a set of large language models from pre-trained and reasoning models is also evaluated on these datasets. This dataset serves as a benchmark for measuring the quality of explanations produced by AI models. This research is an important step towards increasing the transparency and reliability of AI models in sensitive domains and could help expand the use of this technology in critical applications.
-
كليدواژه هاي فارسي
هوش مصنوعي توضيح پذير , پردازش زبان طبيعي , يادگيري عميق , مدل هاي زباني بزرگ
-
كليدواژه هاي لاتين
Explainable AI , Natural Language Processing , Deep Learning , Large Language Models
-
Author
Seyyed Mohammad Erfan Moosavi Monazzah
-
SuperVisor
Sayed Sauleh Eetemadi
-
لينک به اين مدرک :