-
شماره ركورد
31869
-
پديد آورنده
آيسان پورعلي
-
عنوان
ارائه يك مدل يادگيري تقويتي عميق شفاف
-
مقطع تحصيلي
كارشناسي ارشد
-
رشته تحصيلي
مهندسي كامپيوتر گرايش هوش مصنوعي
-
سال تحصيل
1399
-
تاريخ دفاع
1403/07/02
-
استاد راهنما
دكتر ناصر مزيني
-
استاد مشاور
ندارم
-
دانشكده
مهندسي كامپيوتر
-
چكيده
در گذ شته م شكالت فراواني در حوزه يادگيري ما شين دا شتيم كه يكي از آنها م شكالت دادههاي عظيم با
حجم باال بود. يادگيري عميق با ورود خود به اين عرصممه اين مشممكل را حل كرد. از مزاياي يادگيري عميق
ميتوان به يادگيري خودكار ويوگيها، دقت باال، قدرت تعميم خوب و پ شتيباني گ سترده از س تافزارها و
نرمافزارهاي م تلف اشاره كرد كه امروزه به ور گسترده استفاده ميشوند. در ب ش يادگيري تقويتي نيز ما
بهوفور از شمبكههاي يادگيري عميق براي يادگيري سميسمتم كنترل عامل اسمتفاده ميكنيم. يكي از معايب
ا سا سي كه به الگوريتمهاي يادگيري عميق وارد ا ست عدم تو ضيح پذيري در آن ا ست. به اين معني كه اين
شبكهها به صورت يك جعبه سياه عمل ميكنند و ك سي نميداند كه اين شبكه دقيقاً به چه علت ت صميم
خاصي را گرفته است. اينكه كدام ورودي و منطق منجر به اخذ تصميمي خاص توسط عامل شده است يك
سؤال بيجواب است. در حوزههاي حساسي مانند پزشكي، امنيتي، نظامي، قضايي و ام ال آن انسانها براي
اعتماد به ماشين نيازمند درك تصميمات و اصالح ورودي يا منطق ياد گرفتهشده توسط ماشين در صورت
نياز هستند. هوش مصنوعي قابل توضيح سعي دارد به اين سؤالها پاسخ دهد. اين حوزه به توسعه مدلهاي
هوش مصنوعي شفاف و قابل تفسير ميپردازد كه در چند سال گذشته جذابيت بيشتري پيداكردهاند. در اين
پروژه ما سعي داريم ابتدا با مروري اجمالي بر ادبيات موضوع و بررسي آخرين مدلها و الگوريتمهاي معرفي
شده در اين حوزه خواننده را براي درك مطلب آماده كنيم. پس از آن مدل خود را كه مبتني بر گراف است،
معرفي ميكنيم. در اين روش ما با معرفي دو رويكرد ساخت گراف و سه الگوريتم ارائه توضيحات متني اقدام
به تفسير پذير سازي تصميمات عامل در محيط چندعاملي ميكنيم. قابل ركر است در ول اين كار منظور
ما از شفافيت، تفسير پذيري مدل بوده است. ما با مقايسه عامل تفسيرپذيرجايگزين توليد شده با عامل اصلي
نشان ميدهيم كه ايده ما به بهبودرفتار عامل نيز منجر شده است.
-
تاريخ ورود اطلاعات
1403/10/19
-
عنوان به انگليسي
design a transparent deep reinforcement learning model
-
تاريخ بهره برداري
9/23/2025 12:00:00 AM
-
دانشجوي وارد كننده اطلاعات
ايسان پورعلي
-
چكيده به لاتين
In the past, we faced numerous challenges in the field of machine learning, one of which was
dealing with massive volumes of data. The advent of deep learning has addressed this issue.
The advantages of deep learning include automatic feature learning, high accuracy, good
generalization capabilities, and extensive support for various hardware and software, which are
widely used today. In the realm of reinforcement learning, we frequently utilize deep learning
networks to learn operating system control systems. However, a fundamental drawback of deep
learning algorithms is their lack of transparency. These networks operate as a black box,
meaning no one knows exactly why a specific decision was made. The question of which input
and logic led to a particular decision by the agent remains unanswered. In sensitive domains
such as medicine, security, military, judiciary, and the like, humans need to understand the
decisions and, if necessary, modify the input or learned logic of the machine to trust it.
Explainable AI aims to address these questions. This field focuses on developing transparent
and interpretable AI models, which have gained more attention in recent years.
-
كليدواژه هاي فارسي
هوش مصنوعي توضيحپذير، يادگيري عميق، يادگيري ماشين، يادگيري تقويتي
-
كليدواژه هاي لاتين
Explainable artificial intelligence, deep learning, machine learning, reinforcement learning
-
Author
Aysan Pourali
-
SuperVisor
Dr. Naser Mozayani
-
لينک به اين مدرک :