-
شماره ركورد
33427
-
پديد آورنده
اكرم كلائي
-
عنوان
تحليل دامنه و تأثير آن بر بهبود آزمونپذيري و توضيحپذيري سيستمهاي سايبر- فيزيكي مبتني بر يادگيري ماشين
-
مقطع تحصيلي
دكتري
-
رشته تحصيلي
مهندسي كامپيوتر
-
سال تحصيل
1403
-
تاريخ دفاع
1403/12/18
-
استاد راهنما
سعيد پارسا
-
استاد مشاور
ندارد
-
دانشكده
مهندسي كامپيوتر
-
چكيده
مدلسازي رياضي رفتار سيستمهاي فيزيكي، زيربناي ساخت اغلب سيستمهاي سايبر- فيزيكي است. مدل رياضي، با مجموعهاي از معادلات سازگار، رفتارها و ويژگيهاي خاص سيستم را توصيف ميكند. با اين حال، برخي متغيرهاي مؤثر ممكن است به دليل ناآگاهي يا درك ناكافي طراحان پنهان بمانند، كه ميتواند منجر به خطا در مدل و پيشبينيهاي نادرست شود. استفاده از مدلهاي يادگيري ماشين براي توسعه مدلهايي كه در شرايط جديد، پيشبينيهاي قابل اعتماد ارائه دهند، يك راهحل است. اما به دليل ماهيت جعبه سياه اين مدلها، پيشبيني و تأييد رفتار آنها در شرايط غيرمنتظره دشوار است. اين چالشها، سيستمهاي سايبر-فيزيكي مبتني بر يادگيري ماشين را، به ويژه در كاربردهاي ايمني- بحراني، با ضعف آزمونپذيري و توضيحپذيري مواجه كرده است. مروري بر ادبيات موضوع، نشان از تمركز پژوهشها بر روشهاي جعبه سياه به دليل رابطه ضعيف معيارهاي پوشش جعبه سفيد با كشف خطا دارد. اين روشها به دنبال دادههاي آزمون متنوع و نقضكننده ملزومات كاركردي/ ايمني ميگردند، در حالي كه منطق تصميمگيري سيستم در واكنش به رويدادهاي محيطي را ناديده ميگيرند. در حقيقت، مسئله آزمون و شرح رفتار در اين سيستمهاي پيچيده، يك مسئله مبتني بر تحليل دامنه است و بايد به دنبال علل خطاي دامنه بود. در تحليل دامنه، فضاي ورودي سيستم بر مبناي مشخصات نرمافزار به دامنههاي مجزا افراز و هر دامنه به يك مسير يا رفتار خاص تخصيص داده ميشود. اين تحليل به شناسايي و تعريف ويژگيها و رفتارهاي سيستم در شرايط مختلف كمك ميكند. هدف اصلي اين رساله، بهكارگيري تحليل دامنه همگام با فنون آزمون مبتني بر جستجو براي بهبود كشف و شرح رفتارهاي نادرست در سيستمهاي سايبر-فيزيكي مبتني بر يادگيري است. چارچوبي چندلايه و منسجم پيشنهاد شده كه آزمونپذيري و توضيحپذيري را در سطوح مختلف—از مدلهاي يادگيري ژرف تا منطق تصميمگيري سطح سيستم—بهصورت يكپارچه دنبال ميكند. چارچوب پيشنهادي شامل چهار گام مكمل است. گام اول، با توجه به تحليل دامنه و منطق تصميمگيري شبكه عصبي ژرف با وظيفه پيشبيني، معياري جديد براي توليد داده آزمون پيشنهاد ميدهد. اين روش، با تبديل مسئله توليد داده آزمون به يك بهينهسازي چندهدفه، امكان كشف موارد آزمون لبه و بحراني را فراهم ميكند. اين موارد ميتوانند عملكرد مدل را تحت شرايط پيشبيني نشده به چالش بكشند. گام دوم، بر آزمون شبكههاي عصبي ژرف با وظيفه طبقهبندي متمركز است و معيار جديدي براي برآورد اثر جمعي عصبها بر خروجي ناموفق مدل ارائه ميدهد. اين روش با استفاده از فنون مكانيابي خطاي مبتني بر طيف و روش گراديان افزايشي چندمرحلهاي، مجموعه داده جديدي توليد ميكند كه دقت كشف و شرح ريشههاي خطاي مدل را بهبود ميبخشد. گام سوم، به آزمون مؤلفههاي تصميمگيري مبتني بر قواعد ميپردازد و با طراحي يك معيار رفتار-محور، مسيرهاي بحراني را شناسايي ميكند. اين روش با تبديل مسئله توليد داده آزمون به يك بهينهسازي چندهدفه، كارايي تعيين شرايط رفتاري سيستم را بهبود ميدهد و به شناسايي مواردي كه ممكن است در تصميمگيريهاي حساس سيستم نقص ايجاد كنند، كمك ميكند. گام چهارم نيز بر آزمون مؤلفههاي تصميمگيري مبتني بر شبكه عصبي ژرف تمركز دارد و با طراحي يك سنجه مخاطره، معيار جديدي براي توليد داده آزمون ارائه ميدهد كه نواحي بحراني ورودي را شناسايي ميكند. پوشش اين معيار، با تبديل مسئله توليد داده آزمون به يك بهينهسازي چندهدفه، به توليد مجموعه آزمون متنوعي ميانجامد كه به توصيف دقيقتر شرايط رفتاري سيستم كمك ميكند. زمان اجراي آزمونها نيز با استفاده از يك مدل جايگزين جمعي-تقويتي كاهش مييابد. براي ارزيابي عملكرد راهكارهاي پيشنهادي و مقايسه با روشهاي مبنا، آزمايشهاي گستردهاي بر روي مجموعهاي از مدلهاي شبكه عصبي ژرف و كد منبع چندين سيستم سايبر-فيزيكي در حوزه خودروهاي خودران انجام شده است. معيارهاي ارزيابي شامل سنجههاي متنوعي از آزمونپذيري و توضيحپذيري بوده و از مجموعه دادههاي معتبر و استاندارد براي اين كار استفاده شده است. نتايج بدستآمده نشان ميدهد كه راهكارهاي پيشنهادي در مقايسه با روشهاي مبنا بهبود قابلتوجهي در آزمونپذيري (تا 65%) و توضيحپذيري (تا 69%) داشتهاند. تحليلهاي آماري نيز تفاوت معنيدار روشهاي پيشنهادي و مبنا را تأييد ميكند.
-
تاريخ ورود اطلاعات
1404/02/22
-
عنوان به انگليسي
Domain Analysis and Its Impact on Testability and Explainability of Machine Learning-Based Cyber-Physical Systems
-
تاريخ بهره برداري
1/1/1900 12:00:00 AM
-
دانشجوي وارد كننده اطلاعات
اكرم كلائي
-
چكيده به لاتين
Mathematical modeling of physical system behavior forms the foundation for constructing most cyber-physical systems (CPS). These mathematical models, composed of a set of coherent equations, describe specific behaviors and properties of the system. However, some influential variables may remain hidden due to a lack of awareness or understanding by system designers, which can lead to modeling errors and inaccurate predictions. Leveraging machine learning models to develop predictive models that perform reliably under novel conditions presents a promising alternative. Yet, the black-box nature of such models makes it challenging to predict and validate their behavior in unforeseen scenarios. These challenges render machine-learning-enabled CPS—especially in safety-critical domains—susceptible to weaknesses in testability and explainability. A review of the literature reveals a predominant focus on black-box testing approaches, mainly due to the weak correlation between white-box coverage criteria and fault detection effectiveness. These approaches often search for diverse test data that violate functional or safety requirements but tend to overlook the internal decision-making logic of the system in response to environmental events. In reality, the problem of testing and explaining behavior in such complex systems is a domain analysis problem and must address domain-specific root causes of failure. Domain analysis partitions the system's input space into distinct subdomains based on software specifications, assigning each subdomain to a particular behavior or execution path. This helps identify and characterize the system’s behavior under varying conditions. The primary goal of this dissertation is to leverage domain analysis in tandem with search-based testing techniques to enhance the detection and explanation of incorrect behaviors in learning-enabled CPS. A multilayered and coherent framework is proposed to address testability and explainability across various levels of the system—from deep learning models to high-level decision logic. The proposed framework comprises four complementary steps. The first step focuses on deep neural networks (DNNs) with predictive tasks. By integrating domain analysis and decision logic extraction, a novel test data generation criterion is introduced. Framed as a multi-objective optimization problem, this method enables the identification of edge and critical test cases that challenge model performance in previously unseen scenarios. The second step targets classification-based DNNs and proposes a new metric for estimating the collective influence of neurons on misclassifications. By combining spectrum-based fault localization and multi-stage gradient ascent, this method generates new datasets that improve the accuracy and clarity of fault root-cause explanations. The third step addresses rule-based decision-making components by introducing a behavior-oriented criterion to identify critical decision paths. As in the previous steps, this is formulated as a multi-objective optimization problem, enhancing the identification of behavioral conditions that may cause system failures in sensitive decisions. The fourth step focuses on DNN-based decision-making modules. It introduces a novel risk metric to identify critical regions of the input space. The resulting optimization process generates diverse test cases that enable a more precise characterization of the system’s behavioral space. Test execution time is also reduced using a surrogate model based on ensemble reinforcement learning. To evaluate the effectiveness of the proposed approaches and compare them with baseline methods, extensive experiments were conducted on a set of DNN models and the source code of multiple cyber-physical systems in the autonomous driving domain. evaluation metrics included diverse indicators of testability and explainability, using publicly available and standardized datasets. The results demonstrate significant improvements in testability (up to 65%) and explainability (up to 69%) over baseline methods. Statistical analyses further confirm the significance of the observed differences.
-
كليدواژه هاي فارسي
سيستمهاي سايبر- فيزيكي , يادگيري ماشين , توضيحپذيري , آزمون نرمافزار , مكانيابي خطا , تحليل دامنه , توليد داده آزمون
-
كليدواژه هاي لاتين
Cyber-physical systems , Machine learning , Explainability , Software testing , Fault localization , Domain analysis , Test data generation
-
Author
Akram Kalaee
-
SuperVisor
Saeed Parsa
-
لينک به اين مدرک :