-
شماره ركورد
24179
-
شماره راهنما
COM2 668
-
نويسنده
دادگر، سيدمحمدامين
-
عنوان
توضيحپذيري منكر مدل در هوش مصنوعي باتوجه به توزيع محلي دادهها
-
مقطع تحصيلي
كارشناسي ارشد
-
رشته تحصيلي
مهندسي كامپيوتر - هوش مصنوعي و رباتيكز
-
دانشكده
مهندسي كامپيوتر
-
تاريخ دفاع
1403/06/16
-
صفحه شمار
79 ص.
-
استاد راهنما
حسين كارشناس
-
كليدواژه فارسي
هوش مصنوعي توضيحپذير , تفسير مدل , توضيحدهي محلي , رويكرد منكر مدل , توزيع محلي داده
-
چكيده فارسي
توضيحپذيري در يادگيري ماشين براي درك و اعتماد به پيشبينيهاي مدلها بسيار مهم است و به توسعه روشهاي مختلف توضيحدهي منجر شده است. يكي از تكنيكهاي برجسته در اين زمينه، روش توضيحپذيري منكر مدل محلي LIME است كه با تقريب زدن مدل يادگيري ماشين به صورت محلي با استفاده از يك مدل قابل تفسير، پيشبينيهاي ارائه شده براي يك داده را توضيح ميدهد. با وجود محبوبيت LIME، اين روش با مشكلات پايداري و وفاداري مواجه است كه ميتواند قابليت اطمينان توضيحات آن را تضعيف كند.
در اين پاياننامه رويكردي نوين بر پايه توليد تخاصمي نمونهها براي بهبود پايداري و قابليت اطمينان توضيحات LIME ارائه شده است. اين روش با توليد دادههايي بسيار نزديك به دادههاي واقعي با توجه به نحوه افزايش خطاي مدل جانشين، از آنها براي آموزش بهتر اين مدل و بدست آوردن توضيحات پايدارتر و وفادارتر به مدل اصلي استفاده ميكند.
نتايج، بهبود قابل توجهي را در هر دو جنبه وفاداري و پايداري توضيحات ايجاد شده رويكرد پيشنهادي، را تاييد ميكند كه ميتواند به زمينه يادگيري ماشين قابل تفسير با ارائه روشي قابل اطمينانتر براي توليد توضيحات كمك كند.
-
كليدواژه لاتين
Explainable AI (XAI) , Model Interpretation , Local Explanation , Model-Agnostic , Local Data Distribution
-
عنوان لاتين
Model-Agnostic Explanations with respect to Local Data Distribution
-
گروه آموزشي
مهندسي هوش مصنوعي
-
چكيده لاتين
Interpretability in machine learning is crucial for understanding and trusting model predictions, leading to the development of various explanation methods. One prominent technique is the Local Interpretable Model-agnostic Explanations (LIME), which explains individual predictions by approximating the model lo-cally with an interpretable surrogate. Despite its popularity, LIME suffers from stability and fidelity issues, which can undermine the reliability of its explana-tions.
In this thesis, a novel approach based on generating adversarial examples is presented to improve the stability and reliability of LIME explanations. This method generates data points that are very close to real data by considering how to increase the surrogate mod-el’s error and uses them to better train this model and obtain more stable and reliable explanations.
The results show significant improvement in both the fidelity and stability of LIME explanations, confirming the effectiveness of the proposed approach, which can contribute to the field of interpretable machine learning by providing a more reliable method for generating trustworthy explanations.
-
تعداد فصل ها
6
-
لينک به اين مدرک :