• شماره ركورد
    24179
  • شماره راهنما
    COM2 668
  • عنوان

    توضيح‌پذيري منكر مدل در هوش مصنوعي باتوجه به توزيع محلي داده‌ها

  • مقطع تحصيلي
    كارشناسي ارشد
  • رشته تحصيلي
    مهندسي كامپيوتر - هوش مصنوعي و رباتيكز
  • دانشكده
    مهندسي كامپيوتر
  • تاريخ دفاع
    1403/06/16
  • صفحه شمار
    79 ص.
  • استاد راهنما
    حسين كارشناس
  • كليدواژه فارسي
    هوش مصنوعي توضيح‌پذير , تفسير مدل , توضيح‌دهي محلي , رويكرد منكر مدل , توزيع محلي داده
  • چكيده فارسي
    توضيح‌پذيري در يادگيري ماشين براي درك و اعتماد به پيش‌بيني‌هاي مدل‌ها بسيار مهم است و به توسعه روش‌هاي مختلف توضيح‌دهي منجر شده است. يكي از تكنيك‌هاي برجسته در اين زمينه، روش توضيح‌پذيري منكر مدل محلي LIME است كه با تقريب زدن مدل يادگيري ماشين به صورت محلي با استفاده از يك مدل قابل تفسير، پيش‌بيني‌هاي ارائه شده براي يك داده را توضيح مي‌دهد. با وجود محبوبيت LIME، اين روش با مشكلات پايداري و وفاداري مواجه است كه مي‌تواند قابليت اطمينان توضيحات آن را تضعيف كند. در اين پايان‌نامه رويكردي نوين بر پايه توليد تخاصمي نمونه‌ها براي بهبود پايداري و قابليت اطمينان توضيحات LIME ارائه شده است. اين روش با توليد داده‌هايي بسيار نزديك به داده‌هاي واقعي با توجه به نحوه افزايش خطاي مدل جانشين، از آنها براي آموزش بهتر اين مدل و بدست آوردن توضيحات پايدارتر و وفادارتر به مدل اصلي استفاده مي‌كند. نتايج، بهبود قابل توجهي را در هر دو جنبه وفاداري و پايداري توضيحات ايجاد شده رويكرد پيشنهادي، را تاييد مي‌كند كه مي‌تواند به زمينه يادگيري ماشين قابل تفسير با ارائه روشي قابل اطمينان‌تر براي توليد توضيحات كمك كند.
  • كليدواژه لاتين
    Explainable AI (XAI) , Model Interpretation , Local Explanation , Model-Agnostic , Local Data Distribution
  • عنوان لاتين
    Model-Agnostic Explanations with respect to Local Data Distribution
  • گروه آموزشي
    مهندسي هوش مصنوعي
  • چكيده لاتين
    Interpretability in machine learning is crucial for understanding and trusting model predictions, leading to the development of various explanation methods. One prominent technique is the Local Interpretable Model-agnostic Explanations (LIME), which explains individual predictions by approximating the model lo-cally with an interpretable surrogate. Despite its popularity, LIME suffers from stability and fidelity issues, which can undermine the reliability of its explana-tions. In this thesis, a novel approach based on generating adversarial examples is presented to improve the stability and reliability of LIME explanations. This method generates data points that are very close to real data by considering how to increase the surrogate mod-el’s error and uses them to better train this model and obtain more stable and reliable explanations. The results show significant improvement in both the fidelity and stability of LIME explanations, confirming the effectiveness of the proposed approach, which can contribute to the field of interpretable machine learning by providing a more reliable method for generating trustworthy explanations.
  • تعداد فصل ها
    6
  • فهرست مطالب pdf
    117944
  • نويسنده

    دادگر، سيدمحمدامين