• شماره ركورد
    25460
  • شماره راهنما
    COM2 705
  • عنوان

    چارچوب تشخيص اشتباه در پاسخ‌ مدل‌ زباني بزرگ در وظايف استدلالي

  • مقطع تحصيلي
    كارشناسي ارشد
  • رشته تحصيلي
    مهندسي كامپيوتر - نرم افزار
  • دانشكده
    مهندسي كامپيوتر
  • تاريخ دفاع
    1404.07.19
  • صفحه شمار
    134 ص.
  • استاد راهنما
    دكتر محمد‌علي نعمت‌بخش
  • كليدواژه فارسي
    چارچوب ارزيابي , تشخيص اشتباه , مدل‌ زباني بزرگ , استدلال ساخت‌يافته منطقي، , ارزيابي پاسخ , كاليبراسيون , هيئت منصفه
  • چكيده فارسي
    امروزه باتوجه به حجم داده‌‌هاي موجود در مدل‌هاي زباني بزرگ و احتمال بروز اشتباهاتي نظير توهم و سوگيري در پاسخ‌هايي كه مدل‌هاي زباني بزرگ توليد مي‌كنند، شناسايي اشتباه در خروجي اين مدل‌ها به يك چالش كليدي تبديل شده است. اين چالش به‌ويژه در وظايف استدلالي كه مستلزم دقت بالايي هستند، اهميت دوچندان دارد. در اين راستا، ابتدا گونه‌هاي مختلف استدلال در مدل‌هاي زباني بزرگ بررسي شد و با تمركز بر يكي از پركاربردترين انواع استدلال، اشتباهات رايج آن شناسايي و تحليل گرديد. سپس روش‌هايي براي تشخيص خودكار اين اشتباهات مورد ارزيابي قرار گرفت. اگرچه استفاده از داوران انساني يكي از معتبرترين روش‌ها براي شناسايي اين اشتباهات به‌شمار مي‌رود، اما اين رويكرد علاوه‌بر هزينه‌ و زمان‌بر بودن، با محدوديت‌هايي همچون سوگيري داوران، مواجه است. يكي از رويكردهايي كه براي حل اين مشكل وجود دارد، استفاده از مدل‌ زباني بزرگ به‌عنوان قاضي مي‌باشد. در اين پژوهش، يك چارچوب چند عاملي مبتني‌بر مدل‌هاي زباني بزرگ در لايه‌هاي مختلف ارائه مي‌شود كه براي تشخيص خودكار اشتباه در پاسخ‌هاي مدل‌ زباني بزرگ مورد استفاده قرار مي‌گيرد. اين اشتباهات شامل توهم، عدم وفاداري به متن زمينه، ناسازگاري، سوگيري، حساسيت به متن و عبارت، ابهام و پاسخ ناكامل، خطاهاي منطقي، خطاي مربوط به تبعيت از دستور‌العمل، قطعيت كاذب و ناديده گرفتن قيود يا بخشي از دستورالعمل مي‌باشند. پژوهش حاضر با عبور از محدوديت ارزيابي‌هاي دوگانه و مبهم كارهاي پيشين، چارچوبي منعطف ارائه مي‌دهد كه علاوه بر خروجي سه‌حالته (شامل وضعيت نامطمئن) و محاسبه امتياز اطمينان، قادر است برخلاف ساير روش‌ها نوع دقيق خطا و استدلال پشت آن را به صورت شفاف تشريح كند. تمركز روش‌هاي فعلي بر روي ارزيابي كلي متن توسط عامل‌هاي غير تخصصي مي‌باشد. اين چارچوب، متن را در سه بخش كليدي مورد بررسي قرار مي‌دهد. بخش اول مربوط به ميز مناظره جهت تحليل پاسخ، توسط مجموعه‌اي از عامل‌ها با پرامپت‌هاي تخصصي است. دومين بخش مربوط به مدلسازي فرآيند استدلال با استفاده از يك داده‌ساختار پويا براي ثبت و نقد ادعاهاي عامل‌هاي هر اشتباه مي‌باشد. بخش سوم نيز برپايه تجميع هوشمند قضاوت‌ها براي هر اشتباه مي‌باشد. اين بخش از طريق مكانيزم هيئت منصفه، نظرات داوران را با استفاده از يك مدل كاليبراسيون وزن‌دهي‌ كرده و اقدام به ساخت حكم مي‌نمايد. ارزيابي روي مجموعه‌داده‌ هات‌پات‌كيو اي نشان‌ داده است كه اين چارچوب، صحت را از حدود 77.5٪ براي مدل‌هاي پايه به 89.87٪ افزايش داده و نقشي مهم در كشف پرسش‌هاي استدلالي چندمرحله‌اي ساختاريافته و ناسازگاري‌هاي درون‌ متني داشته است.
  • كليدواژه لاتين
    : Error Detection , Large Language Models , Logical Reasoning , Response eva‎luation , , Bias in eva‎luation , Calibration, , Jury Module , Weighted Voting
  • عنوان لاتين
    A Framework for Mistake Detection in Large Language Models Responses to Reasoning Tasks
  • گروه آموزشي
    مهندسي نرم افزار
  • چكيده لاتين
    Today, given the volume of data in large language models (LLMs) an‎d the likelihood of errors such as hallucination an‎d bias in the responses they generate, identifying mistakes in their outputs has become a key challenge. This challenge is especially critical in reasoning tasks that deman‎d high precision. Accordingly, we first examined the different types of reasoning in LLMs an‎d, focusing on one of the most widely used forms of reasoning, identified an‎d analyzed its common errors. We then eva‎luated methods for automatically detecting these errors. Although employing human judges is among the most credible ways to identify such errors, this approach is costly an‎d time-consuming an‎d suffers from limitations such as judge bias. One approach to addressing this problem is to use a large language model as a judge³. To make this approach more effective, several frameworks have been developed to provide accurate, highly scalable, an‎d relatively impartial assessments of responses with minimal implementation overhead. In this study, we present a multi-agent, LLM-based framework organized across multiple layers for the automatic detection of mistakes in LLM responses. The framework’s main innovations are examined in three key components. The first is a debate table that enables multidimensional analysis of a response by a set of intelligent agents using specialized pro‎mp‎ts. The second models the reasoning process with a dynamic graph to record an‎d critique claims. The third component performs intelligent aggregation of judgments: through a jury mechanism, it weights the judges’ opinions using a calibration model an‎d controls potential biases. eva‎luation on the HotpotQA dataset shows that, with this framework, accuracy increases from about 77.5% for baseline models to 89.87%. An ablation study further showed that removing agents leads to declines in accuracy an‎d soundness. Compared with the baselines, these results indicate that the simultaneous use of diverse agents, calibrated weighted aggregation, an‎d bias monitoring improves the reliability an‎d accuracy of mistake detection relative to comparable solutions. Moreover, for multi-step questions, the dynamic reasoning graph played an important role in surfacing structured logical reasoning patterns an‎d intra-text inconsistencies. Finally, the indicators computed during eva‎luation will reduce the system’s sensitivity to biases in future use.
  • تعداد فصل ها
    6
  • فهرست مطالب pdf
    151650
  • نويسنده

    باهك، حسين