-
شماره ركورد
25460
-
شماره راهنما
COM2 705
-
نويسنده
باهك، حسين
-
عنوان
چارچوب تشخيص اشتباه در پاسخ مدل زباني بزرگ در وظايف استدلالي
-
مقطع تحصيلي
كارشناسي ارشد
-
رشته تحصيلي
مهندسي كامپيوتر - نرم افزار
-
دانشكده
مهندسي كامپيوتر
-
تاريخ دفاع
1404.07.19
-
صفحه شمار
134 ص.
-
استاد راهنما
دكتر محمدعلي نعمتبخش
-
كليدواژه فارسي
چارچوب ارزيابي , تشخيص اشتباه , مدل زباني بزرگ , استدلال ساختيافته منطقي، , ارزيابي پاسخ , كاليبراسيون , هيئت منصفه
-
چكيده فارسي
امروزه باتوجه به حجم دادههاي موجود در مدلهاي زباني بزرگ و احتمال بروز اشتباهاتي نظير توهم و سوگيري در پاسخهايي كه مدلهاي زباني بزرگ توليد ميكنند، شناسايي اشتباه در خروجي اين مدلها به يك چالش كليدي تبديل شده است. اين چالش بهويژه در وظايف استدلالي كه مستلزم دقت بالايي هستند، اهميت دوچندان دارد. در اين راستا، ابتدا گونههاي مختلف استدلال در مدلهاي زباني بزرگ بررسي شد و با تمركز بر يكي از پركاربردترين انواع استدلال، اشتباهات رايج آن شناسايي و تحليل گرديد. سپس روشهايي براي تشخيص خودكار اين اشتباهات مورد ارزيابي قرار گرفت. اگرچه استفاده از داوران انساني يكي از معتبرترين روشها براي شناسايي اين اشتباهات بهشمار ميرود، اما اين رويكرد علاوهبر هزينه و زمانبر بودن، با محدوديتهايي همچون سوگيري داوران، مواجه است. يكي از رويكردهايي كه براي حل اين مشكل وجود دارد، استفاده از مدل زباني بزرگ بهعنوان قاضي ميباشد. در اين پژوهش، يك چارچوب چند عاملي مبتنيبر مدلهاي زباني بزرگ در لايههاي مختلف ارائه ميشود كه براي تشخيص خودكار اشتباه در پاسخهاي مدل زباني بزرگ مورد استفاده قرار ميگيرد. اين اشتباهات شامل توهم، عدم وفاداري به متن زمينه، ناسازگاري، سوگيري، حساسيت به متن و عبارت، ابهام و پاسخ ناكامل، خطاهاي منطقي، خطاي مربوط به تبعيت از دستورالعمل، قطعيت كاذب و ناديده گرفتن قيود يا بخشي از دستورالعمل ميباشند. پژوهش حاضر با عبور از محدوديت ارزيابيهاي دوگانه و مبهم كارهاي پيشين، چارچوبي منعطف ارائه ميدهد كه علاوه بر خروجي سهحالته (شامل وضعيت نامطمئن) و محاسبه امتياز اطمينان، قادر است برخلاف ساير روشها نوع دقيق خطا و استدلال پشت آن را به صورت شفاف تشريح كند. تمركز روشهاي فعلي بر روي ارزيابي كلي متن توسط عاملهاي غير تخصصي ميباشد. اين چارچوب، متن را در سه بخش كليدي مورد بررسي قرار ميدهد. بخش اول مربوط به ميز مناظره جهت تحليل پاسخ، توسط مجموعهاي از عاملها با پرامپتهاي تخصصي است. دومين بخش مربوط به مدلسازي فرآيند استدلال با استفاده از يك دادهساختار پويا براي ثبت و نقد ادعاهاي عاملهاي هر اشتباه ميباشد. بخش سوم نيز برپايه تجميع هوشمند قضاوتها براي هر اشتباه ميباشد. اين بخش از طريق مكانيزم هيئت منصفه، نظرات داوران را با استفاده از يك مدل كاليبراسيون وزندهي كرده و اقدام به ساخت حكم مينمايد. ارزيابي روي مجموعهداده هاتپاتكيو اي نشان داده است كه اين چارچوب، صحت را از حدود 77.5٪ براي مدلهاي پايه به 89.87٪ افزايش داده و نقشي مهم در كشف پرسشهاي استدلالي چندمرحلهاي ساختاريافته و ناسازگاريهاي درون متني داشته است.
-
كليدواژه لاتين
: Error Detection , Large Language Models , Logical Reasoning , Response evaluation , , Bias in evaluation , Calibration, , Jury Module , Weighted Voting
-
عنوان لاتين
A Framework for Mistake Detection in Large Language Models Responses to Reasoning Tasks
-
گروه آموزشي
مهندسي نرم افزار
-
چكيده لاتين
Today, given the volume of data in large language models (LLMs) and the likelihood of errors such as hallucination and bias in the responses they generate, identifying mistakes in their outputs has become a key challenge. This challenge is especially critical in reasoning tasks that demand high precision. Accordingly, we first examined the different types of reasoning in LLMs and, focusing on one of the most widely used forms of reasoning, identified and analyzed its common errors. We then evaluated methods for automatically detecting these errors. Although employing human judges is among the most credible ways to identify such errors, this approach is costly and time-consuming and suffers from limitations such as judge bias. One approach to addressing this problem is to use a large language model as a judge³. To make this approach more effective, several frameworks have been developed to provide accurate, highly scalable, and relatively impartial assessments of responses with minimal implementation overhead.
In this study, we present a multi-agent, LLM-based framework organized across multiple layers for the automatic detection of mistakes in LLM responses. The framework’s main innovations are examined in three key components. The first is a debate table that enables multidimensional analysis of a response by a set of intelligent agents using specialized prompts. The second models the reasoning process with a dynamic graph to record and critique claims. The third component performs intelligent aggregation of judgments: through a jury mechanism, it weights the judges’ opinions using a calibration model and controls potential biases.
evaluation on the HotpotQA dataset shows that, with this framework, accuracy increases from about 77.5% for baseline models to 89.87%. An ablation study further showed that removing agents leads to declines in accuracy and soundness. Compared with the baselines, these results indicate that the simultaneous use of diverse agents, calibrated weighted aggregation, and bias monitoring improves the reliability and accuracy of mistake detection relative to comparable solutions. Moreover, for multi-step questions, the dynamic reasoning graph played an important role in surfacing structured logical reasoning patterns and intra-text inconsistencies. Finally, the indicators computed during evaluation will reduce the system’s sensitivity to biases in future use.
-
تعداد فصل ها
6
-
فهرست مطالب pdf
151650
-
لينک به اين مدرک :