-
شماره ركورد
23712
-
شماره راهنما
COM2 651
-
نويسنده
مصاحبي نائيني، محمدجواد
-
عنوان
بخش بندي تصاوير MRI تومورهاي مغزي با استفاده از معماري تغيير يافته U-Net
-
مقطع تحصيلي
كارشناسي ارشد
-
رشته تحصيلي
مهندسي كامپيوتر - هوش مصنوعي و رباتيكز
-
دانشكده
مهندسي كامپيوتر
-
تاريخ دفاع
بهمن 1402
-
صفحه شمار
74 ص.
-
استاد راهنما
احمدرضا نقش نيلچي
-
كليدواژه فارسي
بخش بندي تصاوير تومور مغزي , چارچوب كدگذار-كدگشا , يادگيري عميق , مدل U-Net , بينايي ماشين , تبديل شبه ويولت , مكانيزم توجه
-
چكيده فارسي
تشخيص تومور مغزي و مرزهاي آن براي تشخيص به موقع و كاهش مرگ و مير بيماران بسيار مهم است. متخصصان اين مرزها را تعيين ميكنند، اما تورم تومور، تفاوتهاي بافتي و تغيير شكل و اندازه در بين بيماران اغلب منجر به تعيين مرزهاينامنظم و نامشخص تومور ميشود. در سالهاي اخير، چارچوب كدگذار-كدگشا، از جمله معماريهاي معروفي مانند U-Net، نتايج اميدواركنندهاي را در وظايف بخشبندي تصوير پزشكي براي غلبه بر اين موانع نشان داده است.با اين حال، افزايش كيفيتبخشبندي تومور و تعيين مرزهاي دقيق تومور چالشهاي بزرگي براي تشخيص مؤثر و برنامهريزي درمان است. در اين تحقيق،يكمكانيزم توجه بر پايه تبديل شبه ويولت (SWATT) در مدل U-Netبه منظور افزايش كيفيتبخش¬بندي تومور مورد استفاده قرار مي¬گيرد كه اين مدل اصلاح شده به نام SWATT U-Net شناخته مي¬شود. SWATTيك لايهشبه ويولت و معكوس آن را در خود جايداده است كه با
مقياس¬گذاري تصوير اصلي براي تمركز روي قسمت¬هاي خاص، تحليل چند رزولوشني تصاوير وروديرا امكان¬پذير مي¬¬سازد. مدل SWATT U-Net بر روي مجموعه داده BraTS2020 آموزش داده شده است. براي ارزيابيمدل پيشنهادي از معيار ميانگيناجتماع بر اشتراك (Mean-IoU) استفاده شده است. نتايجبا افزايششاخص Mean-IoU از 82/82% به16/87٪نشان دهنده بهبود عملكرد مدل پيشنهادي است. علاوهبراين، مكانيزم توجهSWATT براي مدلهايPSPNET، ResNet، SegNet و DeepLabV3 اعمال شده است. مدلهاي اصلاحشده در مقايسه با مدلهاي بدون مكانيزم توجهSWATT، پيشرفتهاي قابل توجه Mean-IoU را به نمايش ميگذارند كه از 53/14درصدتا88/20درصدمتغير است. شايان ذكر است، شبكه DeepLabV3اصلاح¬شده بالاترين پيشرفت را با 88/20درصدنشانمي¬دهد. در نهايت، تجزيه و تحليل آماري با استفاده از آزمون t برتري مدلهاي اصلاحشده با مكانيزم توجه SWATT را تأييد ميكند و منجر به بهبود نتايجبخشبندي ميشود.
-
كليدواژه لاتين
Brain tumor segmentation , encoder-decoder framework , deep learning , U-Net model , machine vision , pseudo-violet transform , attention mechanism
-
عنوان لاتين
Brain tumor segmentation of MRI images using modified U-Net architecture
-
گروه آموزشي
مهندسي هوش مصنوعي
-
چكيده لاتين
Detecting brain tumor and their boundaries is crucial for timely diagnosis and reducing patient mortality. Specialists determine these borders, but tumor swelling, tissue differences, and variability in shape and size across patients often result in irregular and indeterminate tumor borders. In recent years, the encoder-decoder framework, including well-known architectures like U-Net, has shown promising results in medical image segmentation tasks to overcome these obstacles However, enhancing the quality of tumor segmentation and delineating precise tumor boundaries are immense challenges for effective diagnosis and treatment planning. In this research, a new Semi-Wavelet Attention (SWATT) module is utilized within the U-Net model to enhance the quality of tumor segmentation, resulting in the modified model referred to as SWATT U-Net. SWATT incorporates a semi-wavelet layer and its inverse, enabling multi-resolution analysis of input images by scaling the original image to focus on specific parts. The SWATT U-Net model is trained on the BraTS2020 dataset. The Mean Intersection over union (IoU) criterion is used for evaluation. The results demonstrate an improvement, with the Mean-IoU increasing from 82.82% to 87.16%. Moreover, SWATT is applied to PSPNET, ResNet, SegNet, and DeepLabV3 models. The modified models showcase significant Mean-IoU enhancements ranging from 14.53% to 20.88%, compared to the models without SWATT. Notably, the DeepLabV3 network exhibits the highest improvement of 20.88%. Finally, the statistical analysis using t-tests confirms the superiority of the modified models incorporating the SWATT attention mechanism, leading to improved segmentation results.
-
تعداد فصل ها
6
-
لينک به اين مدرک :