-
شماره ركورد
25428
-
شماره راهنما
COM2 703
-
نويسنده
احمدي، محدثه
-
عنوان
توسعه يك چهارچوب يكپارچه يادگيري عميق با داده محدود در حوزه طبقهبندي تصاوير
-
مقطع تحصيلي
كارشناسي ارشد
-
رشته تحصيلي
مهندسي كامپيوتر - هوش مصنوعي و رباتيكز
-
دانشكده
مهندسي كامپيوتر
-
تاريخ دفاع
1404/07/27
-
صفحه شمار
100 ص.
-
استاد راهنما
حميدرضا برادران كاشاني , مريم لطفي شهرضا
-
كليدواژه فارسي
شبكه عصبي عميق , داده محدود , طبقهبندي تصاوير , ، تكنيك هاي هرس , ماسك گذاري , دادهافزايي , تقطير دانش
-
چكيده فارسي
چكيده
يادگيري عميق به دليل وابستگي به حجم زيادي از دادههاي برچسبدار يا بدون برچسب، در حوزههاي عملي مانند پزشكي كه دسترسي به دادههاي كافي محدود است، با چالشهايي مواجه ميشود. اين محدوديتها ميتوانند منجر به بيشبرازش، كاهش تعميمپذيري و ناپايداري عملكرد مدل شوند. توسعه روشهايي كه بتوانند شبكههاي عصبي عميق را به طور مؤثر روي مجموعههاي داده كوچك آموزش دهند و در عين حال دقت را بهبود بخشند، بهويژه براي كاربردهاي واقعي كه جمعآوري داده در آنها دشوار است، از اهميت بالايي برخوردار است.
ما يك چارچوب آموزشي يكپارچه و تكراري براي طبقه بندي تصاوير پيشنهاد ميكنيم كه تركيبي نوآورانه از تكنيكهاي هرس ساختاريافته، ماسكگذاري پويا بر اساس داده، دادهافزايي پيشرفته و تقطير دانش را به كار ميگيرد. اين چارچوب با مقداردهي اوليه مدلهاي ResNet18 و ResNet50 با وزنهاي پيشآموزشديده مبتني بر يادگيري خودنظارتي مانند DINO آغاز ميشود تا ويژگيهاي عمومي و مستقل از برچسب استخراج شوند. سپس، با استفاده از هرس تركيبي و ماسكگذاري پويا، اتصالات و كانالهاي غيرضروري شناسايي و حذف شده و وزنهاي هرسشده بهصورت تصادفي بازتنظيم ميشوند تا ظرفيت يادگيري مدل حفظ شود. دادهافزايي پيشرفته، شامل تكنيكهايي مانند CutMix، CutOut و روشهاي استاندارد مانند چرخش و برش تصادفي، تنوع دادهها را بهطور قابلتوجهي افزايش ميدهد و از بيشبرازش جلوگيري ميكند. علاوه بر اين، تقطير دانش با استفاده از توابع زيان پيشرفته مانند AttentionSelfKDLoss، الگوهاي توجه و لاجيتهاي مدل معلم را به مدل دانشآموز منتقل ميكند تا درك بهتري از روابط بين كلاسها ايجاد كرده و تعميمپذيري را تقويت كند.
ارزيابي اين چارچوب روي مجموعه دادههاي CIFAR-10 كامل و كوچكشدهCUB-200 و STL-10 نشاندهنده برتري قابلتوجه آن نسبت به روشهاي پايه است. بهمنظور بررسي عملكرد در سناريوهاي طبقهبندي باينري، دو كلاس از مجموعه دادههاي CIFAR-10 و STL-10 جدا شده و آزمايشها روي اين زيرمجموعهها نيز انجام شد. تركيب وزنهاي خودنظارتي، فرآيندهاي تكراري، هرس تركيبي، ماسكگذاري پويا و دادهافزايي پيشرفته، مدل را قادر ميسازد تا در مجموعههاي داده محدود عملكردي پايدار و تعميمپذير ارائه دهد. همچنين، كاهش پيچيدگي محاسباتي از طريق هرس و ماسكگذاري، اين چارچوب را براي كاربرد در سيستمهاي با منابع محدود مناسب ميسازد. اين رويكرد مقياسپذير و انعطافپذير، راهكاري مؤثر براي طبقهبندي تصاوير در شرايط داده محدود ارائه ميدهد و پتانسيل بالايي براي كاربردهاي واقعي و تحقيقات آينده در اين حوزه دارد.
-
كليدواژه لاتين
deep neural network , limited data , , image classification , pruning techniques , mask generation , data augmentation , knowledge distillation
-
عنوان لاتين
توسعه يك چهارچوب يكپارچه يادگيري عميق با داده محدود در حوزه طبقهبندي تصاوير
-
گروه آموزشي
مهندسي هوش مصنوعي
-
چكيده لاتين
Abstract
Deep learning faces significant challenges in practical domains such as medicine, where access to sufficient labeled or unlabeled data is limited, due to its heavy reliance on large volumes of data. These limitations can lead to overfitting, reduced generalization, and unstable model performance. Developing methods that can effectively train deep neural networks on small datasets while improving accuracy is particularly important for real-world applications where data collection is difficult.
We propose an integrated and iterative training framework that employs an innovative combination of pruning, data-driven dynamic masking, advanced data augmentation, and knowledge distillation techniques. The framework begins by initializing ResNet18 and ResNet50 models with self-supervised pre-trained weights (e.g., DINO) to extract general, label-independent features. Subsequently, pruning and dynamic masking are applied to identify and remove unnecessary connections and channels, while pruned weights are randomly reinitialized to maintain the model’s learning capacity. Advanced data augmentation, incorporating techniques such as CutMix and CutOut alongside standard methods like random rotation and cropping, significantly increases data diversity and prevents overfitting. Furthermore, knowledge distillation using advanced loss functions such as AttentionSelfKDLoss transfers both attention patterns and teacher logits to the student model, thereby enhancing the understanding of inter-class relationships and strengthening generalization.
evaluation of the framework on the CIFAR-10 (full and reduced versions), CUB-200, and STL-10 datasets demonstrates its substantial superiority over baseline methods. To further investigate performance in binary classification scenarios, two classes were isolated from the CIFAR-10 and STL-10 datasets, and experiments on these subsets were also conducted. The combination of self-supervised weights, iterative processes, hybrid pruning, dynamic masking, and advanced data augmentation enables the model to deliver stable and generalizable performance on limited datasets. Additionally, the reduction in computational complexity achieved through pruning and masking makes this framework suitable for deployment on resource-constrained systems. This scalable and flexible approach provides an effective solution for image classification under limited-data conditions and holds high potential for real-world applications and future research in this area.
-
تعداد فصل ها
6
-
فهرست مطالب pdf
151283
-
لينک به اين مدرک :