-
شماره ركورد
25303
-
شماره راهنما
ELE2 509
-
نويسنده
راهدان، محمد
-
عنوان
تركيب حسگر دوربين و رادار در خودروهاي خودران
-
مقطع تحصيلي
كارشناسي ارشد
-
رشته تحصيلي
مهندسي برق - مخابرات سيستم
-
دانشكده
فني و مهندسي
-
تاريخ دفاع
1404/07/30
-
صفحه شمار
99 ص .
-
استاد راهنما
محمدفرزان صباحي
-
استاد مشاور
محمد كاظمي ورنامخاستي
-
كليدواژه فارسي
خودروهاي خودران , تشخيص , حسگر , رادار , دوربين , تركيب حسگر , تركيب دوربين-رادار , Faster R-CNN , Yolov8 , خوشهبندي , DBSCAN
-
چكيده فارسي
يكي از الزامات اساسي هر وسيله نقليه خودران اين است كه توانايي درك محيط اطراف خود و تصميمگيري هوشمندانه در زمان واقعي را داشته باشد. در خودروهاي خودران حسگرهاي متعددي بهكاربرده ميشود كه از مهمترين آنها ميتوان به ليدار، رادار و دوربين اشاره كرد. هر كدام از اين حسگرها داراي محدوديتها و مزايايي ميباشند و به همين جهت براي تمامي عملكردهاي سيستمهاي كمك راننده پيشرفته و براي تمامي شرايط مناسب نيستند. بنابراين براي رسيدن به عملكرد مناسب در تمامي شرايط نياز به روشي است كه با كاستيهاي حسگرها مقابله كند و اطلاعات دقيق و مطمئني را در اختيار خودرو قرار دهد. تركيب دادههاي حسگرهاي مختلف يك رويكرد پيشنهادي براي رسيدن به اين خواسته است. تركيب حسگر دوربين - رادار بيشترين كاربرد را در سيستمهاي تركيب چند حسگري براي درك محيط دارد. اطلاعات موقعيت مكاني و سرعت اجسام را ميتوان با اندازهگيريهاي رادار به دست آورد و اطلاعات طبقهبندي اشيا را ميتوان از پردازش تصوير بهدست آورد. در نتيجه تركيب حسگر دوربين - رادار در حالي كه در برابر شرايط محيطي مقاوم است، تصاويري با وضوح بالا ارائه ميكند و در عين حال اطلاعات بيشتري از فاصله و سرعت اشيا اطراف را به دست ميآورد.
در اين پژوهش ابتدا به بررسي اجمالي خودروهاي خودران و حسگرهاي مورد استفاده در آنها پرداخته ميشود، سپس موضوع تركيب دادهها مورد بحث قرار ميگيرد و برخي از تكنيكها و روشهاي آن معرفي ميشود. در ادامه بر روي تركيب دادههاي دوربين و رادار در خودروهاي خودران متمركز ميشويم و با بررسي تكنيكها و الگوريتمهاي موجود، يك روش تركيب داده دوربين-رادار پيشنهاد ميگردد. در انتها عملكرد روش پيشنهادي را ارزيابي و بررسي ميكنيم و نتايج را گزارش ميدهيم.
روش پيشنهادي ما با اعمال تكنيك DBSCAN به دادههاي رادار و در نظر گرفتن تشخيصهاي بهدست آمده از اعمال شبكه YOLOv8x به تصوير دوربين، به محاسبه همپوشاني بين اين دو ناحيه ميپردازد. در صورتي كه اين همپوشاني از يك سطح آستانه معين (0.2) بيشتر باشد، به احتمال تشخيص اضافه خواهد شد و در غير اينصورت با كاهش احتمال تشخيص روبرو ميشويم. همچنين به مقايسه دو شبكه YOLOv8x و Faster RCNN ميپردازيم و عملكرد هركدام را در روش پيشنهادي بررسي ميكنيم. نتايج بهدست آمده نشان ميدهد كه تشخيص مبتني بر تركيب داده دوربين و رادار نسبت به تشخيص مبتني بر دوربين داراي دقت بيشتري ميباشد و حدود 17 درصد بهبود عملكرد حاصل شدهاست. از طرفي به طور كلي با درنظر گرفتن همزمان دقت و سرعت، استفاده از شبكه YOLOv8x در مقايسه با Faster RCNN مطلوبتر است.
-
كليدواژه لاتين
Autonomous vehicle , Detection , Sensor , Radar , Camera , Sensor Fusion , Camera-Radar Fusion , Faster R-CNN , Yolov8 , Clustering , DBSCAN
-
عنوان لاتين
Camera-Radar Fusion in Autonomous vehicles
-
گروه آموزشي
مهندسي برق
-
چكيده لاتين
One of the most fundamental requirements for any autonomous vehicle is its ability to perceive the surrounding environment and make intelligent decisions in real time. Autonomous vehicles employ a variety of sensors, among which the most critical are LiDAR, radar, and cameras. Each sensor has its own advantages and limitations; consequently, none is universally suitable for all functions of Advanced Driver-Assistance Systems (ADAS) or for all operating conditions. Therefore, to achieve robust performance across all conditions, a method is required that can compensate for the limitations of individual sensors and provide the vehicle with accurate and reliable data. Sensor data fusion is a widely proposed approach to meet this requirement. The fusion of camera and radar data is the most prevalent method in multi-sensor fusion systems for environmental perception. Radar measurements provide an objectʹs spatial location and velocity, while image processing enables its classification. As a result, camera-radar fusion not only provides high-resolution imagery but also acquires detailed information about the distance and speed of surrounding objects, all while maintaining resilience against adverse environmental conditions.
In this study, we first present an overview of autonomous vehicles and the sensors they employ. We then discuss data fusion and introduce related techniques and algorithms. The focus subsequently shifts to camera-radar data fusion in autonomous vehicles. After reviewing existing methods, a novel fusion method is proposed. Finally, the performance of the proposed method is evaluated, and the results are presented and discussed.
Our proposed method calculates the overlap between two regions by applying the DBSCAN technique to radar detections and considering the detections obtained from applying the YOLOv8x network to the camera image. If this overlap exceeds a specific threshold level (0.2), the detection probability is increased; otherwise, it is decreased. We also compare the YOLOv8x and Faster R-CNN networks and examine the performance of each within the proposed framework. The results indicate that detection based on the fusion of camera and radar data is more accurate than camera-based detection alone, resulting in a performance improvement of approximately 17%. Furthermore, when simultaneously considering both accuracy and speed, using the YOLOv8x network is generally more desirable compared to Faster R-CNN.
-
تعداد فصل ها
5
-
فهرست مطالب pdf
149757
-
لينک به اين مدرک :