• شماره ركورد
    25392
  • شماره راهنما
    ELE2 513
  • عنوان

    تلفيق حسگرهاي دوربين و رادار به منظور تشخيص و رديابي در خودروهاي خودران

  • مقطع تحصيلي
    كارشناسي ارشد
  • رشته تحصيلي
    مهندسي برق - مخابرات سيستم
  • دانشكده
    فني و مهندسي
  • تاريخ دفاع
    1404/07/30
  • صفحه شمار
    98 ص .
  • استاد راهنما
    محمد فرزان صباحي
  • استاد مشاور
    محمد كاظمي ورنامخواستي
  • كليدواژه فارسي
    خودروهاي خودران , حسگر , دوربين , رادار , تلفيق داده‌ها , شبكه عصبي YOLO , فيلتر كالمن بي‌اثر , فيلتر كالمن , dbscan , رديابي اشيا , پيش‌بيني موقعيت
  • چكيده فارسي
    دو چالش مهم در حوزهٔ خودروهاي خودران، درك درست از محيط پيرامون و عملكرد سريع و نزديك به زمان‌واقعي است. براي درك محيط، خودروهاي خودران از حسگرهايي مانند دوربين، رادار و ليدار استفاده مي‌كنند؛ بااين‌حال هيچ‌يك به‌تنهايي اطلاعات دقيق و كاملي فراهم نمي‌كنند و هركدام كاستي‌هايي دارند: دوربين در شرايط بد آب‌وهوايي يا نور كم آسيب‌پذير است و رادار با وجود دسترس‌پذيري و هزينهٔ مناسب، در مواجهه با سطوح فلزي و بازتاب‌هاي مزاحم مي‌تواند دچار خطا شود. براي رفع اين چالش، اين پايان‌نامه تلفيق داده‌هاي رادار و دوربين را با هدف بهبود تشخيص، طبقه‌بندي و رديابي اشيا در صفحهٔ تصوير پيشنهاد مي‌كند. در اين پژوهش ابتدا به بررسي كلي خودروهاي خودران و حسگرهاي مهم استفاده شده در خودروهاي خودران پرداخته مي‌شود؛ سپس موضوع تلفيق اين حسگرها مورد بحث قرار مي‌گيرد و برخي الگوريتم‌هاي تلفيق حسگرها معرفي مي‌شود. در ادامه تمركز خود را بر روي تلفيق حسگرهاي دوربين و رادار در خودروهاي خودران مي‌گذاريم و با بررسي روش‌هاي موجود، يك روش ابداعي تلفيق داده دوربين-رادار پيشنهاد مي‌گردد. عملكرد تلفيق دو حسگر رادار و دوربين از نظر دقت تشخيص و رديابي اشيا بررسي مي‌كنيم و نتايج را گزارش مي‌دهيم. در چارچوب پيشنهادي، ابتدا با شبكه YOLO جعبه‌هاي مرزي و برچسب كلاس از تصاوير استخراج مي‌شوند و سپس داده‌هاي رادار به صفحهٔ تصوير نگاشت مي‌شوند و بازتاب‌ها به‌صورت ابرنقاط سه‌بعدي خوشه‌بندي مي‌شوند. با تلفيق داده‌هاي دو حسگر، مشاهده‌هاي ادغامي شكل مي‌گيرند و با فيلتر كالمن بي اثر تحت مدل‌هاي حركتي ساده رديابي مي‌شوند تا وضعيت و مسير اهداف در طول زمان برآورد گردد.در قسمت تشخيص، تلفيق رادار-دوربين ميانگين درصدِ تشخيصِ صحيح از 58٫35٪ (فقط داده دوربين) به 83٫56٪ (تلفيق رادار-دوربين) رسيده است كه معادل بهبود 25٫21 درصدي است. در قسمت رديابي تك هدف نيز بهبود عملكرد مشاهده شد. به طوري كه با استفاده از UKF ميانگين خطاي مطلق مكاني در يك صحنه خاص از 13پيكسل در حالت UKF به 9٫7 پيكسل در حالت KF كاهش يافت و نوسانات خطا كوچك‌تر شد.
  • كليدواژه لاتين
    autonomous vehicles , sensors , camera , radar , data fusion , YOLO neural network , Unscented Kalman Filter , Kalman Filter , DBSCAN , object tracking , position prediction
  • عنوان لاتين
    Camera–radar sensor fusion for object detection an‎d tracking in autonomous vehicles.
  • گروه آموزشي
    مهندسي برق
  • چكيده لاتين
    Two central challenges in autonomous driving are reliable scene understan‎ding an‎d low-latency, near–real-time operation. Modern vehicles employ cameras, radar, an‎d LiDAR, yet no single senso‎r is sufficient: cameras degrade in poo‎r weather o‎r low light, an‎d radar—despite being inexpensive an‎d widely available—can be affected by metallic surfaces an‎d spurious reflections. To address these limitations, this thesis proposes camera–radar data fusion to improve on-image-plane object detection, classification, an‎d tracking. We first review autonomous-vehicle sensing an‎d majo‎r senso‎rs, then survey senso‎r-fusion strategies, an‎d finally focus on camera–radar fusion. Building on prio‎r wo‎rk, we introduce a simple, novel fusion method an‎d eva‎luate its impact on both detection an‎d tracking. In the proposed pipeline, YOLO extracts bounding boxes an‎d class labels from images; radar returns are projected onto the image plane an‎d clustered with DBSCAN. Fused observations are then tracked with an Unscented Kalman Filter (UKF) under simple motion models to estimate target state an‎d trajecto‎ry over time. In detection, the average co‎rrect-detection rate improves from 58.35% (camera-only) to 83.56% (camera–radar fusion)—a 25.21 percentage-point gain. In single-target tracking on Scene 7, the UKF reduces mean absolute position erro‎r from 13.0 px (camera-only) to 9.7 px (fusion), a 25% reduction, with noticeably smaller erro‎r oscillations. Averaged over all scenes fo‎r one object, the UKF achieves an MAE of 10.95 px versus 12.67 px fo‎r a stan‎dard Kalman Filter (KF).
  • تعداد فصل ها
    6
  • فهرست مطالب pdf
    150860
  • نويسنده

    محمديان، محمدرضا