Spelling suggestions: "subject:"MATLAB anda RADAR"" "subject:"MATLAB ando RADAR""
1 |
Algoritmy detekce radarových cílů / Detection Algorithms of Radar TargetsŠtukovská, Petra January 2021 (has links)
This thesis focuses on detection algorithms of radar targets, namely on group of techniques for removing of disturbing reflections from static objects - clutter and for suppression of distortion products caused by the phase noise of the transmitter and receiver. Methods for distortion suppression in received signal are designed for implementation in the developed active multistatic radar, which operates in the code division multiplex of several transmitters on single frequency. The aim of the doctoral thesis is to design, implement in tool for technical computing MATLAB and analyze the effectiveness and computational complexity of these techniques on simulated and real data.
|
2 |
Image and RADAR fusion for autonomous vehicles / Bild och RADAR för autonoma fordonde Gibert Duart, Xavier January 2023 (has links)
Robust detection, localization, and tracking of objects are essential for autonomous driving. Computer vision has largely driven development based on camera sensors in recent years, but 3D localization from images is still challenging. Sensors such as LiDAR or RADAR are used to compute depth; each having its own advantages and drawbacks. The main idea of the project is to be able to mix images from the camera and RADAR detections in order to estimate depths for the objects appearing in the images. Fusion strategies can be considered the solution to give a more detailed description of the environment by utilizing both the 3D localization capabilities of range sensors and the higher spatial resolution of image data. The idea is to fuse 3D detections from the RADAR onto the image plane, this requires a high level of synchronization of the sensors and projections of the RADAR data on the required image. / Robust detektering, lokalisering och spårning av objekt är avgörande för autonom körning. Datorseende har till stor del drivit utvecklingen baserad på kamerasensorer de senaste åren, men 3D-lokalisering från bilder är fortfarande utmanande. Sensorer som LiDAR eller RADAR används för att beräkna djup; var och en har sina egna fördelar och nackdelar. Huvudtanken med projektet är att kunna blanda bilder från kameran och RADAR-detektioner för att uppskatta djup för de objekt som förekommer i bilderna. Fusionsstrategier kan anses vara lösningen för att ge en mer detaljerad beskrivning av miljön med både 3D-lokaliseringsförmågan hos avståndssensorer och den högre rumsliga upplösningen av bilddata. Tanken är att smälta samman 3D-detektioner från RADAR till bildplanet, detta kräver en hög nivå av synkronisering av sensorerna och projektioner av RADAR-data på den önskade bilden.
|
Page generated in 0.0556 seconds