1 |
Model-Based Stripmap Synthetic Aperture Radar ProcessingWest, Roger D 01 May 2011 (has links)
Synthetic aperture radar (SAR) is a type of remote sensor that provides its own illumination and is capable of forming high resolution images of the reflectivity of a scene. The reflectivity of the scene that is measured is dependent on the choice of carrier frequency; different carrier frequencies will yield different images of the same scene.
There are different modes for SAR sensors; two common modes are spotlight mode and stripmap mode. Furthermore, SAR sensors can either be continuously transmitting a signal, or they can transmit a pulse at some pulse repetition frequency (PRF). The work in this dissertation is for pulsed stripmap SAR sensors.
The resolvable limit of closely spaced reflectors in range is determined by the bandwidth of the transmitted signal and the resolvable limit in azimuth is determined by the bandwidth of the induced azimuth signal, which is strongly dependent on the length of the physical antenna on the SAR sensor. The point-spread function (PSF) of a SAR system is determined by these resolvable limits and is limited by the physical attributes of the SAR sensor.
The PSF of a SAR system can be defined in different ways. For example, it can be defined in terms of the SAR system including the image processing algorithm. By using this definition, the PSF is an algorithm-specific sinc-like function and produces the bright, star-like artifacts that are noticeable around strong reflectors in the focused image. The PSF can also be defined in terms of just the SAR system before any image processing algorithm is applied. This second definition of the PSF will be used in this dissertation. Using this definition, the bright, algorithm-specific, star-like artifacts will be denoted as the inter-pixel interference (IPI) of the algorithm. To be specific, the combined effect of the second definition of PSF and the algorithm-dependent IPI is a decomposition of the first definition of PSF.
A new comprehensive forward model for stripmap SAR is derived in this dissertation. New image formation methods are derived in this dissertation that invert this forward model and it is shown that the IPI that corrupts traditionally processed stripmap SAR images can be removed. The removal of the IPI can increase the resolvability to the resolution limit, thus making image analysis much easier.
SAR data is inherently corrupted by uncompensated phase errors. These phase errors lower the contrast of the image and corrupt the azimuth processing which inhibits proper focusing (to the point of the reconstructed image being unusable). If these phase errors are not compensated for, the images formed by system inversion are useless, as well. A model-based autofocus method is also derived in this dissertation that complements the forward model and corrects these phase errors before system inversion.
|
2 |
Motion based vision methods and their applications / Méthodes de vision à la motion et leurs applicationsWang, Yi January 2017 (has links)
La détection de mouvement est une opération de base souvent utilisée en vision par ordinateur, que ce soit pour la détection de piétons, la détection d’anomalies, l’analyse de scènes vidéo ou le suivi d’objets en temps réel. Bien qu’un très grand nombre d’articles ait été publiés sur le sujet, plusieurs questions restent en suspens. Par exemple, il n’est toujours pas clair comment détecter des objets en mouvement dans des vidéos contenant des situations difficiles à gérer comme d'importants mouvements de fonds et des changements d’illumination. De plus, il n’y a pas de consensus sur comment quantifier les performances des méthodes de détection de mouvement. Aussi, il est souvent difficile d’incorporer de l’information de mouvement à des opérations de haut niveau comme par exemple la détection de piétons.
Dans cette thèse, j’aborde quatre problèmes en lien avec la détection de mouvement:
1. Comment évaluer efficacement des méthodes de détection de mouvement? Pour répondre à cette question, nous avons mis sur pied une procédure d’évaluation de telles méthodes. Cela a mené à la création de la plus grosse base de données 100\% annotée au monde dédiée à la détection de mouvement et organisé une compétition internationale (CVPR 2014). J’ai également exploré différentes métriques d’évaluation ainsi que des stratégies de combinaison de méthodes de détection de mouvement.
2. L’annotation manuelle de chaque objet en mouvement dans un grand nombre de vidéos est un immense défi lors de la création d’une base de données d’analyse vidéo. Bien qu’il existe des méthodes de segmentation automatiques et semi-automatiques, ces dernières ne sont jamais assez précises pour produire des résultats de type “vérité terrain”. Pour résoudre ce problème, nous avons proposé une méthode interactive de segmentation d’objets en mouvement basée sur l’apprentissage profond. Les résultats obtenus sont aussi précis que ceux obtenus par un être humain tout en étant 40 fois plus rapide.
3. Les méthodes de détection de piétons sont très souvent utilisées en analyse de la vidéo. Malheureusement, elles souffrent parfois d’un grand nombre de faux positifs ou de faux négatifs tout dépendant de l’ajustement des paramètres de la méthode. Dans le but d’augmenter les performances des méthodes de détection de piétons, nous avons proposé un filtre non linéaire basée sur la détection de mouvement permettant de grandement réduire le nombre de faux positifs.
4. L’initialisation de fond ({\em background initialization}) est le processus par lequel on cherche à retrouver l’image de fond d’une vidéo sans les objets en mouvement. Bien qu’un grand nombre de méthodes ait été proposé, tout comme la détection de mouvement, il n’existe aucune base de donnée ni procédure d’évaluation pour de telles méthodes. Nous avons donc mis sur pied la plus grosse base de données au monde pour ce type d’applications et avons organisé une compétition internationale (ICPR 2016). / Abstract : Motion detection is a basic video analytic operation on which many high-level computer vision tasks are built upon, e.g., pedestrian detection, anomaly detection, scene understanding and object tracking strategies. Even though a large number of motion detection methods have been proposed in the last decades, some important questions are still unanswered, including: (1) how to separate the foreground from the background accurately even under extremely challenging circumstances? (2) how to evaluate different motion detection methods? And (3) how to use motion information extracted by motion detection to help improving high-level computer vision tasks?
In this thesis, we address four problems related to motion detection:
1. How can we benchmark (and on which videos) motion detection method? Current datasets are either too small with a limited number of scenarios, or only provide bounding box ground truth that indicates the rough location of foreground objects. As a solution, we built the largest and most objective motion detection dataset in the world with pixel accurate ground truth to evaluate and compare motion detection methods. We also explore various evaluation metrics as well as different combination strategies.
2. Providing pixel accurate ground truth is a huge challenge when building a motion detection dataset. While automatic labeling methods suffer from a too large false detection rate to be used as ground truth, manual labeling of hundreds of thousands of frames is extremely time consuming. To solve this problem, we proposed an interactive deep learning method for segmenting moving objects from videos. The proposed method can reach human-level accuracies while lowering the labeling time by a factor of 40.
3. Pedestrian detectors always suffer from either false positive detections or false negative detections all depending on the parameter tuning. Unfortunately, manual adjustment of parameters for a large number of videos is not feasible in practice. In order to make pedestrian detectors more robust on a large variety of videos, we combined motion detection with various state-of-the-art pedestrian detectors. This is done by a novel motion-based nonlinear filtering process which improves detectors by a significant margin.
4. Scene background initialization is the process by which a method tries to recover the RGB background image of a video without foreground objects in it. However, one of the reasons that background modeling is challenging is that there is no good dataset and benchmarking framework to estimate the performance of background modeling methods. To fix this problem, we proposed an extensive survey as well as a novel benchmarking framework for scene background initialization.
|
3 |
コラージュ表現による感情体験に関する一考察Ito, Yoshimi, 木下, 由美子, Kinoshita, Yumiko, 伊藤, 義美 25 March 2001 (has links)
No description available.
|
Page generated in 0.0858 seconds