21 |
Caractérisation des limites fondamentales de l'erreur quadratique moyenne pour l'estimation de signaux comportant des points de rupture / Characterization of mean squared error fundamental limitations in parameter estimation of signals with change-pointsBacharach, Lucien 28 September 2018 (has links)
Cette thèse porte sur l'étude des performances d'estimateurs en traitement du signal, et s'attache en particulier à étudier les bornes inférieures de l'erreur quadratique moyenne (EQM) pour l'estimation de points de rupture, afin de caractériser le comportement d'estimateurs, tels que celui du maximum de vraisemblance (dans le contexte fréquentiste), mais surtout du maximum a posteriori ou de la moyenne conditionnelle (dans le contexte bayésien). La difficulté majeure provient du fait que, pour un signal échantillonné, les paramètres d'intérêt (à savoir les points de rupture) appartiennent à un espace discret. En conséquence, les résultats asymptotiques classiques (comme la normalité asymptotique du maximum de vraisemblance) ou la borne de Cramér-Rao ne s'appliquent plus. Quelques résultats sur la distribution asymptotique du maximum de vraisemblance provenant de la communauté mathématique sont actuellement disponibles, mais leur applicabilité à des problèmes pratiques de traitement du signal n'est pas immédiate. Si l'on décide de concentrer nos efforts sur l'EQM des estimateurs comme indicateur de performance, un travail important autour des bornes inférieures de l'EQM a été réalisé ces dernières années. Plusieurs études ont ainsi permis de proposer des inégalités plus précises que la borne de Cramér-Rao. Ces dernières jouissent en outre de conditions de régularité plus faibles, et ce, même en régime non asymptotique, permettant ainsi de délimiter la plage de fonctionnement optimal des estimateurs. Le but de cette thèse est, d'une part, de compléter la caractérisation de la zone asymptotique (en particulier lorsque le rapport signal sur bruit est élevé et/ou pour un nombre d'observations infini) dans un contexte d'estimation de points de rupture. D'autre part, le but est de donner les limites fondamentales de l'EQM d'un estimateur dans la plage non asymptotique. Les outils utilisés ici sont les bornes inférieures de l’EQM de la famille Weiss-Weinstein qui est déjà connue pour être plus précise que la borne de Cramér-Rao dans les contextes, entre autres, de l’analyse spectrale et du traitement d’antenne. Nous fournissons une forme compacte de cette famille dans le cas d’un seul et de plusieurs points de ruptures puis, nous étendons notre analyse aux cas où les paramètres des distributions sont inconnus. Nous fournissons également une analyse de la robustesse de cette famille vis-à-vis des lois a priori utilisées dans nos modèles. Enfin, nous appliquons ces bornes à plusieurs problèmes pratiques : données gaussiennes, poissonniennes et processus exponentiels. / This thesis deals with the study of estimators' performance in signal processing. The focus is the analysis of the lower bounds on the Mean Square Error (MSE) for abrupt change-point estimation. Such tools will help to characterize performance of maximum likelihood estimator in the frequentist context but also maximum a posteriori and conditional mean estimators in the Bayesian context. The main difficulty comes from the fact that, when dealing with sampled signals, the parameters of interest (i.e., the change points) lie on a discrete space. Consequently, the classical large sample theory results (e.g., asymptotic normality of the maximum likelihood estimator) or the Cramér-Rao bound do not apply. Some results concerning the asymptotic distribution of the maximum likelihood only are available in the mathematics literature but are currently of limited interest for practical signal processing problems. When the MSE of estimators is chosen as performance criterion, an important amount of work has been provided concerning lower bounds on the MSE in the last years. Then, several studies have proposed new inequalities leading to tighter lower bounds in comparison with the Cramér-Rao bound. These new lower bounds have less regularity conditions and are able to handle estimators’ MSE behavior in both asymptotic and non-asymptotic areas. The goal of this thesis is to complete previous results on lower bounds in the asymptotic area (i.e. when the number of samples and/or the signal-to-noise ratio is high) for change-point estimation but, also, to provide an analysis in the non-asymptotic region. The tools used here will be the lower bounds of the Weiss-Weinstein family which are already known in signal processing to outperform the Cramér-Rao bound for applications such as spectral analysis or array processing. A closed-form expression of this family is provided for a single and multiple change points and some extensions are given when the parameters of the distributions on each segment are unknown. An analysis in terms of robustness with respect to the prior influence on our models is also provided. Finally, we apply our results to specific problems such as: Gaussian data, Poisson data and exponentially distributed data.
|
22 |
Déconvolution Aveugle en Imagerie de Microscopie Confocale À Balayage LaserPankajakshan, Praveen 15 December 2009 (has links) (PDF)
La microscopie confocale à balayage laser, est une technique puissante pour étudier les spécimens biologiques en trois dimensions (3D) par sectionnement optique. Elle permet d'avoir des images de spécimen vivants à une résolution de l'ordre de quelques centaines de nanomètres. Bien que très utilisée, il persiste des incertitudes dans le procédé d'observation. Comme la réponse du système à une impulsion, ou fonction de flou (PSF), est dépendante à la fois du spécimen et des conditions d'acquisition, elle devrait être estimée à partir des images observées du spécimen. Ce problème est mal posé et sous déterminé. Pour obtenir une solution, il faut injecter des connaisances, c'est à dire, a priori dans le problème. Pour cela, nous adoptons une approche bayésienne. L'état de l'art des algorithmes concernant la déconvolution et la déconvolution aveugle est exposé dans le cadre d'un travail bayésien. Dans la première partie, nous constatons que la diffraction due à l'objectif et au bruit intrinsèque à l'acquisition, sont les distorsions principales qui affectent les images d'un spécimen. Une approche de minimisation alternée (AM), restaure les fréquences manquantes au-delà de la limite de diffraction, en utilisant une régularisation par la variation totale sur l'objet, et une contrainte de forme sur la PSF. En outre, des méthodes sont proposées pour assurer la positivité des intensités estimées, conserver le flux de l'objet, et bien estimer le paramètre de la régularisation. Quand il s'agit d'imager des spécimens épais, la phase de la fonction pupille, due aux aberrations sphériques (SA) ne peut être ignorée. Dans la seconde partie, il est montré qu'elle dépend de la difference à l'index de réfraction entre l'objet et le milieu d'immersion de l'objectif, et de la profondeur sous la lamelle. Les paramètres d'imagerie et la distribution de l'intensité originelle de l'objet sont calculés en modifiant l'algorithme AM. Due à la nature de la lumière incohérente en microscopie à fluorescence, il est possible d'estimer la phase à partir des intensités observées en utilisant un modèle d'optique géométrique. Ceci a été mis en évidence sur des données simulées. Cette méthode pourrait être étendue pour restituer des spécimens affectés par les aberrations sphériques. Comme la PSF varie dans l'espace, un modèle de convolution par morceau est proposé, et la PSF est approchée. Ainsi, en plus de l'objet, il suffit d'estimer un seul paramétre libre.
|
23 |
Estimation et détection en imagerie hyperspectrale : application aux environnements côtiers.Jay, Sylvain 31 October 2012 (has links) (PDF)
Cette thèse aborde des problématiques d'estimation et de détection supervisée en imagerie hyperspectrale, appliquées ici aux environnements côtiers. Des modèles bathymétriques de réflectance sont utilisés afin de représenter l'influence de la colonne d'eau sur la lumière incidente. Différents paramètres sont dits optiquement actifs et agissent sur le spectre de réflectance (phytoplancton, matière organique dissoute colorée...). Nous proposons d'adopter une nouvelle approche statistique pour estimer ces paramètres, traditionnellement retrouvés par inversion des modèles physiques. Différentes méthodes telles que l'estimation du maximum de vraisemblance et du maximum a posteriori, ainsi que le calcul des bornes de Cramér-Rao, sont implémentées avec succès sur les données synthétiques et réelles. Par ailleurs, nous adaptons les filtres supervisés couramment utilisés au contexte de la détection de cibles immergées. Dans le cas où les paramètres caractéristiques de la colonne d'eau sont inconnus, nous développons un nouveau filtre issu du test du rapport de vraisemblance généralisé permettant la détection sans aucune connaissance a priori sur ces paramètres.
|
24 |
Επαναληπτική αποκωδικοποίηση χωροχρονικών κωδικών (space-time codes) σε συστήματα ορθογώνιας πολυπλεξίας φερουσών: αναπαράσταση δεδομένων και πολυπλοκότηταΑγγελόπουλος, Aπόστολος 06 August 2007 (has links)
Η χρήση πολλαπλών κεραιών παίζει πλέον ένα πολύ σημαντικό ρόλο στη βελτίωση των ραδιοτηλεπικοινωνιών. Για το λόγο αυτό, ο τομέας των τηλεπικοινωνιακών συστημάτων πολλαπλών κεραιών μετάδοσης – λήψης (συστήματα ΜΙΜΟ) βρίσκεται στο προσκήνιο της ασύρματης έρευνας. Πρόσφατα, αποτελέσματα ερευνών έδειξαν ότι υπάρχει δυνατότητα αύξησης της χωρητικότητας στα ασύρματα τηλεπικοινωνιακά συστήματα χρησιμοποιώντας τεχνικές διαφοροποίησης μεταξύ πομπού – δέκτη (antenna diversity), δηλαδή δημιουργίας πολλαπλών ανεξάρτητων καναλιών ανάμεσα τους.
Στην παρούσα εργασία μελετούνται τεχνικές κωδικοποίησης που εκμεταλλεύονται τη χωρική διαφοροποίηση κάνοντας χρήση χωροχρονικών κωδικών (space – time coding). Η μελέτη εστιάζεται στη χρήση χωροχρονικών κωδικών ανά μπλοκ από την πλευρά του πομπού, εξαιτίας της απλότητας υλοποίησης τους καθώς και της ικανότητας υποστήριξης πολλαπλών κεραιών από τη πλευρά του σταθμού βάσης. Η ανάλυσή τους γίνεται με βάση την εφαρμογή τους σε συστήματα που χρησιμοποιούν διαμόρφωση με πολυπλεξία ορθογώνιων φερουσών (OFDM). Η διαμόρφωση αυτή επιλέχθηκε γιατί υποστηρίζει υψηλούς ρυθμούς δεδομένων στα ασύρματα συστήματα και δείχνει άριστη συμπεριφορά σε κανάλια με επιλεκτική παραμόρφωση στη συχνότητα.
Στη συνέχεια μελετώνται αλγόριθμοι επαναληπτικής αποκωδικοποίησης, δίνοντας έμφαση σε ένα ευρέως διαδεδομένο αλγόριθμο, τον Μέγιστο εκ των Υστέρων (MAP). Αναλύονται διεξοδικά τα βήματα του, καθώς και διάφορες τροποποιήσεις – βελτιστοποιήσεις του. Οι επαναληπτικοί αλγόριθμοι αποκωδικοποίησης αποτελούν πλέον ένα πολύ ισχυρό εργαλείο για την αποκωδικοποίηση Forward Error Correction κωδικοποιήσεων με χρήση συνελικτικών κωδικών, προσδίδοντας στα συστήματα αποδόσεις κοντά στο όριο του Shannon.
Τέλος, πραγματοποιούνται κατάλληλες υλοποιήσεις που προέκυψαν από το συνδυασμό των εν λόγω αλγορίθμων επαναληπτικής αποκωδικοποίησης με τους χωροχρονικούς κώδικες ανά μπλοκ πάνω σε ένα σύστημα κεραιών με χρήση OFDM. Γίνεται σύγκριση της απόδοσης των συστημάτων αυτών με βάση την αντίστοιχη υλοποίηση του εκάστοτε αλγορίθμου επαναληπτικής αποκωδικοποίησης και μελετούνται σε βάθος διάφορες τροποποιήσεις που μπορούν δεχθούν με κριτήριο τη χαμηλή πολυπλοκότητα υλοποίησης. Για την αξιολόγηση της απόδοσης, γίνεται μία περαιτέρω σύγκριση με χρήση αναπαράστασης σταθερής υποδιαστολής και εξάγονται σειρά συμπερασμάτων από τις πειραματικές μετρήσεις που προέκυψαν. / The use of multiple antennas is an essential issue in telecommunications, nowadays. So, multiple input – multiple output systems (MIMO) has attracted a lot of attention in wireless research. Lately, it has been shown that it can be an improvement in the capacity of wireless communication systems by using antenna diversity, that’s different independent channels between transmitter and receiver.
In this thesis, we study coding techniques that exploit space diversity by using space – time codes. Particularly, we focus on space – time block coding (STBC) from the transmitter’s point of view, because of the simplicity of its implementation and the ability to support multiple antennas at the base stations. The analysis is based on the systems that use Orthogonal Frequency Division Multiplexing Systems (OFDM). This technique was chosen because it can support high data rates and it behaves very well in a frequency selective fading channel.
Moreover, we study iterative decoding algorithms and we focus on a very well known algorithm, the Maximum A Posteriori (MAP). There, we analyze its steps and its modifications and improvements. The iterative decoding algorithms are a cornerstone on decoding Forward Error Correction codes, such as Convolutional codes, almost reaching the Shannon limit.
Finally, there are different kinds of implementations using suitable iterative decoding algorithms in concatenation with space – time block coding with antennas and ODFM. We compare the performance of the corresponding systems and investigate the complexity trying to maintain it in a low level. For a thorough investigation, we also use fixed point arithmetic in these implementations.
|
25 |
Développement d'un alphabet structural intégrant la flexibilité des structures protéiques / Development of a structural alphabet integrating the flexibility of protein structuresSekhi, Ikram 29 January 2018 (has links)
L’objectif de cette thèse est de proposer un Alphabet Structural (AS) permettant une caractérisation fine et précise des structures tridimensionnelles (3D) des protéines, à l’aide des chaînes de Markov cachées (HMM) qui permettent de prendre en compte la logique issue de l’enchaînement des fragments structuraux en intégrant l’augmentation des conformations 3D des structures protéiques désormais disponibles dans la banque de données de la Protein Data Bank (PDB). Nous proposons dans cette thèse un nouvel alphabet, améliorant l’alphabet structural HMM-SA27,appelé SAFlex (Structural Alphabet Flexibility), dans le but de prendre en compte l’incertitude des données (données manquantes dans les fichiers PDB) et la redondance des structures protéiques. Le nouvel alphabet structural SAFlex obtenu propose donc un nouveau modèle d’encodage rigoureux et robuste. Cet encodage permet de prendre en compte l’incertitude des données en proposant trois options d’encodages : le Maximum a posteriori (MAP), la distribution marginale a posteriori (POST)et le nombre effectif de lettres à chaque position donnée (NEFF). SAFlex fournit également un encodage consensus à partir de différentes réplications (chaînes multiples, monomères et homomères) d’une même protéine. Il permet ainsi la détection de la variabilité structurale entre celles-ci. Les avancées méthodologiques ainsi que l’obtention de l’alphabet SAFlex constituent les contributions principales de ce travail de thèse. Nous présentons aussi le nouveau parser de la PDB (SAFlex-PDB) et nous démontrons que notre parser a un intérêt aussi bien sur le plan qualitatif (détection de diverses erreurs)que quantitatif (rapidité et parallélisation) en le comparant avec deux autres parsers très connus dans le domaine (Biopython et BioJava). Nous proposons également à la communauté scientifique un site web mettant en ligne ce nouvel alphabet structural SAFlex. Ce site web représente la contribution concrète de cette thèse alors que le parser SAFlex-PDB représente une contribution importante pour le fonctionnement du site web proposé. Cette caractérisation précise des conformations 3D et la prise en compte de la redondance des informations 3D disponibles, fournies par SAFlex, a en effet un impact très important pour la modélisation de la conformation et de la variabilité des structures 3D, des boucles protéiques et des régions d’interface avec différents partenaires, impliqués dans la fonction des protéines / The purpose of this PhD is to provide a Structural Alphabet (SA) for more accurate characterization of protein three-dimensional (3D) structures as well as integrating the increasing protein 3D structure information currently available in the Protein Data Bank (PDB). The SA also takes into consideration the logic behind the structural fragments sequence by using the hidden Markov Model (HMM). In this PhD, we describe a new structural alphabet, improving the existing HMM-SA27 structural alphabet, called SAFlex (Structural Alphabet Flexibility), in order to take into account the uncertainty of data (missing data in PDB files) and the redundancy of protein structures. The new SAFlex structural alphabet obtained therefore offers a new, rigorous and robust encoding model. This encoding takes into account the encoding uncertainty by providing three encoding options: the maximum a posteriori (MAP), the marginal posterior distribution (POST), and the effective number of letters at each given position (NEFF). SAFlex also provides and builds a consensus encoding from different replicates (multiple chains, monomers and several homomers) of a single protein. It thus allows the detection of structural variability between different chains. The methodological advances and the achievement of the SAFlex alphabet are the main contributions of this PhD. We also present the new PDB parser(SAFlex-PDB) and we demonstrate that our parser is therefore interesting both qualitative (detection of various errors) and quantitative terms (program optimization and parallelization) by comparing it with two other parsers well-known in the area of Bioinformatics (Biopython and BioJava). The SAFlex structural alphabet is being made available to the scientific community by providing a website. The SAFlex web server represents the concrete contribution of this PhD while the SAFlex-PDB parser represents an important contribution to the proper function of the proposed website. Here, we describe the functions and the interfaces of the SAFlex web server. The SAFlex can be used in various fashions for a protein tertiary structure of a given PDB format file; it can be used for encoding the 3D structure, identifying and predicting missing data. Hence, it is the only alphabet able to encode and predict the missing data in a 3D protein structure to date. Finally, these improvements; are promising to explore increasing protein redundancy data and obtain useful quantification of their flexibility
|
26 |
The Stixel WorldPfeiffer, David 31 August 2012 (has links)
Die Stixel-Welt ist eine neuartige und vielseitig einsetzbare Zwischenrepräsentation zur effizienten Beschreibung dreidimensionaler Szenen. Heutige stereobasierte Sehsysteme ermöglichen die Bestimmung einer Tiefenmessung für nahezu jeden Bildpunkt in Echtzeit. Das erlaubt zum einen die Anwendung neuer leistungsfähiger Algorithmen, doch gleichzeitig steigt die zu verarbeitende Datenmenge und der dadurch notwendig werdende Aufwand massiv an. Gerade im Hinblick auf die limitierte Rechenleistung jener Systeme, wie sie in der videobasierten Fahrerassistenz zum Einsatz kommen, ist dies eine große Herausforderung. Um dieses Problem zu lösen, bietet die Stixel-Welt eine generische Abstraktion der Rohdaten des Sensors. Jeder Stixel repräsentiert individuell einen Teil eines Objektes im Raum und segmentiert so die Umgebung in Freiraum und Objekte. Die Arbeit stellt die notwendigen Verfahren vor, um die Stixel-Welt mittels dynamischer Programmierung in einem einzigen globalen Optimierungsschritt in Echtzeit zu extrahieren. Dieser Prozess wird durch eine Vielzahl unterschiedlicher Annahmen über unsere von Menschenhand geschaffene Umgebung gestützt. Darauf aufbauend wird ein Kalmanfilter-basiertes Verfahren zur präzisen Bewegungsschätzung anderer Objekte vorgestellt. Die Arbeit stellt umfangreiche Bewertungen der zu erwartenden Leistungsfähigkeit aller vorgestellten Verfahren an. Dafür kommen sowohl vergleichende Ansätze als auch diverse Referenzsensoren, wie beispielsweise LIDAR, RADAR oder hochpräzise Inertialmesssysteme, zur Anwendung. Die Stixel-Welt ist eine extrem kompakte Abstraktion der dreidimensionalen Umgebung und bietet gleichzeitig einfachsten Zugriff auf alle essentiellen Informationen der Szene. Infolge dieser Arbeit war es möglich, die Effizienz vieler auf der Stixel-Welt aufbauender Algorithmen deutlich zu verbessern. / The Stixel World is a novel and versatile medium-level representation to efficiently bridge the gap between pixel-based processing and high-level vision. Modern stereo matching schemes allow to obtain a depth measurement for almost every pixel of an image in real-time, thus allowing the application of new and powerful algorithms. However, it also results in a large amount of measurement data that has to be processed and evaluated. With respect to vision-based driver assistance, these algorithms are executed on highly integrated low-power processing units that leave no room for algorithms with an intense calculation effort. At the same time, the growing number of independently executed vision tasks asks for new concepts to manage the resulting system complexity. These challenges are tackled by introducing a pre-processing step to extract all required information in advance. Each Stixel approximates a part of an object along with its distance and height. The Stixel World is computed in a single unified optimization scheme. Strong use is made of physically motivated a priori knowledge about our man-made three-dimensional environment. Relying on dynamic programming guarantees to extract the globally optimal segmentation for the entire scenario. Kalman filtering techniques are used to precisely estimate the motion state of all tracked objects. Particular emphasis is put on a thorough performance evaluation. Different comparative strategies are followed which include LIDAR, RADAR, and IMU reference sensors, manually created ground truth data, and real-world tests. Altogether, the Stixel World is ideally suited to serve as the basic building block for today''s increasingly complex vision systems. It is an extremely compact abstraction of the actual world giving access to the most essential information about the current scenario. Thanks to this thesis, the efficiency of subsequently executed vision algorithms and applications has improved significantly.
|
27 |
Geometric modeling and characterization of the circle of willisBogunovic, Hrvoje 28 September 2012 (has links)
Los derrames cerebrales son una de las causas principales de morbilidad y mortalidad en los países desarrollados. Esto ha motivado una búsqueda de configuraciones del sistema vascular que se cree que están asociadas con el desarrollo de enfermedades vasculares. En la primera contribución se ha mejorado un método de segmentación vascular para lograr robustez en la segmentación de imágenes procedentes de diferentes modalidades y centros clínicos, con una validación exhaustiva. Una vez que el sistema vascular está correctamente segmentado, en la segunda contribución se ha propuesto una metodología para caracterizar ampliamente la geometría de la arteria carótida interna (ACI). Esto ha incluido el desarrollo de un método para identificar automáticamente la ACI a partir del árbol vascular segmentado. Finalmente, en la tercera contribución, esta identificación automática se ha generalizado a una colección de arterias incluyendo su conectividad y sus relaciones topológicas. Finalmente, la identificación de las arterias en un conjunto de individuos puede permitir la comparación geométrica de sus árboles arteriales utilizando la metodología introducida para la caracterización de la ACI. / Stroke is among the leading causes of morbidity and mortality in the developed countries. This motivated a search for the configurations of vasculature that is assumed to be associated with the development of vascular diseases. In the first contribution we improve a vascular segmentation method to achieve robustness in segmenting images coming from different imaging modalities and clinical centers and we provide exhaustive segmentation validation. Once the vasculature is successfully segmented, in the second contribution we propose a methodology to extensively characterize the geometry of the internal carotid artery (ICA). This includes the development of a method to automatically identify the ICA from the segmented vascular tree. Finally in the third contribution, this automatic identification is generalized to a collection of vessels including their connectivity and topological relationships. Identifying the corresponding vessels in a population enables comparison of their geometry using the methodology introduced for the characterization of the ICA.
|
Page generated in 0.1014 seconds