• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 66
  • 37
  • 9
  • 4
  • 4
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 159
  • 55
  • 47
  • 44
  • 39
  • 31
  • 25
  • 22
  • 20
  • 18
  • 18
  • 17
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Sensitivity Analysis and Material Parameter Estimation using Electromagnetic Modelling / Känslighetsanalys och estimering av materialparametrar med elektromagnetisk modellering

Sjödén, Therese January 2012 (has links)
Estimating parameters is the problem of finding their values from measurements and modelling. Parameters describe properties of a system; material, for instance, are defined by mechanical, electrical, and chemical parameters. Fisher information is an information measure, giving information about how changes in the parameter effect the estimation. The Fisher information includes the physical model of the problem and the statistical model of noise. The Cramér-Rao bound is the inverse of the Fisher information and gives the best possible variance for any unbiased estimator. This thesis considers aspects of sensitivity analysis in two applied material parameter estimation problems. Sensitivity analysis with the Fisher information and the Cramér-Rao bound is used as a tool for evaluation of measurement feasibilities, comparison of measurement set-ups, and as a quantitative measure of the trade-off between accuracy and resolution in inverse imaging. The first application is with estimation of the wood grain angle parameter in trees and logs. The grain angle is the angle between the direction of the wood fibres and the direction of growth; a large grain angle strongly correlates to twist in sawn timber. In the thesis, measurements with microwaves are argued as a fast and robust measurement technique and electromagnetic modelling is applied, exploiting the anisotropic properties of wood. Both two-dimensional and three-dimensional modelling is considered. Mathematical modelling is essential, lowering the complexity and speeding up the computations. According to a sensitivity analysis with the Cramér-Rao bound, estimation of the wood grain angle with microwaves is feasible. The second application is electrical impedance tomography, where the conductivity of an object is estimated from surface measurements. Electrical impedance tomography has applications in, for example, medical imaging, geological surveillance, and wood evaluation. Different configurations and noise models are evaluated with sensitivity analysis for a two-dimensional electrical impedance tomography problem. The relation between the accuracy and resolution is also analysed using the Fisher information. To conclude, sensitivity analysis is employed in this thesis, as a method to enhance material parameter estimation. The sensitivity analysis methods are general and applicable also on other parameter estimation problems. / Estimering av parametrar är att finna deras värde utifrån mätningar och modellering. Parametrar beskriver egenskaper hos system och till exempel material kan definieras med mekaniska, elektriska och kemiska parametrar. Fisherinformation är ett informationsmått som ger information om hur ändringar i en parameter påverkar estimeringen. Fisherinformationen ges av en fysikalisk modell av problemet och en statistisk modell av mätbruset. Cramér-Rao-gränsen är inversen av Fisherinformationen och ger den bästa möjliga variansen för alla väntevärdesriktiga estimatorer.Den här avhandlingen behandlar aspekter av känslighetsanalys i två tillämpade estimeringsproblem för materialparametrar. Känslighetsanalys med Fisherinformation och Cramér-Rao-gränsen används som ett redskap för utvärdering av möjligheten att mäta och för jämförelser av mätuppställningar, samt som ett kvantitativt mått på avvägningen mellan noggrannhet och upplösning för inversa bilder. Den första tillämpningen är estimering av fibervinkeln hos träd och stockar. Fibervinkeln är vinkeln mellan växtriktningen och riktningen hos träfibern och en stor fibervinkel är relaterad till problem med formstabilitet i färdiga brädor. Mikrovågsmätningar av fibervinkeln presenteras som en snabb och robust mätteknik. I avhandlingen beskrivs två- och tredimensionella elektromagnetiska modeller som utnyttjar anisotropin hos trä. Eftersom matematisk modellering minskar komplexiteten och beräkningstiden är det en viktig del i estimeringen. Enligt känslighetsanalys med Cramér-Rao-gränsen är estimering av fibervinkeln hos trä möjlig. Den andra tillämpningen är elektrisk impedanstomografi, där ledningsförmågan hos objekt bestäms genom mätningar på ytan. Elektrisk impedanstomografi har tillämpningar inom till exempel medicinska bilder, geologisk övervakning och trämätningar. Olika mätkonfigurationer och brusmodeller utvärderas med känslighetsanalys för ett tvådimensionellt exempel på elektrisk impedanstomografi. Relationen mellan noggrannhet och upplösning analyseras med Fisher information. För att sammanfatta beskrivs känslighetsanalys som en metod för att förbättra estimeringen av materialparametrar. Metoderna för känslighetsanalys är generella och kan tillämpas också på andra estimeringsproblem för parametrar.
72

3D conformal antennas for radar applications / Antennes 3D et conformes pour des applications radars

Fourtinon, Luc 15 December 2017 (has links)
Embarqué sous le radôme du missile, les autodirecteurs existants utilisent une rotation mécanique du plan d’antenne pour balayer le faisceau en direction d’une cible. Les recherches actuelles examinent le remplacement des composantes mécaniques de rotation de l’antenne par un nouveau réseau d’antennes 3D conformes à balayage électronique. Les antennes 3D conformes pourraient offrir des avantages significatifs, tels qu’un balayage plus rapide et une meilleure couverture angulaire mais qui pourraient aussi offrir de nouveaux challenges résultant d’un diagramme de rayonnement plus complexes en 3D qu’en 2D. Le nouvel autodirecteur s’affranchit du système mécanique de rotation ce qui libère de l’espace pour le design d’une nouvelle antenne 3D conforme. Pour tirer le meilleur parti de cet espace, différentes formes de réseaux sont étudiées, ainsi l’impact de la position, de l’orientation et de la conformation des éléments est établi sur les performances de l’antenne, en termes de directivité, ellipticité et de polarisation. Pour faciliter cette étude de réseaux 3D conformes, un programme Matlab a été développé, il permet de générer rapidement le diagramme de rayonnement en polarisation d’un réseau donné dans toutes les directions. L’une des tâches de l’autodirecteur consiste à estimer la position d’une cible donnée afin de corriger la trajectoire du missile. Ainsi, l’impact de la forme du réseau sur l’erreur entre la direction d’arrivée mesurée de l’écho de la cible et sa vraie valeur est analysé. La borne inférieure de Cramer-Rao est utilisée pour calculer l’erreur minimum théorique. Ce modèle suppose que chaque élément est alimenté séparément et permet ainsi d’évaluer le potentiel des réseaux 3D conformes actifs.Finalement, l’estimateur du monopulse en phase est étudié pour des réseaux 3D conformes dont les quadrants n’auraient pas les mêmes caractéristiques. Un nouvel estimateur, plus adapté à des quadrants non identiques, est aussi proposé. / Embedded below the radome of a missile, existing RF-seekers use a mechanical rotating antenna to steer the radiating beam in the direction of a target. Latest research is looking at replacing the mechanical antenna components of the RF-seeker with a novel 3D conformal antenna array that can steer the beam electronically. 3D antennas may offer significant advantages, such as faster beam steering and better coverage but, at the same time, introduce new challenges resulting from a much more complex radiation pattern than that of 2D antennas. Thanks to the mechanical system removal, the new RF-seeker has a wider available space for the design of a new 3D conformal antenna. To take best benefits of this space, different array shapes are studied, hence the impact of the position, orientation and conformation of the elements is assessed on the antenna performance in terms of directivity, ellipticity and polarisation. To facilitate this study of 3D conformal arrays, a Matlab program has been developed to compute the polarisation pattern of a given array in all directions. One of the task of the RF-seeker consists in estimating the position of a given target to correct the missile trajectory accordingly. Thus, the impact of the array shape on the error between the measured direction of arrival of the target echo and its true value is addressed. The Cramer-Rao lower bound is used to evaluate the theoretical minimum error. The model assumes that each element receives independently and allows therefore to analyse the potential of active 3D conformal arrays. Finally, the phase monopulse estimator is studied for 3Dconformal arrays whose quadrants do not have the same characteristics. A new estimator more adapted to non-identical quadrants is also proposed.
73

Aspects of Interface between Information Theory and Signal Processing with Applications to Wireless Communications

Park, Sang Woo 14 March 2013 (has links)
This dissertation studies several aspects of the interface between information theory and signal processing. Several new and existing results in information theory are researched from the perspective of signal processing. Similarly, some fundamental results in signal processing and statistics are studied from the information theoretic viewpoint. The first part of this dissertation focuses on illustrating the equivalence between Stein's identity and De Bruijn's identity, and providing two extensions of De Bruijn's identity. First, it is shown that Stein's identity is equivalent to De Bruijn's identity in additive noise channels with specific conditions. Second, for arbitrary but fixed input and noise distributions, and an additive noise channel model, the first derivative of the differential entropy is expressed as a function of the posterior mean, and the second derivative of the differential entropy is expressed in terms of a function of Fisher information. Several applications over a number of fields, such as statistical estimation theory, signal processing and information theory, are presented to support the usefulness of the results developed in Section 2. The second part of this dissertation focuses on three contributions. First, a connection between the result, proposed by Stoica and Babu, and the recent information theoretic results, the worst additive noise lemma and the isoperimetric inequality for entropies, is illustrated. Second, information theoretic and estimation theoretic justifications for the fact that the Gaussian assumption leads to the largest Cramer-Rao lower bound (CRLB) is presented. Third, a slight extension of this result to the more general framework of correlated observations is shown. The third part of this dissertation concentrates on deriving an alternative proof for an extremal entropy inequality (EEI), originally proposed by Liu and Viswanath. Compared with the proofs, presented by Liu and Viswanath, the proposed alternative proof is simpler, more direct, and more information-theoretic. An additional application for the extremal inequality is also provided. Moreover, this section illustrates not only the usefulness of the EEI but also a novel method to approach applications such as the capacity of the vector Gaussian broadcast channel, the lower bound of the achievable rate for distributed source coding with a single quadratic distortion constraint, and the secrecy capacity of the Gaussian wire-tap channel. Finally, a unifying variational and novel approach for proving fundamental information theoretic inequalities is proposed. Fundamental information theory results such as the maximization of differential entropy, minimization of Fisher information (Cramer-Rao inequality), worst additive noise lemma, entropy power inequality (EPI), and EEI are interpreted as functional problems and proved within the framework of calculus of variations. Several extensions and applications of the proposed results are briefly mentioned.
74

Estimation de distribution de tailles de particules par techniques d'inférence bayésienne / Particle size distribution esimation using Bayesian inference techniques

Boualem, Abdelbassit 06 December 2016 (has links)
Ce travail de recherche traite le problème inverse d’estimation de la distribution de tailles de particules (DTP) à partir des données de la diffusion dynamique de lumière (DLS). Les méthodes actuelles d’estimation souffrent de la mauvaise répétabilité des résultats d’estimation et de la faible capacité à séparer les composantes d’un échantillon multimodal de particules. L’objectif de cette thèse est de développer de nouvelles méthodes plus performantes basées sur les techniques d’inférence bayésienne et cela en exploitant la diversité angulaire des données de la DLS. Nous avons proposé tout d’abord une méthode non paramétrique utilisant un modèle « free-form » mais qui nécessite une connaissance a priori du support de la DTP. Pour éviter ce problème, nous avons ensuite proposé une méthode paramétrique fondée sur la modélisation de la DTP en utilisant un modèle de mélange de distributions gaussiennes. Les deux méthodes bayésiennes proposées utilisent des algorithmes de simulation de Monte-Carlo par chaînes de Markov. Les résultats d’analyse de données simulées et réelles montrent la capacité des méthodes proposées à estimer des DTPs multimodales avec une haute résolution et une très bonne répétabilité. Nous avons aussi calculé les bornes de Cramér-Rao du modèle de mélange de distributions gaussiennes. Les résultats montrent qu’il existe des valeurs d’angles privilégiées garantissant des erreurs minimales sur l’estimation de la DTP. / This research work treats the inverse problem of particle size distribution (PSD) estimation from dynamic light scattering (DLS) data. The current DLS data analysis methods have bad estimation results repeatability and poor ability to separate the components (resolution) of a multimodal sample of particles. This thesis aims to develop new and more efficient estimation methods based on Bayesian inference techniques by taking advantage of the angular diversity of the DLS data. First, we proposed a non-parametric method based on a free-form model with the disadvantage of requiring a priori knowledge of the PSD support. To avoid this problem, we then proposed a parametric method based on modelling the PSD using a Gaussian mixture model. The two proposed Bayesian methods use Markov chain Monte Carlo simulation algorithms. The obtained results, on simulated and real DLS data, show the capability of the proposed methods to estimate multimodal PSDs with high resolution and better repeatability. We also computed the Cramér-Rao bounds of the Gaussian mixture model. The results show that there are preferred angle values ensuring minimum error on the PSD estimation.
75

Capture de mouvement par mesure de distances dans un réseau corporel hétérogène / Real-time motion capture using distance measurements in a body area network

Aloui, Saifeddine 05 February 2013 (has links)
La capture de mouvement ambulatoire est un sujet en plein essor pour des applications aussi diverses que le suivi des personnes âgées, l'assistance des sportifs de haut niveau, la réhabilitation fonctionnelle, etc. Ces applications exigent que le mouvement ne soit pas contraint par un système externe, qu’il puisse être réalisé dans différentes situations, y compris en extérieur, que l’équipement soit léger et à un faible coût, qu’il soit réellement ambulatoire et sans procédure complexe de calibration.Actuellement, seuls les systèmes utilisant un exosquelette ou bien des modules inertiels (souvent combinés avec des modules magnétiques) permettent d'effectuer de la capture de mouvement de façon ambulatoire. Le poids de l’exosquelette est très important et il impose des contraintes sur les mouvements de la personne, ce qui le rend inutilisable pour certaines applications telles que le suivi de personnes âgées. La technologie inertielle est plus légère. Elle permet d'effectuer la capture du mouvement sans contrainte sur l’espace de mesure ou sur les mouvements réalisés. Par contre, elle souffre de dérives des gyromètres, et le système doit être recalibré.L'objectif de cette thèse est de développer un système de capture de mouvement de chaînes articulées, bas-coût et temps réel, réellement ambulatoire, ne nécessitant pas d'infrastructure de capture spécifique, permettant une utilisation dans de nombreux domaines applicatifs (rééducation, sport, loisirs, etc.).On s'intéresse plus particulièrement à des mesures intra-corporelles. Ainsi, tous les capteurs sont placés sur le corps et aucun dispositif externe n'est utilisé. Outre un démonstrateur final permettant de valider l'approche proposée, on s'astreint à développer également des outils qui permettent de dimensionner le système en termes de technologie, nombre et position des capteurs, mais également à évaluer différents algorithmes de fusion des données. Pour ce faire, on utilise la borne de Cramer-Rao.Le sujet est donc pluridisciplinaire. Il traite des aspects de modélisation et de dimensionnement de systèmes hybrides entièrement ambulatoires. Il étudie des algorithmes d'estimation adaptés au domaine de la capture de mouvement corps entier en traitant les problématiques d'observabilité de l'état et en tenant compte des contraintes biomécaniques pouvant être appliquées. Ainsi, un traitement adapté permet de reconstruire en temps réel la posture du sujet à partir de mesures intra-corporelles, la source étant également placée sur le corps. / Ambulatory motion capture is of great interest for applications ranging for the monitoring of elderly people, sporty performances monitoring, functional rehabilitation, etc. These applications require that the movement is not constrained by an external system, that it can be performed in different situations, including outdoor environment. It requires lightweight and low cost equipment; it must be truly ambulatory without complex process of calibration.Currently, only systems using an exoskeleton or inertial modules (often combined with magnetic modules) can be used in such situations. Unfortunately, the exoskeleton weight is not affordable and it imposes constraints on the movements of the person, which makes it unusable for certain applications such as monitoring of the elderly.Inertial technology is lighter. Itcan be used for the capture of movement without constraints on the capture space or on the movements. However, it suffers from gyros drift, and the system must be recalibrated.The objective of this thesis is to develop a system of motion capture for an articulated chain, low-cost, real-time truly ambulatory that does not require specific capture infrastructure, that can be used in many application fields (rehabilitation, sport, leisure, etc.).We focus on intra-corporal measurements. Thus, all sensors are placed on the body and no external device is used. In addition to a final demonstrator to validate the proposed approach, we also develop tools to evaluate the system in terms of technology, number and position of sensors, but also to evaluate different algorithms for data fusion. To do this, we use the Cramer-Rao lower bound. \\The subject is multidisciplinary. It addresses aspects of modelling and design of fully ambulatory hybrid systems. It studies estimation algorithms adapted to the field of motion capture of a whole body by considering the problem of observability of the state and taking into account the biomechanical constraints that can be taken into account. Thus, with an appropriate treatment, the pose of a subject can be reconstructed in real time from intra-body measurements.
76

Etoile Laser Polychromatique pour l’Optique Adaptative : modélisation de bout-en-bout, concepts et étude des systèmes optiques / Polychromatic Laser Guide Star for Adaptive Optics : end-to-end model, concepts and study of optical systems

Meilard, Nicolas 18 July 2012 (has links)
L’étoile laser polychromatique (ELP) fournit la référence de phase à une optique adaptative (OA)pour corriger les surfaces d’onde turbulentes, y compris leur pente. L’ELP, générée dans la mésosphère parune excitation résonnante à deux photons du sodium, repose sur la déviation chromatique des images. Uneimagerie dans le visible devient possible, et est indispensable pour 80% des programmes astrophysiquesprioritaires de l'E-ELT.L’ELP requiert un écart-type des mesures de position 26 fois inférieur au cas classique. Cela m’a amené àétudier le projecteur laser interférométrique. J’ai mis au point un correcteur de base polychromatique pourégaliser la période des franges et un correcteur de phase pour compenser la réfraction atmosphérique. J’aiétudié l'optique de mesure des franges, et de séparation entre l'ELP et l’objet observé.La précision requise m’a conduit à étudier dans quelles conditions l’algorithme du maximum devraisemblance tend vers la borne de Cramér-Rao.J’ai également développé un modèle numérique de bout en bout pour simuler l’ELP depuis les lasersjusqu’à la mesure du rapport de Strehl. Je montre que pour un VLT, les rapports de Strehl sont supérieurs à40% à 500 nm sans étoile de référence, en prenant une OA qui aurait donné 50% instantané (Strehl depente : 80%). Une approche analytique valide ces résultats.Enfin, j’aborde l’application de l’ELP aux télécommunications interplanétaires et à la destruction des débrisorbitaux. / The polychromatic laser guide star (PLGS) provides adaptive optics (AO) with a phase referenceto correct corrugated wavefronts, including tip tilt. It relies on the chromatic dispersion of light returnedfrom the 2-photon resonant excitation of sodium in the mesosphere. Diffraction limited imaging in thevisible then becomes possible. This is mandatory for 80% of the prominent astrophysical cases for the EELT.A PLGS requires standard deviations of position measurements 26 times less than in classical cases. Thus Ihave studied the interferometric laser projector. I have designed a polychromatic base corrector to equalizethe fringe periods, a phase corrector to compensate atmospheric refraction and the optics for fringemeasurements and for keeping apart the PLGS from the science target images.The required accuracy leads me to study how the maximum likelihood algorithm approaches the Cramer-Rao bound.I have written an end-to-end code for numerical simulations of the PLGS, from the lasers to the Strehlmeasurement. I get for the VLT Strehl ratios larger than 40% at 500 nm if one uses an AO providing us a50% instantaneous Strehl (tip tilt Strehl : 80%). An analytical model validates these results.Finally I address the application of the PLGS to deep space communications and to space debris clearing.
77

Traitement des signaux Argos 4 / Signal Processing for ARGOS 4 Syste

Fares, Fares 18 March 2011 (has links)
Cette thèse est dédié à l’étude de la problématique des interférences multi utilisateurs dans le système Argos et à la proposition des diverses techniques pour réduire les effets de ces interférences. Le système Argos est un système mondial de localisation et de collecte de données géo positionnées par satellite. Il permet à l’échelle mondiale de collecter et de traiter les données émises par des émetteurs installés sur la surface de terre. Ces émetteurs sont connus sous le nom de balises. Ces balises sont installées sur des voiliers, des stations météo, des bouées, ainsi que sur quelques animaux (phoques, penguins, etc.…). Le système Argos a été créé en 1978 par le Centre National des Études spatiales (CNES), l’agence spatiale américaine (NASA) et l’agence américaine d’étude de l’atmosphère et de l’océan (NOAA). Depuis sa création, le nombre de balises Argos n’a cessé d’augmenter afin de couvrir au mieux la couverture mondiale. Nous sommes orientés ainsi à la saturation de la bande d’émission et à la présence des interférences multi utilisateurs (MUI) provenant de la réception simultanée de plusieurs signaux émis par les balises. Cette MUI limite la capacité du système Argos et dégrade les performances en termes de Taux Erreur Bit (TEB). Actuellement, le système Argos n’est capable de traiter qu’un seul signal reçu à un instant donné. D’où, l’intérêt d’implanter des techniques au niveau du récepteur capable de réduire les effets des interférences et de traiter les signaux émis par toutes les balises. Plusieurs techniques de détection multi utilisateurs (MUD) ont été développées dans le cadre de cette problématique. Ces techniques sont principalement implantées dans les systèmes CDMA où des codes d’étalement sont utilisés afin de différencier entre les différents signaux. Ceci n’est pas le cas du système Argos où les signaux ne présentent pas des séquences d’étalement et que les bandes de fréquences pour ces différents signaux ne sont pas disjointes à cause de l’effet Doppler et donc, un recouvrement spectral au niveau du récepteur est très probable. Dans ce contexte, l’objectif du travail présenté dans cette thèse est d’étudier différentes techniques MUD appliquées au système Argos et d’évaluer ces techniques au niveau des performances en termes de TEB et de complexité d’implantation. Dans ce travail, nous présentons les différentes composantes du système Argos ainsi que son mode de fonctionnement. Ensuite, nous présentons la problématique dans le système Argos ainsi que les différentes solutions proposées. Parmi ces solutions, nous montrons celle basant sur l’implantation des techniques MUD au niveau du récepteur. Ces différentes techniques MUD sont alors présentées ainsi que les avantages et les inconvénients de chacune d’elles. Parmi les techniques possédant un bon compromis entre les performances d’une part et la complexité d’autre part, nous notons la technique d’annulation par série d’interférence (SIC). Dans cette technique, les signaux sont démodulés successivement suivant l’ordre décroissant des puissances. Cette technique nécessite une étape d’estimation des paramètres des signaux à chaque étape. L’impact d’une estimation imparfaite des différents paramètres est aussi étudié. Après l’étude des impacts des erreurs d’estimation, nous proposons des estimateurs adaptables au système Argos. Les performances de ces estimateurs sont obtenues en comparant les variances de leurs erreurs aux bornes de Cramer Rao (CRB). Enfin, nous terminons le travail par une conclusion générale des résultats obtenus et nous envisageons les perspectives des prochains travaux. / In our thesis, we investigate the application of multi user detection techniques to a Low Polar Orbit (LPO) satellite used in the Argos system. Argos is a global satellite-based location and data collection system dedicated for studying and protecting the environment. User platforms, each equipped with a Platform Transmitter Terminal (PTT), transmit data messages to a 850 km LPO satellite. An ARGOS satellite receives, decodes, and forwards the signals to ground stations. All PTTs transmit at random times in a 100 kHz bandwidth using different carrier frequencies. The central carrier frequency f0 is 401.65 MHz. Due to the relative motion between the satellite and the platforms, signals transmitted by PTTs are affected by both a different Doppler shift and a different propagation delay. Thus, the Argos satellite receives overlapping signals in both frequency and time domains inducing Multiple Access Interference (MAI). One common approach to mitigate the MAI problem is to implement Multi User Detection (MUD) techniques at the receiver. To tackle this problem, several MUD techniques have been proposed for the reception of synchronous and asynchronous users. In particular, the Successive Interference Cancelation (SIC) detector has been shown to offer a good optimality-complexity trade-off compared to other common approaches such as the Maximum Likelihood (ML) receiver. In an Argos SIC receiver, users are decoded in a successive manner, and the signals of successfully decoded users are subtracted from the waveform before decoding the next user. This procedure involves a parameter estimation step and the impact of erroneous parameter estimates on the performance of Argos SIC receiver has been studied. Argos SIC receiver has been shown to be both robust to imperfect amplitude and phase estimation and sensitive to imperfect time delay estimation. The last part of our work focuses on the implementation of digital estimators for the Argos system. In particular, we propose a time delay estimator, a frequency estimator, a phase estimator and an amplitude estimator. These estimators are derived from the ML principle and they have been already derived for the single user transmission. In our work, we adapt successfully these estimators for the multi user detector case. These estimators use the Non Data Aided (NDA) cases in which no a priori information for the transmitted bits is required. The performance of these different estimators are compared to the Cramer Rao Bound (CRB) values. Finally, we conclude in our work by showing the different results obtained during this dissertation. Also, we give some perspectives for future work on Argos system.
78

Algorithmes de restauration bayésienne mono- et multi-objets dans des modèles markoviens / Single and multiple object(s) Bayesian restoration algorithms for Markovian models

Petetin, Yohan 27 November 2013 (has links)
Cette thèse est consacrée au problème d'estimation bayésienne pour le filtrage statistique, dont l'objectif est d'estimer récursivement des états inconnus à partir d'un historique d'observations, dans un modèle stochastique donné. Les modèles stochastiques considérés incluent principalement deux grandes classes de modèles : les modèles de Markov cachés et les modèles de Markov à sauts conditionnellement markoviens. Ici, le problème est abordé sous sa forme générale dans la mesure où nous considérons le problème du filtrage mono- et multi objet(s), ce dernier étant abordé sous l'angle de la théorie des ensembles statistiques finis et du filtre « Probability Hypothesis Density ». Tout d'abord, nous nous intéressons à l'importante classe d'approximations que constituent les algorithmes de Monte Carlo séquentiel, qui incluent les algorithmes d'échantillonnage d'importance séquentiel et de filtrage particulaire auxiliaire. Les boucles de propagation mises en jeux dans ces algorithmes sont étudiées et des algorithmes alternatifs sont proposés. Les algorithmes de filtrage particulaire dits « localement optimaux », c'est à dire les algorithmes d'échantillonnage d'importance avec densité d'importance conditionnelle optimale et de filtrage particulaire auxiliaire pleinement adapté sont comparés statistiquement, en fonction des paramètres du modèle donné. Ensuite, les méthodes de réduction de variance basées sur le théorème de Rao-Blackwell sont exploitées dans le contexte du filtrage mono- et multi-objet(s) Ces méthodes, utilisées principalement en filtrage mono-objet lorsque la dimension du vecteur d'état à estimer est grande, sont dans un premier temps étendues pour les approximations Monte Carlo du filtre Probability Hypothesis Density. D'autre part, des méthodes de réduction de variance alternatives sont proposées : bien que toujours basées sur le théorème de Rao-Blackwell, elles ne se focalisent plus sur le caractère spatial du problème mais plutôt sur son caractère temporel. Enfin, nous abordons l'extension des modèles probabilistes classiquement utilisés. Nous rappelons tout d'abord les modèles de Markov couple et triplet dont l'intérêt est illustré à travers plusieurs exemples pratiques. Ensuite, nous traitons le problème de filtrage multi-objets, dans le contexte des ensembles statistiques finis, pour ces modèles. De plus, les propriétés statistiques plus générales des modèles triplet sont exploitées afin d'obtenir de nouvelles approximations de l'estimateur bayésien optimal (au sens de l'erreur quadratique moyenne) dans les modèles à sauts classiquement utilisés; ces approximations peuvent produire des estimateurs de performances comparables à celles des approximations particulaires, mais ont l'avantage d'être moins coûteuses sur le plan calculatoire / This thesis focuses on the Bayesian estimation problem for statistical filtering which consists in estimating hidden states from an historic of observations over time in a given stochastic model. The considered models include the popular Hidden Markov Chain models and the Jump Markov State Space Systems; in addition, the filtering problem is addressed under a general form, that is to say we consider the mono- and multi-object filtering problems. The latter one is addressed in the Random Finite Sets and Probability Hypothesis Density contexts. First, we focus on the class of particle filtering algorithms, which include essentially the sequential importance sampling and auxiliary particle filter algorithms. We explore the recursive loops for computing the filtering probability density function, and alternative particle filtering algorithms are proposed. The ``locally optimal'' filtering algorithms, i.e. the sequential importance sampling with optimal conditional importance distribution and the fully adapted auxiliary particle filtering algorithms, are statistically compared in function of the parameters of a given stochastic model. Next, variance reduction methods based on the Rao-Blackwell theorem are exploited in the mono- and multi-object filtering contexts. More precisely, these methods are mainly used in mono-object filtering when the dimension of the hidden state is large; so we first extend them for Monte Carlo approximations of the Probabilty Hypothesis Density filter. In addition, alternative variance reduction methods are proposed. Although we still use the Rao-Blackwell decomposition, our methods no longer focus on the spatial aspect of the problem but rather on its temporal one. Finally, we discuss on the extension of the classical stochastic models. We first recall pairwise and triplet Markov models and we illustrate their interest through several practical examples. We next address the multi-object filtering problem for such models in the random finite sets context. Moreover, the statistical properties of the more general triplet Markov models are used to build new approximations of the optimal Bayesian estimate (in the sense of the mean square error) in Jump Markov State Space Systems. These new approximations can produce estimates with performances alike those given by particle filters but with lower computational cost
79

Phase, Frequency, and Timing Synchronization in Fully Digital Receivers with 1-bit Quantization and Oversampling

Schlüter, Martin 16 November 2021 (has links)
With the increasing demand for faster communication systems, soon data rates in the terabit regime (100 Gbit/s and beyond) are required, which yields new challenges for the design of analog-to-digital converters (ADCs) since high bandwidths imply high sampling rates. For sampling rates larger than 300MHz, which we now achieve with 5G, the ADC power consumption per conversion step scales quadratically with the sampling rate. Thus, ADCs become a major energy consumption bottleneck. To circumvent this problem, we consider digital receivers based on 1-bit quantization and oversampling. We motivate this concept by a brief comparison of the energy efficiency of a recently proposed system employing 1-bit quantization and oversampling to the conventional approach using high resolution quantization and Nyquist rate sampling. Our numerical results show that the energy efficiency can be improved significantly by employing 1-bit quantization and oversampling at the receiver at the cost of increased bandwidth. The main part of this work is concerned with the synchronization of fully digital receivers using 1-bit quantization and oversampling. As a first step, we derive performance bounds for phase, timing, and frequency estimation in order to gain a deeper insight into the impact of 1-bit quantization and oversampling. We identify uniform phase and sample dithering as crucial to combat the non-linear behavior introduced by 1-bit quantization. This dithering can be implemented by sampling at an irrational intermediate frequency and with an oversampling factor with respect to the symbol rate that is irrational, respectively. Since oversampling results in noise correlation, a closed form expression of the likelihood function is not available. To enable an analytical treatment we thus study a system model with white noise by adapting the receive filter bandwidth to the sampling rate. Considering the aforementioned dithering, we obtain very tight closed form lower bounds on the Cramér-Rao lower bound (CRLB) in the large sample regime. We show that with uniform phase and sample dithering, all large sample properties of the CRLB of the unquantized receiver are preserved under 1-bit quantization, except for a signal-to-noise ratio (SNR) dependent performance loss that can be decreased by oversampling. For the more realistic colored noise case, we discuss a numerically computable upper bound of the CRLB and show that the properties of the CRLB for white noise still hold for colored noise except that the performance loss due to 1-bit quantization is reduced. Assuming a neglectable frequency offset, we use the least squares objective function to derive a typical digital matched filter receiver with a data-and timing-aided phase estimator and a timing estimator that is based on square time recovery. We show that both estimators are consistent under very general assumptions, e.g., arbitrary colored noise and stationary ergodic transmit symbols. Performance evaluations are done via simulations and are compared against the numerically computable upper bound of the CRLB. For low SNR the estimators perform well but for high SNR they converge to an error floor. The performance loss of the phase estimator due to decision-directed operation or estimated timing information is marginal. In summary, we have derived practical solutions for the design of fully digital receivers using 1-bit quantization and oversampling and presented a mathematical analysis of the proposed receiver structure. This is an important step towards enabling energy efficient future wireless communication systems with data rates of 100 Gbit/s and beyond.
80

Terrain Referenced Navigation with Path Optimization : Optimizing Navigation Accuracy by Path Planning / Banplanering för terrängbaserad navigering : Optimering av navigationsprecision genom banplanering

Gelin, Martin January 2022 (has links)
Terrain referenced navigation is a method of navigation that uses measurements of altitude above ground to infer the position of the vehicle, mainly aerial or underwater. This method provides an alternative to the commonly used satellite-based navigation. Satellite-based navigation methods rely on positional information being sent from an external source, which can be jammed or tampered with, a problem terrain referenced navigation does not have. Both satellite-based and terrain based navigation methods often work in conjunction with inertial navigation systems, which are accurate for short periods of time but suffer from large errors due to accumulation of errors when used for longer missions. In this thesis, several state-of-the-art methods of terrain referenced navigation are studied and evaluated, with the main focus being the different estimation methods employed. Five of the studied estimators were implemented and tested on simulated flight data from a generic aerial vehicle, resulting in improved navigation accuracy compared to using inertial navigation on its own. For the terrain referenced navigation to work well, the ground needs to be relatively unique in order to contain useful information, thus making the estimation more uncertain when flying over flat regions. To deal with this, path planning was used to alter the flight path to increase the expected information gain. Using a grid based planning algorithm together with the original route yielded a modified path with more potential information. When following this new path, the terrain referenced navigation systems are shown to estimate the position more accurately compared to the original path. The study shows that terrain referenced navigation is a viable alternative to satellite based navigation. It also indicates that modifying the path to increase the expected information gain can result in better robustness and precision. / Terrängbaserad navigering är en navigeringsmetod där mätningar av höjd över mark används för att fastställa fordonets position, huvudsakligen från luften eller under vattnet. Denna metod är ett alternativ till den allmänt använda satellitbaserade navigeringen. Satellitbaserad navigering är beroende av att positionsinformation skickas från en extern källa, som kan störas eller manipuleras, vilket är ett problem som terrängbaserad navigering inte har. Både satellitbaserade och terrängbaserade navigeringsmetoder används ofta tillsammans med tröghetsnavigeringssystem, som är noggranna under kortare tid, men som lider av stora fel på grund av ackumulering av fel när de används under längre uppdrag. I denna rapport studeras och utvärderas flera moderna metoder för terrängbaserad navigering, med huvudfokus på de olika skattningsmetoder som används. Fem av de studerade skattningsmetoderna implementerades och testades på simulerade flygdata från ett generiskt flygfarkost, vilket resulterade i förbättrad navigeringsnoggrannhet jämfört med att använda tröghetsnavigering på egen hand. För att den terrängbaserade navigeringen ska fungera bra måste marken vara relativt unik för att innehålla användbar information, vilket gör uppskattningen mer osäker när man flyger över plana områden. För att hantera detta användes banplanering för att välja en flygbana som ger maximalt informations innehåll. Genom att använda en rutnätsbaserad planeringsalgoritm tillsammans med den ursprungliga rutten erhölls en modifierad bana med mer potentiell information. Genom att följa denna nya bana uppskattas positionen bättre av de terrängbaserade navigationssystemen jämfört med den ursprungliga banan. Studien visar att terrängbaserad navigering är ett gångbart alternativ till satellitbaserad navigering. Den visar också att en ändring av banan för att öka den förväntade informationsvinsten kan leda till bättre robusthet och precision.

Page generated in 0.0801 seconds