• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 17
  • 14
  • 3
  • 2
  • 1
  • Tagged with
  • 39
  • 39
  • 21
  • 14
  • 13
  • 10
  • 9
  • 8
  • 8
  • 8
  • 6
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Estimation de distribution de tailles de particules par techniques d'inférence bayésienne / Particle size distribution esimation using Bayesian inference techniques

Boualem, Abdelbassit 06 December 2016 (has links)
Ce travail de recherche traite le problème inverse d’estimation de la distribution de tailles de particules (DTP) à partir des données de la diffusion dynamique de lumière (DLS). Les méthodes actuelles d’estimation souffrent de la mauvaise répétabilité des résultats d’estimation et de la faible capacité à séparer les composantes d’un échantillon multimodal de particules. L’objectif de cette thèse est de développer de nouvelles méthodes plus performantes basées sur les techniques d’inférence bayésienne et cela en exploitant la diversité angulaire des données de la DLS. Nous avons proposé tout d’abord une méthode non paramétrique utilisant un modèle « free-form » mais qui nécessite une connaissance a priori du support de la DTP. Pour éviter ce problème, nous avons ensuite proposé une méthode paramétrique fondée sur la modélisation de la DTP en utilisant un modèle de mélange de distributions gaussiennes. Les deux méthodes bayésiennes proposées utilisent des algorithmes de simulation de Monte-Carlo par chaînes de Markov. Les résultats d’analyse de données simulées et réelles montrent la capacité des méthodes proposées à estimer des DTPs multimodales avec une haute résolution et une très bonne répétabilité. Nous avons aussi calculé les bornes de Cramér-Rao du modèle de mélange de distributions gaussiennes. Les résultats montrent qu’il existe des valeurs d’angles privilégiées garantissant des erreurs minimales sur l’estimation de la DTP. / This research work treats the inverse problem of particle size distribution (PSD) estimation from dynamic light scattering (DLS) data. The current DLS data analysis methods have bad estimation results repeatability and poor ability to separate the components (resolution) of a multimodal sample of particles. This thesis aims to develop new and more efficient estimation methods based on Bayesian inference techniques by taking advantage of the angular diversity of the DLS data. First, we proposed a non-parametric method based on a free-form model with the disadvantage of requiring a priori knowledge of the PSD support. To avoid this problem, we then proposed a parametric method based on modelling the PSD using a Gaussian mixture model. The two proposed Bayesian methods use Markov chain Monte Carlo simulation algorithms. The obtained results, on simulated and real DLS data, show the capability of the proposed methods to estimate multimodal PSDs with high resolution and better repeatability. We also computed the Cramér-Rao bounds of the Gaussian mixture model. The results show that there are preferred angle values ensuring minimum error on the PSD estimation.
22

Etoile Laser Polychromatique pour l’Optique Adaptative : modélisation de bout-en-bout, concepts et étude des systèmes optiques / Polychromatic Laser Guide Star for Adaptive Optics : end-to-end model, concepts and study of optical systems

Meilard, Nicolas 18 July 2012 (has links)
L’étoile laser polychromatique (ELP) fournit la référence de phase à une optique adaptative (OA)pour corriger les surfaces d’onde turbulentes, y compris leur pente. L’ELP, générée dans la mésosphère parune excitation résonnante à deux photons du sodium, repose sur la déviation chromatique des images. Uneimagerie dans le visible devient possible, et est indispensable pour 80% des programmes astrophysiquesprioritaires de l'E-ELT.L’ELP requiert un écart-type des mesures de position 26 fois inférieur au cas classique. Cela m’a amené àétudier le projecteur laser interférométrique. J’ai mis au point un correcteur de base polychromatique pourégaliser la période des franges et un correcteur de phase pour compenser la réfraction atmosphérique. J’aiétudié l'optique de mesure des franges, et de séparation entre l'ELP et l’objet observé.La précision requise m’a conduit à étudier dans quelles conditions l’algorithme du maximum devraisemblance tend vers la borne de Cramér-Rao.J’ai également développé un modèle numérique de bout en bout pour simuler l’ELP depuis les lasersjusqu’à la mesure du rapport de Strehl. Je montre que pour un VLT, les rapports de Strehl sont supérieurs à40% à 500 nm sans étoile de référence, en prenant une OA qui aurait donné 50% instantané (Strehl depente : 80%). Une approche analytique valide ces résultats.Enfin, j’aborde l’application de l’ELP aux télécommunications interplanétaires et à la destruction des débrisorbitaux. / The polychromatic laser guide star (PLGS) provides adaptive optics (AO) with a phase referenceto correct corrugated wavefronts, including tip tilt. It relies on the chromatic dispersion of light returnedfrom the 2-photon resonant excitation of sodium in the mesosphere. Diffraction limited imaging in thevisible then becomes possible. This is mandatory for 80% of the prominent astrophysical cases for the EELT.A PLGS requires standard deviations of position measurements 26 times less than in classical cases. Thus Ihave studied the interferometric laser projector. I have designed a polychromatic base corrector to equalizethe fringe periods, a phase corrector to compensate atmospheric refraction and the optics for fringemeasurements and for keeping apart the PLGS from the science target images.The required accuracy leads me to study how the maximum likelihood algorithm approaches the Cramer-Rao bound.I have written an end-to-end code for numerical simulations of the PLGS, from the lasers to the Strehlmeasurement. I get for the VLT Strehl ratios larger than 40% at 500 nm if one uses an AO providing us a50% instantaneous Strehl (tip tilt Strehl : 80%). An analytical model validates these results.Finally I address the application of the PLGS to deep space communications and to space debris clearing.
23

Phase, Frequency, and Timing Synchronization in Fully Digital Receivers with 1-bit Quantization and Oversampling

Schlüter, Martin 16 November 2021 (has links)
With the increasing demand for faster communication systems, soon data rates in the terabit regime (100 Gbit/s and beyond) are required, which yields new challenges for the design of analog-to-digital converters (ADCs) since high bandwidths imply high sampling rates. For sampling rates larger than 300MHz, which we now achieve with 5G, the ADC power consumption per conversion step scales quadratically with the sampling rate. Thus, ADCs become a major energy consumption bottleneck. To circumvent this problem, we consider digital receivers based on 1-bit quantization and oversampling. We motivate this concept by a brief comparison of the energy efficiency of a recently proposed system employing 1-bit quantization and oversampling to the conventional approach using high resolution quantization and Nyquist rate sampling. Our numerical results show that the energy efficiency can be improved significantly by employing 1-bit quantization and oversampling at the receiver at the cost of increased bandwidth. The main part of this work is concerned with the synchronization of fully digital receivers using 1-bit quantization and oversampling. As a first step, we derive performance bounds for phase, timing, and frequency estimation in order to gain a deeper insight into the impact of 1-bit quantization and oversampling. We identify uniform phase and sample dithering as crucial to combat the non-linear behavior introduced by 1-bit quantization. This dithering can be implemented by sampling at an irrational intermediate frequency and with an oversampling factor with respect to the symbol rate that is irrational, respectively. Since oversampling results in noise correlation, a closed form expression of the likelihood function is not available. To enable an analytical treatment we thus study a system model with white noise by adapting the receive filter bandwidth to the sampling rate. Considering the aforementioned dithering, we obtain very tight closed form lower bounds on the Cramér-Rao lower bound (CRLB) in the large sample regime. We show that with uniform phase and sample dithering, all large sample properties of the CRLB of the unquantized receiver are preserved under 1-bit quantization, except for a signal-to-noise ratio (SNR) dependent performance loss that can be decreased by oversampling. For the more realistic colored noise case, we discuss a numerically computable upper bound of the CRLB and show that the properties of the CRLB for white noise still hold for colored noise except that the performance loss due to 1-bit quantization is reduced. Assuming a neglectable frequency offset, we use the least squares objective function to derive a typical digital matched filter receiver with a data-and timing-aided phase estimator and a timing estimator that is based on square time recovery. We show that both estimators are consistent under very general assumptions, e.g., arbitrary colored noise and stationary ergodic transmit symbols. Performance evaluations are done via simulations and are compared against the numerically computable upper bound of the CRLB. For low SNR the estimators perform well but for high SNR they converge to an error floor. The performance loss of the phase estimator due to decision-directed operation or estimated timing information is marginal. In summary, we have derived practical solutions for the design of fully digital receivers using 1-bit quantization and oversampling and presented a mathematical analysis of the proposed receiver structure. This is an important step towards enabling energy efficient future wireless communication systems with data rates of 100 Gbit/s and beyond.
24

Physics-Guided Machine Learning in Ocean Acoustics Using Fisher Information

Mortenson, Michael Craig 14 April 2022 (has links)
Waterborne acoustic signals carry information about the ocean environment. Ocean geoacoustic inversion is the task of estimating environmental parameters from received acoustic signals by matching the measured sound with the predictions of a physics-based model. A lower bound on the uncertainty associated with environmental parameter estimates, the Cramér-Rao bound, can be calculated from the Fisher information, which is dependent on derivatives of a physics-based model. Physics-based preconditioners circumvent the need for variable step sizes when computing numerical derivatives. This work explores the feasibility of using a neural network to perform geoacoustic inversion for environmental parameters and their associated uncertainties from ship noise spectrogram data. To train neural networks, a synthetic dataset is generated and tested for generalizability against 31 measurements taken during the SBCEX2017 study of the New England Mud Patch.
25

Nouvelles méthodes en filtrage particulaire-Application au recalage de navigation inertielle par mesures altimétriques

DAHIA, Karim 04 January 2005 (has links) (PDF)
L'objectif de ce mémoire est de développer et d'étudier un nouveau type de filtre particulaire appelé le filtre de Kalman-particulaire à noyaux (KPKF). Le KPKF modélise la densité conditionnelle de l'état comme un mélange de gaussiennes centrées sur les particules et ayant des matrices de covariance de norme petite. L'algorithme du KPKF utilise une correction de l'état de type Kalman et une correction de type particulaire modifiant les poids des particules. Un nouveau type de ré-échantillonnage permet de préserver la structure de cette mixture. Le KPKF combine les avantages du filtre particulaire régularisé en terme de robustesse et du filtre de Kalman étendu en terme de précision. Cette nouvelle méthode de filtrage a été appliquée au recalage de navigation inertielle d'un aéronef disposant d'un radio altimètre. Les résultats obtenus montrent que le KPKF fonctionne pour de grandes zones d'incertitude initiale de position.
26

Étude théorique et expérimentale du suivi de particules uniques en conditions extrêmes : imagerie aux photons uniques

Cajgfinger, Thomas 19 October 2012 (has links) (PDF)
Ce manuscrit présente mon travail de thèse portant sur le détecteur de photons uniques electron-bombarded CMOS (ebCMOS) à haute cadence de lecture (500 images/seconde). La première partie compare trois détecteurs ultra-sensibles et et leurs méthodes d'amélioration de la sensibilité au photon : le CMOS bas bruit (sCMOS), l'electron-multiplying CCD (emCCD) à multiplication du signal par pixel et l'ebCMOS à amplification par application d'un champ électrique. La méthode de mesure de l'impact intra-pixel des photons sur le détecteur ebCMOS est présentée. La seconde partie compare la précision de localisation de ces trois détecteurs dans des conditions extrêmes de très bas flux de photons (<10 photons/image). La limite théorique est tout d'abord calculée à l'aide de la limite inférieure de Cramér-Rao pour des jeux de paramètres significatifs. Une comparaison expérimentale des trois détecteurs est ensuite décrite. Le montage permet la création d'un ou plusieurs points sources contrôlés en position, nombre de photons et bruit de fond. Les résultats obtenus permettent une comparaison de l'efficacité, de la pureté et de la précision de localisation des sources. La dernière partie décrit deux expériences réalisées avec la caméra ebCMOS. La première consiste au suivi de nano-cristaux libres (D>10 μm²/s ) au centre Nanoptec avec l'équipe de Christophe Dujardin. La seconde s'intéresse à la nage de bactéries en surface à l'institut Joliot Curie avec l'équipe de Laurence Lemelle. L'algorithme de suivi de sources ponctuelles au photon unique avec l'implémentation d'un filtre de Kalman est aussi décrit.
27

Etoile Laser Polychromatique pour l'Optique Adaptative : modélisation de bout-en-bout, concepts et étude des systèmes optiques

Meilard, Nicolas 18 July 2012 (has links) (PDF)
L'étoile laser polychromatique (ELP) fournit la référence de phase à une optique adaptative (OA)pour corriger les surfaces d'onde turbulentes, y compris leur pente. L'ELP, générée dans la mésosphère parune excitation résonnante à deux photons du sodium, repose sur la déviation chromatique des images. Uneimagerie dans le visible devient possible, et est indispensable pour 80% des programmes astrophysiquesprioritaires de l'E-ELT.L'ELP requiert un écart-type des mesures de position 26 fois inférieur au cas classique. Cela m'a amené àétudier le projecteur laser interférométrique. J'ai mis au point un correcteur de base polychromatique pourégaliser la période des franges et un correcteur de phase pour compenser la réfraction atmosphérique. J'aiétudié l'optique de mesure des franges, et de séparation entre l'ELP et l'objet observé.La précision requise m'a conduit à étudier dans quelles conditions l'algorithme du maximum devraisemblance tend vers la borne de Cramér-Rao.J'ai également développé un modèle numérique de bout en bout pour simuler l'ELP depuis les lasersjusqu'à la mesure du rapport de Strehl. Je montre que pour un VLT, les rapports de Strehl sont supérieurs à40% à 500 nm sans étoile de référence, en prenant une OA qui aurait donné 50% instantané (Strehl depente : 80%). Une approche analytique valide ces résultats.Enfin, j'aborde l'application de l'ELP aux télécommunications interplanétaires et à la destruction des débrisorbitaux.
28

Analysis of an Ill-posed Problem of Estimating the Trend Derivative Using Maximum Likelihood Estimation and the Cramér-Rao Lower Bound

Naeem, Muhammad Farhan January 2020 (has links)
The amount of carbon dioxide in the Earth’s atmosphere has significantly increased in the last few decades as compared to the last 80,000 years approximately. The increase in carbon dioxide levels are affecting the temperature and therefore need to be understood better. In order to study the effects of global events on the carbon dioxide levels, one need to properly estimate the trends in carbon dioxide in the previous years. In this project, we will perform the task of estimating the trend in carbon dioxide measurements taken in Mauna Loa for the last 46 years, also known as the Keeling Curve, using estimation techniques based on a Taylor and Fourier series model equation. To perform the estimation, we will employ Maximum Likelihood Estimation (MLE) and the Cramér-Rao Lower Bound (CRLB) and review our results by comparing it to other estimation techniques. The estimation of the trend in Keeling Curve is well-posed however, the estimation for the first derivative of the trend is an ill-posed problem. We will further calculate if the estimation error is under a suitable limit and conduct statistical analyses for our estimated results.
29

Deployment Strategies for High Accuracy and Availability Indoor Positioning with 5G

Ahlander, Jesper, Posluk, Maria January 2020 (has links)
Indoor positioning is desired in many areas for various reasons, such as positioning products in industrial environments, hospital equipment or firefighters inside a building on fire. One even tougher situation where indoor positioning can be useful is locating a specific object on a shelf in a commercial setting. This thesis aims to investigate and design different network deployment strategies in an indoor environment in order to achieve both high position estimation accuracy and availability. The investigation considers the two positioning techniques downlink time difference of arrival, DL-TDOA, and round trip time, RTT. Simulations of several deployments are performed in two standard scenarios which mimic an indoor open office and an indoor factory, respectively. Factors having an impact on the positioning accuracy and availability are found to be deployment geometry, number of base stations, line-of-sight conditions and interference, with the most important being deployment geometry. Two deployment strategies are designed with the goal of optimising the deployment geometry. In order to achieve both high positioning accuracy and availability in a simple, sparsely cluttered environment, the strategy is to deploy the base stations evenly around the edges of the deployment area. In a more problematic, densely cluttered environment the approach somewhat differs. The proposed strategy is now to identify and strategically place some base stations in the most cluttered areas but still place a majority of the base stations around the edges of the deployment area. A robust positioning algorithm is able to handle interference well and to decrease its impact on the positioning accuracy. The cost, in terms of frequency resources, of using more orthogonal signals may not be worth the small improvement in accuracy and availability.
30

Airborne Angle-Only Geolocalization

Kallin, Tove January 2021 (has links)
Airborne angle-only geolocalization is the localization of objects on ground level from airborne vehicles (AV) using bearing measurements, namely azimuth and elevation. This thesis aims to introduce elevation data of the terrain to the airborne angle-only geolocalization problem and to demonstrate that it could be applicable for localization of jammers. Jammers are often used for deliberate interference with malicious intent which could interfere with the positioning system of a vehicle. It is important to locate the jammers to either avoid them or to remove them.    Three localization methods, i.e. the nonlinear least squares (NLS), the extended Kalman filter (EKF) and the unscented Kalman filter (UKF), are implemented and tested on simulated data. The methods are also compared to the theoretical lower bound, the Cramér-Rao Lower Bound (CRLB), to see if there is an efficient estimator. The simulated data are different scenarios where the number of AVs, the relative flight path of the AVs and the knowledge of the terrain can differ. Using the knowledge of the terrain elevation, the methods give more consistent localization than without it. Without elevation data, the localization relies on good geometry of the problem, i.e. the relative flight path of the AVs, while the geometry is not as critical when elevation data is available. However, the elevation data does not always improve the localization for certain geometries.    There is no method that is clearly better than the others when elevation data is used. The methods’ performances are very similar and they all converge to the CRLB but that could also be an advantage. This makes the usage of elevation data not restricted to a certain method and it leaves more up to the implementer which method they prefer.

Page generated in 0.037 seconds