• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 18
  • 6
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 53
  • 39
  • 21
  • 14
  • 14
  • 10
  • 9
  • 8
  • 8
  • 8
  • 7
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Comparações de populações discretas / Comparison of discrete populations

Alexandre Hiroshi Watanabe 19 April 2013 (has links)
Um dos principais problemas em testes de hipóteses para a homogeneidade de curvas de sobrevivência ocorre quando as taxas de falha (ou funções de intensidade) não são proporcionais. Apesar do teste de Log-rank ser o teste não paramétrico mais utilizado para se comparar duas ou mais populações sujeitas a dados censurados, este teste apresentada duas restrições. Primeiro, toda a teoria assintótica envolvida com o teste de Log-rank, tem como hipótese o fato das populações envolvidas terem distribuições contínuas ou no máximo mistas. Segundo, o teste de Log-rank não apresenta bom comportamento quando as funções intensidade cruzam. O ponto inicial para análise consiste em assumir que os dados são contínuos e neste caso processos Gaussianos apropriados podem ser utilizados para testar a hipótese de homogeneidade. Aqui, citamos o teste de Renyi e Cramér-von Mises para dados contínuos (CCVM), ver Klein e Moeschberger (1997) [15]. Apesar destes testes não paramétricos apresentar bons resultados para dados contínuos, esses podem ter problemas para dados discretos ou arredondados. Neste trabalho, fazemos um estudo simulação da estatística de Cramér von-Mises (CVM) proposto por Leão e Ohashi [16], que nos permite detectar taxas de falha não proporcionais (cruzamento das taxas de falha) sujeitas a censuras arbitrárias para dados discretos ou arredondados. Propomos também, uma modificação no teste de Log-rank clássico para dados dispostos em uma tabela de contingência. Ao aplicarmos as estatísticas propostas neste trabalho para dados discretos ou arredondados, o teste desenvolvido apresenta uma função poder melhor do que os testes usuais / One of the main problems in hypothesis testing for homogeneity of survival curves occurs when the failure rate (or intensity functions) are nonproportional. Although the Log-rank test is a nonparametric test most commonly used to compare two or more populations subject to censored data, this test presented two constraints. First, all the asymptotic theory involved with the Log-rank test, is the hypothesis that individuals and populations involved have continuous distributions or at best mixed. Second, the log-rank test does not show well when the intensity functions intersect. The starting point for the analysis is to assume that the data is continuous and in this case suitable Gaussian processes may be used to test the assumption of homogeneity. Here, we cite the Renyi test and Cramér-von Mises for continuous data (CCVM), and Moeschberger see Klein (1997) [15]. Despite these non-parametric tests show good results for continuous data, these may have trouble discrete data or rounded. In this work, we perform a simulation study of statistic Cramér-von Mises (CVM) proposed by Leão and Ohashi [16], which allows us to detect failure rates are nonproportional (crossing of failure rates) subject to censure for arbitrary data discrete or rounded. We also propose a modification of the test log-rank classic data arranged in a contingency table. By applying the statistics proposed in this paper for discrete or rounded data, developed the test shows a power function better than the usual testing
32

Phase, Frequency, and Timing Synchronization in Fully Digital Receivers with 1-bit Quantization and Oversampling

Schlüter, Martin 16 November 2021 (has links)
With the increasing demand for faster communication systems, soon data rates in the terabit regime (100 Gbit/s and beyond) are required, which yields new challenges for the design of analog-to-digital converters (ADCs) since high bandwidths imply high sampling rates. For sampling rates larger than 300MHz, which we now achieve with 5G, the ADC power consumption per conversion step scales quadratically with the sampling rate. Thus, ADCs become a major energy consumption bottleneck. To circumvent this problem, we consider digital receivers based on 1-bit quantization and oversampling. We motivate this concept by a brief comparison of the energy efficiency of a recently proposed system employing 1-bit quantization and oversampling to the conventional approach using high resolution quantization and Nyquist rate sampling. Our numerical results show that the energy efficiency can be improved significantly by employing 1-bit quantization and oversampling at the receiver at the cost of increased bandwidth. The main part of this work is concerned with the synchronization of fully digital receivers using 1-bit quantization and oversampling. As a first step, we derive performance bounds for phase, timing, and frequency estimation in order to gain a deeper insight into the impact of 1-bit quantization and oversampling. We identify uniform phase and sample dithering as crucial to combat the non-linear behavior introduced by 1-bit quantization. This dithering can be implemented by sampling at an irrational intermediate frequency and with an oversampling factor with respect to the symbol rate that is irrational, respectively. Since oversampling results in noise correlation, a closed form expression of the likelihood function is not available. To enable an analytical treatment we thus study a system model with white noise by adapting the receive filter bandwidth to the sampling rate. Considering the aforementioned dithering, we obtain very tight closed form lower bounds on the Cramér-Rao lower bound (CRLB) in the large sample regime. We show that with uniform phase and sample dithering, all large sample properties of the CRLB of the unquantized receiver are preserved under 1-bit quantization, except for a signal-to-noise ratio (SNR) dependent performance loss that can be decreased by oversampling. For the more realistic colored noise case, we discuss a numerically computable upper bound of the CRLB and show that the properties of the CRLB for white noise still hold for colored noise except that the performance loss due to 1-bit quantization is reduced. Assuming a neglectable frequency offset, we use the least squares objective function to derive a typical digital matched filter receiver with a data-and timing-aided phase estimator and a timing estimator that is based on square time recovery. We show that both estimators are consistent under very general assumptions, e.g., arbitrary colored noise and stationary ergodic transmit symbols. Performance evaluations are done via simulations and are compared against the numerically computable upper bound of the CRLB. For low SNR the estimators perform well but for high SNR they converge to an error floor. The performance loss of the phase estimator due to decision-directed operation or estimated timing information is marginal. In summary, we have derived practical solutions for the design of fully digital receivers using 1-bit quantization and oversampling and presented a mathematical analysis of the proposed receiver structure. This is an important step towards enabling energy efficient future wireless communication systems with data rates of 100 Gbit/s and beyond.
33

Physics-Guided Machine Learning in Ocean Acoustics Using Fisher Information

Mortenson, Michael Craig 14 April 2022 (has links)
Waterborne acoustic signals carry information about the ocean environment. Ocean geoacoustic inversion is the task of estimating environmental parameters from received acoustic signals by matching the measured sound with the predictions of a physics-based model. A lower bound on the uncertainty associated with environmental parameter estimates, the Cramér-Rao bound, can be calculated from the Fisher information, which is dependent on derivatives of a physics-based model. Physics-based preconditioners circumvent the need for variable step sizes when computing numerical derivatives. This work explores the feasibility of using a neural network to perform geoacoustic inversion for environmental parameters and their associated uncertainties from ship noise spectrogram data. To train neural networks, a synthetic dataset is generated and tested for generalizability against 31 measurements taken during the SBCEX2017 study of the New England Mud Patch.
34

Un test d'adéquation global pour la fonction de répartition conditionnelle

FERRIGNO, Sandie 17 December 2004 (has links) (PDF)
Soient X et Y , deux variables aléatoires. De nombreuses procédures statistiques permettent d'ajuster un modèle à ces données dans le but d'expliquer Y à partir de X. La mise en place d'un tel modèle fait généralement appel à diverses hypothèses que <br />l'on doit valider pour justifier son utilisation. Dans ce travail, on propose une approche globale où toutes les hypothèses faites pour asseoir ce modèle sont testées simultanément. <br />Plus précisément, on construit un test basé sur une quantité qui permet de canaliser toute l'information liant X à Y : la fonction de répartition conditionnelle de Y sachant (X = x) définie par F(y|x)=P(Y<=y|X=x). Notre test compare la valeur prise par l'estimateur polynômial local de F(y|x) à une estimation paramétrique du modèle supposé et rejette sa <br />validité si la distance entre ces deux quantités est trop grande. Dans un premier temps, on considère le cas où la fonction de répartition supposée est entièrement spécifiée et, dans <br />ce contexte, on établit le comportement asymptotique du test. Dans la deuxième partie du travail, on généralise ce résultat au cas plus courant en pratique où le modèle supposé contient un certain nombre de paramètres inconnus. On étudie ensuite la puissance locale du test en déterminant son comportement asymptotique local sous des suites d'hypothèses contigües. Enfin, on propose un critère de choix de la fenêtre d'ajustement qui intervient lors de l'étape d'estimation polynômiale locale de la fonction de répartition conditionnelle.
35

Nouvelles méthodes en filtrage particulaire-Application au recalage de navigation inertielle par mesures altimétriques

DAHIA, Karim 04 January 2005 (has links) (PDF)
L'objectif de ce mémoire est de développer et d'étudier un nouveau type de filtre particulaire appelé le filtre de Kalman-particulaire à noyaux (KPKF). Le KPKF modélise la densité conditionnelle de l'état comme un mélange de gaussiennes centrées sur les particules et ayant des matrices de covariance de norme petite. L'algorithme du KPKF utilise une correction de l'état de type Kalman et une correction de type particulaire modifiant les poids des particules. Un nouveau type de ré-échantillonnage permet de préserver la structure de cette mixture. Le KPKF combine les avantages du filtre particulaire régularisé en terme de robustesse et du filtre de Kalman étendu en terme de précision. Cette nouvelle méthode de filtrage a été appliquée au recalage de navigation inertielle d'un aéronef disposant d'un radio altimètre. Les résultats obtenus montrent que le KPKF fonctionne pour de grandes zones d'incertitude initiale de position.
36

Sur les théorèmes limites et les équations différentielles stochastiques rétrogrades par le calcul de Malliavin

Bourguin, Solesne 13 December 2011 (has links) (PDF)
Cette thèse, composée de trois parties, est centrée sur l'application du calcul de \text{Malliavin} à différents domaines de l'analyse stochastique, tels que les théorèmes limites, le calcul stochastique fractionnaire et la régularité des solutions d'équations différentielles stochastiques. La première partie porte sur l'étude asymptotique de modèles de regression fractionnaire et fait appel au calcul stochastique par rapport au mouvement Brownien fractionnaire et au calcul de Malliavin. La deuxième partie est centrée sur la méthode de Stein sur l'espace de Wiener et présente des résultats ayant attrait aux théorèmes limites pour des fonctionnelles de champs Gaussiens (processus moyenne mobile à mémoire longue, sommes autonormalisées) ainsi que des résultats portant sur des propriétés de déconvolution de la loi Gamma. La troisième et dernière partie a pour objet l'étude, par le calcul de Malliavin, des solutions d'équations différentielles stochastiques rétrogrades, et en particulier l'existence de densité ainsi que d'estimées de densité pour ces solutions.
37

Étude théorique et expérimentale du suivi de particules uniques en conditions extrêmes : imagerie aux photons uniques

Cajgfinger, Thomas 19 October 2012 (has links) (PDF)
Ce manuscrit présente mon travail de thèse portant sur le détecteur de photons uniques electron-bombarded CMOS (ebCMOS) à haute cadence de lecture (500 images/seconde). La première partie compare trois détecteurs ultra-sensibles et et leurs méthodes d'amélioration de la sensibilité au photon : le CMOS bas bruit (sCMOS), l'electron-multiplying CCD (emCCD) à multiplication du signal par pixel et l'ebCMOS à amplification par application d'un champ électrique. La méthode de mesure de l'impact intra-pixel des photons sur le détecteur ebCMOS est présentée. La seconde partie compare la précision de localisation de ces trois détecteurs dans des conditions extrêmes de très bas flux de photons (<10 photons/image). La limite théorique est tout d'abord calculée à l'aide de la limite inférieure de Cramér-Rao pour des jeux de paramètres significatifs. Une comparaison expérimentale des trois détecteurs est ensuite décrite. Le montage permet la création d'un ou plusieurs points sources contrôlés en position, nombre de photons et bruit de fond. Les résultats obtenus permettent une comparaison de l'efficacité, de la pureté et de la précision de localisation des sources. La dernière partie décrit deux expériences réalisées avec la caméra ebCMOS. La première consiste au suivi de nano-cristaux libres (D>10 μm²/s ) au centre Nanoptec avec l'équipe de Christophe Dujardin. La seconde s'intéresse à la nage de bactéries en surface à l'institut Joliot Curie avec l'équipe de Laurence Lemelle. L'algorithme de suivi de sources ponctuelles au photon unique avec l'implémentation d'un filtre de Kalman est aussi décrit.
38

Etoile Laser Polychromatique pour l'Optique Adaptative : modélisation de bout-en-bout, concepts et étude des systèmes optiques

Meilard, Nicolas 18 July 2012 (has links) (PDF)
L'étoile laser polychromatique (ELP) fournit la référence de phase à une optique adaptative (OA)pour corriger les surfaces d'onde turbulentes, y compris leur pente. L'ELP, générée dans la mésosphère parune excitation résonnante à deux photons du sodium, repose sur la déviation chromatique des images. Uneimagerie dans le visible devient possible, et est indispensable pour 80% des programmes astrophysiquesprioritaires de l'E-ELT.L'ELP requiert un écart-type des mesures de position 26 fois inférieur au cas classique. Cela m'a amené àétudier le projecteur laser interférométrique. J'ai mis au point un correcteur de base polychromatique pourégaliser la période des franges et un correcteur de phase pour compenser la réfraction atmosphérique. J'aiétudié l'optique de mesure des franges, et de séparation entre l'ELP et l'objet observé.La précision requise m'a conduit à étudier dans quelles conditions l'algorithme du maximum devraisemblance tend vers la borne de Cramér-Rao.J'ai également développé un modèle numérique de bout en bout pour simuler l'ELP depuis les lasersjusqu'à la mesure du rapport de Strehl. Je montre que pour un VLT, les rapports de Strehl sont supérieurs à40% à 500 nm sans étoile de référence, en prenant une OA qui aurait donné 50% instantané (Strehl depente : 80%). Une approche analytique valide ces résultats.Enfin, j'aborde l'application de l'ELP aux télécommunications interplanétaires et à la destruction des débrisorbitaux.
39

Analysis of an Ill-posed Problem of Estimating the Trend Derivative Using Maximum Likelihood Estimation and the Cramér-Rao Lower Bound

Naeem, Muhammad Farhan January 2020 (has links)
The amount of carbon dioxide in the Earth’s atmosphere has significantly increased in the last few decades as compared to the last 80,000 years approximately. The increase in carbon dioxide levels are affecting the temperature and therefore need to be understood better. In order to study the effects of global events on the carbon dioxide levels, one need to properly estimate the trends in carbon dioxide in the previous years. In this project, we will perform the task of estimating the trend in carbon dioxide measurements taken in Mauna Loa for the last 46 years, also known as the Keeling Curve, using estimation techniques based on a Taylor and Fourier series model equation. To perform the estimation, we will employ Maximum Likelihood Estimation (MLE) and the Cramér-Rao Lower Bound (CRLB) and review our results by comparing it to other estimation techniques. The estimation of the trend in Keeling Curve is well-posed however, the estimation for the first derivative of the trend is an ill-posed problem. We will further calculate if the estimation error is under a suitable limit and conduct statistical analyses for our estimated results.
40

Deployment Strategies for High Accuracy and Availability Indoor Positioning with 5G

Ahlander, Jesper, Posluk, Maria January 2020 (has links)
Indoor positioning is desired in many areas for various reasons, such as positioning products in industrial environments, hospital equipment or firefighters inside a building on fire. One even tougher situation where indoor positioning can be useful is locating a specific object on a shelf in a commercial setting. This thesis aims to investigate and design different network deployment strategies in an indoor environment in order to achieve both high position estimation accuracy and availability. The investigation considers the two positioning techniques downlink time difference of arrival, DL-TDOA, and round trip time, RTT. Simulations of several deployments are performed in two standard scenarios which mimic an indoor open office and an indoor factory, respectively. Factors having an impact on the positioning accuracy and availability are found to be deployment geometry, number of base stations, line-of-sight conditions and interference, with the most important being deployment geometry. Two deployment strategies are designed with the goal of optimising the deployment geometry. In order to achieve both high positioning accuracy and availability in a simple, sparsely cluttered environment, the strategy is to deploy the base stations evenly around the edges of the deployment area. In a more problematic, densely cluttered environment the approach somewhat differs. The proposed strategy is now to identify and strategically place some base stations in the most cluttered areas but still place a majority of the base stations around the edges of the deployment area. A robust positioning algorithm is able to handle interference well and to decrease its impact on the positioning accuracy. The cost, in terms of frequency resources, of using more orthogonal signals may not be worth the small improvement in accuracy and availability.

Page generated in 0.0572 seconds