• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 2
  • 1
  • Tagged with
  • 21
  • 21
  • 10
  • 7
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Estimation efficace des paramètres de signaux d'usagers radio-mobile par traitement avec antenne-réseau

Racine, Emmanuel 19 April 2018 (has links)
Cette thèse aborde le problème d’estimation des paramètres de signaux d’usagers radio-mobile par traitement avec antenne-réseau. On adopte une approche de traitement théorique rigoureuse au problème en tentant de pallier aux limitations et désavantages des méthodes d’estimation existantes en ce domaine. Les chapitres principaux ont été rédigés en couvrant uniquement les aspects théoriques en lien aux contributions principales, tout en présentant une revue de littérature adéquate sur les sujets concernés. La thèse présente essentiellement trois volets distincts en lien à chacune des contributions en question. Suite à une revue des notions de base, on montre d’abord comment une méthode d’estimation exploitant des statistiques d’ordre supérieur a pu être développée à partir de l’amélioration d’un algorithme existant en ce domaine. On présente ensuite le cheminement qui a conduit à l’élaboration d’une technique d’estimation non linéaire exploitant les propriétés statistiques spécifiques des enveloppes complexes reçues, et ne possédant pas les limitations des algorithmes du second et quatrième ordre. Finalement, on présente le développement relatif à un algorithme d’estimation exploitant le caractère cyclostationnaire intrinsèque des signaux de communication dans un environnement asynchrone naturel. On montre comment un tel algorithme parvient à estimer la matrice de canal des signaux incidents indépendamment du caractère de corrélation spatiotemporel du bruit, et permettant de ce fait même une pleine exploitation du degré de liberté du réseau. La procédure d’estimation consiste en la résolution d’un problème de diagonalisation conjointe impliquant des matrices cibles issues d’une opération différentielle entre des matrices d’autocorrélation obtenues uniquement à partir de statistiques d’ordre deux. Pour chacune des contributions, des résultats de simulations sont présentés afin de confirmer l’efficacité des méthodes proposées. / This thesis addresses the problem of parameter estimation of radio signals from mobile users using an antenna array. A rigorous theoretical approach to the problem is adopted in an attempt to overcome the limitations and disadvantages of existing estimation methods in this field. The main chapters have been written covering only the theoretical aspects related to the main contributions of the thesis, while at the same time providing an appropriate literature review on the considered topics. The thesis is divided into three main parts related to the aforesaid contributions. Following a review of the basics concepts in antenna array processing techniques for signal parameter estimation, we first present an improved version of an existing estimation algorithm expoiting higher-order statistics of the received signals. Subsequently, we show how a nonlinear estimation technique exploiting the specific statistical distributions of the received complex envelopes at the array can be developed in order to overcome the limitations of second and fourth-order algorithms. Finally, we present the development of an estimation algorithm exploiting the cyclostationary nature of communication signals in a natural asynchronous environment. We show how such an algorithm is able to estimate the channel matrix of the received signals independently of the spatial or temporal correlation structure of the noise, thereby enabling a full exploitation of the array’s degree of freedom. The estimation process is carried out by solving a joint diagonalization problem involving target matrices computed by a differential operation between autocorrelation matrices obtained by the sole use of second-order statistics. Various simulation experiments are presented for each contribution as a means of supporting and evidencing the effectiveness of the proposed methods.
12

Recherche de sources gamma par une méthode de Maximum de Vraisemblance :

Khelifi, Bruno 25 November 2002 (has links) (PDF)
L'actuelle génération de détecteurs de rayons gamma au TeV a permis d'étudier les sources les plus brillantes (Noyaux Actifs de Galaxies et restes de supernovae). Afin de détecter des objets moins lumineux, nous proposons des techniques d'observation et d'analyse améliorant la sensibilité des détecteurs que nous avons appliqués sur le détecteur CAT (Cerenkov Array at Themis). Le développement d'un maximum de vraisemblance a permis de doubler notre sensibilité sur la nébuleuse du Crabe près du transit. Cet outil permet désormais de rechercher des sources de position inconnue sans perte de sensibilité (aux effets instrumentaux près) et de tester des hypothèses sur la forme des extensions spatiales des émissions.<br> Grâce à ces techniques, nous avons détecté de faibles et rapides variations de flux de Mkn 421, découvert deux nouveaux blazars IES 1959+65 et IES 1426+42.8 qui est de faible luminosité et nous avons identifié deux blazars susceptibles d'émettre au TeV. La comparaison des spectres en énergie des blazars de même redshift (Mkn 421 et Mkn 501) permet de nous affranchir de l'absorption des gamma par l'infrarouge intergalactique (IIR) : Mkn 421 semble posséder un spectre avant absorption distinct d'une loi de puissance sur au moins une nuit. La dérivation d'informations plus précises sur les blazars dépendra des futures connaissances sur l'IIR et des observations simultanées multi-longueurs d'onde.<br> Ayant observé des restes de supernovae contenant des plérions (IC 443, CTA 1 et CTB 80), nous avons cherché en vain une émission provenant des plérions et de l'interaction de ces restes avec des nuages moléculaires grâce au maximum de vraisemblance. Les valeurs supérieures extraites sur les plérions ont été comparées avec des modèles d'émission électromagnétique d'un spectre d'électrons accélérés. Ces comparaisons nous ont amenées à nous interroger sur les hypothèses faites dans ces modèles et sur la pertinence des plérions choisis.
13

Estimateur par variables instrumentales : une approche alternative?

Ba, Bocar 10 1900 (has links) (PDF)
Ce texte propose une façon alternative d'obtenir l'estimateur à variables instrumentales. Dans un premier temps, un ensemble d'estimés candidats est obtenu à l'aide d'une estimation par méthode des moments généralisés. Puis, l'estimateur alternatif est obtenu en combinant les estimés candidats par l'intermédiaire d'une matrice de poids optimale. Les hypothèses, concernant l'estimateur alternatif, garantissant l'efficacité et la normalité asymptotique sont également présentées. De plus, un test permettant de vérifier la validité des instruments est suggéré. Les expériences de Monte Carlo montrent que le biais de l'estimateur proposé augmente avec le nombre d'estimés candidats. Finalement, l'écart type moyen de l'estimateur proposé est plus petit que l'estimateur à variables instrumentales standard quand les instruments ne sont pas faibles. Lorsque la gamme des estimateurs possibles s'élargit, l'estimateur alternatif démontre de meilleures performances que l'estimateur standard dans le cas d'une endogénéité qui est faible ou moyenne. Les propriétés de puissance dans le cadre de l'alternative de type Pitman-local sont également suggérées. Les simulations de Monte Carlo montrent que la puissance du test en grand échantillon semble satisfaisante au niveau de la taille et de la puissance. Cependant il se peut que ce test souffre d'un biais en petit échantillon. Finalement, en utilisant l'approche d'Angrist et Krueger (1991) pour l'application empirique, les estimateurs alternatif et standard donnent des résultats similaires; cependant la méthode proposée donne des écart-types plus faibles. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : alternative de type Pitman-local, fonction de puissance, méthode des moments généralisés, minimisation de la distance simulation de Monte Carlo, test de Wald, variables instrumentales, tests d'hypothèses.
14

Contribution à l'analyse des performances d'estimation en traitement statistique du signal

Renaux, Alexandre 07 July 2006 (has links) (PDF)
Cette thèse porte sur l'étude des performances des estimateurs dans le cadre du traitement du signal et s'attache plus particulièrement à étudier et unifier les bornes minimales d'estimation. Nous caractérisons ainsi les limites des méthodes du maximum de vraisemblance en terme d'erreur quadratique moyenne (EQM).<br /><br />La difficulté majeure provient du fait que l'EQM de l'estimateur d'un paramètre à support borné se divise en trois régions : la plage asymptotique, souvent caractérisée par un grand nombre d'observations ou un faible niveau de bruit, où l'erreur d'estimation est faible, la plage de décrochement où l'EQM se dégrade rapidement et la zone a priori où les observations se réduisent principalement à la seule contribution du bruit et donc, n'apportent pratiquement plus d'informations sur les paramètres à estimer. Beaucoup de résultats sont disponibles pour la zone asymptotique : distribution des estimées, biais, variance. En revanche, le comportement des estimateur dans les zones de décrochement et a priori a été beaucoup moins étudié. Pourtant ces zones non-asymptotiques constituent au même titre que le biais ou la variance une caractéristique fondamentale d'un estimateur puisque qu'elle délimite la plage acceptable de fonctionnement optimal.<br /><br />Le but de cette thèse est, dans un premier temps, de compléter la caractérisation de la zone asymptotique (en particulier lorsque le rapport signal sur bruit est élevé et pour un nombre d'observations fini) pour les estimateurs au sens du maximum de vraisemblance dans un contexte traitement d'antenne. Dans un second temps, le but est de donner les limites fondamentales de l'EQM d'un estimateur sur ses trois plages de fonctionnement. Les outils utilisés ici sont les bornes minimales de l'EQM autres que les bornes de Cramér-Rao dont la validité n'est qu'asymptotique.<br /><br />Les résultats obtenus sont appliqués à l'analyse spectrale et à l'estimation de porteuse dans le contexte des communications numériques et fournissent de surcroît des outils intéressants pour prédire la zone de décrochement d'un récepteur.
15

Modèle d'interaction et performances du traitement du signal multimodal / Interaction model and performance of multimodal signal processing

Chlaily, Saloua 04 April 2018 (has links)
Bien que le traitement conjoint des mesures multimodales soit supposé conduire à de meilleures performances que celles obtenues en exploitant une seule modalité ou plusieurs modalités indépendamment, il existe des exemples en littérature qui prouvent que c'est pas toujours vrai. Dans cette thèse, nous analysons rigoureusement, en termes d'information mutuelle et d'erreur d'estimation, les différentes situations de l'analyse multimodale afin de déterminer les conditions conduisant à des performances optimales.Dans la première partie, nous considérons le cas simple de deux ou trois modalités, chacune étant associée à la mesure bruitée d'un signal, avec des liens entre modalités matérialisés par les corrélations entre les parties utiles du signal et par les corrélations les bruits. Nous montrons comment les performances obtenues sont améliorées avec l'exploitation des liens entre les modalités. Dans la seconde partie, nous étudions l'impact sur les performances d'erreurs sur les liens entre modalités. Nous montrons que ces fausses hypothèses dégradent les performances, qui peuvent alors devenir inférieure à celles atteintes avec une seule modalité.Dans le cas général, nous modélisons les multiples modalités comme un canal gaussien bruité. Nous étendons alors des résultats de la littérature en considérant l'impact d'erreurs sur les densités de probabilité du signal et du bruit sur l'information transmise par le canal. Nous analysons ensuite cette relation dans la cas d'un modèle simple de deux modalités. Nos résultats montrent en particulier le fait inattendu qu'une double inadéquation du bruit et du signal peuvent parfois se compenser et ainsi conduire à de très bonnes performances. / The joint processing of multimodal measurements is supposed to lead to better performances than those obtained using a single modality or several modalities independently. However, in literature, there are examples that show that is not always true. In this thesis, we analyze, in terms of mutual information and estimation error, the different situations of multimodal analysis in order to determine the conditions to achieve the optimal performances.In the first part, we consider the simple case of two or three modalities, each associated with noisy measurement of a signal. These modalities are linked through the correlations between the useful parts of the signal and the correlations between the noises. We show that the performances are improved if the links between the modalities are exploited. In the second part, we study the impact on performance of wrong links between modalities. We show that these false assumptions decline the performance, which can become lower than the performance achieved using a single modality.In the general case, we model the multiple modalities as a noisy Gaussian channel. We then extend literature results by considering the impact of the errors on signal and noise probability densities on the information transmitted by the channel. We then analyze this relationship in the case of a simple model of two modalities. Our results show in particular the unexpected fact that a double mismatch of the noise and the signal can sometimes compensate for each other, and thus lead to very good performances.
16

Quantile-based inference and estimation of heavy-tailed distributions

Dominicy, Yves 18 April 2014 (has links)
This thesis is divided in four chapters. The two first chapters introduce a parametric quantile-based estimation method of univariate heavy-tailed distributions and elliptical distributions, respectively. If one is interested in estimating the tail index without imposing a parametric form for the entire distribution function, but only on the tail behaviour, we propose a multivariate Hill estimator for elliptical distributions in chapter three. In the first three chapters we assume an independent and identically distributed setting, and so as a first step to a dependent setting, using quantiles, we prove in the last chapter the asymptotic normality of marginal sample quantiles for stationary processes under the S-mixing condition.<p><p><p>The first chapter introduces a quantile- and simulation-based estimation method, which we call the Method of Simulated Quantiles, or simply MSQ. Since it is based on quantiles, it is a moment-free approach. And since it is based on simulations, we do not need closed form expressions of any function that represents the probability law of the process. Thus, it is useful in case the probability density functions has no closed form or/and moments do not exist. It is based on a vector of functions of quantiles. The principle consists in matching functions of theoretical quantiles, which depend on the parameters of the assumed probability law, with those of empirical quantiles, which depend on the data. Since the theoretical functions of quantiles may not have a closed form expression, we rely on simulations.<p><p><p>The second chapter deals with the estimation of the parameters of elliptical distributions by means of a multivariate extension of MSQ. In this chapter we propose inference for vast dimensional elliptical distributions. Estimation is based on quantiles, which always exist regardless of the thickness of the tails, and testing is based on the geometry of the elliptical family. The multivariate extension of MSQ faces the difficulty of constructing a function of quantiles that is informative about the covariation parameters. We show that the interquartile range of a projection of pairwise random variables onto the 45 degree line is very informative about the covariation.<p><p><p>The third chapter consists in constructing a multivariate tail index estimator. In the univariate case, the most popular estimator for the tail exponent is the Hill estimator introduced by Bruce Hill in 1975. The aim of this chapter is to propose an estimator of the tail index in a multivariate context; more precisely, in the case of regularly varying elliptical distributions. Since, for univariate random variables, our estimator boils down to the Hill estimator, we name it after Bruce Hill. Our estimator is based on the distance between an elliptical probability contour and the exceedance observations. <p><p><p>Finally, the fourth chapter investigates the asymptotic behaviour of the marginal sample quantiles for p-dimensional stationary processes and we obtain the asymptotic normality of the empirical quantile vector. We assume that the processes are S-mixing, a recently introduced and widely applicable notion of dependence. A remarkable property of S-mixing is the fact that it doesn't require any higher order moment assumptions to be verified. Since we are interested in quantiles and processes that are probably heavy-tailed, this is of particular interest.<p> / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished
17

Estimation-based metaheuristics for stochastic combinatorial optimization: case studies in sochastic routing problems

Balaprakash, Prasanna 26 January 2010 (has links)
Stochastic combinatorial optimization problems are combinatorial optimization problems where part of the problem data are probabilistic. The focus of this thesis is on stochastic routing problems, a class of stochastic combinatorial optimization problems that arise in distribution management. Stochastic routing problems involve finding the best solution to distribute goods across a logistic network. In the problems we tackle, we consider a setting in which the cost of a solution is described by a random variable; the goal is to find the solution that minimizes the expected cost. Solving such stochastic routing problems is a challenging task because of two main factors. First, the number of possible solutions grows exponentially with the instance size. Second, computing the expected cost of a solution is computationally very expensive. <p><br><p>To tackle stochastic routing problems, stochastic local search algorithms such as iterative improvement algorithms and metaheuristics are quite promising because they offer effective strategies to tackle the combinatorial nature of these problems. However, a crucial factor that determines the success of these algorithms in stochastic settings is the trade-off between the computation time needed to search for high quality solutions in a large search space and the computation time spent in computing the expected cost of solutions obtained during the search. <p><br><p>To compute the expected cost of solutions in stochastic routing problems, two classes of approaches have been proposed in the literature: analytical computation and empirical estimation. The former exactly computes the expected cost using closed-form expressions; the latter estimates the expected cost through Monte Carlo simulation.<p><br><p>Many previously proposed metaheuristics for stochastic routing problems use the analytical computation approach. However, in a large number of practical stochastic routing problems, due to the presence of complex constraints, the use of the analytical computation approach is difficult, time consuming or even impossible. Even for the prototypical stochastic routing problems that we consider in this thesis, the adoption of the analytical computation approach is computationally expensive. Notwithstanding the fact that the empirical estimation approach can address the issues posed by the analytical computation approach, its adoption in metaheuristics to tackle stochastic routing problems has never been thoroughly investigated. <p><br><p>In this thesis, we study two classical stochastic routing problems: the probabilistic traveling salesman problem (PTSP) and the vehicle routing problem with stochastic demands and customers (VRPSDC). The goal of the thesis is to design, implement, and analyze effective metaheuristics that use the empirical estimation approach to tackle these two problems. The main results of this thesis are: <p>1) The empirical estimation approach is a viable alternative to the widely-adopted analytical computation approach for the PTSP and the VRPSDC; <p>2) A principled adoption of the empirical estimation approach in metaheuristics results in high performing algorithms for tackling the PTSP and the VRPSDC. The estimation-based metaheuristics developed in this thesis for these two problems define the new state-of-the-art. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
18

Observation de procédés basée sur des sous-modèles : applications au traitement et au transport de la matière

Lachance, Luc. 12 April 2018 (has links)
Les applications de contrôle automatique et d'optimisation doivent utiliser des données de qualité afin de prendre des actions ciblées et efficaces. Les imperfections des systèmes de mesure font en sorte que les données mesurées brutes ne présentent pas un portrait complet et précis des procédés. Les observateurs, en combinant les mesures brutes avec des connaissances sur les procédés, permettent, sous certaines conditions dont l'observabilité et une modélisation adéquate, de fournir des estimés fiables pour les variables non mesurées tout en diminuant les effets du bruit aléatoire de mesure sur les variables mesurées. La présente thèse vise particulièrement à explorer et valider les possibilités d'observer de manière non biaisée des procédés à partir de sous-modèles basés sur des lois de conservation auxquelles des équations empiriques stochastiques peuvent être ajoutées. La représentation d'état régulière est d'abord considérée, mais elle devient limitée en présence d'équations algébriques ainsi que dans le contexte errors-in-variables. Après avoir fait la preuve que ce contexte errors-in-variables est parfaitement compatible avec une représentation d'état généralisée même dans un cas où certaines entrées ne seraient pas mesurées, la représentation d'état généralisée est largement utilisée pour la modélisation dans cette thèse. Des observateurs optimaux sont présentés pour cette représentation d'état ainsi que les représentations d'état particulières statique, stationnaire et dynamique régulière. La réconciliation dynamique non linéaire de données basée sur la programmation non linéaire est privilégiée dans les situations où les contraintes sont non linéaires ou lorsque des contraintes d'inégalité deviennent actives. Les limites des observateurs statiques pour les applications en ligne sont démontrées et les observateurs stationnaires basés sur des structures similaires, mais nécessitant le réglage d'une matrice de variance supplémentaire, sont proposés en remplacement. Des méthodes pratiques sont proposées et testées pour le réglage des paramètres stochastiques. L'observation est appliquée à des procédés de traitement de la matière considérés parfaitement mélangés ainsi qu'à un tuyau avec écoulement piston à débit volumique variable. Les notions et les outils développés dans cette thèse peuvent être utiles et utilisés dans de nombreux secteurs industriels dont le traitement du minerai, la pyrométallurgie, la pétrochimie, le ciment, les biotechnologies et la transformation alimentaire. / Automatic process control and optimization applications must use good quality data in order to take targeted and effective actions. Raw measurements do not provide a complete and precise vision of process operations because measurement systems arc not perfect. Observers, by combining raw measurements with knowledge about processes, allow, under certain conditions such as sufficient observability and adequate modeling, to provide reliable estimates for unmeasured variables while decreasing random measurement noise effects on measured variables. The present thesis aims at exploring and validating the possibilities for the unbiased observation of processes using sub-models based on conservation laws to which stochastic empirical equations can be added. The regular state space representation is first considered but it becomes limited in the presence of algebraic equations and in the errors-in-variables environment. After showing that this errors-in-variables environment fits perfectly in a generalized state space representation even in a case where some inputs would not be measured, the generalized state space representation is then largely used for modeling in this thesis. Optimal observers are presented for this state space representation as well as for the particular static, stationary and regular dynamic state space representation. The nonlinear dynamic data reconciliation algorithm based on nonlinear programming should be favored in case of nonlinear constraints or when the inequality constraints become active. The limitations of static observers for on line applications are shown and stationary observers using the saine modeling structure, but requiring the tuning of an additional variance matrix, are proposed as an easy improvement. Practical methods are proposed and tested for the tuning of the two variance matrices used in state space modeling. The different observers are applied to processing units considered perfectly mixed and transportation units like a plug-flow pipe with a variable flowrate. The concepts and the tools developed in this thesis can be useful and used in many industrial sectors such as mineral processing, pyrometallurgy, petrochemistry, cement, biotechnology and food processing.
19

Analyse de performances en traitement d'antenne. : bornes inférieures de l'erreur quadratique moyenne et seuil de résolution limite

El Korso, Mohammed Nabil, El Korso, Mohammed Nabil 07 July 2011 (has links) (PDF)
Ce manuscrit est dédié à l'analyse de performances en traitement d'antenne pour l'estimation des paramètres d'intérêt à l'aide d'un réseau de capteurs. Il est divisé en deux parties :- Tout d'abord, nous présentons l'étude de certaines bornes inférieures de l'erreur quadratique moyenne liées à la localisation de sources dans le contexte champ proche. Nous utilisons la borne de Cramér-Rao pour l'étude de la zone asymptotique (notamment en terme de rapport signal à bruit avec un nombre fini d'observations). Puis, nous étudions d'autres bornes inférieures de l'erreur quadratique moyenne qui permettent de prévoir le phénomène de décrochement de l'erreur quadratique moyenne des estimateurs (on cite, par exemple, la borne de McAulay-Seidman, la borne de Hammersley-Chapman-Robbins et la borne de Fourier Cramér-Rao).- Deuxièmement, nous nous concentrons sur le concept du seuil statistique de résolution limite, c'est-à-dire, la distance minimale entre deux signaux noyés dans un bruit additif qui permet une "correcte" estimation des paramètres. Nous présentons quelques applications bien connues en traitement d'antenne avant d'étendre les concepts existants au cas de signaux multidimensionnels. Par la suite, nous étudions la validité de notre extension en utilisant un test d'hypothèses binaire. Enfin, nous appliquons notre extension à certains modèles d'observation multidimensionnels
20

Propriétés asymptotiques de la distribution d'un échantillon dans le cas d'un plan de sondage informatif

Bonnéry, Daniel 24 November 2011 (has links) (PDF)
Étant donné un modèle de super-population (des variables aléatoires sont générées indépendamment et selon une même loi initiale sur une population) et un plan de sondage informatif, une loi de probabilité limite et une densité de probabilité limite des observations sur l'échantillon sont définies correspondant à des tailles de population et d'échantillon tendant vers l'infini. Le processus aléatoire de sélection peut induire une dépendance entre les observations sélectionnés. Un cadre asymptotique et des conditions faibles sur le processus de sélection sont donnés, sous lesquels les propriétés asymptotiques classiques sont conservées malgré la dépendance des données : la convergence uniforme de la fonction de répartition empirique. Par ailleurs, nous donnons la vitesse de convergence de l'estimateur à noyau de la densité vers la densité limite de l'échantillon. Ces résultats constituent des indications selon lesquelles il est parfois possible de considérer que les réalisations sur l'échantillon sont id et suivent approximativement la densité limite définie, notamment dans une perspective d'inférence sur le modèle de super-population. Par exemple, étant donné un modèle paramétrique on peut définir la vraisemblance approchée de l'échantillon comme produit de densités limites et un estimateur de maximum de vraisemblance approchée, dont on établit la normalité asymptotique . La dernière partie traite de tirage équilibré : des algorithmes de calcul de probabilités d'inclusion minimisant une approximation de la variance de l'estimateur de Horvitz-Thompson d'un total sont proposés.

Page generated in 0.0965 seconds