• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 11
  • Tagged with
  • 24
  • 24
  • 12
  • 10
  • 10
  • 8
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Détection et localisation d'objets enfouis dans le sédiment marin

Saidi, Zineb 06 September 2006 (has links) (PDF)
Cette étude propose une nouvelle méthode pour estimer l'angle et la distance afin de localiser des objets reposants sur le fond ou enfouis dans les sédiments marins. L'originalité de cette méthode réside en l'estimation simultanée de l'angle et la distance dans un environnement bruité et en présence de signaux corrélés. Les statistiques d'ordre supérieur ont été utilisées pour pallier au problème du bruit et ceci en formant la matrice des cumulants pour chaque fréquence. Ensuite, un lissage fréquentiel est appliqué pour former la matrice des cumulants focalisée afin d'estimer le sous-espace signal cohérent. C'est ce dernier traitement qui permet de décorréler les signaux. Ainsi, pour estimer les paramètres des objets, la matrice interspectrale est remplacée par la matrice des cumulants focalisée et le modèle du champ acoustique diffusé est utilisé au lieu du modèle d'onde plane dans la méthode MUSIC (MUltiple SIgnal Classification). D'autre part, les déphasages des signaux dus aux déformations de l'antenne ont été estimés en utilisant l'algorithme DIRECT (DIviding RECTangles). Les performances de cette méthode ont été évaluées sur des données réelles mesurées dans une cuve expérimentale où plusieurs objets ont été enfouis sous le sable. La méthode proposée est supérieure en terme de performances comparée aux méthodes classiques. Cette supériorité est vérifiée qu'elle que soit la position de l'objet, champ lointain ou de champ proche de l'antenne. Les bons résultats de la localisation des objets sont encourageants et très prometteurs.
12

Rational Lanczos-type methods for model order reduction / Méthodes de type Lanczos rationnel pour la réduction de modèles

Barkouki, Houda 22 December 2016 (has links)
La solution numérique des systèmes dynamiques est un moyen efficace pour étudier des phénomènes physiques complexes. Cependant, dans un cadre à grande échelle, la dimension du système rend les calculs infaisables en raison des limites de mémoire et de temps, ainsi que le mauvais conditionnement. La solution de ce problème est la réduction de modèles. Cette thèse porte sur les méthodes de projection pour construire efficacement des modèles d'ordre inférieur à partir des systèmes linéaires dynamiques de grande taille. En particulier, nous nous intéressons à la projection sur la réunion de plusieurs sous-espaces de Krylov standard qui conduit à une classe de modèles d'ordre réduit. Cette méthode est connue par l'interpolation rationnelle. En se basant sur ce cadre théorique qui relie la projection de Krylov à l'interpolation rationnelle, quatre algorithmes de type Lanczos rationnel pour la réduction de modèles sont proposés. Dans un premier temps, nous avons introduit une méthode adaptative de type Lanczos rationnel par block pour réduire l'ordre des systèmes linéaires dynamiques de grande taille, cette méthode est basée sur l'algorithme de Lanczos rationnel par block et une méthode adaptative pour choisir les points d'interpolation. Une généralisation de ce premier algorithme est également donnée, où différentes multiplicités sont considérées pour chaque point d'interpolation. Ensuite, nous avons proposé une autre extension de la méthode du sous-espace de Krylov standard pour les systèmes à plusieurs-entrées plusieurs-sorties, qui est le sous-espace de Krylov global. Nous avons obtenu des équations qui décrivent cette procédure. Finalement, nous avons proposé une méthode de Lanczos étendu par block et nous avons établi de nouvelles propriétés algébriques pour cet algorithme. L'efficacité et la précision de tous les algorithmes proposés, appliqués sur des problèmes de réduction de modèles, sont testées dans plusieurs exemples numériques. / Numerical solution of dynamical systems have been a successful means for studying complex physical phenomena. However, in large-scale setting, the system dimension makes the computations infeasible due to memory and time limitations, and ill-conditioning. The remedy of this problem is model reductions. This dissertations focuses on projection methods to efficiently construct reduced order models for large linear dynamical systems. Especially, we are interesting by projection onto unions of Krylov subspaces which lead to a class of reduced order models known as rational interpolation. Based on this theoretical framework that relate Krylov projection to rational interpolation, four rational Lanczos-type algorithms for model reduction are proposed. At first, an adaptative rational block Lanczos-type method for reducing the order of large scale dynamical systems is introduced, based on a rational block Lanczos algorithm and an adaptive approach for choosing the interpolation points. A generalization of the first algorithm is also given where different multiplicities are consider for each interpolation point. Next, we proposed another extension of the standard Krylov subspace method for Multiple-Input Multiple-Output (MIMO) systems, which is the global Krylov subspace, and we obtained also some equations that describe this process. Finally, an extended block Lanczos method is introduced and new algebraic properties for this algorithm are also given. The accuracy and the efficiency of all proposed algorithms when applied to model order reduction problem are tested by means of different numerical experiments that use a collection of well known benchmark examples.
13

Enlarged Krylov Subspace Methods and Preconditioners for Avoiding Communication / Méthodes de sous-espace de krylov élargis et préconditionneurs pour réduire les communications

Moufawad, Sophie 19 December 2014 (has links)
La performance d'un algorithme sur une architecture donnée dépend à la fois de la vitesse à laquelle le processeur effectue des opérations à virgule flottante (flops) et de la vitesse d'accès à la mémoire et au disque. Etant donné que le coût de la communication est beaucoup plus élevé que celui des opérations arithmétiques, celle-là forme un goulot d'étranglement dans les algorithmes numériques. Récemment, des méthodes de sous-espace de Krylov basées sur les méthodes 's-step' ont été développées pour réduire les communications. En effet, très peu de préconditionneurs existent pour ces méthodes, ce qui constitue une importante limitation. Dans cette thèse, nous présentons le préconditionneur nommé ''Communication-Avoiding ILU0'', pour la résolution des systèmes d’équations linéaires (Ax=b) de très grandes tailles. Nous proposons une nouvelle renumérotation de la matrice A ('alternating min-max layers'), avec laquelle nous montrons que le préconditionneur en question réduit la communication. Il est ainsi possible d’effectuer « s » itérations d’une méthode itérative préconditionnée sans communication. Nous présentons aussi deux nouvelles méthodes itératives, que nous nommons 'multiple search direction with orthogonalization CG' (MSDO-CG) et 'long recurrence enlarged CG' (LRE-CG). Ces dernières servent à la résolution des systèmes linéaires d’équations de très grandes tailles, et sont basées sur l’enrichissement de l’espace de Krylov par la décomposition du domaine de la matrice A. / The performance of an algorithm on any architecture is dependent on the processing unit’s speed for performing floating point operations (flops) and the speed of accessing memory and disk. As the cost of communication is much higher than arithmetic operations, and since this gap is expected to continue to increase exponentially, communication is often the bottleneck in numerical algorithms. In a quest to address the communication problem, recent research has focused on communication avoiding Krylov subspace methods based on the so called s-step methods. However there are very few communication avoiding preconditioners, and this represents a serious limitation of these methods. In this thesis, we present a communication avoiding ILU0 preconditioner for solving large systems of linear equations (Ax=b) by using iterative Krylov subspace methods. Our preconditioner allows to perform s iterations of the iterative method with no communication, by applying a heuristic alternating min-max layers reordering to the input matrix A, and through ghosting some of the input data and performing redundant computation. We also introduce a new approach for reducing communication in the Krylov subspace methods, that consists of enlarging the Krylov subspace by a maximum of t vectors per iteration, based on the domain decomposition of the graph of A. The enlarged Krylov projection subspace methods lead to faster convergence in terms of iterations and to parallelizable algorithms with less communication, with respect to Krylov methods. We discuss two new versions of Conjugate Gradient, multiple search direction with orthogonalization CG (MSDO-CG) and long recurrence enlarged CG (LRE-CG).
14

Recherche de pas par Majoration-Minoration. Application à la résolution de problèmes inverses.

Chouzenoux, Emilie 08 December 2010 (has links) (PDF)
La solution des problèmes inverses en traitement du signal et de l'image est souvent définie comme le minimiseur d'un critère pénalisé qui prend en compte conjointement les observations et les informations préalables. Ce travail de thèse s'intéresse à la minimisation des critères pénalisés différentiables. Nous discutons plus précisément de la mise en oeuvre algorithmique de l'étape de recherche de pas dans l'algorithme de descente itérative. Les travaux de thèse de Christian Labat [Labat06] ont mené à l'élaboration de la stratégie de pas par Majoration-Minoration quadratique (MMQ 1D). Cette stratégie se démarque des méthodes de pas standards par sa simplicité d'implémentation et ses propriétés de convergence lorsqu'elle est associée à l'algorithme du gradient conjugué non linéaire (GCNL). Nous étendons ces propriétés à la famille des algorithmes à gradient relié. Nous montrons de plus que l'approche MMQ 1D s'étend en une stratégie de pas multi-dimensionnelle MMQ rD assurant la convergence d'algorithmes de sous-espace. Nous illustrons expérimentalement en déconvolution d'image que l'algorithme de super mémoire de gradient SMG + MMQ 2D est préférable à l'algorithme de gradient conjugué non linéaire GCNL + MMQ 1D. Lorsque le critère pénalisé contient une barrière, c'est-à-dire une fonction dont le gradient est non borné, la procédure de pas MMQ est inapplicable. Nous développons une stratégie de pas tenant compte de la singularité de la barrière à travers des approximations majorantes quadratiques augmentées d'un terme logarithmique. La recherche de pas résultante, notée MMLQ 1D, est simple à mettre en \oe{}uvre et garantit la convergence des algorithmes standards de descente itérative. Nous montrons expérimentalement que la méthode MMLQ 1D accroît les performances de l'algorithme de point intérieur primal pour la programmation quadratique. Nous appliquons enfin cette approche à la reconstruction de spectres RMN bi-dimensionnels par maximum d'entropie.
15

Algorithmes bayésiens variationnels accélérés et applications aux problèmes inverses de grande taille / Fast variational Bayesian algorithms and their application to large dimensional inverse problems

Zheng, Yuling 04 December 2014 (has links)
Dans le cadre de cette thèse, notre préoccupation principale est de développer des approches non supervisées permettant de résoudre des problèmes de grande taille le plus efficacement possible. Pour ce faire, nous avons considéré des approches bayésiennes qui permettent d'estimer conjointement les paramètres de la méthode avec l'objet d'intérêt. Dans ce cadre, la difficulté principale est que la loi a posteriori est en général complexe. Pour résoudre ce problème, nous nous sommes intéressés à l'approximation bayésienne variationnelle (BV) qui offre une approximation séparable de la loi a posteriori. Néanmoins, les méthodes d’approximation BV classiques souffrent d’une vitesse de convergence faible. La première contribution de cette thèse consiste à transposer les méthodes d'optimisation par sous-espace dans l'espace fonctionnel impliqué dans le cadre BV, ce qui nous permet de proposer une nouvelle méthode d'approximation BV. Nous avons montré l’efficacité de notre nouvelle méthode par les comparaisons avec les approches de l’état de l’art.Nous avons voulu ensuite confronter notre nouvelle méthodologie à des problèmes de traitement d'images de grande taille. De plus nous avons voulu favoriser les images régulières par morceau. Nous avons donc considéré un a priori de Variation Total (TV) et un autre a priori à variables cachées ressemblant à un mélange scalaire de gaussiennes par changement de positions. Avec ces deux modèles a priori, en appliquant notre méthode d’approximation BV, nous avons développé deux approches non-supervisées rapides et bien adaptées aux images régulières par morceau.En effet, les deux lois a priori introduites précédemment sont corrélées ce qui rend l'estimation des paramètres de méthode très compliquée : nous sommes souvent confronté à une fonction de partition non explicite. Pour contourner ce problème, nous avons considéré ensuite de travailler dans le domaine des ondelettes. Comme les coefficients d'ondelettes des images naturelles sont généralement parcimonieux, nous avons considéré des lois de la famille de mélange scalaire de gaussiennes par changement d'échelle (GSM) pour décrire la parcimonie. Une autre contribution est donc de développer une approche non-supervisée pour les lois de la famille GSM dont la densité est explicitement connue, en utilisant la méthode d'approximation BV proposée. / In this thesis, our main objective is to develop efficient unsupervised approaches for large dimensional problems. To do this, we consider Bayesian approaches, which allow us to jointly estimate regularization parameters and the object of interest. In this context, the main difficulty is that the posterior distribution is generally complex. To tackle this problem, we consider variational Bayesian (VB) approximation, which provides a separable approximation of the posterior distribution. Nevertheless, classical VB methods suffer from slow convergence speed. The first contribution of this thesis is to transpose the subspace optimization methods to the functional space involved in VB framework, which allows us to propose a new VB approximation method. We have shown the efficiency of the proposed method by comparisons with the state of the art approaches. Then we consider the application of our new methodology to large dimensional problems in image processing. Moreover, we are interested in piecewise smooth images. As a result, we have considered a Total Variation (TV) prior and a Gaussian location mixture-like hidden variable model. With these two priors, using our VB approximation method, we have developed two fast unsupervised approaches well adapted to piecewise smooth images.In fact, the priors introduced above are correlated which makes the estimation of regularization parameters very complicated: we often have a non-explicit partition function. To sidestep this problem, we have considered working in the wavelet domain. As the wavelet coefficients of natural images are generally sparse, we considered prior distributions of the Gaussian scale mixture family to enforce sparsity. Another contribution is therefore the development of an unsupervised approach for a prior distribution of the GSM family whose density is explicitly known, using the proposed VB approximation method.
16

Optique pour la Microélectronique : du capteur au traitement de l'image

Fossati, Caroline 26 November 2008 (has links) (PDF)
Il s'agit ici du bilan de plus de 10 ans d'enseignement et de recherche dans le domaine de la micro et de l'opto électronique, et plus particulièrement des dernières années passées au sein de l'Ecole Centrale Marseille et de l'institut Fresnel. <br />Deux thématiques de recherche sont abordées : <br />- La caractérisation optique de défauts submicroniques dans les matériaux, qui a constitué, dans la continuité de ma thèse, la première partie de mes activités : caractérisation de précipités dans le Silicium par le développement d'un microscope infrarouge à balayage ; développement d'un microscope photo thermique pour la détection de nano défauts absorbants précurseurs d'endommagement dans les couches minces optique.<br />- L'optique pour la microélectronique, thématique initiée en 2000 au laboratoire, qui aborde la modélisation optique de capteurs d'images en technologie CMOS en vue d'adapter leur structure aux contraintes de réflexion et diffraction optique liées à la réduction de taille des pixels imposée par le marché.<br />Sont aussi concernés les masques avancés pour la photolithographie optique, et l'adaptation de techniques de traitement du signal et des images à la modélisation de corrections optiques de proximité (OPC) qu'il faut appliquer sur les masques pour corriger les effets de la diffraction dans le cadre de la diminution de taille des composants.<br />Des projets de recherche orientés sur l'application des capteurs et du traitement multidimensionnel du signal pour des applications médicales et de sécurité sont aussi présentés.
17

Contribution aux décompositions rapides des matrices et tenseurs / Contributions to fast matrix and tensor decompositions

Nguyen, Viet-Dung 16 November 2016 (has links)
De nos jours, les grandes masses de données se retrouvent dans de nombreux domaines relatifs aux applications multimédia, sociologiques, biomédicales, radio astronomiques, etc. On parle alors du phénomène ‘Big Data’ qui nécessite le développement d’outils appropriés pour la manipulation et l’analyse appropriée de telles masses de données. Ce travail de thèse est dédié au développement de méthodes efficaces pour la décomposition rapide et adaptative de tenseurs ou matrices de grandes tailles et ce pour l’analyse de données multidimensionnelles. Nous proposons en premier une méthode d’estimation de sous espaces qui s’appuie sur la technique dite ‘divide and conquer’ permettant une estimation distribuée ou parallèle des sous-espaces désirés. Après avoir démontré l’efficacité numérique de cette solution, nous introduisons différentes variantes de celle-ci pour la poursuite adaptative ou bloc des sous espaces principaux ou mineurs ainsi que des vecteurs propres de la matrice de covariance des données. Une application à la suppression d’interférences radiofréquences en radioastronomie a été traitée. La seconde partie du travail a été consacrée aux décompositions rapides de type PARAFAC ou Tucker de tenseurs multidimensionnels. Nous commençons par généraliser l’approche ‘divide and conquer’ précédente au contexte tensoriel et ce en vue de la décomposition PARAFAC parallélisable des tenseurs. Ensuite nous adaptons une technique d’optimisation de type ‘all-at-once’ pour la décomposition robuste (à la méconnaissance des ordres) de tenseurs parcimonieux et non négatifs. Finalement, nous considérons le cas de flux de données continu et proposons deux algorithmes adaptatifs pour la décomposition rapide (à complexité linéaire) de tenseurs en dimension 3. Malgré leurs faibles complexités, ces algorithmes ont des performances similaires (voire parfois supérieures) à celles des méthodes existantes de la littérature. Au final, ce travail aboutit à un ensemble d’outils algorithmiques et algébriques efficaces pour la manipulation et l’analyse de données multidimensionnelles de grandes tailles. / Large volumes of data are being generated at any given time, especially from transactional databases, multimedia content, social media, and applications of sensor networks. When the size of datasets is beyond the ability of typical database software tools to capture, store, manage, and analyze, we face the phenomenon of big data for which new and smarter data analytic tools are required. Big data provides opportunities for new form of data analytics, resulting in substantial productivity. In this thesis, we will explore fast matrix and tensor decompositions as computational tools to process and analyze multidimensional massive-data. We first aim to study fast subspace estimation, a specific technique used in matrix decomposition. Traditional subspace estimation yields high performance but suffers from processing large-scale data. We thus propose distributed/parallel subspace estimation following a divide-and-conquer approach in both batch and adaptive settings. Based on this technique, we further consider its important variants such as principal component analysis, minor and principal subspace tracking and principal eigenvector tracking. We demonstrate the potential of our proposed algorithms by solving the challenging radio frequency interference (RFI) mitigation problem in radio astronomy. In the second part, we concentrate on fast tensor decomposition, a natural extension of the matrix one. We generalize the results for the matrix case to make PARAFAC tensor decomposition parallelizable in batch setting. Then we adapt all-at-once optimization approach to consider sparse non-negative PARAFAC and Tucker decomposition with unknown tensor rank. Finally, we propose two PARAFAC decomposition algorithms for a classof third-order tensors that have one dimension growing linearly with time. The proposed algorithms have linear complexity, good convergence rate and good estimation accuracy. The results in a standard setting show that the performance of our proposed algorithms is comparable or even superior to the state-of-the-art algorithms. We also introduce an adaptive nonnegative PARAFAC problem and refine the solution of adaptive PARAFAC to tackle it. The main contributions of this thesis, as new tools to allow fast handling large-scale multidimensional data, thus bring a step forward real-time applications.
18

Diophantine equations and cyclotomic fields / Equations diophantiennes et corps cyclotomiques

Bartolomé, Boris 26 November 2015 (has links)
Cette thèse examine quelques approches aux équations diophantiennes, en particulier les connexions entre l’analyse diophantienne et la théorie des corps cyclotomiques.Tout d’abord, nous proposons une introduction très sommaire et rapide aux méthodes d’analyse diophantienne que nous avons utilisées dans notre travail de recherche. Nous rappelons la notion de hauteur et présentons le PGCD logarithmique.Ensuite, nous attaquons une conjecture, formulée par Skolem en 1937, sur une équation diophantienne exponentielle. Pour cette conjecture, soit K un corps de nombres, α1 ,…, αm , λ1 ,…, λm des éléments non-nuls de K, et S un ensemble fini de places de K (qui contient toutes les places infinies), de telle sorte que l’anneau de S-entiers OS = OK,S = {α ∈ K : |α|v ≤ 1 pour les places v ∈/ S}contienne α1 , . . . , αm , λ1 , . . . , λm α1-1 , . . . , αm-1. Pour chaque n ∈ Z, soit A(n)=λ_1 α_1^n+⋯+λ_m α_m^n∈O_S. Skolem a suggéré [SK1] :Conjecture (principe local-global exponentiel). Supposons que pour chaque idéal non-nul a de l’anneau O_S, il existe n ∈ Z tel que A(n) ≡0 mod a. Alors, il existe n ∈ Z tel que A(n)=0.Soit Γ le groupe multiplicatif engendré par α1 ,…, αm. Alors Γ est le produit d’un groupe abélien fini et d’un groupe libre de rang fini. Nous démontrons que cette conjecture est vraie lorsque le rang de Γ est un.Après cela, nous généralisons un résultat précédent de Mourad Abouzaid ([A]). Soit F (X,Y) ∈ Q[X,Y] un Q-polynôme irréductible. En 2008, Mourad Abouzaid [A] a démontré le théorème suivant:Théorème (Abouzaid). Supposons que (0,0) soit un point non-singulier de la courbe plane F(X,Y) = 0. Soit m = degX F, n = degY F, M = max{m, n}. Soit ε tel que 0 < ε < 1. Alors, pour toute solution (α, β) ∈ Q ̅2 de F(X,Y) = 0, nous avons soit max{h(α), h(β)} ≤ 56M8ε−2hp(F) + 420M10ε−2 log(4M),soitmax{|h(α) − nlgcd(α, β)|,|h(β) − mlgcd(α, β)|} ≤ εmax{h(α), h(β)}++ 742M7ε−1hp(F) + 5762M9ε−1log(2m + 2n)Cependant, il a imposé la condition que (0,0) soit un point non-singulier de la courbe plane F(X,Y) = 0. En utilisant des versions quelque peu différentes du lemme “absolu” de Siegel et du lemme d’Eisenstein, nous avons pu lever la condition et démontrer le théorème de façon générale. Nous démontrons le théorème suivant:Théorème. Soit F(X,Y) ∈ Q ̅[X,Y] un polynôme absolument irréductible qui satisfasse F(0,0)=0. Soit m=degX F, n=degY F et r = min{i+j:(∂^(i+j) F)/(∂^i X∂^j Y)(0,0)≠0}. Soit ε tel que 0 < ε < 1. Alors, pour tout (α, β) ∈ Q ̅2 tel que F(α,β) = 0, nous avons soith(α) ≤ 200ε−2mn6(hp(F) + 5)soit|(lgcd(α,β))/r-h(α)/n|≤1/r (εh(α)+4000ε^(-1) n^4 (h_p (F)+log⁡(mn)+1)+30n^2 m(h_p (F)+log⁡(mn) ))Ensuite, nous donnons un aperçu des outils que nous avons utilisés dans les corps cyclotomiques. Nous tentons de développer une approche systématique pour un certain genre d’équations diophantiennes. Nous proposons quelques résultats sur les corps cyclotomiques, les anneaux de groupe et les sommes de Jacobi, qui nous seront utiles pour ensuite décrire l’approche.Finalement, nous développons une application de l’approche précédemment expliquée. Nous considèrerons l’équation diophantienne(1) Xn − 1 = BZn,où B ∈ Z est un paramètre. Définissons ϕ∗(B) := ϕ(rad (B)), où rad (B) est le radical de B, et supposons que(2) (n, ϕ∗(B)) = 1.Pour B ∈ N_(>1) fixé, soit N(B) = {n ∈ N_(>1) | ∃ k > 0 tel que n|ϕ∗(B)}. Si p est un premier impair, nous appellerons CF les conditions combinéesI La conjecture de Vandiver est vraie pour p, c’est-à-dire que le nombre de classe h+ du sous-corps réel maximal du corps cyclotomique Q[ζp ], n’est pas divisible par p.II Nous avons ir(p) < √p − 1, en d’autre mots, il y a au plus √p − 1 entiers impairs k < p tels que le nombre de Bernouilli Bk ≡ 0 mod p. [...] / This thesis examines some approaches to address Diophantine equations, specifically we focus on the connection between the Diophantine analysis and the theory of cyclotomic fields.First, we propose a quick introduction to the methods of Diophantine approximation we have used in this research work. We remind the notion of height and introduce the logarithmic gcd.Then, we address a conjecture, made by Thoralf Skolem in 1937, on an exponential Diophantine equation. For this conjecture, let K be a number field, α1 ,…, αm , λ1 ,…, λm non-zero elements in K, and S a finite set of places of K (containing all the infinite places) such that the ring of S-integersOS = OK,S = {α ∈ K : |α|v ≤ 1 pour les places v ∈/ S}contains α1 , . . . , αm , λ1 , . . . , λm α1-1 , . . . , αm-1. For each n ∈ Z, let A(n)=λ_1 α_1^n+⋯+λ_m α_m^n∈O_S. Skolem suggested [SK1] :Conjecture (exponential local-global principle). Assume that for every non zero ideal a of the ring O_S, there exists n ∈ Z such that A(n) ≡0 mod a. Then, there exists n ∈ Z such that A(n)=0.Let Γ be the multiplicative group generated by α1 ,…, αm. Then Γ is the product of a finite abelian group and a free abelian group of finite rank. We prove that the conjecture is true when the rank of Γ is one.After that, we generalize a result previously published by Abouzaid ([A]). Let F(X,Y) ∈ Q[X,Y] be an irreducible Q-polynomial. In 2008, Abouzaid [A] proved the following theorem:Theorem (Abouzaid). Assume that (0,0) is a non-singular point of the plane curve F(X,Y) = 0. Let m = degX F, n = degY F, M = max{m, n}. Let ε satisfy 0 < ε < 1. Then for any solution (α,β) ∈ Q ̅2 of F(X,Y) = 0, we have eithermax{h(α), h(β)} ≤ 56M8ε−2hp(F) + 420M10ε−2 log(4M),ormax{|h(α) − nlgcd(α, β)|,|h(β) − mlgcd(α, β)|} ≤ εmax{h(α), h(β)}++ 742M7ε−1hp(F) + 5762M9ε−1log(2m + 2n)However, he imposed the condition that (0, 0) be a non-singular point of the plane curve F(X,Y) = 0. Using a somewhat different version of Siegel’s “absolute” lemma and of Eisenstein’s lemma, we could remove the condition and prove it in full generality. We prove the following theorem:Theorem. Let F(X,Y) ∈ Q ̅[X,Y] be an absolutely irreducible polynomial satisfying F(0,0)=0. Let m=degX F, n=degY F and r = min{i+j:(∂^(i+j) F)/(∂^i X∂^j Y)(0,0)≠0}. Let ε be such that 0 < ε < 1. Then, for all (α, β) ∈ Q ̅2 such that F(α,β) = 0, we have eitherh(α) ≤ 200ε−2mn6(hp(F) + 5)or|(lgcd(α,β))/r-h(α)/n|≤1/r (εh(α)+4000ε^(-1) n^4 (h_p (F)+log⁡(mn)+1)+30n^2 m(h_p (F)+log⁡(mn) ))Then, we give an overview of the tools we have used in cyclotomic fields. We try there to develop a systematic approach to address a certain type of Diophantine equations. We discuss on cyclotomic extensions and give some basic but useful properties, on group-ring properties and on Jacobi sums.Finally, we show a very interesting application of the approach developed in the previous chapter. There, we consider the Diophantine equation(1) Xn − 1 = BZn,where B ∈ Z is understood as a parameter. Define ϕ∗(B) := ϕ(rad (B)), where rad (B) is the radical of B, and assume that (2) (n, ϕ∗(B)) = 1.For a fixed B ∈ N_(>1)we let N(B) = {n ∈ N_(>1) | ∃ k > 0 such that n|ϕ∗(B)}. If p is an odd prime, we shall denote by CF the combined condition requiring thatI The Vandiver Conjecture holds for p, so the class number h+ of the maximal real subfield of the cyclotomic field Q[ζp ] is not divisible by p.II We have ir>(p) < √p − 1, in other words, there is at most √p − 1 odd integers k < p such that the Bernoulli number Bk ≡ 0 mod p. [...]
19

Représentations parcimonieuses et analyse multidimensionnelle : méthodes aveugles et adaptatives / Sparse multidimensional analysis using blind and adaptive processing

Lassami, Nacerredine 11 July 2019 (has links)
Au cours de la dernière décennie, l’étude mathématique et statistique des représentations parcimonieuses de signaux et de leurs applications en traitement du signal audio, en traitement d’image, en vidéo et en séparation de sources a connu une activité intensive. Cependant, l'exploitation de la parcimonie dans des contextes de traitement multidimensionnel comme les communications numériques reste largement ouverte. Au même temps, les méthodes aveugles semblent être la réponse à énormément de problèmes rencontrés récemment par la communauté du traitement du signal et des communications numériques tels que l'efficacité spectrale. Aussi, dans un contexte de mobilité et de non-stationnarité, il est important de pouvoir mettre en oeuvre des solutions de traitement adaptatives de faible complexité algorithmique en vue d'assurer une consommation réduite des appareils. L'objectif de cette thèse est d'aborder ces challenges de traitement multidimensionnel en proposant des solutions aveugles de faible coût de calcul en utilisant l'à priori de parcimonie. Notre travail s'articule autour de trois axes principaux : la poursuite de sous-espace principal parcimonieux, la séparation adaptative aveugle de sources parcimonieuses et l'identification aveugle des systèmes parcimonieux. Dans chaque problème, nous avons proposé de nouvelles solutions adaptatives en intégrant l'information de parcimonie aux méthodes classiques de manière à améliorer leurs performances. Des simulations numériques ont été effectuées pour confirmer l’intérêt des méthodes proposées par rapport à l'état de l'art en termes de qualité d’estimation et de complexité calculatoire. / During the last decade, the mathematical and statistical study of sparse signal representations and their applications in audio, image, video processing and source separation has been intensively active. However, exploiting sparsity in multidimensional processing contexts such as digital communications remains a largely open problem. At the same time, the blind methods seem to be the answer to a lot of problems recently encountered by the signal processing and the communications communities such as the spectral efficiency. Furthermore, in a context of mobility and non-stationarity, it is important to be able to implement adaptive processing solutions of low algorithmic complexity to ensure reduced consumption of devices. The objective of this thesis is to address these challenges of multidimensional processing by proposing blind solutions of low computational cost by using the sparsity a priori. Our work revolves around three main axes: sparse principal subspace tracking, adaptive sparse source separation and identification of sparse systems. For each problem, we propose new adaptive solutions by integrating the sparsity information to the classical methods in order to improve their performance. Numerical simulations have been conducted to confirm the superiority of the proposed methods compared to the state of the art.
20

Algorithmes d’estimation et de détection en contexte hétérogène rang faible / Estimation and Detection Algorithms for Low Rank Heterogeneous Context

Breloy, Arnaud 23 November 2015 (has links)
Une des finalités du traitement d’antenne est la détection et la localisation de cibles en milieu bruité. Dans la plupart des cas pratiques, comme par exemple le RADAR ou le SONAR actif, il faut estimer dans un premier temps les propriétés statistiques du bruit, et plus précisément sa matrice de covariance ; on dispose à cette fin de données secondaires supposées identiquement distribuées. Dans ce contexte, les hypothèses suivantes sont généralement formulées : bruit gaussien, données secondaires ne contenant que du bruit, et bien sûr matériels fonctionnant parfaitement. Il est toutefois connu aujourd’hui que le bruit en RADAR est de nature impulsive et que l’hypothèse Gaussienne est parfois mal adaptée. C’est pourquoi, depuis quelques années, le bruit et en particulier le fouillis de sol est modélisé par des processus elliptiques, et principalement des Spherically Invariant Random Vectors (SIRV). Dans ce nouveau cadre, la Sample Covariance Matrix (SCM) estimant classiquement la matrice de covariance du bruit entraîne des pertes de performances très importantes des détecteurs / estimateurs. Dans ce contexte non-gaussien, d’autres estimateurs de la matrice de covariance mieux adaptés à cette statistique du bruit ont été développés : la Matrice du Point Fixe (MPF) et les M-estimateurs.Parallèlement, dans un cadre où le bruit se décompose sous la forme d’une somme d’un fouillis rang faible et d’un bruit blanc, la matrice de covariance totale est structurée sous la forme rang faible plus identité. Cette information peut être utilisée dans le processus d'estimation afin de réduire le nombre de données nécessaires. De plus, il aussi est possible d'utiliser le projecteur orthogonal au sous espace fouillis à la place de la matrice de covariance ce qui nécessite moins de données secondaires et d’être aussi plus robuste aux données aberrantes. On calcule classiquement ce projecteur à partir d'un estimateur de la matrice de covariance. Néanmoins l'état de l'art ne présente pas d'estimateurs à la fois être robustes aux distributions hétérogènes, et rendant compte de la structure rang faible des données. C'est pourquoi ces travaux se focalisent sur le développement de nouveaux estimateurs (de covariance et de sous espace), directement adaptés au contexte considéré. Les contributions de cette thèse s'orientent donc autour de trois axes :- Nous présenterons tout d'abord un modèle statistique précis : celui de sources hétérogènes ayant une covariance rang faible noyées dans un bruit blanc gaussien. Ce modèle et est, par exemple, fortement justifié pour des applications de type radar. Il à cependant peu été étudié pour la problématique d'estimation de matrice de covariance. Nous dériverons donc l'expression du maximum de vraisemblance de la matrice de covariance pour ce contexte. Cette expression n'étant pas une forme close, nous développerons différents algorithmes pour tenter de l'atteindre efficacement.- Nous développons de nouveaux estimateurs directs de projecteur sur le sous espace fouillis, ne nécessitant pas un estimé de la matrice de covariance intermédiaire, adaptés au contexte considéré.- Nous étudierons les performances des estimateurs proposés et de l'état de l'art sur une application de Space Time Adaptative Processing (STAP) pour radar aéroporté, au travers de simulations et de données réelles. / One purpose of array processing is the detection and location of a target in a noisy environment. In most cases (as RADAR or active SONAR), statistical properties of the noise, especially its covariance matrix, have to be estimated using i.i.d. samples. Within this context, several hypotheses are usually made: Gaussian distribution, training data containing only noise, perfect hardware. Nevertheless, it is well known that a Gaussian distribution doesn’t provide a good empirical fit to RADAR clutter data. That’s why noise is now modeled by elliptical process, mainly Spherically Invariant Random Vectors (SIRV). In this new context, the use of the SCM (Sample Covariance Matrix), a classical estimate of the covariance matrix, leads to a loss of performances of detectors/estimators. More efficient estimators have been developed, such as the Fixed Point Estimator and M-estimators.If the noise is modeled as a low-rank clutter plus white Gaussian noise, the total covariance matrix is structured as low rank plus identity. This information can be used in the estimation process to reduce the number of samples required to reach acceptable performance. Moreover, it is possible to estimate the basis vectors of the clutter-plus-noise orthogonal subspace rather than the total covariance matrix of the clutter, which requires less data and is more robust to outliers. The orthogonal projection to the clutter plus noise subspace is usually calculated from an estimatd of the covariance matrix. Nevertheless, the state of art does not provide estimators that are both robust to various distributions and low rank structured.In this Thesis, we therefore develop new estimators that are fitting the considered context, to fill this gap. The contributions are following three axes :- We present a precise statistical model : low rank heterogeneous sources embedded in a white Gaussian noise.We express the maximum likelihood estimator for this context.Since this estimator has no closed form, we develop several algorithms to reach it effitiently.- For the considered context, we develop direct clutter subspace estimators that are not requiring an intermediate Covariance Matrix estimate.- We study the performances of the proposed methods on a Space Time Adaptive Processing for airborne radar application. Tests are performed on both synthetic and real data.

Page generated in 0.0576 seconds