Spelling suggestions: "subject:"moindres carrés."" "subject:"londres carrés.""
51 |
Estimation de paramètres pour des processus autorégressifs à bifurcationBlandin, Vassili 26 June 2013 (has links)
Les processus autorégressifs à bifurcation (BAR) ont été au centre de nombreux travaux de recherche ces dernières années. Ces processus, qui sont l'adaptation à un arbre binaire des processus autorégressifs, sont en effet d'intérêt en biologie puisque la structure de l'arbre binaire permet une analogie aisée avec la division cellulaire. L'objectif de cette thèse est l'estimation les paramètres de variantes de ces processus autorégressifs à bifurcation, à savoir les processus BAR à valeurs entières et les processus BAR à coefficients aléatoires. Dans un premier temps, nous nous intéressons aux processus BAR à valeurs entières. Nous établissons, via une approche martingale, la convergence presque sûre des estimateurs des moindres carrés pondérés considérés, ainsi qu'une vitesse de convergence de ces estimateurs, une loi forte quadratique et leur comportement asymptotiquement normal. Dans un second temps, on étudie les processus BAR à coefficients aléatoires. Cette étude permet d'étendre le concept de processus autorégressifs à bifurcation en généralisant le côté aléatoire de l'évolution. Nous établissons les mêmes résultats asymptotiques que pour la première étude. Enfin, nous concluons cette thèse par une autre approche des processus BAR à coefficients aléatoires où l'on ne pondère plus nos estimateurs des moindres carrés en tirant parti du théorème de Rademacher-Menchov. / Bifurcating autoregressive (BAR) processes have been widely investigated this past few years. Those processes, which are an adjustment of autoregressive processes to a binary tree structure, are indeed of interest concerning biology since the binary tree structure allows an easy analogy with cell division. The aim of this thesis is to estimate the parameters of some variations of those BAR processes, namely the integer-valued BAR processes and the random coefficients BAR processes. First, we will have a look to integer-valued BAR processes. We establish, via a martingale approach, the almost sure convergence of the weighted least squares estimators of interest, together with a rate of convergence, a quadratic strong law and their asymptotic normality. Secondly, we study the random coefficients BAR processes. The study allows to extend the principle of bifurcating autoregressive processes by enlarging the randomness of the evolution. We establish the same asymptotic results as for the first study. Finally, we conclude this thesis with an other approach of random coefficient BAR processes where we do not weight our least squares estimators any more by making good use of the Rademacher-Menchov theorem.
|
52 |
Méthodes isogéométriques pour les équations aux dérivées partielles hyperboliques / Isogeometric methods for hyperbolic partial differential equationsGdhami, Asma 17 December 2018 (has links)
L’Analyse isogéométrique (AIG) est une méthode innovante de résolution numérique des équations différentielles, proposée à l’origine par Thomas Hughes, Austin Cottrell et Yuri Bazilevs en 2005. Cette technique de discrétisation est une généralisation de l’analyse par éléments finis classiques (AEF), conçue pour intégrer la conception assistée par ordinateur (CAO), afin de combler l’écart entre la description géométrique et l’analyse des problèmes d’ingénierie. Ceci est réalisé en utilisant des B-splines ou des B-splines rationnelles non uniformes (NURBS), pour la description des géométries ainsi que pour la représentation de champs de solutions inconnus.L’objet de cette thèse est d’étudier la méthode isogéométrique dans le contexte des problèmes hyperboliques en utilisant les fonctions B-splines comme fonctions de base. Nous proposons également une méthode combinant l’AIG avec la méthode de Galerkin discontinue (GD) pour résoudre les problèmes hyperboliques. Plus précisément, la méthodologie de GD est adoptée à travers les interfaces de patches, tandis que l’AIG traditionnelle est utilisée dans chaque patch. Notre méthode tire parti de la méthode de l’AIG et la méthode de GD.Les résultats numériques sont présentés jusqu’à l’ordre polynomial p= 4 à la fois pour une méthode deGalerkin continue et discontinue. Ces résultats numériques sont comparés pour un ensemble de problèmes de complexité croissante en 1D et 2D. / Isogeometric Analysis (IGA) is a modern strategy for numerical solution of partial differential equations, originally proposed by Thomas Hughes, Austin Cottrell and Yuri Bazilevs in 2005. This discretization technique is a generalization of classical finite element analysis (FEA), designed to integrate Computer Aided Design (CAD) and FEA, to close the gap between the geometrical description and the analysis of engineering problems. This is achieved by using B-splines or non-uniform rational B-splines (NURBS), for the description of geometries as well as for the representation of unknown solution fields.The purpose of this thesis is to study isogeometric methods in the context of hyperbolic problems usingB-splines as basis functions. We also propose a method that combines IGA with the discontinuous Galerkin(DG)method for solving hyperbolic problems. More precisely, DG methodology is adopted across the patchinterfaces, while the traditional IGA is employed within each patch. The proposed method takes advantageof both IGA and the DG method.Numerical results are presented up to polynomial order p= 4 both for a continuous and discontinuousGalerkin method. These numerical results are compared for a range of problems of increasing complexity,in 1D and 2D.
|
53 |
Résolution numérique des équations de Saint-Venant par la technique de projection en utilisant une méthode des volumes finis dans un maillage non structuréShi, Yu-E 22 November 2006 (has links) (PDF)
Il n'existe à présent que peu de modèles aux volumes finis non structurés (UFVM: Unstructured Finite-Volumes Methods) développés pour simuler les écoulements à surface libre. La difficulté principale rencontrée durant ce développement est liée à la géométrie complexe du domaine de calcul et aux variations de fonds très irréguliers avec la présence des zones sèches ou/et mouillées. Ce mémoire de thèse présente le développement d'un modèle numérique 2D, baptisé ECOMOD-UFVM, qui est basé sur la résolution des équations de Saint-Venant par une technique de projection couplée à une UFVM. La UFVM permettra une modélisation plus proche de la géométrie souvent complexe des zones côtières et estuariennes. Dans un premier temps, un seul schéma ULSS (Upwind Least Squares Scheme) du 2ème ordre a été introduit dans le code pour traiter les termes de convection, responsables des oscillations et diffusions numériques indésirables. Une dizaine de cas-tests proposés dans les études d'écoulements à surface libre existantes ont été réalisés : écoulements à surface libre; problèmes de rupture de barrages. Les résultats des cas-tests sont satisfaisants et nous permettent d'envisager avec confiance le passage à deux applications grandeur nature: la rupture du barrage de Malpasset (France) et l'inondation par les crues éclairs dans la ville de Dongchuan (Chine). Les résultats du présent travail confirment la fiabilité, la précision, la stabilité, et la robustesse du code développé dans la résolution des équations de Saint-Venant décrivant les écoulements de tout genre : lent, rapide et torrentiel sur tout type du fond : sec/mouillé, plat ou en grande pente, régulier ou très irrégulier.
|
54 |
Estimation locale des paramètres d'anisotropie en milieux transversalement isotropes (TI)Parscau Du Plessix, Jerome 15 October 1991 (has links) (PDF)
Cette étude est motivée par le manque de mesures de paramètres d'anisotropie à l'échelle de la sismique de puits. Le but est de déterminer localement ces paramètres à partir de données de puits en trois composantes du type walkaway. On s'est intéressé pour cela à des milieux TI d'axe de symétrie contenu dans un plan vertical. Les données sont constituées par les lenteurs apparentes verticales et les directions de polarisation mesurées pour différents déports de la source. Les lenteurs apparentes verticales sont définies à partir des temps de trajets verticaux entre au moins deux récepteurs ancrés dans le puits. Les directions de polarisation sont repérées par l'angle Y fait avec la direction verticale. Nous nous sommes intéressé à la propagation des ondes P et SV dans les milieux TI. Quatre constantes élastiques sont nécessaires pour décrire la propagation des ces ondes. Les expressions de la lenteur et de l'angle de polarisation sont donc fonction de quatre constantes élastiques et de l'angle d'incidence O. Pour des milieux anisotropes, cet angle n'est pas directement mesurable à partir de données de puits. On définit alors deux paramètres qui simplifient les expressions de la vitesse de phase et qui permettent d'écrire une relation du type (O = f(Y). À partir de cette relation, on obtient une expression exacte de la lenteur apparente verticale en fonction de l'angle de polarisation. Cette expression est utilisée pour inverser, par une méthode d'optimisation, les paramètres d'anisotropie à partir des données de puits. On détermine, par une étude de sensibilité, dans quelle gamme d'incidence les paramètres seront le plus précisément estimés par cette méthode. On montre de plus comment une erreur sur les données (due aux incertitudes de mesure) se répercute sur les valeurs estimées des paramètres. La méthode d'inversion est testée sur des données synthétiques et sur deux jeux de données réelles. Le premier est un jeu de données enregistré sur le site expérimental de la Colorado School of Mines (White et al., 1983). Le second est un Walkaway enregistré dans le bassin de Paris. Enfin, on définit un modèle permettant de prendre en compte dans le problème inverse, en plus de la lenteur et de la polarisation, la pression mesurée dans le puits. Ce modèle est testé sur des données synthétiques. On montre que la précision sur l'estimation des paramètres est améliorée d'un facteur 5 à 10.
|
55 |
Méthodes de séparation aveugle de sources et application à la télédétection spatialeKaroui, Moussa Sofiane 17 December 2012 (has links) (PDF)
Cette thèse concerne la séparation aveugle de sources, qui consiste à estimer un ensemble de signaux sources inconnus à partir d'un ensemble de signaux observés qui sont des mélanges à paramètres inconnus de ces signaux sources. C'est dans ce cadre que le travail de recherche de cette thèse concerne le développement et l'utilisation de méthodes linéaires innovantes de séparation de sources pour des applications en imagerie de télédétection spatiale. Des méthodes de séparation de sources sont utilisées pour prétraiter une image multispectrale en vue d'une classification supervisée de ses pixels. Deux nouvelles méthodes hybrides non-supervisées, baptisées 2D-Corr-NLS et 2D-Corr-NMF, sont proposées pour l'extraction de cartes d'abondances à partir d'une image multispectrale contenant des pixels purs. Ces deux méthodes combinent l'analyse en composantes parcimonieuses, le clustering et les méthodes basées sur les contraintes de non-négativité. Une nouvelle méthode non-supervisée, baptisée 2D-VM, est proposée pour l'extraction de spectres à partir d'une image hyperspectrale contenant des pixels purs. Cette méthode est basée sur l'analyse en composantes parcimonieuses. Enfin, une nouvelle méthode est proposée pour l'extraction de spectres à partir d'une image hyperspectrale ne contenant pas de pixels purs, combinée avec une image multispectrale, de très haute résolution spatiale, contenant des pixels purs. Cette méthode est fondée sur la factorisation en matrices non-négatives couplée avec les moindres carrés non-négatifs. Comparées à des méthodes de la littérature, d'excellents résultats sont obtenus par les approches méthodologiques proposées.
|
56 |
Contribution à la modélisation, l'identification et à la commande d'une interface haptique à un degré de liberté entrainée par une machine synchrone à aimants permanentsKhatounian, Flavia 04 December 2006 (has links) (PDF)
Ce travail s'est intéressé à l'étude des machines synchrones à aimants permanents pour l'entramement d'une interface haptique. Le système entier est d'abord modélisé et le cahier des charges défini. L'identification des paramètres électriques et mécaniques du système est ensuite réalisée à partir de deux méthodes : moindres carrés et modèle inverse, méthode du modèle et algorithme de Marquardt. La commande de l'interface est basée sur deux boucles imbriquées de courant et de vitesse, auxquelles s'ajoute une boucle `haptique' de type ressort rigide virtuel. Une simulation fine du système se basant sur un modèle dynamique hybride valide la commande proposée. Une commande passive basée sur les variables d'ondes est ensuite développée. Finalement, une méthode de calcul de vitesse discrète est proposée permettant d'améliorer les performances des lois de commande dans le cas de codeurs à faible résolution. Des résultats expérimentaux sont présentés et valident les méthodes proposées.
|
57 |
Estimation de la diffusion thermique et du terme source du modèle de transport de la chaleur dans les plasmas de tokamaks.Mechhoud, Sarah 17 December 2013 (has links) (PDF)
Cette thèse porte sur l'estimation simultanée du coefficient de diffusion et du terme source régissant le modèle de transport de la température dans les plasmas chauds. Ce phénomène physique est décrit par une équation différentielle partielle (EDP) linéaire, parabolique du second-ordre et non-homogène, où le coefficient de diffusion est distribué et le coefficient de réaction est constant. Ce travail peut se présenter en deux parties. Dans la première, le problème d'estimation est traité en dimension finie ("Early lumping approach"). Dans la deuxième partie, le problème d'estimation est traité dans le cadre initial de la dimension infinie ("Late lumping approach"). Pour l'estimation en dimension finie, une fois le modèle établi, la formulation de Galerkin et la méthode d'approximation par projection sont choisies pour convertir l'EDP de transport en un système d'état linéaire, temps-variant et à entrées inconnues. Sur le modèle réduit, deux techniques dédiées à l'estimation des entrées inconnues sont choisies pour résoudre le problème. En dimension infinie, l'estimation en-ligne adaptative est adoptée pour apporter des éléments de réponse aux contraintes et limitations dues à la réduction du modèle. Des résultats de simulations sur des données réelles et simulées sont présentées dans ce mémoire.
|
58 |
Évolution du VIH : méthodes, modèles et algorithmesJung, Matthieu 21 May 2012 (has links) (PDF)
La donnée de séquences nucléotidiques permet d'inférer des arbres phylogénétiques, ou phylogénies, qui décrivent leurs liens de parenté au cours de l'évolution. Associer à ces séquences leur date de prélèvement ou leur pays de collecte, permet d'inférer la localisation temporelle ou spatiale de leurs ancêtres communs. Ces données et procédures sont très utilisées pour les séquences de virus et, notamment, celles du virus de l'immunodéficience humaine (VIH), afin d'en retracer l'histoire épidémique à la surface du globe et au cours du temps. L'utilisation de séquences échantillonnées à des moments différents (ou hétérochrones) sert aussi à estimer leur taux de substitution, qui caractérise la vitesse à laquelle elles évoluent. Les méthodes les plus couramment utilisées pour ces différentes tâches sont précises, mais lourdes en temps de calcul car basées sur des modèles complexes, et ne peuvent traiter que quelques centaines de séquences. Devant le nombre croissant de séquences disponibles dans les bases de données, souvent plusieurs milliers pour une étude donnée, le développement de méthodes rapides et efficaces devient indispensable. Nous présentons une méthode de distances, Ultrametric Least Squares , basée sur le principe des moindres carrés, souvent utilisé en phylogénie, qui permet d'estimer le taux de substitution d'un ensemble de séquences hétérochrones, dont on déduit ensuite facilement les dates des spéciations ancestrales. Nous montrons que le critère à optimiser est parabolique par morceaux et proposons un algorithme efficace pour trouver l'optimum global. L'utilisation de séquences échantillonnées en des lieux différents permet aussi de retracer les chaînes de transmission d'une épidémie. Dans ce cadre, nous utilisons la totalité des séquences disponibles (~3500) du sous-type C du VIH-1, responsable de près de 50% des infections mondiales au VIH-1, pour estimer ses principaux flux migratoires à l'échelle mondiale, ainsi que son origine géographique. Des outils novateurs, basés sur le principe de parcimonie combiné avec différents critères statistiques, sont utilisés afin de synthétiser et interpréter l'information contenue dans une grande phylogénie représentant l'ensemble des séquences étudiées. Enfin, l'origine géographique et temporelle de ce variant (VIH-1 C) au Sénégal est précisément explorée lors d'une seconde étude, portant notamment sur les hommes ayant des rapports sexuels avec des hommes.
|
59 |
Programmation DC et DCA pour l'optimisation non convexe/optimisation globale en variables mixtes entières : Codes et ApplicationsPham, Viet Nga 18 April 2013 (has links) (PDF)
Basés sur les outils théoriques et algorithmiques de la programmation DC et DCA, les travaux de recherche dans cette thèse portent sur les approches locales et globales pour l'optimisation non convexe et l'optimisation globale en variables mixtes entières. La thèse comporte 5 chapitres. Le premier chapitre présente les fondements de la programmation DC et DCA, et techniques de Séparation et Evaluation (B&B) (utilisant la technique de relaxation DC pour le calcul des bornes inférieures de la valeur optimale) pour l'optimisation globale. Y figure aussi des résultats concernant la pénalisation exacte pour la programmation en variables mixtes entières. Le deuxième chapitre est consacré au développement d'une méthode DCA pour la résolution d'une classe NP-difficile des programmes non convexes non linéaires en variables mixtes entières. Ces problèmes d'optimisation non convexe sont tout d'abord reformulées comme des programmes DC via les techniques de pénalisation en programmation DC de manière que les programmes DC résultants soient efficacement résolus par DCA et B&B bien adaptés. Comme première application en optimisation financière, nous avons modélisé le problème de gestion de portefeuille sous le coût de transaction concave et appliqué DCA et B&B à sa résolution. Dans le chapitre suivant nous étudions la modélisation du problème de minimisation du coût de transaction non convexe discontinu en gestion de portefeuille sous deux formes : la première est un programme DC obtenu en approximant la fonction objectif du problème original par une fonction DC polyèdrale et la deuxième est un programme DC mixte 0-1 équivalent. Et nous présentons DCA, B&B, et l'algorithme combiné DCA-B&B pour leur résolution. Le chapitre 4 étudie la résolution exacte du problème multi-objectif en variables mixtes binaires et présente deux applications concrètes de la méthode proposée. Nous nous intéressons dans le dernier chapitre à ces deux problématiques challenging : le problème de moindres carrés linéaires en variables entières bornées et celui de factorisation en matrices non négatives (Nonnegative Matrix Factorization (NMF)). La méthode NMF est particulièrement importante de par ses nombreuses et diverses applications tandis que les applications importantes du premier se trouvent en télécommunication. Les simulations numériques montrent la robustesse, rapidité (donc scalabilité), performance et la globalité de DCA par rapport aux méthodes existantes.
|
60 |
Méthodes numériques pour les problèmes des moindres carrés, avec application à l'assimilation de données / Numerical methods for least squares problems with application to data assimilationBergou, El Houcine 11 December 2014 (has links)
L'algorithme de Levenberg-Marquardt (LM) est parmi les algorithmes les plus populaires pour la résolution des problèmes des moindres carrés non linéaire. Motivés par la structure des problèmes de l'assimilation de données, nous considérons dans cette thèse l'extension de l'algorithme LM aux situations dans lesquelles le sous problème linéarisé, qui a la forme min||Ax - b ||^2, est résolu de façon approximative, et/ou les données sont bruitées et ne sont précises qu'avec une certaine probabilité. Sous des hypothèses appropriées, on montre que le nouvel algorithme converge presque sûrement vers un point stationnaire du premier ordre. Notre approche est appliquée à une instance dans l'assimilation de données variationnelles où les modèles stochastiques du gradient sont calculés par le lisseur de Kalman d'ensemble (EnKS). On montre la convergence dans L^p de l'EnKS vers le lisseur de Kalman, quand la taille de l'ensemble tend vers l'infini. On montre aussi la convergence de l'approche LM-EnKS, qui est une variante de l'algorithme de LM avec l'EnKS utilisé comme solveur linéaire, vers l'algorithme classique de LM ou le sous problème est résolu de façon exacte. La sensibilité de la méthode de décomposition en valeurs singulières tronquée est étudiée. Nous formulons une expression explicite pour le conditionnement de la solution des moindres carrés tronqués. Cette expression est donnée en termes de valeurs singulières de A et les coefficients de Fourier de b. / The Levenberg-Marquardt algorithm (LM) is one of the most popular algorithms for the solution of nonlinear least squares problems. Motivated by the problem structure in data assimilation, we consider in this thesis the extension of the LM algorithm to the scenarios where the linearized least squares subproblems, of the form min||Ax - b ||^2, are solved inexactly and/or the gradient model is noisy and accurate only within a certain probability. Under appropriate assumptions, we show that the modified algorithm converges globally and almost surely to a first order stationary point. Our approach is applied to an instance in variational data assimilation where stochastic models of the gradient are computed by the so-called ensemble Kalman smoother (EnKS). A convergence proof in L^p of EnKS in the limit for large ensembles to the Kalman smoother is given. We also show the convergence of LM-EnKS approach, which is a variant of the LM algorithm with EnKS as a linear solver, to the classical LM algorithm where the linearized subproblem is solved exactly. The sensitivity of the trucated sigular value decomposition method to solve the linearized subprobems is studied. We formulate an explicit expression for the condition number of the truncated least squares solution. This expression is given in terms of the singular values of A and the Fourier coefficients of b.
|
Page generated in 0.0387 seconds