• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 66
  • 23
  • 13
  • Tagged with
  • 100
  • 81
  • 41
  • 36
  • 25
  • 20
  • 15
  • 14
  • 14
  • 14
  • 12
  • 11
  • 11
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Évolution du VIH : méthodes, modèles et algorithmes

Jung, Matthieu 21 May 2012 (has links) (PDF)
La donnée de séquences nucléotidiques permet d'inférer des arbres phylogénétiques, ou phylogénies, qui décrivent leurs liens de parenté au cours de l'évolution. Associer à ces séquences leur date de prélèvement ou leur pays de collecte, permet d'inférer la localisation temporelle ou spatiale de leurs ancêtres communs. Ces données et procédures sont très utilisées pour les séquences de virus et, notamment, celles du virus de l'immunodéficience humaine (VIH), afin d'en retracer l'histoire épidémique à la surface du globe et au cours du temps. L'utilisation de séquences échantillonnées à des moments différents (ou hétérochrones) sert aussi à estimer leur taux de substitution, qui caractérise la vitesse à laquelle elles évoluent. Les méthodes les plus couramment utilisées pour ces différentes tâches sont précises, mais lourdes en temps de calcul car basées sur des modèles complexes, et ne peuvent traiter que quelques centaines de séquences. Devant le nombre croissant de séquences disponibles dans les bases de données, souvent plusieurs milliers pour une étude donnée, le développement de méthodes rapides et efficaces devient indispensable. Nous présentons une méthode de distances, Ultrametric Least Squares , basée sur le principe des moindres carrés, souvent utilisé en phylogénie, qui permet d'estimer le taux de substitution d'un ensemble de séquences hétérochrones, dont on déduit ensuite facilement les dates des spéciations ancestrales. Nous montrons que le critère à optimiser est parabolique par morceaux et proposons un algorithme efficace pour trouver l'optimum global. L'utilisation de séquences échantillonnées en des lieux différents permet aussi de retracer les chaînes de transmission d'une épidémie. Dans ce cadre, nous utilisons la totalité des séquences disponibles (~3500) du sous-type C du VIH-1, responsable de près de 50% des infections mondiales au VIH-1, pour estimer ses principaux flux migratoires à l'échelle mondiale, ainsi que son origine géographique. Des outils novateurs, basés sur le principe de parcimonie combiné avec différents critères statistiques, sont utilisés afin de synthétiser et interpréter l'information contenue dans une grande phylogénie représentant l'ensemble des séquences étudiées. Enfin, l'origine géographique et temporelle de ce variant (VIH-1 C) au Sénégal est précisément explorée lors d'une seconde étude, portant notamment sur les hommes ayant des rapports sexuels avec des hommes.
72

Programmation DC et DCA pour l'optimisation non convexe/optimisation globale en variables mixtes entières : Codes et Applications

Pham, Viet Nga 18 April 2013 (has links) (PDF)
Basés sur les outils théoriques et algorithmiques de la programmation DC et DCA, les travaux de recherche dans cette thèse portent sur les approches locales et globales pour l'optimisation non convexe et l'optimisation globale en variables mixtes entières. La thèse comporte 5 chapitres. Le premier chapitre présente les fondements de la programmation DC et DCA, et techniques de Séparation et Evaluation (B&B) (utilisant la technique de relaxation DC pour le calcul des bornes inférieures de la valeur optimale) pour l'optimisation globale. Y figure aussi des résultats concernant la pénalisation exacte pour la programmation en variables mixtes entières. Le deuxième chapitre est consacré au développement d'une méthode DCA pour la résolution d'une classe NP-difficile des programmes non convexes non linéaires en variables mixtes entières. Ces problèmes d'optimisation non convexe sont tout d'abord reformulées comme des programmes DC via les techniques de pénalisation en programmation DC de manière que les programmes DC résultants soient efficacement résolus par DCA et B&B bien adaptés. Comme première application en optimisation financière, nous avons modélisé le problème de gestion de portefeuille sous le coût de transaction concave et appliqué DCA et B&B à sa résolution. Dans le chapitre suivant nous étudions la modélisation du problème de minimisation du coût de transaction non convexe discontinu en gestion de portefeuille sous deux formes : la première est un programme DC obtenu en approximant la fonction objectif du problème original par une fonction DC polyèdrale et la deuxième est un programme DC mixte 0-1 équivalent. Et nous présentons DCA, B&B, et l'algorithme combiné DCA-B&B pour leur résolution. Le chapitre 4 étudie la résolution exacte du problème multi-objectif en variables mixtes binaires et présente deux applications concrètes de la méthode proposée. Nous nous intéressons dans le dernier chapitre à ces deux problématiques challenging : le problème de moindres carrés linéaires en variables entières bornées et celui de factorisation en matrices non négatives (Nonnegative Matrix Factorization (NMF)). La méthode NMF est particulièrement importante de par ses nombreuses et diverses applications tandis que les applications importantes du premier se trouvent en télécommunication. Les simulations numériques montrent la robustesse, rapidité (donc scalabilité), performance et la globalité de DCA par rapport aux méthodes existantes.
73

Méthodes numériques pour les problèmes des moindres carrés, avec application à l'assimilation de données / Numerical methods for least squares problems with application to data assimilation

Bergou, El Houcine 11 December 2014 (has links)
L'algorithme de Levenberg-Marquardt (LM) est parmi les algorithmes les plus populaires pour la résolution des problèmes des moindres carrés non linéaire. Motivés par la structure des problèmes de l'assimilation de données, nous considérons dans cette thèse l'extension de l'algorithme LM aux situations dans lesquelles le sous problème linéarisé, qui a la forme min||Ax - b ||^2, est résolu de façon approximative, et/ou les données sont bruitées et ne sont précises qu'avec une certaine probabilité. Sous des hypothèses appropriées, on montre que le nouvel algorithme converge presque sûrement vers un point stationnaire du premier ordre. Notre approche est appliquée à une instance dans l'assimilation de données variationnelles où les modèles stochastiques du gradient sont calculés par le lisseur de Kalman d'ensemble (EnKS). On montre la convergence dans L^p de l'EnKS vers le lisseur de Kalman, quand la taille de l'ensemble tend vers l'infini. On montre aussi la convergence de l'approche LM-EnKS, qui est une variante de l'algorithme de LM avec l'EnKS utilisé comme solveur linéaire, vers l'algorithme classique de LM ou le sous problème est résolu de façon exacte. La sensibilité de la méthode de décomposition en valeurs singulières tronquée est étudiée. Nous formulons une expression explicite pour le conditionnement de la solution des moindres carrés tronqués. Cette expression est donnée en termes de valeurs singulières de A et les coefficients de Fourier de b. / The Levenberg-Marquardt algorithm (LM) is one of the most popular algorithms for the solution of nonlinear least squares problems. Motivated by the problem structure in data assimilation, we consider in this thesis the extension of the LM algorithm to the scenarios where the linearized least squares subproblems, of the form min||Ax - b ||^2, are solved inexactly and/or the gradient model is noisy and accurate only within a certain probability. Under appropriate assumptions, we show that the modified algorithm converges globally and almost surely to a first order stationary point. Our approach is applied to an instance in variational data assimilation where stochastic models of the gradient are computed by the so-called ensemble Kalman smoother (EnKS). A convergence proof in L^p of EnKS in the limit for large ensembles to the Kalman smoother is given. We also show the convergence of LM-EnKS approach, which is a variant of the LM algorithm with EnKS as a linear solver, to the classical LM algorithm where the linearized subproblem is solved exactly. The sensitivity of the trucated sigular value decomposition method to solve the linearized subprobems is studied. We formulate an explicit expression for the condition number of the truncated least squares solution. This expression is given in terms of the singular values of A and the Fourier coefficients of b.
74

Caractérisation du rayonnement acoustique d'un rail à l'aide d'un réseau de microphones / Spatial characterization of the wheel/rail contact noise by a multi-sensors method

Faure, Baldrik 22 September 2011 (has links)
Le secteur des transports ferroviaires en France est marqué par un dynamisme lié notamment à l'essor du réseau à grande vitesse et à la réimplantation du tramway dans de nombreuses agglomérations. Dans ce contexte, la réduction des nuisances sonores apparaît comme un enjeu majeur pour son développement. Afin d'agir efficacement à la source, il est indispensable d'identifier et d'étudier précisément les sources responsables de ces nuisances au passage des véhicules. Parmi les approches possibles, les antennes microphoniques et les traitements associés sont particulièrement adaptés à la caractérisation des sources ponctuelles mobiles, omnidirectionnelles et décorrélées.Pour les vitesses inférieures à 300 km/h, le bruit de roulement constitue la source principale du bruit ferroviaire ; il résulte du rayonnement acoustique des éléments tels que les roues, le rail et les traverses. Le rail, dont la contribution au bruit de roulement est prépondérante aux moyennes fréquences (entre 500 He et 1000 Hz environ), est une source étendue et cohérente pour laquelle les principes classiques de traitement d'antenne ne sont pas adaptés.La méthode de caractérisation proposée dans cette thèse est une méthode inverse d'optimisation paramétrique utilisant les signaux acoustiques issus d'une antenne microphonique. Les paramètres inconnus d'un modèle vibro-acoustique sont estimés par minimisation d'un critère des moindres carrés sur les matrices spectrales mesurée et modélisée au niveau de l'antenne. Dans le modèle vibro-acoustique, le rail est assimilé à un monopôle cylindrique dont la distribution longitudinale d'amplitude est liée à celle des vitesses vibratoires. Pour le calcul de ces vitesses, les différents modèles proposés mettent en évidence des ondes vibratoires se propageant dans le rail de part et d'autre de chaque excitation. Chacune de ces ondes est caractérisée par une amplitude au niveau de l'excitation, un nombre d'onde structural réel et une atténuation. Ces paramètres sont estimés par minimisation du critère, puis utilisés pour reconstruire le champ acoustique.Dans un premier temps, des simulations sont réalisées pour juger des performances de la méthode proposée, dans le cas d'excitations ponctuelles verticales. En particulier, sa robustesse est testée en présence de bruit ou d'incertitudes sur les paramètres supposés connus du modèle. Les effets de l'utilisation de modèles dégradés sont également étudiés. Concernant l'estimation des amplitudes, les résultats ont montré que la méthode est particulièrement robuste et efficace pour les excitations les plus proches de l'antenne. En revanche, pour l'estimation des autres paramètres, les performances sont supérieures pour les positions d'antenne excentrées. De manière générale, le nombre d'onde est correctement estimé sur l'ensemble des fréquences étudiées. Dans les cas à faible atténuation, un traitement classique par formation de voies en ondes planes suffit. En ce qui concerne l'estimation de l'atténuation, la faible sensibilité du critère limite l'efficacité de la méthode proposée.Enfin, certains résultats obtenus à partir des simulations ont été vérifiés lors de mesures in situ. L'excitation d'un rail expérimental par un marteau de chocs a tout d'abord permis de valider le modèle vibratoire pour la flexion verticale. Pour tester la méthode d'optimisation paramétrique, le rail a également été excité verticalement à l'aide d'un pot vibrant. Les principaux résultats des simulations ont été retrouvés, et des comportements particuliers relatifs à la présence de plusieurs ondes dans le rail ont été observés, ouvrant des perspectives de généralisation du modèle vibratoire utilisé. / In France, railway transport has been boosted by the expansion of the high-speed rail service and the resurgent implantation of tram networks in many city centers. In this context, the reduction of noise pollution becomes a crucial issue for its development. In order to directly act on the source area, it is necessary to precisely identify and study the sources responsible for this nuisance at train pass-by. Among all the potential approaches, microphone arrays and related signal processing techniques are particularly adapted to the characterization of omnidirectional and uncorrelated moving point sources. For speeds up to 300 km/h, rolling noise is the main railway noise source. It arises from the acoustic radiation of various elements such as wheels, rail or sleepers. The rail, which mainly contributes to rolling noise at mid-frequencies (from 500 Hz to 1000 Hz approximately), is an extended coherent source for which classical array processing methods are inappropriate. The characterization method proposed in this thesis is an inverse parametric optimization method that uses the acoustical signals measured by a microphone array. The unknown parameters of a vibro-acoustical model are estimated through the minimization of a least square criterion applied to the entries of the measured and modelled spectral matrices. In this vibro-acoustical model, the rail is considered as a cylindrical monopole whose lengthwise amplitude distribution is obtained from the vibratory velocity one. The different models proposed to obtain this velocity highlight the propagation of vibration waves towards both sides of every forcing point. Each wave is characterized by an amplitude at the forcing point, a real structural wavenumber and a decay rate. These parameters are estimated by the minimization of the least square criterion, and are then used in the vibro-acoustical model to rebuild the acoustical field radiated by the rail. First, simulations are performed in order to appraise the performances of the proposed method, in the case of vertical point excitations. In particular, its robustness to additive noise and to uncertainties in the model parameters that are supposed to be known is tested. The effect of using simplified models is also investigated. Results show that the method is efficient and robust for the amplitude estimation of the nearest contacts to the array. On the other hand, the estimation of the other parameters is improved when the array is shifted away from the contact points. The wavenumber is generally well estimated over the entire frequency range, and when the decay rate is low, a single beamforming technique may be sufficient. Concerning the decay rate estimation, the efficiency of the method is limited by the low sensitivity of the criterion. At last, measurements are performed in order to verify some results obtained from the simulations. The vibratory model is first validated for the vertical flexural waves trough the use of an impact hammer. Then, the parametric optimization method is tested by the vertical excitation of the rail with a modal shaker. The main simulation results are found, and some particular behavior due to other waves existing in the rail can be observed, opening the perspective of a generalized method including more complex vibratory modelings.
75

Abondance et origine trophique de la noctuelle de la tomate (Helicoverpa armigera) dans les paysages ruraux de production cotonnière au Nord Bénin / Abundance and trophic origin of the Cotton Bollworm (Helicoverpa armigera) in cotton producing farmland of North Benin

Tsafack-Menessong, Noëlline 10 July 2014 (has links)
Mettre en place des stratégies de lutte contre les ravageurs, indépendantes des produits chimiques est un objectif fondamental pour une protection durable des cultures contre les ravageurs et la conservation d’un environnement sain pour les populations humaines en zone rurale. L’objectif principal de ce travail était de contribuer à la mise en place d’une lutte biologique par gestion des habitats à l’échelle du paysage de la noctuelle polyphage Helicoverpa armigera, principal ravageur de cotonnier dans le nord Bénin. Cette thèse visait à analyser l’influence des pratiques agricoles et de l’organisation du paysage sur l’abondance et l’origine trophique de H. armigera. L’analyse biochimique d’individus élevés en laboratoire, nous a permis de confirmer le fait que le gossypol est un bon marqueur pour identifier les adultes qui ont passé leur vie larvaire sur le cotonnier. Au contraire de la tomatine qui ne peut être considérée comme un marqueur de la tomate car la tomatine a été détectée seulement chez les larves d’H. armigera et non chez les adultes. Notre étude sur le terrain au nord Bénin dans 40 parcelles, a montré que les pratiques agricoles avaient un fort effet sur l’infestation larvaire. La date de semis et la fréquence de sarclage étaient négativement corrélées à l’infestation larvaire. La proportion de cotonniers dans le paysage et celle de tomate ont influencé positivement l’infestation en larves d’H. armigera. Nous avons également montré qu’un précédent cultural tomate présentait une abondance larvaire en moyenne trois fois supérieur à un précédent cultural maïs. Ensuite, dans des rayons de 100 m, 250 m et 500 m, nous avons étudié les effets de la composition et de l’hétérogénéité du paysage d’une part sur l’abondance des adultes d’H. armigera et d’autre part sur leur origine trophique. L’hétérogénéité du paysage en plantes hôtes est le facteur paysager principal qui a influencé positivement l’abondance des adultes. Les isotopes stables de Carbone nous ont permis d’identifier les individus dont la larve s’était nourrie sur des plantes de type photosynthétique C3 (cotonniers, tomates, ...) ou C4 (maïs, sorgho, …). L’origine trophique, plantes hôtes C3 ou C4, est reliée positivement à la proportion de plantes hôtes respectivement C3 ou C4 dans un rayon de 500m. Seulement 10% des individus ayant consommés des plantes en C3 ont été détecté positif au gossypol. La proportion de cotonniers dans le paysage ne semble pas expliquer la proportion d’individus détectés positif au gossypol. Nous formulons des propositions de gestion de l’assolement et des rotations culturales pour contribuer à la régulation d’H. armigera. Ainsi, il faudrait éviter que le cotonnier soit semé sur un précédent cultural tomate. Il serait important de décaler les dates de semis entre les parcelles de cotonniers voisines et de respecter la fréquence de sarclage minimale qui est de trois. Par ailleurs, il serait judicieux de préférer un environnement paysager homogène autour d’une parcelle de cotonnier, en privilégiant par exemple, le maïs. / The development of strategies independent of pesticides is a fundamental objective for sustainable crop protection against pests as well as for maintaining of a healthy environment for human populations. The rationale of the research presented here was to improve our ability to control the cotton bollworm, Helicoverpa armigera by non-pesticide methods via habitat conservation. We analyzed the influence of agricultural practices and landscape composition and diversity on the abundance and trophic origin of H. armigera and assessed gossypol and tomatine in individual H. armigera as cotton and tomato biomarkers respectively. Gossypol was shown to be a stable cotton biomarker, even in adult H. armigera 12 days after emergence. In contrast, tomatine was only detected in larvae of H. armigera and not adults; thereby tomatine can not be considered as a marker of tomato plants. Subsequently, in north Benin, the abundance of H. armigera larvae and adults was monitored in cotton fields. We found a strong effect of agricultural practices on H. armigera larvae abundance. Delay sowing date and increase frequency of weeding reduced the abundance of H. armigera in cotton fields; whereas the proportion of cotton and tomato in the landscape increased. This study also highlights the role of the previous landcover in the infestation of a cotton field: A previous tomato landcover increased infestation three times more than a previous maize landcover. At nested scales ranging from 100 m, 250 m to 500 m, we studied the effects of landscape composition and diversity firstly on the abundance of adult H. armigera and secondly on their trophic origin. We found that, landscape diversity was the main factor that influenced both the abundance adult and their trophic origin at 500 m scale. Analyses of stables isotopes of Carbone showed that proportion of hosts plants with C3 photosynthetic pathway in the landscape was positively related to H. armigera moths with C3 trophic origin signal at 500 m scale. Only 10% of moths were positive to gossypol signal. The proportion of cotton in the landscape seems not important to explain the trophic origin of individual which were positive to gossypol signal. Therefore, for integrated management of H. armigera our results suggest it is necessary to consider the following agricultural practices and crop diversity regimes (in regard to the resource use strategies of this polyphagous pest). A tomato previous landcover should be avoid; shift sowing date between cotton fields, and have at less three manual weedings. In additional, we suggest employing maize around cotton fields rather than other crops.
76

Pénalités minimales pour la sélection de modèle / Minimal penalties for model selection

Sorba, Olivier 09 February 2017 (has links)
Dans le cadre de la sélection de modèle par contraste pénalisé, L. Birgé and P. Massart ont prouvé que le phénomène de pénalité minimale se produit pour la sélection libre parmi des variables gaussiennes indépendantes. Nous étendons certains de leurs résultats à la partition d'un signal gaussien lorsque la famille de partitions envisagées est suffisamment riche, notamment dans le cas des arbres de régression. Nous montrons que le même phénomène se produit dans le cadre de l'estimation de densité. La richesse de la famille de modèle s'apparente à une forme d'isotropie. De ce point de vue le phénomène de pénalité minimale est intrinsèque. Pour corroborer et illustrer ce point de vue, nous montrons que le même phénomène se produit pour une famille de modèles d'orientation aléatoire uniforme. / L. Birgé and P. Massart proved that the minimum penalty phenomenon occurs in Gaussian model selection when the model family arises from complete variable selection among independent variables. We extend some of their results to discrete Gaussian signal segmentation when the model family corresponds to a sufficiently rich family of partitions of the signal's support. This is the case of regression trees. We show that the same phenomenon occurs in the context of density estimation. The richness of the model family can be related to a certain form of isotropy. In this respect the minimum penalty phenomenon is intrinsic. To corroborate this point of view, we show that the minimum penalty phenomenon occurs when the models are chosen randomly under an isotropic law.
77

Estimation optimisée de l'utilisation de l'énergie sur un véhicule électrique

Andriaminahy, Nofinidy Ho Fanilo January 2021 (has links) (PDF)
No description available.
78

Modélisation des modèles autorégressifs vectoriels avec variables exogènes et sélection d’indices

Oscar, Mylène 05 1900 (has links)
Ce mémoire porte sur l’étude des modèles autorégressifs avec variables exogènes et sélection d’indices. La littérature classique regorge de textes concernant la sélection d’indices dans les modèles autorégressifs. Ces modèles sont particulièrement utiles pour des données macroéconomiques mesurées sur des périodes de temps modérées à longues. Effectivement, la lourde paramétrisation des modèles complets peut souvent être allégée en utilisant la sélection d’indices aboutissant ainsi à des modèles plus parcimonieux. Les modèles à variables exogènes sont très intéressants dans le contexte où il est connu que les variables à l’étude sont affectées par d’autres variables, jouant le rôle de variables explicatives, que l’analyste ne veut pas forcément modéliser. Ce mémoire se propose donc d’étudier les modèles autorégressifs vectoriels avec variables exogènes et sélection d’indices. Ces modèles ont été explorés, entre autres, par Lütkepohl (2005), qui se contente cependant d’esquisser les développements mathématiques. Nous concentrons notre étude sur l’inférence statistique sous des conditions précises, la modélisation ainsi que les prévisions. Notre objectif est de comparer les modèles avec sélection d’indices aux modèles autorégressifs avec variables exogènes complets classiques. Nous désirons déterminer si l’utilisation des modèles avec sélection d’indices est marquée par une différence favorable au niveau du biais et de l’écart-type des estimateurs ainsi qu’au niveau des prévisions de valeurs futures. Nous souhaitons également comparer l’efficacité de la sélection d’indices dans les modèles autorégressifs ayant des variables exogènes à celle dans les modèles autorégressifs. Il est à noter qu’une motivation première dans ce mémoire est l’estimation dans les modèles autorégressifs avec variables exogènes à sous-ensemble d’indices. Dans le premier chapitre, nous présentons les séries temporelles ainsi que les diverses notions qui y sont rattachées. De plus, nous présentons les modèles linéaires classiques multivariés, les modèles à variables exogènes puis des modèles avec sélection d’indices. Dans le deuxième chapitre, nous exposons le cadre théorique de l’estimation des moindres carrés dans les modèles autorégressifs à sous-ensemble d’indices ainsi que le comportement asymptotique de l’estimateur. Ensuite, nous développons la théorie pour l’estimation des moindres carrés (LS) ainsi que la loi asymptotique des estimateurs pour les modèles autorégressifs avec sélection d’indices (SVAR) puis nous faisons de même pour les modèles autorégressifs avec variables exogènes et tenant compte de la sélection des indices (SVARX). Spécifiquement, nous établissons la convergence ainsi que la distribution asymptotique pour l’estimateur des moindres carrés d’un processus autorégressif vectoriel à sous-ensemble d’indices et avec variables exogènes. Dans le troisième chapitre, nous appliquons la théorie spécifiée précédemment lors de simulations de Monte Carlo. Nous évaluons de manière empirique les biais et les écarts-types des coefficients trouvés lors de l’estimation ainsi que la proportion de fois que le modèle ajusté correspond au vrai modèle pour différents critères de sélection, tailles échantillonnales et processus générateurs des données. Dans le quatrième chapitre, nous appliquons la théorie élaborée aux chapitres 1 et 2 à un vrai jeu de données provenant du système canadien d’information socioéconomique (CANSIM), constitué de la production mensuelle de fromage mozzarella, cheddar et ricotta au Canada, expliquée par les prix mensuels du lait de bovin non transformé dans les provinces de Québec, d’Ontario et de la Colombie-Britannique pour la période allant de janvier 2003 à juillet 2021. Nous ajustons ces données à un modèle autorégressif avec variables exogènes complet puis à un modèle autorégressif avec variables exogènes et sélection d’indices. Nous comparons ensuite les résultats obtenus avec le modèle complet à ceux obtenus avec le modèle restreint. Mots-clés : Processus autorégressif à sous-ensemble d’indices, variables exogènes, esti mation des moindres carrés, sélection de modèle, séries chronologiques multivariées, processus stochastiques, séries chronologiques. / This Master’s Thesis focuses on the study of subset autoregressive models with exoge nous variables. Many texts from the classical literature deal with the selection of indexes in autoregressive models. These models are particularly useful for macroeconomic data measured over moderate to long periods of time. Indeed, the heavy parameterization of full models can often be simplified by using the selection of indexes, thus resulting in more parsimonious models. Models with exogenous variables are very interesting in the context where it is known that the variables under study are affected by other variables, playing the role of explanatory variables, not necessarily modeled by the analyst. This Master’s Thesis therefore proposes to study vector subset autoregressive models with exogenous variables. These models have been explored, among others, by Lütkepohl (2005), who merely sketches proofs of the statistical properties. We focus our study on statistical inference under precise conditions, modeling and forecasting for these models. Our goal is to compare restricted models to full classical autoregressive models with exogenous variables. We want to determine whether the use of restricted models is marked by a favorable difference in the bias and standard deviation properties of the estimators as well as in forecasting future values. We also compare the efficiency of index selection in autoregressive models with exogenous variables to that in autoregressive models. It should be noted that a primary motivation in this Master’s Thesis is the estimation in subset autoregressive models with exogenous variables. In the first chapter, we present time series as well as the various concepts which are attached to them. In addition, we present the classical multivariate linear models, models with exogenous variables and then we present subset models. In the second chapter, we present the theoretical framework for least squares estimation in subset autoregressive models as well as the asymptotic behavior of the estimator. Then, we develop the theory for the estimation of least squares (LS) as well as the asymptotic distribution of the estimators for the subset autoregressive models (SVAR), and we do the same for the subset autoregressive models with exogenous variables (SVARX). Specifically, we establish the convergence as well as the asymptotic distribution for the least squares estimator of a subset autoregressive process with exogenous variables. In the third chapter, we apply the theory specified above in Monte Carlo simulations. We evaluate empirically the biases and the standard deviations of the coefficients found during the estimation as well as the proportion of times that the adjusted model matches the true model for different selection criteria, sample size and data generating processes. In the fourth chapter, we apply the theory developed in chapters 1 and 2 to a real dataset from the Canadian Socio-Economic Information System (CANSIM) consisting of the monthly production of mozzarella, cheddar and ricotta cheese in Canada, explained by the monthly prices of unprocessed bovine milk in the provinces of Quebec, Ontario and British Columbia from January 2003 to July 2021. We fit these data with a full autoregressive model with exogenous variables and then to a subset autoregressive model with exogenous variables. Afterwards, we compare the results obtained with the complete model to those obtained with the subset model. Keywords : Subset autoregressive process, exogenous variables, least squares estimation, model selection, multivariate time series, stochastic process, time series.
79

Détection de l’invalidité et estimation d’un effet causal en présence d’instruments invalides dans un contexte de randomisation mendélienne

Boucher-Roy, David 08 1900 (has links)
La randomisation mendélienne est une méthode d’instrumentation utilisant des instruments de nature génétique afin d’estimer, via par exemple la régression des moindres carrés en deux étapes, une relation de causalité entre un facteur d’exposition et une réponse lorsque celle-ci est confondue par une ou plusieurs variables de confusion non mesurées. La randomisation mendélienne est en mesure de gérer le biais de confusion à condition que les instruments utilisés soient valides, c’est-à-dire qu’ils respectent trois hypothèses clés. On peut généralement se convaincre que deux des trois hypothèses sont satisfaites alors qu’un phénomène génétique, la pléiotropie, peut parfois rendre la troisième hypothèse invalide. En présence d’invalidité, l’estimation de l’effet causal de l’exposition sur la réponse peut être sévèrement biaisée. Afin d’évaluer la potentielle présence d’invalidité lorsqu’un seul instrument est utilisé, Glymour et al. (2012) ont proposé une méthode qu’on dénomme ici l’approche de la différence simple qui utilise le signe de la différence entre l’estimateur des moindres carrés ordinaires de la réponse sur l’exposition et l’estimateur des moindres carrés en deux étapes calculé à partir de l’instrument pour juger de l’invalidité de l’instrument. Ce mémoire introduit trois méthodes qui s’inspirent de cette approche, mais qui sont applicables à la randomisation mendélienne à instruments multiples. D’abord, on introduit l’approche de la différence globale, une simple généralisation de l’approche de la différence simple au cas des instruments multiples qui a comme objectif de détecter si un ou plusieurs instruments utilisés sont invalides. Ensuite, on introduit les approches des différences individuelles et des différences groupées, deux méthodes qui généralisent les outils de détection de l’invalidité de l’approche de la différence simple afin d’identifier des instruments potentiellement problématiques et proposent une nouvelle estimation de l’effet causal de l’exposition sur la réponse. L’évaluation des méthodes passe par une étude théorique de l’impact de l’invalidité sur la convergence des estimateurs des moindres carrés ordinaires et des moindres carrés en deux étapes et une simulation qui compare la précision des estimateurs résultant des différentes méthodes et leur capacité à détecter l’invalidité des instruments. / Mendelian randomization is an instrumentation method that uses genetic instruments to estimate, via two-stage least squares regression for example, a causal relationship between an exposure and an outcome when the relationship is confounded by one or more unmeasured confounders. Mendelian randomization can handle confounding bias provided that the instruments are valid, i.e., that they meet three key assumptions. While two of the three assumptions can usually be satisfied, the third assumption is often invalidated by a genetic phenomenon called pleiotropy. In the presence of invalid instruments, the estimate of the causal effect of exposure on the outcome may be severely biased. To assess the potential presence of an invalid instrument in single-instrument studies, Glymour et al. (2012) proposed a method, hereinafter referred to as the simple difference approach, which uses the sign of the difference between the ordinary least squares estimator of the outcome on the exposure and the two-stage least squares estimator calculated using the instrument. Based on this approach, we introduce three methods applicable to Mendelian randomization with multiple instruments. The first method is the global difference approach and corresponds to a simple generalization of the simple difference approach to the case of multiple instruments that aims to detect whether one or more instruments are invalid. Next, we introduce the individual differences and the grouped differences approaches, two methods that generalize the simple difference approach to identify potentially invalid instruments and provide new estimates of the causal effect of the exposure on the outcome. The methods are evaluated using a theoretical investigation of the impact that invalid instruments have on the convergence of the ordinary least squares and two-stage least squares estimators as well as with a simulation study that compares the accuracy of the respective estimators and the ability of the corresponding methods to detect invalid instruments.
80

Chimiométrie appliquée à la spectroscopie de plasma induit par laser (LIBS) et à la spectroscopie terahertz / Chemometric applied to laser-induced breakdown spectroscopy (LIBS) and terahertz spectroscopy

El Haddad, Josette 13 December 2013 (has links)
L’objectif de cette thèse était d’appliquer des méthodes d’analyse multivariées au traitement des données provenant de la spectroscopie de plasma induit par laser (LIBS) et de la spectroscopie térahertz (THz) dans le but d’accroître les performances analytiques de ces techniques.Les spectres LIBS provenaient de campagnes de mesures directes sur différents sites géologiques. Une approche univariée n’a pas été envisageable à cause d’importants effets de matrices et c’est pour cela qu’on a analysé les données provenant des spectres LIBS par réseaux de neurones artificiels (ANN). Cela a permis de quantifier plusieurs éléments mineurs et majeurs dans les échantillons de sol avec un écart relatif de prédiction inférieur à 20% par rapport aux valeurs de référence, jugé acceptable pour des analyses sur site. Dans certains cas, il a cependant été nécessaire de prendre en compte plusieurs modèles ANN, d’une part pour classer les échantillons de sol en fonction d’un seuil de concentration et de la nature de leur matrice, et d’autre part pour prédire la concentration d’un analyte. Cette approche globale a été démontrée avec succès dans le cas particulier de l’analyse du plomb pour un échantillon de sol inconnu. Enfin, le développement d’un outil de traitement par ANN a fait l’objet d’un transfert industriel.Dans un second temps, nous avons traité des spectres d’absorbance terahertz. Ce spectres provenaient de mesures d’absorbance sur des mélanges ternaires de Fructose-Lactose-acide citrique liés par du polyéthylène et préparés sous forme de pastilles. Une analyse semi-quantitative a été réalisée avec succès par analyse en composantes principales (ACP). Puis les méthodes quantitatives de régression par moindres carrés partiels (PLS) et de réseaux de neurons artificiels (ANN) ont permis de prédire les concentrations de chaque constituant de l’échantillon avec une valeur d’erreur quadratique moyenne inférieure à 0.95 %. Pour chaque méthode de traitement, le choix des données d’entrée et la validation de la méthode ont été discutés en détail. / The aim of this work was the application of multivariate methods to analyze spectral data from laser-induced breakdown spectroscopy (LIBS) and terahertz (THz) spectroscopy to improve the analytical ability of these techniques.In this work, the LIBS data were derived from on-site measurements of soil samples. The common univariate approach was not efficient enough for accurate quantitative analysis and consequently artificial neural networks (ANN) were applied. This allowed quantifying several major and minor elements into soil samples with relative error of prediction lower than 20% compared to reference values. In specific cases, a single ANN model didn’t allow to successfully achieving the quantitative analysis and it was necessary to exploit a series of ANN models, either for classification purpose against a concentration threshold or a matrix type, or for quantification. This complete approach based on a series of ANN models was efficiently applied to the quantitative analysis of unknown soil samples. Based on this work, a module of data treatment by ANN was included into the software Analibs of the IVEA company. The second part of this work was focused on the data treatment of absorbance spectra in the terahertz range. The samples were pressed pellets of mixtures of three products, namely fructose, lactose and citric acid with polyethylene as binder. A very efficient semi-quantitative analysis was conducted by using principal component analysis (PCA). Then, quantitative analyses based on partial least squares regression (PLS) and ANN allowed quantifying the concentrations of each product with a root mean square error (RMSE) lower than 0.95 %. All along this work on data processing, both the selection of input data and the evaluation of each model have been studied in details.

Page generated in 0.0601 seconds