• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 949
  • 444
  • 93
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1536
  • 381
  • 295
  • 274
  • 226
  • 202
  • 192
  • 179
  • 153
  • 147
  • 144
  • 142
  • 142
  • 139
  • 136
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
461

Familles et modes de résidence en milieu urbain québécois en période d'industrialisation, le cas de la ville de Québec, 1901

Laflamme, Valérie January 2000 (has links) (PDF)
No description available.
462

Contribution à l'analyse de scènes par vision active : utilisation de réseaux bayesiens /

Djian, David. January 1900 (has links)
Th. doct.--Informatique temps réel, robotique-automatique--Paris--Éc. natl. supér. mines, 1997. / Bibliogr. p. 159-164. Résumé en anglais et en français. 1997 d'après la déclaration de dépôt légal.
463

Modelisation et validation des générateurs aléatoires cryptographiques pour les systèmes embarqués. / Modeling and validation of cryptographic random generators for embedded systems

Layat, Kevin 17 December 2015 (has links)
L’objet de cette thèse porte sur la modélisation mathématique des générateurs physiques de nombres aléatoires, tout particulièrement dans le contexte des systèmes embarqués. Les axes principaux sont les modèles stochastiques des sources d'entropie, l’établissement de tests statistiques adaptés et l’exploitation des défauts détectés / The purpose of this thesis focuses on the mathematical modeling of physical random number generators, especially in the context of embedded systems. The main axes are the stochastic modeling of entropy sources, the establishment of appropriate statistical tests and the exploitation of detected weaknesses.
464

Systèmes hybrides : de la nanoparticule aux gels / Hybrid system : from nanoparticles to gels

Zhao, Zhihua 15 September 2017 (has links)
Ce travail de thèse porte sur une meilleure compréhension de la croissance de nanoparticules d'oxyde de zinc élaborées à partir d'une approche organométallique. Au cours de ce travail, une analyse de la taille des nanoparticules en utilisant un outil simple basée sur une représentation bidimentionnelle couplée à une analyse statistique multivariée. Elle permet d'extraire la corrélation éventuelle entre la longueur et la largeur des nanoparticules. Cette approche permet de traiter un ensemble de nanoparticules homogène ou hétérogène en taille et en forme. Comparée à l'approche statistique usuelle qui analyse individuellement la distribution de la longueur et celle de la largeur, notre démarche met très facilement en évidence les différents types de nanoparticule et leur anisotropie (ou non). Pour chaque classe de nano-objets considérée, la relation entre la longueur et la largeur, c'est-à-dire les corrélations fortes ou faible entre ces deux paramètres, fourni des informations concernant le(s) mécanisme(s) de nucléation-croissance des nanoparticules. Par exemple, cette approche permet de suivre l'effet sur la taille et la forme de nanoparticules préparées par différents procédés (chimiques ou physique). A partir de différentes images de microscopie électronique extraites de la bibliographie ou de nos travaux de recherche, nous avons démontré l'efficacité et la simplicité de cette approche. De plus, nous avons pu revisiter la synthèse organométallique de nanoparticules de ZnO à la lumière de cette nouvelle méthode de traitement des données. Les nanoparticules anisotropes obtenues par hydrolyse du dicyclohexyl zinc comme précurseur organométallique en présence d'alkyl amine uniquement ont donc été analysées. Le mécanisme de formation a été étudié par analyse systématique des images de microscopie électroniques à transmission et une croissance par attachement orienté a pu être mise en évidence. De plus, nous avons montré que la taille des nanabatonnets d'oxyde de zinc peut être facilement contrôlée en modulant la vitesse d'hydrolyse, le temps de maturation du mélange précurseur organométallique et ligand alkyl amine avant le début de l'hydrolyse, la nature du ligand et la quantité d'eau introduite. Enfin, pendant ce travail, nous avons observé la gélification des milieux réactionnels. L'étude de ce phénomène a permis de développer une approche originale permettant de mettre en forme des matériaux hybride organique-inorganiques. En effet, à partir d'un ensemble d'expériences utilisant la rhéologie, la RMN, la MET, des calculs théoriques, le WAXS ... nous avons pu mettre en évidence une réaction d'oligomérisation entre le précurseur organométallique et les ligands alkyl amine. Cette oligomérisation entre les centres métalliques conduit à la formation de gels, qui peuvent être mise en forme en utilisant des seringues, des tampons ou encore des moules. Des matériaux hybrides d'oxydes métalliques sont ensuite obtenus par hydrolyse du gel. Cette nouvelle approche a été développée pour l'oxyde de zinc puis a été étendue aux oxydes d'étain et de fer. Il s'agit donc d'une approche générale qui ouvre des perspectives intéressantes dans l'utilisation de ces matériaux notamment comme couches sensibles pour des capteurs de gaz. / This work is focused on the better understanding of the formation of zinc oxide anisotropic nanoparticle through an organometallic synthesis. To start on this project, the development of a statistical tool to analyze nanoparticle sizes and shapes was mandatory. A simple 2D plot with a multivariate statistical analysis is proposed in order to extract, in particular, the correlation between length and width in a collection or a mixture of anisotropic particles. Compared to the usual statistics on the length associated to a second and independent statistical analysis of the width, this simple plot easily points out the various types of nanoparticles and their (an)isotropy. For each class of nano-objects, the relationship between width and length (i.e. the strong or weak correlations between these two parameters) may suggest information concerning the nucleation-growth processes. It allows one to follow the effect on the shape and size distribution of physical or chemical processes such as simple ripening. Various electronic microscopy pictures from the literature or from our own syntheses are used as examples to demonstrate the efficiency and simplicity of such an analysis. Furthermore, following the organometallic approach, well defined crystalline zinc oxide nanorods are obtained through the hydrolysis reaction of dicyclohexyl zinc precursor without solvent in presence of primary fatty amine only. Their mechanism of formation is studied through a multivariate analysis of TEM results and an oriented attachment process is demonstrated. Taking advantage of this mechanism, the size of the ZnO nanorods can be easily adjusted tuned by controlling adjusting the hydrolysis rate, the aging time before hydrolysis, the nature of ligand, and/or the amount of water. During such experiments, a gelification of the chemical media are for the first time observed. This is the origin of the last part of our work, which put forward an original approach for outstanding processable and reshapable hybrid materials. Indeed, we unequivocally demonstrate through various complementary experiments (rheology, NMR, TEM, theoretical calculation, WAXS...) the formation of oligomeric structures in a mixture of fatty amine with organometallic compounds. This oligomerization reaction between the metallic centers induces the formation of a gel which can be processed into fibers, stamped patterns or molded pieces. Metal oxide hybrid materials are obtained merely by hydrolysis of the organometallic gel, which are furthermore liquid crystal. This unprecedented route towards easily processable hydrid and metal oxide materials is demonstrated for zinc oxide and extended to other metal oxides such as tin oxide and iron oxide, proving the universality of the method and paving the way, for example, to new sensitive gas sensors layers.
465

Computer simulations of supercooled liquids near the experimental glass transition / Simulations numériques des liquides surfondus près de la transition vitreuse expérimentale

Ninarello, Andrea Saverio 02 October 2017 (has links)
La compréhension du mécanisme de la formation du verre est l'un des importants problèmes ouverts en recherche sur la matière condensée. De nombreuses questions restent sans réponse, en raison d'une énorme augmentation des temps de relaxation pendant le processus de refroidissement qui ne permet pas l'exploration des propriétés d'équilibre des liquides surfondus à très basses températures. Les simulations numériques des liquides surfondus sont actuellement en mesure d'atteindre l'équilibre à des températures comparables à la température du crossover de la théorie de couplages de modes, qui est bien supérieure à la température de transition vitreuse expérimentale. En conséquence, les simulations plus lentes que les expériences pour équilibrer un liquide surfondu par un facteur d'environ huit ordres de grandeur. Les progrès réalisés pour combler cet écart ont été lents et résultent essentiellement d'améliorations de l'architecture des ordinateurs. Dans cette thèse, nous résolvons en partie le problème de la thermalisation à basse température de liquides surfondus dans des simulations numériques. Nous combinons l'utilisation d'un algorithme Monte Carlo, connu sous le nom d'algorithme de swap, avec la conception de nouveaux modèles de formateurs de verre. Nous examinons systématiquement des nombreux systèmes, à la fois des mélanges discrets de particules, ainsi que des systèmes a polydispersité continue. Nous discutons le rôle que la polydispersité et la forme du potentiel entre particules jouent pour éviter la cristallisation et parvenir efficacement à des régimes de température inexplorés. De plus, nous étudions les processus dynamiques à l’œuvre pendant une simulation de swap Monte Carlo. Nous démontrons que, dans certains cas, notre technique permet de produire des configurations équilibrées à des températures inaccessibles même dans des expériences. Dans ce régime de température complètement nouveau, nous examinons plusieurs questions ouvertes concernant la physique de la transition vitreuse. Nous montrons qu'un fluide de sphères dures peut être équilibré jusqu'à la densité critique du jamming, et même au-delà. Nous mesurons l'entropie configurationelle dans un liquide refroidi à très basse température. Nous mettons en évidence une forte dépendance dimensionnelle, qui suggère l'existence d'une transition vitreuse idéale à une température finie en trois dimensions et à son absence en deux dimensions. Nous détectons l'augmentation de l'ordre amorphe quantifié par une longueur statique point-to-set pendant la formation du verre. Nous mesurons les exposants critiques introduits dans la théorie de champ moyen des verres beaucoup plus proche de la température critique prédite dans la théorie. Enfin, nous révélons l'absence de transition géométrique caractérisant le paysage d’énergie potentiel au travers de la température du crossover de la théorie de couplages de modes.Les modèles et les algorithmes développés dans cette thèse déplacent les études des liquides surfoundus vers un territoire entièrement nouveau, en réduisant l'écart entre la théorie et les expériences, ce qui nous amène plus proche de la solution du problème de la transition vitreuse. / Understanding the mechanisms that lead to glass formation is one of the open problems for the condensed matter research. Numerous questions remain unanswered, because the tremendous increase of relaxation times during the cooling process prevents the exploration of equilibrium properties of supercooled liquids at very low temperature. Computer simulations of glass-forming liquids are nowadays able to reach equilibrium at temperatures comparable to the Mode-Coupling crossover temperature, which is well above the experimental glass transition temperature. As a consequence, simulations lag eight orders of magnitude behind experiments in terms of equilibration times. Progress to close this gap has been slow, and stems mostly from hardware improvements.In this thesis we make an important step to close this gap. We combine the use of a Monte Carlo algorithm, known as the swap algorithm, with the design of novel glass-forming models. We systematically test numerous models using both discrete mixtures and polydisperse systems. We discuss the role that polydispersity and particle softness play in avoiding crystallization and in efficiently reaching previously unexplored regimes. We study the dynamical processes taking place during swap Monte Carlo simulations. We demonstrate that in some cases our technique is able to produce thermalized configurations at temperatures inaccessible even by experiments.In this newly accessible regime, we investigate some open questions concerning the glass transition. We show that a hard sphere fluid can be equilibrated at, and even beyond, the jamming packing fraction. We measure the configurational entropy in extremely supercooled liquid, finding a strong dimensional dependence that supports, on the one hand, the existence of an ideal glass transition at a finite temperature in three dimensions and, on the other hand, its absence in two dimensions. We detect the increase of amorphous order quantified through a static point-to-set length throughout the glass formation. We measure the critical exponents introduced in the mean-field theory of glasses much closer to the supposed ideal glass transition. Finally, we reveal the absence of a sharp geometric transition in the potential energy landscape across the Mode-Coupling crossover.The models and the algorithms developed in this thesis shift the computational studies of glass-forming liquids to an entirely new territory, which should help to close the gap between theory and experiments, and get us closer to solve the long-standing problem of the glass transition.
466

Flux et anisotropie du rayonnement cosmique galactique : au-delà des modèles continus / Flux and anisotropy of galactic cosmic rays : beyond homogeneous models

Bernard, Guilhem 29 October 2013 (has links)
Cette thèse explore les conséquences du fait que les sources de rayons cosmiques sont distribuées de façon non homogène dans notre Galaxie. Elle débute par plusieurs synthèses théoriques et expérimentales. Dans un premier temps la présentation du milieu interstellaire permet de comprendre les mécanismes en jeu dans la propagation et l'accélération des rayons cosmiques. Puis l'étude du mécanisme détaillé de la diffusion des rayons cosmiques sur le champ magnétique conduit à l'équation de propagation utilisée communément. Les solutions stationnaires de cette équation seront rappelées, puis la thèse s'articule autour de l'étude des solutions non stationnaires dans le cadre de sources ponctuelles dépendantes du temps. Une étude statistique permet d'évaluer la dispersion du flux de rayons cosmiques autour de sa valeur moyenne. Le calcul de cette dispersion conduite à des divergences mathématiques et des outils statistiques sont développés pour contourner ce problème. Ainsi l'effet de la granularité des sources est discuté et l'impact sur le spectre du rayonnement cosmique permet d'expliquer les récentes mesures de flux de protons et d'héliums de expériences CREAM et PAMELA.D'autre part la thèse porte sur l'étude de l'anisotropie du rayonnement cosmique. Les méthodes de mesures expérimentales seront rappelées, et une partie du manuscrit est consacrée à relier les calculs théoriques, menés dans le cadre des modèles de propagation, aux expériences. S'en suit d'une part le calcul de l'effet de l'environnement local sur la mesure d'anisotropie, comme l'influence d'un coefficient de diffusion local. Puis, l'anisotropie et sa variance sont calculées dans le cadre de sources ponctuelles avec l'aide des outils développés dans la première partie. Enfin, la possible influence des sources locales sur l'anisotropie est discutée à la lumière des derniers résultats expérimentaux. / In this thesis I study the consequence of non homogeneously distributed cosmic ray sources in the Milky way. The document starts with theoretical and experimental synthesis. Firstly, I will describe the interstellar medium to understand the mechanism of propagation and acceleration of cosmic rays. Then, the detailed study of cosmic rays diffusion on the galactic magnetic field allows to write a commonly used propagation equation. I will recall the Steady-state solutions of this equation, then I will focus on the time dependant solutions with point-like sources. A statistical study is performed in order to estimate the standard deviation of the flux around its mean value. The computation of this standard deviation leads to mathematical divergences. Thus, I will develop statistical tools to bypass this issue. So i will discuss the effect of the granularity of cosmic ray sources. Its impact on cosmic ray spectrum can explain some recent features observed by the experiments CREAM and PAMELA.Besides, this thesis is focused on the study of the anisotropy of cosmic rays. I will recap experimental methods of measurements, and I will show how to connect theoretical calculation from propagation theories to experimental measurements. Then, the influence of the local environment on the anisotropy measurements will be discussed, particularly the effect of a local diffusion coefficient. Then, I will compute anisotropy and its variance in a framework of point-like local sources with the tools developed in the first part. Finally, the possible influence of local sources on the anisotropy is discussed in the light of the last experimental results.
467

Algorithmes d'accélération générique pour les méthodes d'optimisation en apprentissage statistique / Generic acceleration schemes for gradient-based optimization in machine learning

Lin, Hongzhou 16 November 2017 (has links)
Les problèmes d’optimisation apparaissent naturellement pendant l’entraine-ment de modèles d’apprentissage supervises. Un exemple typique est le problème deminimisation du risque empirique (ERM), qui vise a trouver un estimateur en mini-misant le risque sur un ensemble de données. Le principal défi consiste a concevoirdes algorithmes d’optimisation efficaces permettant de traiter un grand nombre dedonnées dans des espaces de grande dimension. Dans ce cadre, les méthodes classiques d’optimisation, telles que l’algorithme de descente de gradient et sa varianteaccélérée, sont couteux en termes de calcul car elles nécessitent de passer a traverstoutes les données a chaque évaluation du gradient. Ce défaut motive le développement de la classe des algorithmes incrémentaux qui effectuent des mises a jour avecdes gradients incrémentaux. Ces algorithmes réduisent le cout de calcul par itération, entrainant une amélioration significative du temps de calcul par rapport auxméthodes classiques. Une question naturelle se pose : serait-il possible d’accélérerdavantage ces méthodes incrémentales ? Nous donnons ici une réponse positive, enintroduisant plusieurs schémas d’accélération génériques.Dans le chapitre 2, nous développons une variante proximale de l’algorithmeFinito/MISO, qui est une méthode incrémentale initialement conçue pour des problèmes lisses et fortement convexes. Nous introduisons une étape proximale dans lamise a jour de l’algorithme pour prendre en compte la pénalité de régularisation quiest potentiellement non lisse. L’algorithme obtenu admet un taux de convergencesimilaire a l’algorithme Finito/MISO original.Dans le chapitre 3, nous introduisons un schéma d’accélération générique, appele Catalyst, qui s’applique a une grande classe de méthodes d’optimisation, dansle cadre d’optimisations convexes. La caractéristique générique de notre schémapermet l’utilisateur de sélectionner leur méthode préférée la plus adaptée aux problemes. Nous montrons que en appliquant Catalyst, nous obtenons un taux deconvergence accélère. Plus important, ce taux coïncide avec le taux optimale desméthodes incrémentales a un facteur logarithmique pres dans l’analyse du pire descas. Ainsi, notre approche est non seulement générique mais aussi presque optimale du point de vue théorique. Nous montrons ensuite que l’accélération est bienprésentée en pratique, surtout pour des problèmes mal conditionnes.Dans le chapitre 4, nous présentons une seconde approche générique qui appliqueles principes Quasi-Newton pour accélérer les méthodes de premier ordre, appeléeQNing. Le schéma s’applique a la même classe de méthodes que Catalyst. En outre,il admet une simple interprétation comme une combinaison de l’algorithme L-BFGSet de la régularisation Moreau-Yosida. A notre connaissance, QNing est le premieralgorithme de type Quasi-Newton compatible avec les objectifs composites et lastructure de somme finie.Nous concluons cette thèse en proposant une extension de l’algorithme Catalyst au cas non convexe. Il s’agit d’un travail en collaboration avec Dr. CourtneyPaquette et Pr. Dmitriy Drusvyatskiy, de l’Université de Washington, et mes encadrants de thèse. Le point fort de cette approche réside dans sa capacité a s’adapterautomatiquement a la convexité. En effet, aucune information sur la convexité de lafonction n’est nécessaire avant de lancer l’algorithme. Lorsque l’objectif est convexe,l’approche proposée présente les mêmes taux de convergence que l’algorithme Catalyst convexe, entrainant une accélération. Lorsque l’objectif est non-convexe, l’algorithme converge vers les points stationnaires avec le meilleur taux de convergencepour les méthodes de premier ordre. Des résultats expérimentaux prometteurs sontobserves en appliquant notre méthode a des problèmes de factorisation de matriceparcimonieuse et a l’entrainement de modèles de réseaux de neurones. / Optimization problems arise naturally in machine learning for supervised problems. A typical example is the empirical risk minimization (ERM) formulation, which aims to find the best a posteriori estimator minimizing the regularized risk on a given dataset. The current challenge is to design efficient optimization algorithms that are able to handle large amounts of data in high-dimensional feature spaces. Classical optimization methods such as the gradient descent algorithm and its accelerated variants are computationally expensive under this setting, because they require to pass through the entire dataset at each evaluation of the gradient. This was the motivation for the recent development of incremental algorithms. By loading a single data point (or a minibatch) for each update, incremental algorithms reduce the computational cost per-iteration, yielding a significant improvement compared to classical methods, both in theory and in practice. A natural question arises: is it possible to further accelerate these incremental methods? We provide a positive answer by introducing several generic acceleration schemes for first-order optimization methods, which is the main contribution of this manuscript. In chapter 2, we develop a proximal variant of the Finito/MISO algorithm, which is an incremental method originally designed for smooth strongly convex problems. In order to deal with the non-smooth regularization penalty, we modify the update by introducing an additional proximal step. The resulting algorithm enjoys a similar linear convergence rate as the original algorithm, when the problem is strongly convex. In chapter 3, we introduce a generic acceleration scheme, called Catalyst, for accelerating gradient-based optimization methods in the sense of Nesterov. Our approach applies to a large class of algorithms, including gradient descent, block coordinate descent, incremental algorithms such as SAG, SAGA, SDCA, SVRG, Finito/MISO, and their proximal variants. For all of these methods, we provide acceleration and explicit support for non-strongly convex objectives. The Catalyst algorithm can be viewed as an inexact accelerated proximal point algorithm, applying a given optimization method to approximately compute the proximal operator at each iteration. The key for achieving acceleration is to appropriately choose an inexactness criteria and control the required computational effort. We provide a global complexity analysis and show that acceleration is useful in practice. In chapter 4, we present another generic approach called QNing, which applies Quasi-Newton principles to accelerate gradient-based optimization methods. The algorithm is a combination of inexact L-BFGS algorithm and the Moreau-Yosida regularization, which applies to the same class of functions as Catalyst. To the best of our knowledge, QNing is the first Quasi-Newton type algorithm compatible with both composite objectives and the finite sum setting. We provide extensive experiments showing that QNing gives significant improvement over competing methods in large-scale machine learning problems. We conclude the thesis by extending the Catalyst algorithm into the nonconvex setting. This is a joint work with Courtney Paquette and Dmitriy Drusvyatskiy, from University of Washington, and my PhD advisors. The strength of the approach lies in the ability of the automatic adaptation to convexity, meaning that no information about the convexity of the objective function is required before running the algorithm. When the objective is convex, the proposed approach enjoys the same convergence result as the convex Catalyst algorithm, leading to acceleration. When the objective is nonconvex, it achieves the best known convergence rate to stationary points for first-order methods. Promising experimental results have been observed when applying to sparse matrix factorization problems and neural network models.
468

Apprentissage statistique relationnel : apprentissage de structures de réseaux de Markov logiques / Statistical relational learning : Structure learning for Markov logic networks

Dinh, Quang-Thang 28 November 2011 (has links)
Un réseau logique de Markov est formé de clauses en logique du premier ordre auxquelles sont associés des poids. Cette thèse propose plusieurs méthodes pour l’apprentissage de la structure de réseaux logiques de Markov (MLN) à partir de données relationnelles. Ces méthodes sont de deux types, un premier groupe reposant sur les techniques de propositionnalisation et un second groupe reposant sur la notion de Graphe des Prédicats. L’idée sous-jacente aux méthodes à base de propositionnalisation consiste à construire un jeu de clauses candidates à partir de jeux de littéraux dépendants. Pour trouver de tels jeux, nous utilisons une méthode de propositionnalisation afin de reporter les informations relationnelles dans des tableaux booléens, qui serviront comme tables de contingence pour des test de dépendance. Nous avons proposé deux méthodes de propositionnalisation, pour lesquelles trois algorithmes ont été développés, qui couvrent les problèmes d’appprentissage génératif et discriminant. Nous avons ensuite défini le concept de Graphe des Prédicats qui synthétise les relations binaires entre les prédicats d’un domaine. Des clauses candidates peuvent être rapidement et facilement produites en suivant des chemins dans le graphe puis en les variabilisant. Nous avons développé deux algorithmes reposant sur les Graphes des Prédicats, qui couvrent les problèmes d’appprentissage génératif et discriminant. / A Markov Logic Network is composed of a set of weighted first-order logic formulas. In this dissertation we propose several methods to learn a MLN structure from a relational dataset. These methods are of two kinds: methods based on propositionalization and methods based on Graph of Predicates. The methods based on propositionalization are based on the idea of building a set of candidate clauses from sets of dependent variable literals. In order to find such sets of dependent variable literals, we use a propositionalization technique to transform relational information in the dataset into boolean tables, that are then provided as contingency tables for tests of dependence. Two propositionalization methods are proposed, from which three learners have been developed, that handle both generative and discriminative learning. We then introduce the concept of Graph of Predicates, which synthethises the binary relations between the predicates of a domain. Candidate clauses can be quickly and easily generated by simply finding paths in the graph and then variabilizing them. Based on this Graph, two learners have been developed, that handle both generative and discriminative learning.
469

Three essays on dynamic models with applications in marketing and finance

Mullick, Shantanu 18 July 2016 (has links)
Cette thèse se compose de trois chapitres qui présentent trois articles indépendants portant sur l’application de modèles dynamiques dans les domaines du marketing et de la finance. Le premier article adopte une approche structurelle des modèles dynamiques pour analyser la relation entre les revenus et l’impact des taxes sur les produits de grignotage (fat taxes). Le deuxième et le troisième article utilisent des modèles dynamiques en forme réduite : nous y mobilisons des modèles hiérarchiques dynamiques qui intègrent un cadre bayésien hiérarchique à un Modèle Linéaire Dynamique. Le second article étudie la tarification dynamique des produits de saison à l’aide d’un modèle hiérarchique dynamique et flexible. Le troisième article analyse le coût du financement des opérations commerciales au cours de la crise financière de 2008-2009 au moyen d’un modèle hiérarchique dynamique. Dans le premier article, nous utilisons un modèle structurel dynamique pour analyser la corrélation entre les revenus et l’impact d’une taxe sur les produits de grignotage (ou fat tax). Les résultats montrent qu’une telle taxe a moins d’impact sur les individus à faibles revenus que sur ceux dont les revenus sont plus élevés, dans la mesure où le premier groupe a davantage tendance à consommer des snacks. Dans le second article, nous élaborons un modèle hiérarchique dynamique et flexible pour estimer la trajectoire des sensibilités-prix afin d’en déduire le tarif dynamique des produits de saison. Nous constatons que les prix optimaux dépendent de la composition de la clientèle du magasin, et que les vendeurs de produits de saisons peuvent en tirer profit lorsqu’ils fixent leurs tarifs. Dans le troisième article, nous utilisons un modèle hiérarchique dynamique pour étudier l’impact de quatre indicateurs macroéconomiques sur le coût du financement des opérations commerciales pendant la crise financière de 2008-2009, ainsi que pendant les périodes qui l’ont précédée et suivie. Nous constatons que l’impact de trois de ces facteurs macroéconomiques (croissance du PIB, échanges commerciaux et inflation) sur le financement commercial est conforme aux prédictions théoriques, tandis que l’impact du quatrième facteur (capitalisation boursière) semble assez surprenant. / This dissertation consists of three chapters that present three standalone essays on the application of dynamic models to marketing and finance. The first essay uses a structural approach to dynamic models to study the role of income on the impact of fat taxes. The second and third essays use a reduced form approach to dynamic models: we use dynamic hierarchical models which incorporate a Hierarchical Bayesian framework in a Dynamic Linear Model. The second essay studies the dynamic pricing of seasonal goods with the help of a flexible dynamic hierarchical model. The third essay studies the cost of trade finance during the financial crisis of 2008-2009 using a dynamic hierarchical model. In the first essay, we use a dynamic structural model to investigate how income interacts with the impact of a “fat tax” (a tax on snack food). We find that the low-income group is less impacted by a “fat tax” compared to the higher income group as they have a higher tendency to consume snack food. In the second essay, we develop a flexible dynamic hierarchical model to estimate the trajectory of price sensitivities which allows us to infer the dynamic prices of seasonal goods. We find that optimal prices depend on the customer composition of the store, and seasonal goods retailers can take advantage of this while setting prices. In the third essay, using a dynamic hierarchical model we examine the impact of four macroeconomic indicators on trade finance costs in and around the financial crisis of 2008-2009. We find the impact of three of these macroeconomic factors (GDP growth, trade and inflation) on trade finance to be in line with the theory, while the impact of the fourth factor (stock market capitalization) on trade finance appears somewhat surprising.
470

Estimation statistique non paramétrique appliquée à la surveillance des eaux côtières / Nonparametric estimation applied to the coastal water monitoring

Capderou, Sami 20 September 2018 (has links)
La protection de l’environnement, en particulier celle des systèmes aquatiques, est une des priorités de nos sociétés. L’utilisation de capteurs biologiques permettant de tester la qualité de l’eau en continue est une voie possible de surveillance intégrée des milieux aquatiques. Cette démarche a été mise en place avec succès sur des mollusques bivalves équipés d’électrodes légères qui respectent leur comportement naturel, on parle alors de valvométrie. Le but de cette thèse est de calculer et traiter automatiquement la vitesse de mouvement des valves de mollusques bivalves installés dans divers milieux aquatiques. Les années d’enregistrements déjà acquises nous permettrons, à partir de nos modèles, de détecter s’il existe des variations de la vitesse de mouvement des valves liées aux variations de température. Plus particulièrement, nous avons étudié les dérivées de différents estimateurs non paramétriques d’une fonction de régression : l’estimateur récursif de Nadaraya-Watson, l’estimateur de Johnston, l’estimateur de Wand-Jones ainsi que l’estimateur de Révész. Nous avons aussi pris en compte la version déterministe de l’estimateur de Nadaraya-Watson. Pour chacun des estimateurs nous avons mené une étude sur les comportement asymptotiques en particulier la convergence presque sûre et la normalité asymptotique. Nous avons illustré numériquement ces propriétés et appliqué ces nouvelles méthodes d’estimations sur des données réelles afin de valider, ou non, les hypothèses environnementales émises par les biologistes. / The protection of the environment, in particular aquatic systems, should be tackled as one of the top priorities of our society. The use of biological sensors to continuously test water quality is a possible way of monitoring aquatic environments. This approach has been successfully implemented on bivalve molluscs equipped with light electrodes that respect their natural behaviour, we then speak of valvometry. The purpose of this thesis is to automatically calculate and process the velocity of movement of bivalve mollusc valves in various aquatic environments. Years of recordings already acquired will allow us, from our models, to detect if there are variations in the speed of movement of the valves related to temperature variations. In particular, we studied the derivatives of different non parametric estimators of the regression function : the recursive Nadaraya-Watson estimator, the Johnston estimator, the Wand-Jones estimator and the Révész estimator. We also considered the deterministic version of the Nadaraya-Watson estimator. For each of the estimators we conducted a study on the asymptotic behaviour especially on the almost sure convergence and th asymptotic normality. We digitally illustrated these properties and applied these new estimation methods to real data to validate, or not, the environmental assumptions made by biologists.

Page generated in 0.0292 seconds