• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 945
  • 444
  • 93
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1531
  • 381
  • 293
  • 274
  • 226
  • 202
  • 192
  • 179
  • 153
  • 147
  • 143
  • 142
  • 142
  • 139
  • 136
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
461

Systèmes hybrides : de la nanoparticule aux gels / Hybrid system : from nanoparticles to gels

Zhao, Zhihua 15 September 2017 (has links)
Ce travail de thèse porte sur une meilleure compréhension de la croissance de nanoparticules d'oxyde de zinc élaborées à partir d'une approche organométallique. Au cours de ce travail, une analyse de la taille des nanoparticules en utilisant un outil simple basée sur une représentation bidimentionnelle couplée à une analyse statistique multivariée. Elle permet d'extraire la corrélation éventuelle entre la longueur et la largeur des nanoparticules. Cette approche permet de traiter un ensemble de nanoparticules homogène ou hétérogène en taille et en forme. Comparée à l'approche statistique usuelle qui analyse individuellement la distribution de la longueur et celle de la largeur, notre démarche met très facilement en évidence les différents types de nanoparticule et leur anisotropie (ou non). Pour chaque classe de nano-objets considérée, la relation entre la longueur et la largeur, c'est-à-dire les corrélations fortes ou faible entre ces deux paramètres, fourni des informations concernant le(s) mécanisme(s) de nucléation-croissance des nanoparticules. Par exemple, cette approche permet de suivre l'effet sur la taille et la forme de nanoparticules préparées par différents procédés (chimiques ou physique). A partir de différentes images de microscopie électronique extraites de la bibliographie ou de nos travaux de recherche, nous avons démontré l'efficacité et la simplicité de cette approche. De plus, nous avons pu revisiter la synthèse organométallique de nanoparticules de ZnO à la lumière de cette nouvelle méthode de traitement des données. Les nanoparticules anisotropes obtenues par hydrolyse du dicyclohexyl zinc comme précurseur organométallique en présence d'alkyl amine uniquement ont donc été analysées. Le mécanisme de formation a été étudié par analyse systématique des images de microscopie électroniques à transmission et une croissance par attachement orienté a pu être mise en évidence. De plus, nous avons montré que la taille des nanabatonnets d'oxyde de zinc peut être facilement contrôlée en modulant la vitesse d'hydrolyse, le temps de maturation du mélange précurseur organométallique et ligand alkyl amine avant le début de l'hydrolyse, la nature du ligand et la quantité d'eau introduite. Enfin, pendant ce travail, nous avons observé la gélification des milieux réactionnels. L'étude de ce phénomène a permis de développer une approche originale permettant de mettre en forme des matériaux hybride organique-inorganiques. En effet, à partir d'un ensemble d'expériences utilisant la rhéologie, la RMN, la MET, des calculs théoriques, le WAXS ... nous avons pu mettre en évidence une réaction d'oligomérisation entre le précurseur organométallique et les ligands alkyl amine. Cette oligomérisation entre les centres métalliques conduit à la formation de gels, qui peuvent être mise en forme en utilisant des seringues, des tampons ou encore des moules. Des matériaux hybrides d'oxydes métalliques sont ensuite obtenus par hydrolyse du gel. Cette nouvelle approche a été développée pour l'oxyde de zinc puis a été étendue aux oxydes d'étain et de fer. Il s'agit donc d'une approche générale qui ouvre des perspectives intéressantes dans l'utilisation de ces matériaux notamment comme couches sensibles pour des capteurs de gaz. / This work is focused on the better understanding of the formation of zinc oxide anisotropic nanoparticle through an organometallic synthesis. To start on this project, the development of a statistical tool to analyze nanoparticle sizes and shapes was mandatory. A simple 2D plot with a multivariate statistical analysis is proposed in order to extract, in particular, the correlation between length and width in a collection or a mixture of anisotropic particles. Compared to the usual statistics on the length associated to a second and independent statistical analysis of the width, this simple plot easily points out the various types of nanoparticles and their (an)isotropy. For each class of nano-objects, the relationship between width and length (i.e. the strong or weak correlations between these two parameters) may suggest information concerning the nucleation-growth processes. It allows one to follow the effect on the shape and size distribution of physical or chemical processes such as simple ripening. Various electronic microscopy pictures from the literature or from our own syntheses are used as examples to demonstrate the efficiency and simplicity of such an analysis. Furthermore, following the organometallic approach, well defined crystalline zinc oxide nanorods are obtained through the hydrolysis reaction of dicyclohexyl zinc precursor without solvent in presence of primary fatty amine only. Their mechanism of formation is studied through a multivariate analysis of TEM results and an oriented attachment process is demonstrated. Taking advantage of this mechanism, the size of the ZnO nanorods can be easily adjusted tuned by controlling adjusting the hydrolysis rate, the aging time before hydrolysis, the nature of ligand, and/or the amount of water. During such experiments, a gelification of the chemical media are for the first time observed. This is the origin of the last part of our work, which put forward an original approach for outstanding processable and reshapable hybrid materials. Indeed, we unequivocally demonstrate through various complementary experiments (rheology, NMR, TEM, theoretical calculation, WAXS...) the formation of oligomeric structures in a mixture of fatty amine with organometallic compounds. This oligomerization reaction between the metallic centers induces the formation of a gel which can be processed into fibers, stamped patterns or molded pieces. Metal oxide hybrid materials are obtained merely by hydrolysis of the organometallic gel, which are furthermore liquid crystal. This unprecedented route towards easily processable hydrid and metal oxide materials is demonstrated for zinc oxide and extended to other metal oxides such as tin oxide and iron oxide, proving the universality of the method and paving the way, for example, to new sensitive gas sensors layers.
462

Computer simulations of supercooled liquids near the experimental glass transition / Simulations numériques des liquides surfondus près de la transition vitreuse expérimentale

Ninarello, Andrea Saverio 02 October 2017 (has links)
La compréhension du mécanisme de la formation du verre est l'un des importants problèmes ouverts en recherche sur la matière condensée. De nombreuses questions restent sans réponse, en raison d'une énorme augmentation des temps de relaxation pendant le processus de refroidissement qui ne permet pas l'exploration des propriétés d'équilibre des liquides surfondus à très basses températures. Les simulations numériques des liquides surfondus sont actuellement en mesure d'atteindre l'équilibre à des températures comparables à la température du crossover de la théorie de couplages de modes, qui est bien supérieure à la température de transition vitreuse expérimentale. En conséquence, les simulations plus lentes que les expériences pour équilibrer un liquide surfondu par un facteur d'environ huit ordres de grandeur. Les progrès réalisés pour combler cet écart ont été lents et résultent essentiellement d'améliorations de l'architecture des ordinateurs. Dans cette thèse, nous résolvons en partie le problème de la thermalisation à basse température de liquides surfondus dans des simulations numériques. Nous combinons l'utilisation d'un algorithme Monte Carlo, connu sous le nom d'algorithme de swap, avec la conception de nouveaux modèles de formateurs de verre. Nous examinons systématiquement des nombreux systèmes, à la fois des mélanges discrets de particules, ainsi que des systèmes a polydispersité continue. Nous discutons le rôle que la polydispersité et la forme du potentiel entre particules jouent pour éviter la cristallisation et parvenir efficacement à des régimes de température inexplorés. De plus, nous étudions les processus dynamiques à l’œuvre pendant une simulation de swap Monte Carlo. Nous démontrons que, dans certains cas, notre technique permet de produire des configurations équilibrées à des températures inaccessibles même dans des expériences. Dans ce régime de température complètement nouveau, nous examinons plusieurs questions ouvertes concernant la physique de la transition vitreuse. Nous montrons qu'un fluide de sphères dures peut être équilibré jusqu'à la densité critique du jamming, et même au-delà. Nous mesurons l'entropie configurationelle dans un liquide refroidi à très basse température. Nous mettons en évidence une forte dépendance dimensionnelle, qui suggère l'existence d'une transition vitreuse idéale à une température finie en trois dimensions et à son absence en deux dimensions. Nous détectons l'augmentation de l'ordre amorphe quantifié par une longueur statique point-to-set pendant la formation du verre. Nous mesurons les exposants critiques introduits dans la théorie de champ moyen des verres beaucoup plus proche de la température critique prédite dans la théorie. Enfin, nous révélons l'absence de transition géométrique caractérisant le paysage d’énergie potentiel au travers de la température du crossover de la théorie de couplages de modes.Les modèles et les algorithmes développés dans cette thèse déplacent les études des liquides surfoundus vers un territoire entièrement nouveau, en réduisant l'écart entre la théorie et les expériences, ce qui nous amène plus proche de la solution du problème de la transition vitreuse. / Understanding the mechanisms that lead to glass formation is one of the open problems for the condensed matter research. Numerous questions remain unanswered, because the tremendous increase of relaxation times during the cooling process prevents the exploration of equilibrium properties of supercooled liquids at very low temperature. Computer simulations of glass-forming liquids are nowadays able to reach equilibrium at temperatures comparable to the Mode-Coupling crossover temperature, which is well above the experimental glass transition temperature. As a consequence, simulations lag eight orders of magnitude behind experiments in terms of equilibration times. Progress to close this gap has been slow, and stems mostly from hardware improvements.In this thesis we make an important step to close this gap. We combine the use of a Monte Carlo algorithm, known as the swap algorithm, with the design of novel glass-forming models. We systematically test numerous models using both discrete mixtures and polydisperse systems. We discuss the role that polydispersity and particle softness play in avoiding crystallization and in efficiently reaching previously unexplored regimes. We study the dynamical processes taking place during swap Monte Carlo simulations. We demonstrate that in some cases our technique is able to produce thermalized configurations at temperatures inaccessible even by experiments.In this newly accessible regime, we investigate some open questions concerning the glass transition. We show that a hard sphere fluid can be equilibrated at, and even beyond, the jamming packing fraction. We measure the configurational entropy in extremely supercooled liquid, finding a strong dimensional dependence that supports, on the one hand, the existence of an ideal glass transition at a finite temperature in three dimensions and, on the other hand, its absence in two dimensions. We detect the increase of amorphous order quantified through a static point-to-set length throughout the glass formation. We measure the critical exponents introduced in the mean-field theory of glasses much closer to the supposed ideal glass transition. Finally, we reveal the absence of a sharp geometric transition in the potential energy landscape across the Mode-Coupling crossover.The models and the algorithms developed in this thesis shift the computational studies of glass-forming liquids to an entirely new territory, which should help to close the gap between theory and experiments, and get us closer to solve the long-standing problem of the glass transition.
463

Flux et anisotropie du rayonnement cosmique galactique : au-delà des modèles continus / Flux and anisotropy of galactic cosmic rays : beyond homogeneous models

Bernard, Guilhem 29 October 2013 (has links)
Cette thèse explore les conséquences du fait que les sources de rayons cosmiques sont distribuées de façon non homogène dans notre Galaxie. Elle débute par plusieurs synthèses théoriques et expérimentales. Dans un premier temps la présentation du milieu interstellaire permet de comprendre les mécanismes en jeu dans la propagation et l'accélération des rayons cosmiques. Puis l'étude du mécanisme détaillé de la diffusion des rayons cosmiques sur le champ magnétique conduit à l'équation de propagation utilisée communément. Les solutions stationnaires de cette équation seront rappelées, puis la thèse s'articule autour de l'étude des solutions non stationnaires dans le cadre de sources ponctuelles dépendantes du temps. Une étude statistique permet d'évaluer la dispersion du flux de rayons cosmiques autour de sa valeur moyenne. Le calcul de cette dispersion conduite à des divergences mathématiques et des outils statistiques sont développés pour contourner ce problème. Ainsi l'effet de la granularité des sources est discuté et l'impact sur le spectre du rayonnement cosmique permet d'expliquer les récentes mesures de flux de protons et d'héliums de expériences CREAM et PAMELA.D'autre part la thèse porte sur l'étude de l'anisotropie du rayonnement cosmique. Les méthodes de mesures expérimentales seront rappelées, et une partie du manuscrit est consacrée à relier les calculs théoriques, menés dans le cadre des modèles de propagation, aux expériences. S'en suit d'une part le calcul de l'effet de l'environnement local sur la mesure d'anisotropie, comme l'influence d'un coefficient de diffusion local. Puis, l'anisotropie et sa variance sont calculées dans le cadre de sources ponctuelles avec l'aide des outils développés dans la première partie. Enfin, la possible influence des sources locales sur l'anisotropie est discutée à la lumière des derniers résultats expérimentaux. / In this thesis I study the consequence of non homogeneously distributed cosmic ray sources in the Milky way. The document starts with theoretical and experimental synthesis. Firstly, I will describe the interstellar medium to understand the mechanism of propagation and acceleration of cosmic rays. Then, the detailed study of cosmic rays diffusion on the galactic magnetic field allows to write a commonly used propagation equation. I will recall the Steady-state solutions of this equation, then I will focus on the time dependant solutions with point-like sources. A statistical study is performed in order to estimate the standard deviation of the flux around its mean value. The computation of this standard deviation leads to mathematical divergences. Thus, I will develop statistical tools to bypass this issue. So i will discuss the effect of the granularity of cosmic ray sources. Its impact on cosmic ray spectrum can explain some recent features observed by the experiments CREAM and PAMELA.Besides, this thesis is focused on the study of the anisotropy of cosmic rays. I will recap experimental methods of measurements, and I will show how to connect theoretical calculation from propagation theories to experimental measurements. Then, the influence of the local environment on the anisotropy measurements will be discussed, particularly the effect of a local diffusion coefficient. Then, I will compute anisotropy and its variance in a framework of point-like local sources with the tools developed in the first part. Finally, the possible influence of local sources on the anisotropy is discussed in the light of the last experimental results.
464

Algorithmes d'accélération générique pour les méthodes d'optimisation en apprentissage statistique / Generic acceleration schemes for gradient-based optimization in machine learning

Lin, Hongzhou 16 November 2017 (has links)
Les problèmes d’optimisation apparaissent naturellement pendant l’entraine-ment de modèles d’apprentissage supervises. Un exemple typique est le problème deminimisation du risque empirique (ERM), qui vise a trouver un estimateur en mini-misant le risque sur un ensemble de données. Le principal défi consiste a concevoirdes algorithmes d’optimisation efficaces permettant de traiter un grand nombre dedonnées dans des espaces de grande dimension. Dans ce cadre, les méthodes classiques d’optimisation, telles que l’algorithme de descente de gradient et sa varianteaccélérée, sont couteux en termes de calcul car elles nécessitent de passer a traverstoutes les données a chaque évaluation du gradient. Ce défaut motive le développement de la classe des algorithmes incrémentaux qui effectuent des mises a jour avecdes gradients incrémentaux. Ces algorithmes réduisent le cout de calcul par itération, entrainant une amélioration significative du temps de calcul par rapport auxméthodes classiques. Une question naturelle se pose : serait-il possible d’accélérerdavantage ces méthodes incrémentales ? Nous donnons ici une réponse positive, enintroduisant plusieurs schémas d’accélération génériques.Dans le chapitre 2, nous développons une variante proximale de l’algorithmeFinito/MISO, qui est une méthode incrémentale initialement conçue pour des problèmes lisses et fortement convexes. Nous introduisons une étape proximale dans lamise a jour de l’algorithme pour prendre en compte la pénalité de régularisation quiest potentiellement non lisse. L’algorithme obtenu admet un taux de convergencesimilaire a l’algorithme Finito/MISO original.Dans le chapitre 3, nous introduisons un schéma d’accélération générique, appele Catalyst, qui s’applique a une grande classe de méthodes d’optimisation, dansle cadre d’optimisations convexes. La caractéristique générique de notre schémapermet l’utilisateur de sélectionner leur méthode préférée la plus adaptée aux problemes. Nous montrons que en appliquant Catalyst, nous obtenons un taux deconvergence accélère. Plus important, ce taux coïncide avec le taux optimale desméthodes incrémentales a un facteur logarithmique pres dans l’analyse du pire descas. Ainsi, notre approche est non seulement générique mais aussi presque optimale du point de vue théorique. Nous montrons ensuite que l’accélération est bienprésentée en pratique, surtout pour des problèmes mal conditionnes.Dans le chapitre 4, nous présentons une seconde approche générique qui appliqueles principes Quasi-Newton pour accélérer les méthodes de premier ordre, appeléeQNing. Le schéma s’applique a la même classe de méthodes que Catalyst. En outre,il admet une simple interprétation comme une combinaison de l’algorithme L-BFGSet de la régularisation Moreau-Yosida. A notre connaissance, QNing est le premieralgorithme de type Quasi-Newton compatible avec les objectifs composites et lastructure de somme finie.Nous concluons cette thèse en proposant une extension de l’algorithme Catalyst au cas non convexe. Il s’agit d’un travail en collaboration avec Dr. CourtneyPaquette et Pr. Dmitriy Drusvyatskiy, de l’Université de Washington, et mes encadrants de thèse. Le point fort de cette approche réside dans sa capacité a s’adapterautomatiquement a la convexité. En effet, aucune information sur la convexité de lafonction n’est nécessaire avant de lancer l’algorithme. Lorsque l’objectif est convexe,l’approche proposée présente les mêmes taux de convergence que l’algorithme Catalyst convexe, entrainant une accélération. Lorsque l’objectif est non-convexe, l’algorithme converge vers les points stationnaires avec le meilleur taux de convergencepour les méthodes de premier ordre. Des résultats expérimentaux prometteurs sontobserves en appliquant notre méthode a des problèmes de factorisation de matriceparcimonieuse et a l’entrainement de modèles de réseaux de neurones. / Optimization problems arise naturally in machine learning for supervised problems. A typical example is the empirical risk minimization (ERM) formulation, which aims to find the best a posteriori estimator minimizing the regularized risk on a given dataset. The current challenge is to design efficient optimization algorithms that are able to handle large amounts of data in high-dimensional feature spaces. Classical optimization methods such as the gradient descent algorithm and its accelerated variants are computationally expensive under this setting, because they require to pass through the entire dataset at each evaluation of the gradient. This was the motivation for the recent development of incremental algorithms. By loading a single data point (or a minibatch) for each update, incremental algorithms reduce the computational cost per-iteration, yielding a significant improvement compared to classical methods, both in theory and in practice. A natural question arises: is it possible to further accelerate these incremental methods? We provide a positive answer by introducing several generic acceleration schemes for first-order optimization methods, which is the main contribution of this manuscript. In chapter 2, we develop a proximal variant of the Finito/MISO algorithm, which is an incremental method originally designed for smooth strongly convex problems. In order to deal with the non-smooth regularization penalty, we modify the update by introducing an additional proximal step. The resulting algorithm enjoys a similar linear convergence rate as the original algorithm, when the problem is strongly convex. In chapter 3, we introduce a generic acceleration scheme, called Catalyst, for accelerating gradient-based optimization methods in the sense of Nesterov. Our approach applies to a large class of algorithms, including gradient descent, block coordinate descent, incremental algorithms such as SAG, SAGA, SDCA, SVRG, Finito/MISO, and their proximal variants. For all of these methods, we provide acceleration and explicit support for non-strongly convex objectives. The Catalyst algorithm can be viewed as an inexact accelerated proximal point algorithm, applying a given optimization method to approximately compute the proximal operator at each iteration. The key for achieving acceleration is to appropriately choose an inexactness criteria and control the required computational effort. We provide a global complexity analysis and show that acceleration is useful in practice. In chapter 4, we present another generic approach called QNing, which applies Quasi-Newton principles to accelerate gradient-based optimization methods. The algorithm is a combination of inexact L-BFGS algorithm and the Moreau-Yosida regularization, which applies to the same class of functions as Catalyst. To the best of our knowledge, QNing is the first Quasi-Newton type algorithm compatible with both composite objectives and the finite sum setting. We provide extensive experiments showing that QNing gives significant improvement over competing methods in large-scale machine learning problems. We conclude the thesis by extending the Catalyst algorithm into the nonconvex setting. This is a joint work with Courtney Paquette and Dmitriy Drusvyatskiy, from University of Washington, and my PhD advisors. The strength of the approach lies in the ability of the automatic adaptation to convexity, meaning that no information about the convexity of the objective function is required before running the algorithm. When the objective is convex, the proposed approach enjoys the same convergence result as the convex Catalyst algorithm, leading to acceleration. When the objective is nonconvex, it achieves the best known convergence rate to stationary points for first-order methods. Promising experimental results have been observed when applying to sparse matrix factorization problems and neural network models.
465

Apprentissage statistique relationnel : apprentissage de structures de réseaux de Markov logiques / Statistical relational learning : Structure learning for Markov logic networks

Dinh, Quang-Thang 28 November 2011 (has links)
Un réseau logique de Markov est formé de clauses en logique du premier ordre auxquelles sont associés des poids. Cette thèse propose plusieurs méthodes pour l’apprentissage de la structure de réseaux logiques de Markov (MLN) à partir de données relationnelles. Ces méthodes sont de deux types, un premier groupe reposant sur les techniques de propositionnalisation et un second groupe reposant sur la notion de Graphe des Prédicats. L’idée sous-jacente aux méthodes à base de propositionnalisation consiste à construire un jeu de clauses candidates à partir de jeux de littéraux dépendants. Pour trouver de tels jeux, nous utilisons une méthode de propositionnalisation afin de reporter les informations relationnelles dans des tableaux booléens, qui serviront comme tables de contingence pour des test de dépendance. Nous avons proposé deux méthodes de propositionnalisation, pour lesquelles trois algorithmes ont été développés, qui couvrent les problèmes d’appprentissage génératif et discriminant. Nous avons ensuite défini le concept de Graphe des Prédicats qui synthétise les relations binaires entre les prédicats d’un domaine. Des clauses candidates peuvent être rapidement et facilement produites en suivant des chemins dans le graphe puis en les variabilisant. Nous avons développé deux algorithmes reposant sur les Graphes des Prédicats, qui couvrent les problèmes d’appprentissage génératif et discriminant. / A Markov Logic Network is composed of a set of weighted first-order logic formulas. In this dissertation we propose several methods to learn a MLN structure from a relational dataset. These methods are of two kinds: methods based on propositionalization and methods based on Graph of Predicates. The methods based on propositionalization are based on the idea of building a set of candidate clauses from sets of dependent variable literals. In order to find such sets of dependent variable literals, we use a propositionalization technique to transform relational information in the dataset into boolean tables, that are then provided as contingency tables for tests of dependence. Two propositionalization methods are proposed, from which three learners have been developed, that handle both generative and discriminative learning. We then introduce the concept of Graph of Predicates, which synthethises the binary relations between the predicates of a domain. Candidate clauses can be quickly and easily generated by simply finding paths in the graph and then variabilizing them. Based on this Graph, two learners have been developed, that handle both generative and discriminative learning.
466

Three essays on dynamic models with applications in marketing and finance

Mullick, Shantanu 18 July 2016 (has links)
Cette thèse se compose de trois chapitres qui présentent trois articles indépendants portant sur l’application de modèles dynamiques dans les domaines du marketing et de la finance. Le premier article adopte une approche structurelle des modèles dynamiques pour analyser la relation entre les revenus et l’impact des taxes sur les produits de grignotage (fat taxes). Le deuxième et le troisième article utilisent des modèles dynamiques en forme réduite : nous y mobilisons des modèles hiérarchiques dynamiques qui intègrent un cadre bayésien hiérarchique à un Modèle Linéaire Dynamique. Le second article étudie la tarification dynamique des produits de saison à l’aide d’un modèle hiérarchique dynamique et flexible. Le troisième article analyse le coût du financement des opérations commerciales au cours de la crise financière de 2008-2009 au moyen d’un modèle hiérarchique dynamique. Dans le premier article, nous utilisons un modèle structurel dynamique pour analyser la corrélation entre les revenus et l’impact d’une taxe sur les produits de grignotage (ou fat tax). Les résultats montrent qu’une telle taxe a moins d’impact sur les individus à faibles revenus que sur ceux dont les revenus sont plus élevés, dans la mesure où le premier groupe a davantage tendance à consommer des snacks. Dans le second article, nous élaborons un modèle hiérarchique dynamique et flexible pour estimer la trajectoire des sensibilités-prix afin d’en déduire le tarif dynamique des produits de saison. Nous constatons que les prix optimaux dépendent de la composition de la clientèle du magasin, et que les vendeurs de produits de saisons peuvent en tirer profit lorsqu’ils fixent leurs tarifs. Dans le troisième article, nous utilisons un modèle hiérarchique dynamique pour étudier l’impact de quatre indicateurs macroéconomiques sur le coût du financement des opérations commerciales pendant la crise financière de 2008-2009, ainsi que pendant les périodes qui l’ont précédée et suivie. Nous constatons que l’impact de trois de ces facteurs macroéconomiques (croissance du PIB, échanges commerciaux et inflation) sur le financement commercial est conforme aux prédictions théoriques, tandis que l’impact du quatrième facteur (capitalisation boursière) semble assez surprenant. / This dissertation consists of three chapters that present three standalone essays on the application of dynamic models to marketing and finance. The first essay uses a structural approach to dynamic models to study the role of income on the impact of fat taxes. The second and third essays use a reduced form approach to dynamic models: we use dynamic hierarchical models which incorporate a Hierarchical Bayesian framework in a Dynamic Linear Model. The second essay studies the dynamic pricing of seasonal goods with the help of a flexible dynamic hierarchical model. The third essay studies the cost of trade finance during the financial crisis of 2008-2009 using a dynamic hierarchical model. In the first essay, we use a dynamic structural model to investigate how income interacts with the impact of a “fat tax” (a tax on snack food). We find that the low-income group is less impacted by a “fat tax” compared to the higher income group as they have a higher tendency to consume snack food. In the second essay, we develop a flexible dynamic hierarchical model to estimate the trajectory of price sensitivities which allows us to infer the dynamic prices of seasonal goods. We find that optimal prices depend on the customer composition of the store, and seasonal goods retailers can take advantage of this while setting prices. In the third essay, using a dynamic hierarchical model we examine the impact of four macroeconomic indicators on trade finance costs in and around the financial crisis of 2008-2009. We find the impact of three of these macroeconomic factors (GDP growth, trade and inflation) on trade finance to be in line with the theory, while the impact of the fourth factor (stock market capitalization) on trade finance appears somewhat surprising.
467

Estimation statistique non paramétrique appliquée à la surveillance des eaux côtières / Nonparametric estimation applied to the coastal water monitoring

Capderou, Sami 20 September 2018 (has links)
La protection de l’environnement, en particulier celle des systèmes aquatiques, est une des priorités de nos sociétés. L’utilisation de capteurs biologiques permettant de tester la qualité de l’eau en continue est une voie possible de surveillance intégrée des milieux aquatiques. Cette démarche a été mise en place avec succès sur des mollusques bivalves équipés d’électrodes légères qui respectent leur comportement naturel, on parle alors de valvométrie. Le but de cette thèse est de calculer et traiter automatiquement la vitesse de mouvement des valves de mollusques bivalves installés dans divers milieux aquatiques. Les années d’enregistrements déjà acquises nous permettrons, à partir de nos modèles, de détecter s’il existe des variations de la vitesse de mouvement des valves liées aux variations de température. Plus particulièrement, nous avons étudié les dérivées de différents estimateurs non paramétriques d’une fonction de régression : l’estimateur récursif de Nadaraya-Watson, l’estimateur de Johnston, l’estimateur de Wand-Jones ainsi que l’estimateur de Révész. Nous avons aussi pris en compte la version déterministe de l’estimateur de Nadaraya-Watson. Pour chacun des estimateurs nous avons mené une étude sur les comportement asymptotiques en particulier la convergence presque sûre et la normalité asymptotique. Nous avons illustré numériquement ces propriétés et appliqué ces nouvelles méthodes d’estimations sur des données réelles afin de valider, ou non, les hypothèses environnementales émises par les biologistes. / The protection of the environment, in particular aquatic systems, should be tackled as one of the top priorities of our society. The use of biological sensors to continuously test water quality is a possible way of monitoring aquatic environments. This approach has been successfully implemented on bivalve molluscs equipped with light electrodes that respect their natural behaviour, we then speak of valvometry. The purpose of this thesis is to automatically calculate and process the velocity of movement of bivalve mollusc valves in various aquatic environments. Years of recordings already acquired will allow us, from our models, to detect if there are variations in the speed of movement of the valves related to temperature variations. In particular, we studied the derivatives of different non parametric estimators of the regression function : the recursive Nadaraya-Watson estimator, the Johnston estimator, the Wand-Jones estimator and the Révész estimator. We also considered the deterministic version of the Nadaraya-Watson estimator. For each of the estimators we conducted a study on the asymptotic behaviour especially on the almost sure convergence and th asymptotic normality. We digitally illustrated these properties and applied these new estimation methods to real data to validate, or not, the environmental assumptions made by biologists.
468

Comportement mécano-fiabiliste de structures composites – approche matériaux / Reliability-mechanical behavior of composite structures - materials approach

Gauthier, Edouard 25 September 2018 (has links)
L’usage de matériaux composites est en plein essor dans le monde de l’industrie, particulièrement dans des domaines comme l’aéronautique, les transports ou la production d’énergie et ce développement amène une forte production de structures composites, notamment des pièces de grandes dimensions. La conception de ces structures en composite nécessite une connaissance approfondie du comportement mécanique du composite afin de garantir l’intégrité de la structure. Or le comportement mécanique des matériaux composites est de nature hétérogène avec une certaine variabilité sur les différents paramètres mécaniques. Cette variabilité est causée par deux principales sources : la variabilité intrinsèque au matériau due à des variations physiques au sein du composite, et la variabilité due aux défauts de mise en œuvre. La thèse, qui est présentée, s’intéresse à cette deuxième source de variabilité, à savoir la présence de défauts de mise en œuvre et son influence sur le comportement mécanique du composite. Deux défauts de mise en œuvre sont étudiés dans cette thèse, la porosité et le plissement, en suivant une analyse probabiliste. La première partie de l’étude rassemble l’ensemble de l’état de l’art sur les défauts de porosité et de plissement, ainsi que sur les analyses probabilistes dans le domaine des composites. Une deuxième partie de l’étude se consacre à la caractérisation probabiliste des défauts de porosité et de plissement en analysant la variabilité de chaque paramètre caractéristique du défaut et en la modélisant à l’aide de loi de distribution qui sont implémentées dans un code de calcul afin de modéliser numériquement la porosité observée expérimentalement. Une troisième partie de l’étude s’intéresse à l’influence des défauts de porosité et de plissement sur le comportement mécanique en quasi-statique et en fatigue. Cette étude mécanique compare les résultats d’essais expérimentaux sur un matériau sain, deux matériaux avec deux taux de porosité différents et sur deux matériaux avec un plissement de dimensions différentes, afin de pouvoir quantifier l’influence des défauts et déterminer un modèle de dégradation des propriétés mécaniques en fonction du défaut. L’étude mécanique en quasi-statique est complétée par une analyse de la variance afin de bien séparer la variabilité des propriétés mécaniques due aux défauts et celle due directement à l’essai lui-même. L’ensemble des résultats de cette étude permet donc d’identifier les deux types de défauts avec un ensemble de paramètres caractéristiques, ainsi que leur influence sur le comportement mécanique, tout en prenant en compte la variabilité observée sur les défauts et leur influence mécanique, et de modéliser numériquement l’ensemble de ces observations. / The use of composite materials increases in the world of industry, particularly in sectors such as aeronautics, transport or energy production and this development leads to a strong production of composite structures, including large dimensions. The design of these composite structures requires a thorough knowledge of the mechanical behavior of the composite to ensure the integrity of the structure. However, the mechanical behavior of composite materials is heterogeneous in nature with a certain variability on the different mechanical parameters. This variability is caused by two main sources: the intrinsic variability of the material due to physical variations within the composite, and the variability due to defects in implementation. The thesis, which is presented, focuses on this second source of variability, namely the presence of implementation defects and its influence on the mechanical behavior of the composite. Two defects of implementation are studied in this thesis, porosity and wrinkle, following a probabilistic analysis. The first part of the study brings together all the state of the art on porosity and wrinkle defects, as well as on probabilistic analyzes in the field of composites. A second part of the study is devoted to the probabilistic characterization of porosity and wrinkle defects by analyzing the variability of each characteristic parameter of the defect and modeling it using a distribution law that are implemented in a calculation code to numerically model the experimentally observed porosity. A third part of the study focuses on the influence of porosity and wrinkle defects on quasi-static and fatigue mechanical behavior. This mechanical study compares the results of experimental tests on a healthy material, two materials with two different porosity states and two materials with a wrinkle of different dimensions, in order to be able to quantify the influence of the defect and to determine a model of degradation of mechanical properties according to the defect. The quasi-static mechanical study is supplemented by an analysis of the variance in order to separate the variability of the mechanical properties due to the defect and that due directly to the test itself. All the results of this study thus make it possible to identify the two types of defects with a set of characteristic parameters, as well as their influence on the mechanical behavior, while taking into account the variability observed on the defects and their mechanical influence, and to model numerically all these observations.
469

Imagerie polarimétrique adaptée en lumière cohérente / Adapted Polarimetric Imaging with Coherent Light

Upadhyay, Debajyoti 14 February 2014 (has links)
Nous proposons dans cette thèse d’étudier une méthode d’imagerie qui s’adapte à la scène étudiée en utilisant des états polarimétriques choisis sur critères physiques pour optimiser le contraste polarimétrique en 2 zones aux propriétés polarimétriques différentes. En prenant en compte le bruit de Grenaille du détecteur, cette nouvelle technique d’imagerie à 2 canaux nommée APSCI montre un gain en contraste quantifié par la distance de Bhattacharyya pouvant atteindre un facteur 10 par rapport à l’imagerie de Mueller. D’autre part, elle utilise la totalité de l’information polarimétrique de la scène pour générer une seule image au contraste optimum ce qui la rend particulièrement performante pour distinguer deux zones aux propriétés polarimétriques légèrement différentes. La solution analytique complète de ce problème est proposée au chapitre suivant avec des illustrations associées. Le modèle proposé permet, en plus d’une interprétation physique, de quantifier les performances limites de la méthode APSCI en fonction des matrices de Mueller des 2 objets à discerner. Le chapitre suivant est consacré à l’étude des performances de cette méthode soumise au bruit optique de tavelure de cible. Les simulations numériques montrent que les performances de cette méthode en terme de contraste polarimétrique restent relativement robustes et souvent très supérieures à celles obtenues par l’imagerie de Mueller classique. Le dernier chapitre consiste à décrire l’implémentation expérimentale nécessaire à l’adaptation d’un imageur de Mueller en imageur APSCI en vue d’obtenir un imageur hybride Mueller/APSCI. La méthode APSCI nécessite de pouvoir utiliser en émission et en projection lors de la détection. / We propose in this thesis to study and imaging method which is adapted to the scene under investigation by the use of specific polarimetric excitations. The scenes under inversigation have two separate regions with different polarimetric properties. The specific fully polarized state of illumination is found by the physical criteria for oprimizing the polarimetric constrat in two aereas with different polarization properties. Taking into account the Shot noise of the detector, this new 2 channel imaging technique named APSCI, shows a gain in contrast quantified by the Bhattacharyya distance of up to a factor of 10 compared to what is achievable from classical Mueller imagnin. On the other hand, it uses the full polarimetric information of the scene to generate a single image at optimum contrast which makes it particularly effective to distinguish two distinct areas with slightly different polarization properties. The complete analytical solution of this problem is proposed in the next chapter with associated illustrations. The proposed model allows, in addition to a physical interpretation of the imaging problem, to quantify the limits of APSCI method based on evaluated Mueller matrices of the scene. Furthermore the relative performance of APSCI vs Classical Mueller Imaging (CMI) associated to polar decomposition has been studied numerically. Finally we have setup an hybrid CMI-APSCI imaging setup by indigenous calibration technique with a polarimetric precession of approximately 1% when room temperature varies around 1 degree C.
470

Lymphomes anaplasiques à grandes cellules ALK positifs : signature pronostique des rechutes précoces / ALK positive anaplastic large cell lymphoma : prognostic signature of early relapses

Daugrois, Camille 19 October 2015 (has links)
Les lymphomes anaplasiques à grandes cellules (ou ALCL) appartiennent au groupe des lymphomes T périphériques et peuvent être porteurs d'une translocation impliquant le gène ALK (ALK+). Ce sont des lymphomes rares, de haut grade de malignité qui touchent souvent les sujets jeunes. Les traitements actuels permettent d'obtenir une rémission complète pour plus de 80% des patients. Cependant près de 30% des patients dont le traitement est aujourd'hui stratifié selon des facteurs pronostiques cliniques, vont rechuter dans l'année qui suit l'arrêt du traitement. Il est donc essentiel de disposer de critères prédictifs de la rechute au moment du diagnostic afin d'adapter la prise en charge thérapeutique des patients. L'objectif de mon projet était d'une part, d'identifier des facteurs moléculaires dépendants de la tumeur ou de son microenvironnement, associés à la rechute ou à l'absence de rechute et d'autre part, d'établir une signature d'expression génique pronostique au moment du diagnostic utilisable en routine clinique. Nous avons effectué une analyse du profil d'expression génique d'échantillons obtenus au diagnostic d'une cohorte de 48 patients présentant un ALCL ALK+ avec un suivi suffisant (26 provenant de patients ayant rechuté précocement, 22 patients n'ayant pas rechuté). Nous avons mis en évidence une signature de 47 gènes différentiellement exprimés entre les deux groupes de patients. Cette signature montre notamment, dans le groupe des patients n'ayant pas rechuté, un enrichissement en gènes codant pour des protéines impliquées dans la régulation de la matrice extracellulaire. Cette signature a été ensuite validée par PCR quantitative (qPCR) à haut débit (Fluidigm). Les algorithmes de classification tels que les forêts aléatoires et la PLS-DA ont permis de sélectionner les huit gènes les plus discriminants en termes de pouvoir prédictif. Sur la base de leur niveau d'expression, trois gènes ayant le plus fort pouvoir prédictif ont été identifiés par régression logistique. Afin de rendre cette signature applicable en routine clinique, ces trois gènes ont été validés par une technique de qPCR classique. L'expression de ces trois gènes a permis d'établir un score et un seuil permettant de distinguer les patients qui ont un fort risque de rechute des patients qui n'ont qu'un faible risque de rechuter. Cette classification dichotomique donne un taux d'échec de prédiction de seulement 16% sur cette première cohorte de patients. Ce score de prédiction a été validé sur une cohorte indépendante de 18 patients, avec un taux d'échec de 22%. Ainsi cette étude démontre l'intérêt des signatures prédictives issues de données à haut débit afin de guider le clinicien dans le choix de la stratégie thérapeutique. / Anaplastic large cell lymphomas (ALCL) peripheral belong to T cell lymphomas and may be associated with translocations involving the ALK gene (ALK+). These lymphoma are rare, of high grade and often affect young subjects. Current treatments allow obtaining a complete remission for over 80% of patients. However nearly 30% of patients whose treatment is stratified according to current clinical prognostic factors, will relapse in the year following the end of treatment. It is therefore essential to decipher predictive factors of relapse at diagnosis in order to improve therapeutic management. The aim of my project was on one hand, to identify molecular factors of the tumor or its microenvironment, associated with relapse or lack of relapse and secondly, to establish a predictive gene expression signature at diagnosis that could be used in clinical routine. We performed transcriptome analysis of samples obtained at diagnosis in a cohort of 48 patients with ALK+ ALCL and sufficient follow up (26 from patients who early relapsed, 22 patients who did not relapse). We have identified 47 differentially expressed genes between the two groups. This signature shows in particular, from the group of patients who did not relapse, an enrichment of genes encoding proteins involved in the regulation of the extracellular matrix. This signature has been then validated by high-throughput quantitative PCR (Fluidigm). Classification algorithms such as Random Forests and PLS-DA helped select the eight most discriminating genes in terms of predictive power. Based on their expression level, three genes with the strongest predictive power were identified by logistic regression. For diagnostic testing in routine practice, these three genes were validated by standard qPCR. A score and a threshold for distinguishing patients who will relapse from patients who will not were established from the expression of these three genes. This dichotomous classification gives a prediction failure rate of only 16% on this first cohort. This prediction score was then validated in an independent cohort of 18 patients, with a failure rate of 22%. This study demonstrates the value of predictive signatures derived from high-throughput data to guide treatment strategy.

Page generated in 0.0686 seconds