• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 436
  • 319
  • 40
  • 1
  • 1
  • 1
  • Tagged with
  • 785
  • 383
  • 133
  • 133
  • 126
  • 124
  • 117
  • 105
  • 101
  • 92
  • 91
  • 78
  • 77
  • 77
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Advanced analytical model for the prognostic of industrial systems subject to fatigue / Modèle analytique avancé pour le pronostic des systèmes industriels soumis à la fatigue

Abou Jaoude, Abdo 07 December 2012 (has links)
La disponibilité élevée des systèmes technologiques comme l'aérospatial, la défense, la pétrochimie et l'automobile, est un but important des nouveaux développements de la technologie de conception des systèmes sachant que la défaillance onéreuse survient, en général, soudainement. Afin de rendre les stratégies classiques de maintenance plus efficaces et pour prendre en considération l'état et l'environnement évolutifs du produit, un nouveau modèle de pronostic analytique est développé en tant que complément des stratégies de maintenance existantes. Ce nouveau modèle est appliqué aux systèmes mécaniques soumis à la défaillance par fatigue sous charge cyclique répétitive. Sachant que l'effet de fatigue va initier des microfissures qui peuvent se propager soudainement et conduire à la défaillance. Ce modèle est basé sur des lois d'endommagement existantes dans la mécanique de la rupture comme la loi de propagation de fissures de Paris-Erdogan à côté de la loi de cumul de dommage de Palmgren-Miner. A partir d'un seuil prédéfini de dégradation DC, la durée de vie résiduelle (RUL) est estimée à l'aide de ce modèle de pronostic. Les dommages peuvent être cumulés linéairement (Loi de Palmgren-Miner) et aussi non linéairement afin de prendre en compte un comportement plus complexe des chargements et des matériaux. Le modèle de dégradation développé dans ce travail est basé sur une sommation d'une mesure de dommage D à la suite de chaque cycle de chargement. Quand cette mesure devient égale à un seuil prédéfini DC, le système est considéré dans l'état de panne. En plus, l'influence stochastique est incluse dans notre modèle pour le rendre plus précis et réaliste. / The high availability of technological systems like aerospace, defense, petro-chemistry and automobile, is an important goal of earlier recent developments in system design technology knowing that the expensive failure can generally occur suddenly. To make the classical strategies of maintenance more efficient and to take into account the evolving product state and environment, a new analytic prognostic model is developed as a complement of existent maintenance strategies. This new model is applied to mechanical systems that are subject to fatigue failure under repetitive cyclic loading. Knowing that, the fatigue effects will initiate micro-cracks that can propagate suddenly and lead to failure. This model is based on existing damage laws in fracture mechanics, such as the crack propagation law of Paris-Erdogan beside the damage accumulation law of Palmgren-Miner. From a predefined threshold of degradation DC, the Remaining Useful Lifetime (RUL) is estimated by this prognostic model. Damages can be assumed to be accumulated linearly (Palmgren-Miner's law) and also nonlinearly to take into consideration the more complex behavior of loading and materials. The degradation model developed in this work is based on the accumulation of a damage measurement D after each loading cycle. When this measure reaches the predefined threshold DC, the system is considered in wear out state. Furthermore, the stochastic influence is included to make the model more accurate and realistic.
362

Approximation particulaire et méthode de Laplace pour le filtrage bayésien / Particle approximation and the Laplace method for Bayesian filtering

Bui Quang, Paul 01 July 2013 (has links)
La thèse porte sur l'apport de la méthode de Laplace pour l'approximation du filtre bayésien dans des modèles de Markov cachés généraux, c'est-à-dire dans un cadre séquentiel, avec comme domaine d'application privilégié la poursuite de cibles mobiles. A la base, la méthode de Laplace est une méthode asymptotique pour le calcul d'intégrales, c'est-à-dire dans un cadre statique, valide en théorie dès que la fonction à intégrer présente un maximum de plus en plus significatif, lequel apporte la contribution essentielle au résultat. En pratique, cette méthode donne des résultats souvent très précis même en dehors de ce cadre de validité théorique. Les deux contributions principales de la thèse sont les suivantes. Premièrement, nous avons utilisé la méthode de Laplace en complément du filtrage particulaire : on sait en effet que les méthodes de Monte Carlo séquentielles basées sur l'échantillonnage pondéré sont mises en difficulté quand la fonction de pondération (ici la fonction de vraisemblance) est trop localisée, par exemple quand la variance du bruit d'observation est trop faible, or c'est précisément là le domaine où la méthode de Laplace est efficace et justifiée théoriquement, d'où l'idée naturelle de combiner les deux points de vue. Nous proposons ainsi un algorithme associant la méthode de Laplace et le filtrage particulaire, appelé le Laplace particle filter. Deuxièmement, nous avons analysé l'approximation du filtre bayésien grâce à la méthode de Laplace seulement (c'est-à-dire sans génération d'échantillons aléatoires) : il s'agit ici de contrôler la propagation de l'erreur d'approximation d'un pas de temps au pas de temps suivant, dans un cadre asymptotique approprié, par exemple quand le bruit d'observation tend vers zéro, ou quand le bruit d'état et le bruit d'observation tendent conjointement (et à la même vitesse) vers zéro, ou plus généralement quand l'information contenue dans le système tend vers l'infini, avec une interprétation en terme d'identifiabilité. / The thesis deals with the contribution of the Laplace method to the approximation of the Bayesian filter in hidden Markov models with continuous state--space, i.e. in a sequential framework, with target tracking as the main application domain. Originally, the Laplace method is an asymptotic method used to compute integrals, i.e. in a static framework, valid in theory as soon as the function to be integrated exhibits an increasingly dominating maximum point, which brings the essential contribution to the integral. The two main contributions of the thesis are the following. Firstly, we have combined the Laplace method and particle filters: indeed, it is well-known that sequential Monte Carlo methods based on importance sampling are inefficient when the weighting function (here, the likelihood function) is too much spatially localized, e.g. when the variance of the observation noise is too small, whereas this is precisely the situation where the Laplace method is efficient and theoretically justified, hence the natural idea of combining the two approaches. We thus propose an algorithm associating the Laplace method and particle filtering, called the Laplace particle filter. Secondly, we have analyzed the approximation of the Bayesian filter based on the Laplace method only (i.e. without any generation of random samples): the objective has been to control the propagation of the approximation error from one time step to the next time step, in an appropriate asymptotic framework, e.g. when the variance of the observation noise goes to zero, or when the variances of the model noise and of the observation noise jointly go (with the same rate) to zero, or more generally when the information contained in the system goes to infinity, with an interpretation in terms of identifiability.
363

Optimisation spatio-temporelle d’efforts de recherche pour cibles manoeuvrantes et intelligentes / Spatio-temporal optimisation of search efforts for smart and reactive moving targets

Chouchane, Mathieu 17 October 2013 (has links)
Dans cette thèse, nous cherchons à répondre à une problématique formulée par la DGA Techniques navales pour surveiller une zone stratégique : planifier le déploiement spatial et temporel optimal d’un ensemble de capteurs de façon à maximiser les chances de détecter une cible mobile et intelligente. La cible est dite intelligente car elle est capable de détecter sous certaines conditions les menaces que représentent les capteurs et ainsi de réagir en adaptant son comportement. Les déploiements générés pouvant aussi avoir un coût élevé nous devons tenir compte de ce critère lorsque nous résolvons notre problématique. Il est important de noter que la résolution d’un problème de ce type requiert, selon les besoins, l’application d’une méthode d’optimisation mono-objectif voire multiobjectif. Jusqu’à présent, les travaux existants n’abordent pas la question du coût des déploiements proposés. De plus la plupart d’entre eux ne se concentrent que sur un seul aspect à la fois. Enfin, pour des raisons algorithmiques, les contraintes sont généralement discrétisées.Dans une première partie, nous présentons un algorithme qui permet de déterminer le déploiement spatio-temporel de capteurs le plus efficace sans tenir compte de son coût. Cette méthode est une application à l’optimisation de la méthode multiniveau généralisée.Dans la seconde partie, nous montrons d’abord que l’utilisation de la somme pondérée des deux critères permet d’obtenir des solutions sans augmenter le temps de calcul. Pour notre seconde approche, nous nous inspirons des algorithmes évolutionnaires d’optimisation multiobjectif et adaptons la méthode multiniveau généralisée à l’optimisation multiobjectif. / In this work, we propose a solution to a problem issued by the DGA Techniques navales in order to survey a strategic area: determining the optimal spatio-temporal deployment of sensors that will maximize the detection probability of a mobile and smart target. The target is said to be smart because it is capable of detecting the threat of the sensors under certain conditions and then of adapting its behaviour to avoid it. The cost of a deployment is known to be very expensive and therefore it has to be taken into account. It is important to note that the wide spectrum of applications within this field of research also reflects the need for a highly complex theoretical framework based on stochastic mono or multi-objective optimisation. Until now, none of the existing works have dealt with the cost of the deployments. Moreover, the majority only treat one type of constraint at a time. Current works mostly rely on operational research algorithms which commonly model the constraints in both discrete space and time.In the first part, we present an algorithm which computes the most efficient spatio-temporal deployment of sensors, but without taking its cost into account. This optimisation method is based on an application of the generalised splitting method.In the second part, we first use a linear combination of the two criteria. For our second approach, we use the evolutionary multiobjective optimisation framework to adapt the generalised splitting method to multiobjective optimisation. Finally, we compare our results with the results of the NSGA-II algorithm.
364

Générateurs de nombres véritablement aléatoires à base d'anneaux asynchrones : conception, caractérisation et sécurisation / Ring oscillator based true random number generators : design, characterization and security

Cherkaoui, Abdelkarim 16 June 2014 (has links)
Les générateurs de nombres véritablement aléatoires (TRNG) sont des composants cruciaux dans certaines applications cryptographiques sensibles (génération de clés de chiffrement, génération de signatures DSA, etc). Comme il s’agit de composants très bas-niveau, une faille dans le TRNG peut remettre en question la sécurité de tout le système cryptographique qui l’exploite. Alors que beaucoup de principes de TRNG existent dans la littérature, peu de travaux analysent rigoureusement ces architectures en termes de sécurité. L’objectif de cette thèse était d’étudier les avantages des techniques de conception asynchrone pour la conception de générateurs de nombres véritablement aléatoires (TRNG) sûrs et robustes. Nous nous sommes en particulier intéressés à des oscillateurs numériques appelés anneaux auto-séquencés. Ceux-ci exploitent un protocole de requêtes et acquittements pour séquencer les données qui y circulent. En exploitant les propriétés uniques de ces anneaux, nous proposons un nouveau principe de TRNG, avec une étude théorique détaillée sur son fonctionnement, et une évaluation du cœur du générateur dans des cibles ASIC et FPGA. Nous montrons que ce nouveau principe permet non seulement de générer des suites aléatoires de très bonne qualité et avec un très haut débit (>100 Mbit/s), mais il permet aussi une modélisation réaliste de l’entropie des bits de sortie (celle-ci peut être réglée grâce aux paramètres de l’extracteur). Ce travail propose également une méthodologie complète pour concevoir ce générateur, pour le dimensionner en fonction du niveau de bruit dans le circuit, et pour le sécuriser face aux attaques et défaillances / True Random Number Generators (TRNG) are ubiquitous in many critical cryptographic applications (key generation, DSA signatures, etc). While many TRNG designs exist in literature, only a few of them deal with security aspects, which is surprising considering that they are low-level primitives in a cryptographic system (a weak TRNG can jeopardize a whole cryptographic system). The objective of this thesis was to study the advantages of asynchronous design techniques in order to build true random number generators that are secure and robust. We especially focused on digital oscillators called self-timed rings (STR), which use a handshake request and acknowledgement protocol to organize the propagation of data. Using some of the unique properties of STRs, we propose a new TRNG principle, with a detailed theoretical study of its behavior, and an evaluation of the TRNG core in ASICs and FPGAs. We demonstrate that this new principle allows to generate high quality random bit sequences with a very high throughput (> 100 Mbit/s). Moreover, it enables a realistic estimation for the entropy per output bit (this entropy level can be tuned using the entropy extractor parameters). We also present a complete methodology to design the TRNG, to properly set up the architecture with regards to the level of noise in the circuit, and to secure it against attacks and failures
365

Arbitrer coût et flexibilité dans la Supply Chain / Balancing cost and flexibility in Supply Chain

Gaillard de Saint Germain, Etienne 17 December 2018 (has links)
Cette thèse développe des méthodes d'optimisation pour la gestion de la Supply Chain et a pour thème central la flexibilité définie comme la capacité à fournir un service ou un produit au consommateur dans un environnement incertain. La recherche a été menée dans le cadre d'un partenariat entre Argon Consulting, une société indépendante de conseil en Supply Chain et l'École des Ponts ParisTech. Dans cette thèse, nous développons trois sujets rencontrés par Argon Consulting et ses clients et qui correspondent à trois différents niveaux de décision (long terme, moyen terme et court terme).Lorsque les entreprises élargissent leur portefeuille de produits, elles doivent décider dans quelles usines produire chaque article. Il s'agit d'une décision à long terme, car une fois qu'elle est prise, elle ne peut être facilement modifiée. Plus qu'un problème d'affectation où un article est produit par une seule usine, ce problème consiste à décider si certains articles doivent être produits par plusieurs usines et par lesquelles. Cette interrogation est motivée par la grande incertitude de la demande. En effet, pour satisfaire la demande, l'affectation doit pouvoir équilibrer la charge de travail entre les usines. Nous appelons ce problème le multi-sourcing de la production. Comme il ne s'agit pas d'un problème récurrent, il est essentiel de tenir compte du risque au moment de décider le niveau de multi-sourcing. Nous proposons un modèle générique qui inclut les contraintes techniques du problème et une contrainte d'aversion au risque basée sur des mesures de risque issues de la théorie financière. Nous développons un algorithme et une heuristique basés sur les outils standards de la Recherche Opérationnelle et de l'Optimisation Stochastique pour résoudre le problème du multi-sourcing et nous testons leur efficacité sur des données réelles.Avant de planifier la production, certains indicateurs macroscopiques doivent être décidés à horizon moyen terme tels la quantité de matières premières à commander ou la taille des lots produits. Certaines entreprises utilisent des modèles de stock en temps continu, mais ces modèles reposent souvent sur un compromis entre les coûts de stock et les coûts de lancement. Ces derniers sont des coûts fixes payés au lancement de la production et sont difficiles à estimer en pratique. En revanche, à horizon moyen terme, la flexibilité des moyens de production est déjà fixée et les entreprises estiment facilement le nombre maximal de lancements. Poussés par cette observation, nous proposons des extensions de certains modèles classiques de stock en temps continu, sans coût de lancement et avec une limite sur le nombre d'installations. Nous avons utilisé les outils standard de l'Optimisation Continue pour calculer les indicateurs macroscopiques optimaux.Enfin, la planification de la production est une décision à court terme qui consiste à décider quels articles doivent être produits par la ligne de production pendant la période en cours. Ce problème appartient à la classe bien étudiée des problèmes de Lot-Sizing. Comme pour les décisions à moyen terme, ces problèmes reposent souvent sur un compromis entre les coûts de stock et les coûts de lancement. Fondant notre modèle sur ces considérations industrielles, nous gardons le même point de vue (aucun coût de lancement et une borne supérieure sur le nombre de lancement) et proposons un nouveau modèle.Bien qu'il s'agisse de décisions à court terme, les décisions de production doivent tenir compte de la demande future, qui demeure incertaine. Nous résolvons notre problème de planification de la production à l'aide d'outils standard de Recherche Opérationnelle et d'Optimisation Stochastique, nous testons l'efficacité sur des données réelles et nous la comparons aux heuristiques utilisées par les clients d'Argon Consulting / This thesis develops optimization methods for Supply Chain Management and is focused on the flexibility defined as the ability to deliver a service or a product to a costumer in an uncertain environment. The research was conducted throughout a partnership between Argon Consulting, which is an independent consulting firm in Supply Chain Operations and the École des Ponts ParisTech. In this thesis, we explore three topics that are encountered by Argon Consulting and its clients and that correspond to three different levels of decision (long-term, mid-term and short-term).When companies expand their product portfolio, they must decide in which plants to produce each item. This is a long-term decision since once it is decided, it cannot be easily changed. More than a assignment problem where one item is produced by a single plant, this problem consists in deciding if some items should be produced on several plants and by which plants. This is motivated by a highly uncertain demand. So, in order to satisfy the demand, the assignment must be able to balance the workload between plants. We call this problem the multi-sourcing of production. Since it is not a repeated problem, it is essential to take into account the risk when making the multi-sourcing decision. We propose a generic model that includes the technical constraints of the assignment and a risk-averse constraint based on risk measures from financial theory. We develop an algorithm and a heuristic based on standard tools from Operations Research and Stochastic Optimization to solve the multi-sourcing problem and we test their efficiency on real datasets.Before planning the production, some macroscopic indicators must be decided at mid-term level such as the quantity of raw materials to order or the size of produced lots. Continuous-time inventory models are used by some companies but these models often rely on a trade-off between holding costs and setups costs. These latters are fixed costs paid when production is launched and are hard to estimate in practice. On the other hand, at mid-term level, flexibility of the means of production is already fixed and companies easily estimate the maximal number of setups. Motivated by this observation, we propose extensions of some classical continuous-time inventory models with no setup costs and with a bound on the number of setups. We used standard tools from Continuous Optimization to compute the optimal macroscopic indicators.Finally, planning the production is a short-term decision consisting in deciding which items must be produced by the assembly line during the current period. This problem belongs to the well-studied class of Lot-Sizing Problems. As for mid-term decisions, these problems often rely on a trade-off between holding and setup costs. Basing our model on industrial considerations, we keep the same point of view (no setup cost and a bound on the number of setups) and propose a new model. Although these are short-term decisions, production decisions must take future demand into account, which remains uncertain. We solve our production planning problem using standard tools from Operations Research and Stochastic Optimization, test the efficiency on real datasets, and compare it to heuristics used by Argon Consulting's clients
366

De la dispersion aux vortex browniens dans des systèmes hors-équilibres confinés / From dispersion to Brownian vortices in out-of-equilibrium confined systems

Mangeat, Matthieu 25 September 2018 (has links)
Cette thèse vise à caractériser la dynamique stochastique hors-équilibre de particules browniennes sous l’effet de confinement. Ce confinement est appliqué ici par des potentiels attractifs ou des frontières imperméables créant des barrières entropiques. Dans un premier temps, nous regardons la dispersion de particules sans interactions dans les milieux hétérogènes. Un nuage de particules browniennes s’étale au cours du temps sans atteindre la distribution d’équilibre de Boltzmann, et son étalement est alors caractérisé par une diffusivité effective inférieure à la diffusivité microscopique. Dans un premier chapitre, nous nous intéressons au lien entre la géométrie de confinement et la dispersion dans le cas particulier des microcanaux périodiques. Pour cela, nous calculons la diffusivité effective sans hypothèse de réduction de dimensionnalité, contrairement à l’approche standard dite de Fick-Jacobs. Une classification des différents régimes de dispersion est alors réalisée, pour toute géométrie autant pour les canaux continus que discontinus. Dans un second chapitre, nous étendons cette analyse à la dispersion dans les réseaux périodiques d’obstacles sphériques attractifs à courte portée. La présence d’un potentiel attractif peut, de manière surprenante, augmenter la dispersion. Nous quantifions cet effet dans le régime dilué, et montrons alors son optimisation pour plusieurs potentiels ainsi que pour une diffusion médiée par la surface des sphères. Ensuite, nous étudions la dynamique stochastique de particules browniennes dans un piège optique en présence d’une force non conservative créée par la pression de radiation du laser. L’expression perturbative des courants stationnaires, décrivant les vortex browniens, est dérivée pour les basses pressions en conservant le terme inertiel dans l’équation de Langevin sous-amortie. L’expression de la densité spectrale est également calculée permettant d’observer les anisotropies du piège et les effets de la force non conservative.La plupart des expressions analytiques obtenues durant cette thèse sont asymptotiquement exactes et vérifiées par des analyses numériques basées sur l’intégration de l’équation de Langevin ou la résolution d’équation aux dérivées partielles. / This thesis aims to characterize the out-of-equilibrium stochastic dynamics of Brownian particles under the effectof confinement. This confinement is applied here by attractive potentials or impermeable boundaries creatingentropic barriers. First, we look at the dispersion of particles without interaction in heterogeneous media. Acloud of Brownian particles spreads over time without reaching the Boltzmann equilibrium distribution, andits spreading is then characterized by an effective diffusivity lower than the microscopic diffusivity. In a firstchapter, we are interested in the link between the confinement geometry and the dispersion in the particularcase of periodic microchannels. For this, we calculate the effective diffusivity without dimensionality reductionassumption, instead of the standard Fick-Jacobs’ approach. A classification of the different dispersion regimesis then performed for any geometry for both continuous and discontinuous channels. In a second chapter, weextend this analysis to dispersion in periodic networks of short-range attractive spherical obstacles. The presenceof an attractive potential can surprisingly increase the dispersion. We quantify this effect in the dilute regimeand then show its optimization for several potentials as well as for diffusion mediated by the surface of thespheres. Later, we study the stochastic dynamics of Brownian particles in an optical trap in the presence ofa non-conservative force created by the radiation pressure of the laser. The perturbative expression of thestationary currents describing Brownian vortices is derived for the low pressures keeping the inertial term in theunderdamped Langevin equation. The expression of the power spectrum density is also calculated to observe thetrap anisotropies and the effects of the non-conservative force. Most of analytical expressions obtained duringthis thesis are asymptotically exact and verified by numerical analysis based on the integration of the Langevinequation or the resolution of partial differential equation.
367

Introduction de pièces déformables dans l’analyse de tolérances géométriques de mécanismes hyperstatiques / Introduction of flexible parts in tolerance analysis of over-constrained mechanisms

Gouyou, Doriane 04 December 2018 (has links)
Les mécanismes hyperstatiques sont souvent utilisés dans l’industrie pour garantir une bonne tenue mécanique du système et une bonne robustesse aux écarts de fabrication des surfaces. Même si ces assemblages sont très courants, les méthodologies d’analyse de tolérances de ces mécanismes sont difficiles à mettre en oeuvre.En fonction de ses écarts de fabrication, un assemblage hyperstatique peut soit présenter des interférences de montage, soit être assemblé avec jeu. Dans ces travaux de thèse, nous avons appliqué la méthode des polytopes afin de détecter les interférences de montage. Pour un assemblage donné, le polytope résultant du mécanisme est calculé. Si ce polytope est non vide, l’assemblage ne présente pas d’interférence. Si ce polytope est vide, l’assemblage présente des interférences de montage. En fonction du résultat obtenu, deux méthodes d’analyse distinctes sont proposées.Si l’assemblage est réalisable sans interférence le polytope résultant du mécanisme permet de conclure sur sa conformité au regard de l’exigence fonctionnelle. Si l’assemblage présente des interférences de montage, une analyse prenant en compte la raideur des pièces est réalisée. Cette approche est basée sur une réduction de modèle avec des super-éléments. Elle permet de déterminer rapidement l’état d’équilibre du système après assemblage. Un effort de montage est ensuite estimé à partir de ces résultats pour conclure sur la faisabilité de l’assemblage. Si l’assemblage est déclaré réalisable, la propagation des déformations dans les pièces est caractérisée pour vérifier la conformité du système au regard de l’exigence fonctionnelle.La rapidité de mise en oeuvre de ces calculs nous permet de réaliser des analyses de tolérances statistiques par tirage de Monte Carlo pour estimer les probabilités de montage et de respect d’une Condition Fonctionnelle. / Over-constrained mechanisms are often used in industries to ensure a good mechanical strength and a good robustness to manufacturing deviations of parts. The tolerance analysis of such assemblies is difficult to implement.Indeed, depending on the geometrical deviations of parts, over-constrained mechanisms can have assembly interferences. In this work, we used the polytope method to check whether the assembly has interferences or not. For each assembly, the resulting polytope of the mechanism is computed. If it is non empty, the assembly can be performed without interference. If not, there is interferences in the assembly. According to the result, two different methods can be implemented.For an assembly without interference, the resulting polytope enables to check directly its compliance. For an assembly with interferences, a study taking into account the stiffness of the parts is undertaken. This approach uses a model reduction with super elements. It enables to compute quickly the assembly with deformation. Then, an assembly load is computed to conclude on its feasibility. Finally, the spreading of deformation through the parts is calculated to check the compliance of the mechanism.The short computational time enables to perform stochastic tolerance analyses in order to provide the rates of compliant assemblies.
368

Compositional and kinetic modeling of bio-oil from fast pyrolysis from lignocellulosic biomass / Modélisation compositionnelle et cinétique des bio-huiles de pyrolyse rapide issues de la biomasse lignocellulosique

Costa da Cruz, Ana Rita 25 January 2019 (has links)
La pyrolyse rapide est une des voies de conversion thermochimique qui permet la transformation de biomasse lignocellulosique en bio-huiles. Ces bio-huiles, différentes des coupes lourdes du pétrole ne peuvent pas être directement mélangés dans les procédés de valorisation. En effet, en raison de leur forte teneur en oxygène, les bio-huiles nécessitent une étape de pré-raffinage, telle que l’hydrotraitement, pour éliminer ces composants.L’objectif de ce travail est de comprendre la structure, la composition et la réactivité de la bio-huile grâce à la modélisation de données expérimentales. Pour comprendre leur structure et leur composition, des techniques de reconstruction moléculaire basées sur des données analytiques, ont été appliquées, générant un mélange synthétique, dont les propriétés correspondent à celles du mélange. Pour comprendre leur réactivité, l'hydrotraitement de molécules modèles a été étudié: gaïacol et furfural. Pour cela, un modèle déterministe et stochastique a été créé pour chacun d’eux. L’approche déterministe visait à récupérer une gamme de paramètres cinétiques, qui ont ensuite été affinés par l’approche stochastique créant un nouveau modèle. Cette approche a permis de générer un réseau de réactions en définissant et en utilisant un nombre limité de familles et règles des réactions. Finalement, le mélange synthétique a été utilisé dans la simulation stochastique de l’hydrotraitement de la bio-huile, étayée par la cinétique des molécules modèles.En conclusion, ce travail a permis de recréer la fraction légère de la bio-huile et de simuler leur l'hydrotraitement, via les paramètres cinétiques des composés modèles, qui prédisent de manière raisonnable les effluents de l'hydrotraitement de celles-ci, mais sont inadéquat pour le bio-huile / Fast pyrolysis is one of the thermochemical conversion routes that enable the transformation of solid lignocellulosic biomass into liquid bio-oils. These complex mixtures are different from oil fractions and cannot be directly integrated into existing petroleum upgrading facilities. Indeed, because of their high levels of oxygen compounds, bio-oils require a dedicated pre-refining step, such as hydrotreating, to remove these components.The aim of the present work is to understand the structure, composition and reactivity of bio-oil compounds through modeling of experimental data. To understand the structure and composition, molecular reconstruction techniques, based on analytical data, were applied generating a synthetic mixture, whose properties are consistent with the mixture properties. To understand the reactivity, the hydrotreating of two model molecules was studied: Guaiacol and Furfural. A deterministic and stochastic model were created for each compounds. The deterministic approach intended to retrieve a range of kinetic parameters, later on refined by the stochastic simulation approach into a new model. This approach generates an reaction network by defining and using a limited number of reaction classes and reaction rules. To consolidate the work, the synthetic mixture was used in the stochastic simulation of the hydrotreating of bio-oils, supported by the kinetics of the model compounds.In sum, the present work was able to recreate the light fraction of bio-oil and simulate the hydrotreating of bio-oils, via the kinetic parameters of model compounds, which can reasonably predict the effluents of the hydrotreating of these, but are unsuitable for bio-oil.Fast pyrolysis is one of the thermochemical conversion routes that enable the transformation of solid lignocellulosic biomass into liquid bio-oils. These complex mixtures are different from oil fractions and cannot be directly integrated into existing petroleum upgrading facilities. Indeed, because of their high levels of oxygen compounds, bio-oils require a dedicated pre-refining step, such as hydrotreating, to remove these components.The aim of the present work is to understand the structure, composition and reactivity of bio-oil compounds through modeling of experimental data. To understand the structure and composition, molecular reconstruction techniques, based on analytical data, were applied generating a synthetic mixture, whose properties are consistent with the mixture properties. To understand the reactivity, the hydrotreating of two model molecules was studied: Guaiacol and Furfural. A deterministic and stochastic model were created for each compounds. The deterministic approach intended to retrieve a range of kinetic parameters, later on refined by the stochastic simulation approach into a new model. This approach generates an reaction network by defining and using a limited number of reaction classes and reaction rules. To consolidate the work, the synthetic mixture was used in the stochastic simulation of the hydrotreating of bio-oils, supported by the kinetics of the model compounds.In sum, the present work was able to recreate the light fraction of bio-oil and simulate the hydrotreating of bio-oils, via the kinetic parameters of model compounds, which can reasonably predict the effluents of the hydrotreating of these, but are unsuitable for bio-oil
369

Optimisation des modèles d'évaluation et de couverture des options financières sous contraintes de liquidité / Optimization of pricing and hedging models for financial options under liquidity constraints

Bodin, Pierre-Anthony 05 December 2014 (has links)
Optimisation des modèles d'évaluation et de couverture d'options financières sous contraintes de liquidité / Optimization of pricing and hedging models for financial options under liquidity constraints
370

Estimation fonctionnelle non paramétrique au voisinage du bord / Functional non-parametric estimation near the edge

Jemai, Asma 16 March 2018 (has links)
L’objectif de cette thèse est de construire des estimateurs non-paramétriques d’une fonction de distribution, d’une densité de probabilité et d’une fonction de régression en utilisant les méthodes d’approximation stochastiques afin de corriger l’effet du bord créé par les estimateurs à noyaux continus classiques. Dans le premier chapitre, on donne quelques propriétés asymptotiques des estimateurs continus à noyaux. Puis, on présente l’algorithme stochastique de Robbins-Monro qui permet d’introduire les estimateurs récursifs. Enfin, on rappelle les méthodes utilisées par Vitale, Leblanc et Kakizawa pour définir des estimateurs d’une fonction de distribution et d’une densité de probabilité en se basant sur les polynômes de Bernstein.Dans le deuxième chapitre, on a introduit un estimateur récursif d’une fonction de distribution en se basant sur l’approche de Vitale. On a étudié les propriétés de cet estimateur : biais, variance, erreur quadratique intégré (MISE) et on a établi sa convergence ponctuelle faible. On a comparé la performance de notre estimateur avec celle de Vitale et on a montré qu’avec le bon choix du pas et de l’ordre qui lui correspond notre estimateur domine en terme de MISE. On a confirmé ces résultatsthéoriques à l’aide des simulations. Pour la recherche pratique de l’ordre optimal, on a utilisé la méthode de validation croisée. Enfin, on a confirmé les meilleures qualités de notre estimateur à l’aide des données réelles. Dans le troisième chapitre, on a estimé une densité de probabilité d’une manière récursive en utilisant toujours les polynômes de Bernstein. On a donné les caractéristiques de cet estimateur et on les a comparées avec celles de l’estimateur de Vitale, de Leblanc et l’estimateur donné par Kakizawa en utilisant la méthode multiplicative de correction du biais. On a appliqué notre estimateur sur des données réelles. Dans le quatrième chapitre, on a introduit un estimateur récursif et non récursif d’une fonction de régression en utilisant les polynômes de Bernstein. On a donné les caractéristiques de cet estimateur et on les a comparées avec celles de l’estimateur à noyau classique. Ensuite, on a utilisé notre estimateur pour interpréter des données réelles. / The aim of this thesis is to construct nonparametric estimators of distribution, density and regression functions using stochastic approximation methods in order to correct the edge effect created by kernels estimators. In the first chapter, we givesome asymptotic properties of kernel estimators. Then, we introduce the Robbins-Monro stochastic algorithm which creates the recursive estimators. Finally, we recall the methods used by Vitale, Leblanc and Kakizawa to define estimators of distribution and density functions based on Bernstein polynomials. In the second chapter, we introduced a recursive estimator of a distribution function based on Vitale’s approach. We studied the properties of this estimator : bias, variance, mean integratedsquared error (MISE) and we established a weak pointwise convergence. We compared the performance of our estimator with that of Vitale and we showed that, with the right choice of the stepsize and its corresponding order, our estimator dominatesin terms of MISE. These theoretical results were confirmed using simulations. We used the cross-validation method to search the optimal order. Finally, we applied our estimator to interpret real dataset. In the third chapter, we introduced a recursive estimator of a density function using Bernstein polynomials. We established the characteristics of this estimator and we compared them with those of the estimators of Vitale, Leblanc and Kakizawa. To highlight our proposed estimator, we used real dataset. In the fourth chapter, we introduced a recursive and non-recursive estimator of a regression function using Bernstein polynomials. We studied the characteristics of this estimator. Then, we compared our proposed estimator with the classical kernel estimator using real dataset.

Page generated in 0.0724 seconds