• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 280
  • 139
  • 59
  • 3
  • Tagged with
  • 464
  • 395
  • 356
  • 250
  • 196
  • 190
  • 155
  • 132
  • 130
  • 122
  • 100
  • 98
  • 92
  • 76
  • 69
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Modèles prudents en apprentissage statistique supervisé / Cautious models in supervised machine learning

Yang, Gen 22 March 2016 (has links)
Dans certains champs d’apprentissage supervisé (e.g. diagnostic médical, vision artificielle), les modèles prédictifs sont non seulement évalués sur leur précision mais également sur la capacité à l'obtention d'une représentation plus fiable des données et des connaissances qu'elles induisent, afin d'assister la prise de décisions de manière prudente. C'est la problématique étudiée dans le cadre de cette thèse. Plus spécifiquement, nous avons examiné deux approches existantes de la littérature de l'apprentissage statistique pour rendre les modèles et les prédictions plus prudents et plus fiables: le cadre des probabilités imprécises et l'apprentissage sensible aux coûts. Ces deux domaines visent tous les deux à rendre les modèles d'apprentissage et les inférences plus fiables et plus prudents. Pourtant peu de travaux existants ont tenté de les relier, en raison de problèmes à la fois théorique et pratique. Nos contributions consistent à clarifier et à résoudre ces problèmes. Sur le plan théorique, peu de travaux existants ont abordé la manière de quantifier les différentes erreurs de classification quand des prédictions sous forme d'ensembles sont produites et quand ces erreurs ne se valent pas (en termes de conséquences). Notre première contribution a donc été d'établir des propriétés générales et des lignes directrices permettant la quantification des coûts d'erreurs de classification pour les prédictions sous forme d'ensembles. Ces propriétés nous ont permis de dériver une formule générale, le coût affaiblie généralisé (CAG), qui rend possible la comparaison des classifieurs quelle que soit la forme de leurs prédictions (singleton ou ensemble) en tenant compte d'un paramètre d'aversion à la prudence. Sur le plan pratique, la plupart des classifieurs utilisant les probabilités imprécises ne permettent pas d'intégrer des coûts d'erreurs de classification génériques de manière simple, car la complexité du calcul augmente de magnitude lorsque des coûts non unitaires sont utilisés. Ce problème a mené à notre deuxième contribution, la mise en place d'un classifieur qui permet de gérer les intervalles de probabilités produits par les probabilités imprécises et les coûts d'erreurs génériques avec le même ordre de complexité que dans le cas où les probabilités standards et les coûts unitaires sont utilisés. Il s'agit d'utiliser une technique de décomposition binaire, les dichotomies emboîtées. Les propriétés et les pré-requis de ce classifieur ont été étudiés en détail. Nous avons notamment pu voir que les dichotomies emboîtées sont applicables à tout modèle probabiliste imprécis et permettent de réduire le niveau d'indétermination du modèle imprécis sans perte de pouvoir prédictif. Des expériences variées ont été menées tout au long de la thèse pour appuyer nos contributions. Nous avons caractérisé le comportement du CAG à l’aide des jeux de données ordinales. Ces expériences ont mis en évidence les différences entre un modèle basé sur les probabilités standards pour produire des prédictions indéterminées et un modèle utilisant les probabilités imprécises. Ce dernier est en général plus compétent car il permet de distinguer deux sources d'indétermination (l'ambiguïté et le manque d'informations), même si l'utilisation conjointe de ces deux types de modèles présente également un intérêt particulier dans l'optique d'assister le décideur à améliorer les données ou les classifieurs. De plus, des expériences sur une grande variété de jeux de données ont montré que l'utilisation des dichotomies emboîtées permet d'améliorer significativement le pouvoir prédictif d'un modèle imprécis avec des coûts génériques. / In some areas of supervised machine learning (e.g. medical diagnostics, computer vision), predictive models are not only evaluated on their accuracy but also on their ability to obtain more reliable representation of the data and the induced knowledge, in order to allow for cautious decision making. This is the problem we studied in this thesis. Specifically, we examined two existing approaches of the literature to make models and predictions more cautious and more reliable: the framework of imprecise probabilities and the one of cost-sensitive learning. These two areas are both used to make models and inferences more reliable and cautious. Yet few existing studies have attempted to bridge these two frameworks due to both theoretical and practical problems. Our contributions are to clarify and to resolve these problems. Theoretically, few existing studies have addressed how to quantify the different classification errors when set-valued predictions are produced and when the costs of mistakes are not equal (in terms of consequences). Our first contribution has been to establish general properties and guidelines for quantifying the misclassification costs for set-valued predictions. These properties have led us to derive a general formula, that we call the generalized discounted cost (GDC), which allow the comparison of classifiers whatever the form of their predictions (singleton or set-valued) in the light of a risk aversion parameter. Practically, most classifiers basing on imprecise probabilities fail to integrate generic misclassification costs efficiently because the computational complexity increases by an order (or more) of magnitude when non unitary costs are used. This problem has led to our second contribution, the implementation of a classifier that can manage the probability intervals produced by imprecise probabilities and the generic error costs with the same order of complexity as in the case where standard probabilities and unitary costs are used. This is to use a binary decomposition technique, the nested dichotomies. The properties and prerequisites of this technique have been studied in detail. In particular, we saw that the nested dichotomies are applicable to all imprecise probabilistic models and they reduce the imprecision level of imprecise models without loss of predictive power. Various experiments were conducted throughout the thesis to illustrate and support our contributions. We characterized the behavior of the GDC using ordinal data sets. These experiences have highlighted the differences between a model based on standard probability framework to produce indeterminate predictions and a model based on imprecise probabilities. The latter is generally more competent because it distinguishes two sources of uncertainty (ambiguity and the lack of information), even if the combined use of these two types of models is also of particular interest as it can assist the decision-maker to improve the data quality or the classifiers. In addition, experiments conducted on a wide variety of data sets showed that the use of nested dichotomies significantly improves the predictive power of an indeterminate model with generic costs.
252

Stabilité de couches limites et d'ondes solitaires en mécanique des fluides / Stability of boundary layers and solitary waves in fluid mechanics

Paddick, Matthew 08 July 2014 (has links)
La présente thèse traite de deux questions de stabilité en mécanique des fluides. Les deux premiers résultats de la thèse sont consacrés au problème de la limite non-visqueuse pour les équations de Navier-Stokes. Il s'agit de déterminer si une famille de solutions de Navier-Stokes dans un demi-espace avec une condition de Navier au bord converge vers une solution du modèle non visqueux, l'équation d'Euler, lorsque les paramètres de viscosité tendent vers zéro. Dans un premier temps, on considère le modèle incompressible 2D. Nous obtenons la convergence dans L2 des solutions faibles de Navier-Stokes vers une solution forte d'Euler, et une instabilité dans L∞ en temps très court pour certaines données initiales qui sont des solutions stationnaires de l'équation d'Euler. Ces résultats ne sont pas contradictoires, et on construit un exemple de donnée initiale permettant de voir se réaliser les deux phénomènes simultanément dans le cadre périodique. Dans un second temps, on s'intéresse au modèle compressible isentropique (température constante) en 3D. On démontre l'existence de solutions dans des espaces de Sobolev conormaux sur un temps qui ne dépend pas de la viscosité lorsque celle-ci devient très petite, et on obtient la convergence forte de ces solutions vers une solution de l'équation d'Euler sur ce temps uniforme par des arguments de compacité. Le troisième résultat de cette thèse traite d'un problème de stabilité d'ondes solitaires. Précisément, on considère un fluide isentropique et non visqueux avec capillarité interne, régi par le modèle d'Euler-Korteweg, et on montre l'instabilité transverse non-linéaire de solitons, c'est-à-dire que des perturbations 2D initialement petites d'une solution sous forme d'onde progressive 1D peuvent s'éloigner de manière importante de celle-ci. / This thesis deals with a couple of stability problems in fluid mechanics. In the first two parts, we work on the inviscid limit problem for Navier-Stokes equations. We look to show whether or not a sequence of solutions to Navier-Stokes in a half-space with a Navier slip condition on the boundary converges towards a solution of the inviscid model, the Euler equation, when the viscosity parameters vanish. First, we consider the 2D incompressible model. We obtain convergence in L2 of weak solutions of Navier-Stokes towards a strong solution of Euler, as well as the instability in L∞ in a very short time of some initial data chosen as stationary solutions to the Euler equation. These results are not contradictory, and we construct initial data that allows both phenomena to occur simultaneously in the periodic setting. Second, we look at the 3D isentropic (constant temperature) compressible equations. We show that solutions exist in conormal Sobolev spaces for a time that does not depend on the viscosity when this is small, and we get strong convergence towards a solution of the Euler equation on this uniform time of existence by compactness arguments. In the third part of the thesis, we work on a solitary wave stability problem. To be precise, we consider an isentropic, compressible, inviscid fluid with internal capillarity, governed by the Euler-Korteweg equations, and we show the transverse nonlinear instability of solitons, that is that initially small 2D perturbations of a 1D travelling wave solution can end up far from it.
253

Méthode de conception des bobinages des actionneurs électriques adaptés aux nouvelles contraintes de l'avionique / Deisgn method for electrical actuators windings for new aeronautical requirements

Moeneclaey, Julien 23 February 2015 (has links)
Le développement d’avions plus électriques se traduit par une plus grande utilisation d'actionneurs électriques qui remplacent des systèmes hydrauliques et pneumatiques existants ou répondent à de nouveaux besoins. La distribution de l'énergie à bord est basée sur un réseau continu 540V connecté à des convertisseurs électroniques de puissance. Les composants électroniques de puissance à grands gaps (SiC, GaN) améliorent les performances des convertisseurs mais les fronts de tension très raides sont imposés aux bobinages des actionneurs électriques. Chaque front excite un régime transitoire comportant une surtension importante et donc des champs électriques intenses dans l’isolation inter-spires des bobines. Lorsque cette contrainte électrique répétitive dépasse le seuil d'apparition des décharges partielles (PDIV), la durée de vie des couches organiques qui isolent les spires est fortement réduite. L'étude détaillée des décharges partielles (DP) dans l'espace qui sépare les fils émaillés des bobinages permet de situer les zones dans lesquelles les DP se produisent. Elle montre que le thermocollage, avec des surépaisseurs adaptées de thermocolle, permet d'élever le PDIV au-delà des pointes répétitives de tension pour les actionneurs qui fonctionnent dans les parties pressurisées des avions. Des solutions ordonnées de bobinages ont été expérimentées sur des bobines cylindriques imprégnées. Cette analyse montre que l'imprégnation augmente légèrement le PDIV de l'isolation inter-spires dans des proportions qui ne correspondent pas totalement aux caractéristiques intrinsèques du vernis utilisé. Par conséquent, les bobines imprégnées doivent être conçues sur la base des performances de l'isolation primaire du fil émaillé. L’arrangement des spires dans une bobine ordonnée permet de répartir les contraintes et donc de concevoir des bobines qui résistent aux pointes de tension répétitives imposées par l'onduleur aux basses pressions correspondant aux zones non pressurisées d'un avion en vol. Un modèle, basé sur un schéma équivalent HF prenant en considération les deux premières résonances des bobines élémentaires, permet d'analyser la répartition des contraintes entre les bobines connectées en série d'une phase. / The More Electric Aircraft development is reflected by a bigger use of the electrical actuators, which replace the hydraulic or pneumatic system existing or they can also answer to new needs. The energy distribution on board is based on a high voltage continuous bus of 540V connected to electrical power converter. The electric power wide band gap components (SiC, GaN) improve the converters performances but very steep of voltage edge is imposed on the windings of the electric actuators. Each edge excites a transitory regime including an important surge which corresponds to intense electric fields in the inter-turns insulation of coils. When this repetitive electrical constraint exceeds the partial discharges inception voltage (PDIV), the life time of the organic layer between the turns is strongly reduced. The detailed study of the partial discharges (PD) in the area which separate the enamel wire of the windings allows to locate the area where the PD appears. The use of thermo-bonding, with a bonding thickness adapted, allows to raise PDIV beyond the repetitive edge of voltage for the actuators which work in the pressurized parts of the planes. The orderly windings solutions were tested on impregnated cylindrical coils. This analysis shows that the impregnation increases slightly the PDIV from the inter-turns insulation in proportions that do not totally correspond to the intrinsic characteristics of the used varnish. Therefore, the impregnated coils must be conceived on the basis of the primary insulation performance of the enamelled wire. The turn’s arrangement in an orderly coil allows to distribute the constraints and so to conceive the windings which can resist the compulsory repetitive of voltage spikes by the inverter in low pressures corresponding to not pressurized zones in a plane during the flight. A model, based on HF equivalent schema taking in consideration the first two resonances of the elementary coils, allows to analyse the constraints distribution between the coils connected in series of a machine phase.
254

Analytical properties of viscosity solutions for integro-differential equations : image visualization and restoration by curvature motions / Propriétés analytiques des solutions de viscosité des équations integro-différentielles : visualisation et restauration d'images par mouvements de courbure

Ciomaga, Adina 29 April 2011 (has links)
Le manuscrit est constitué de deux parties indépendantes.Propriétés des Solutions de Viscosité des Equations Integro-Différentielles.Nous considérons des équations intégro-différentielles elliptiques et paraboliques non-linéaires (EID), où les termes non-locaux sont associés à des processus de Lévy. Ce travail est motivé par l'étude du Comportement en temps long des solutions de viscosité des EID, dans le cas périodique. Le résultat classique nous dit que la solution u(¢, t ) du problème de Dirichlet pour EID se comporte comme ?t Åv(x)Åo(1) quand t !1, où v est la solution du problème ergodique stationaire qui correspond à une unique constante ergodique ?.En général, l'étude du comportement asymptotique est basé sur deux arguments: la régularité de solutions et le principe de maximumfort.Dans un premier temps, nous étudions le Principe de Maximum Fort pour les solutions de viscosité semicontinues des équations intégro-différentielles non-linéaires. Nous l'utilisons ensuite pour déduire un résultat de comparaison fort entre sous et sur-solutions des équations intégro-différentielles, qui va assurer l'unicité des solutions du problème ergodique à une constante additive près. De plus, pour des équationssuper-quadratiques le principe de maximum fort et en conséquence le comportement en temps grand exige la régularité Lipschitzienne.Dans une deuxième partie, nous établissons de nouvelles estimations Hölderiennes et Lipschitziennes pour les solutions de viscosité d'une large classe d'équations intégro-différentielles non-linéaires, par la méthode classique de Ishii-Lions. Les résultats de régularité aident de plus à la résolution du problème ergodique et sont utilisés pour fournir existence des solutions périodiques des EID.Nos résultats s'appliquent à une nouvelle classe d'équations non-locales que nous appelons équations intégro-différentielles mixtes. Ces équations sont particulièrement intéressantes, car elles sont dégénérées à la fois dans le terme local et non-local, mais leur comportement global est conduit par l'interaction locale - non-locale, par exemple la diffusion fractionnaire peut donner l'ellipticité dans une direction et la diffusion classique dans la direction orthogonale.Visualisation et Restauration d'Images par Mouvements de CourbureLe rôle de la courbure dans la perception visuelle remonte à 1954, et on le doit à Attneave. Des arguments neurologiques expliquent que le cerveau humain ne pourrait pas possiblement utiliser toutes les informations fournies par des états de simulation. Mais en réalité on enregistre des régions où la couleur change brusquement (des contours) et en outre les angles et les extremas de courbure. Pourtant, un calcul direct de courbures sur une image est impossible. Nous montrons comment les courbures peuvent être précisément évaluées, à résolution sous-pixelique par un calcul sur les lignes de niveau après leur lissage indépendant.Pour cela, nous construisons un algorithme que nous appelons Level Lines (Affine) Shortening, simulant une évolution sous-pixelique d'une image par mouvement de courbure moyenne ou affine. Aussi bien dans le cadre analytique que numérique, LLS (respectivement LLAS) extrait toutes les lignes de niveau d'une image, lisse indépendamment et simultanément toutes ces lignes de niveau par Curve Shortening(CS) (respectivement Affine Shortening (AS)) et reconstruit une nouvelle image. Nousmontrons que LL(A)S calcule explicitement une solution de viscosité pour le le Mouvement de Courbure Moyenne (respectivement Mouvement par Courbure Affine), ce qui donne une équivalence avec le mouvement géométrique.Basé sur le raccourcissement de lignes de niveau simultané, nous fournissons un outil de visualisation précis des courbures d'une image, que nous appelons un Microscope de Courbure d'Image. En tant que application, nous donnons quelques exemples explicatifs de visualisation et restauration d'image : du bruit, des artefacts JPEG, de l'aliasing seront atténués par un mouvement de courbure sous-pixelique / The present dissertation has two independent parts.Viscosity solutions theory for nonlinear Integro-Differential EquationsWe consider nonlinear elliptic and parabolic Partial Integro-Differential Equations (PIDES), where the nonlocal terms are associated to jump Lévy processes. The present work is motivated by the study of the Long Time Behavior of Viscosity Solutions for Nonlocal PDEs, in the periodic setting. The typical result states that the solution u(¢, t ) of the initial value problem for parabolic PIDEs behaves like ?t Å v(x) Å o(1) as t ! 1, where v is a solution of the stationary ergodic problem corresponding to the unique ergodic constant ?. In general, the study of the asymptotic behavior relies on two main ingredients: regularity of solutions and the strong maximum principle.We first establish Strong Maximum Principle results for semi-continuous viscosity solutions of fully nonlinear PIDEs. This will be used to derive Strong Comparison results of viscosity sub and super-solutions, which ensure the up to constants uniqueness of solutions of the ergodic problem, and subsequently, the convergence result. Moreover, for super-quadratic equations the strong maximum principle and accordingly the large time behavior require Lipschitz regularity.We then give Lipschitz estimates of viscosity solutions for a large class of nonlocal equations, by the classical Ishii-Lions's method. Regularity results help in addition solving the ergodic problem and are used to provide existence of periodic solutions of PIDEs. In both cases, we deal with a new class of nonlocal equations that we term mixed integrodifferential equations. These equations are particularly interesting, as they are degenerate both in the local and nonlocal term, but their overall behavior is driven by the local-nonlocal interaction, e.g. the fractional diffusion may give the ellipticity in one direction and the classical diffusion in the complementary one.Image Visualization and Restoration by CurvatureMotionsThe role of curvatures in visual perception goes back to 1954 and is due to Attneave. It can be argued on neurological grounds that the human brain could not possible use all the information provided by states of simulation. But actually human brain registers regions where color changes abruptly (contours), and furthermore angles and peaks of curvature. Yet, a direct computation of curvatures on a raw image is impossible. We show how curvatures can be accurately estimated, at subpixel resolution, by a direct computation on level lines after their independent smoothing.To performthis programme, we build an image processing algorithm, termed Level Lines (Affine) Shortening, simulating a sub-pixel evolution of an image by mean curvature motion or by affine curvature motion. Both in the analytical and numerical framework, LL(A)S first extracts all the level lines of an image, then independently and simultaneously smooths all of its level lines by curve shortening (CS) (respectively affine shortening (AS)) and eventually reconstructs, at each time, a new image from the evolved level lines.We justify that the Level Lines Shortening computes explicitly a viscosity solution for the Mean CurvatureMotion and hence is equivalent with the clasical, geometric Curve Shortening.Based on simultaneous level lines shortening, we provide an accurate visualization tool of image curvatures, that we call an Image CurvatureMicroscope. As an application we give some illustrative examples of image visualization and restoration: noise, JPEG artifacts, and aliasing will be shown to be nicely smoothed out by the subpixel curvature motion.
255

Développement de méthodes de résolution d’équations aux dérivées partielles : du schéma numérique à la simulation d’une installation industrielle / Development of methods for resolving partial differential equations : from numerical scheme to simulation of industrial facilities

Costes, Joris 22 June 2015 (has links)
Le développement d'outils de simulation efficaces demande d'appréhender à la fois la modélisation physique, la modélisation mathématique et la programmation informatique. Pour chacun de ces points, il est nécessaire de garder à l'esprit l'application visée, en effet le niveau de modélisation à adopter mais également les techniques de programmation à mettre en œuvre vont être différents selon l'utilisation que l'on envisage pour un code de calcul ou un logiciel de simulation.On commence dans ce travail de thèse par s'intéresser au niveau fin pour lequel on résout les équations d'Euler pour calculer un écoulement, on aborde ensuite la question de l'utilisation d'un code de calcul parallèle dans le contexte de la simulation d'un benchmark industriel. Enfin, on traite du niveau macroscopique associé à la simulation d'une installation industrielle complète pour lequel on utilise des relations phénoménologiques basées par exemple sur des corrélations expérimentales.Le premier chapitre traite de la détermination d'une vitesse de grille dans le contexte des méthodes ALE (Arbitrary Langrangian-Eulerian). Dans le chapitre suivant, on s’intéresse aux équations d'Euler compressibles résolues à l'aide de la méthode VFFC (Volumes Finis à Flux Caractéristiques), il s'agit d'introduire un modèle d'interface entre un fluide seul d'une part et un mélange homogène de deux fluides d'autre part, l'un des deux fluides ayant la même loi d'état que celui présent de l'autre côté de l'interface.Le troisième chapitre est consacré à la réalisation de simulations haute performance utilisant le code de calcul FluxIC basé sur la méthode VFFC avec capture d'interfaces, on s'intéresse plus particulièrement au phénomène de sloshing rencontré lors du transport de gaz naturel liquéfié par navire méthanier.Pour finir, le quatrième et dernier chapitre traite de la modélisation au niveau système d'une installation industrielle. On y présentera une approche systémique qui constitue un niveau de modélisation adapté à la simulation d'un grand nombre de composants et de leurs interactions. L'approche qui est présentée permet de concilier la modélisation de phénomènes physiques déterministes avec une modélisation stochastique visant à simuler, par exemple, le comportement de l'installation pour divers régimes de fonctionnement caractéristiques. / The development of efficient simulation tools requires an understanding of physical modeling, mathematical modeling and computer programming. For each of these domains it is necessary to bear in mind the intended application, because the use for a calculation code or simulation software will dictate the level of modeling, and also the programming techniques to be adopted.This dissertation starts with a detailed description applied in the form of fluid flow calculations using the Euler equations. Then simulation of an industrial benchmark is considered using a parallel computational method. Finally, simulation of a complete industrial plant is addressed, where phenomenological relations based on experimental correlations can be used.The first chapter deals with the determination of mesh velocity in the context of ALE (Arbitrary Lagrangian-Eulerian) methods. In the following chapter we focus on the compressible Euler equations solved using the FVCF method (Finite Volume with Characteristic Flux). In this case we consider an interface between a single fluid and a homogeneous two-fluid mixture, where one of the two mixed fluids and the single fluid have the same equation of state.The third chapter is devoted to running high performance simulations using the FluxIC computation code based on the FVCF method with interface capturing. The focus is on sloshing phenomenon encountered during transportation of Liquefied Natural Gas by LNG carriers.The fourth and final chapter deals with modeling of an industrial facility at system level. A systemic approach is presented that provides a level of modeling adapted to the simulation of a large number of components and their interactions. This approach enables users to combine deterministic modeling of physical phenomena with stochastic modeling in order to simulate the behavior of the system for a large set of operating conditions.
256

Quelques problèmes liés à l'erreur statistique en homogénéisation stochastique / Some problems related to statistical error in stochastic homogenization

Minvielle, William 25 September 2015 (has links)
Le travail de cette thèse a porté sur le développement de techniques numériques pour l'homogénéisation d'équations dont les coefficients présentent des hétérogénéités aléatoires à petite échelle. Les difficultés liées à la résolution de telles équations aux dérivées partielles peuvent être résolues grâce à la théorie de l'homogénéisation stochastique. On substitue alors la résolution d'une équation dont les coefficients sont aléatoires et oscillants à l'échelle la plus fine du problème par la résolution d'une équation à coefficients constants. Cependant, une difficulté subsiste : le calcul de ces coefficients dits homogénéisés sont définis par une moyenne ergodique, que l'on ne peut atteindre en pratique. Seuls des approximations aléatoires de ces quantités déterministes sont calculables, et l'erreur commise lors de l'approximation est importante. Ces questions sont développées en détail dans le Chapitre 1 qui tient lieu d'introduction. L'objet du Chapitre 2 de cette thèse est de réduire l'erreur de cette approximation dans un cas nonlinéaire, en réduisant la variance de l'estimateur par la méthode des variables antithétiques. Dans le Chapitre 3, on montre comment obtenir une meilleure réduction de variance par la méthode des vari- ables de contrôle. Cette approche repose sur un modèle approché, disponible dans le cas étudié. Elle est plus invasive et moins générique, on l'étudie dans un cas linéaire. Dans le Chapitre 4, à nouveau dans un cas linéaire, on introduit une méthode de sélection pour réduire l'erreur commise. Enfin, le Chapitre 5 porte sur l'analyse d'un problème in- verse, où l'on recherche des paramètres à l'échelle la plus fine, ne connaissant que quelques quantités macroscopiques, par exemple les coefficients homogénéisés du modèle / In this thesis, we design numerical techniques to address the homogenization of equations the coefficients of which exhibit small scale random heterogeneities. Solving such elliptic partial differential equations is prohibitively expensive. One may use stochastic homogenization theory to reduce the complexity of this task. We then substitute the random, fine scale oscillating coefficients of the equation with constant homogenized coefficients. These coefficients are defined through an ergodic average inaccessible to practical computation. Only random approximations thereof are available. The error committed in this approximation is significant. These issues are detailed in the introductory Chapter 1. In Chapter 2, we show how to reduce the error in this approximation, in a nonlinear case, by using an antithetic variable estimator that has a smaller variance than the standard Monte Carlo estimator. In Chapter 3, in a linear case, we show how to obtain an even better variance reduction with the control variate method. Such a method is based on a surrogate model. In Chapter 4, we use a selection method to reduce the global error. Chapter 5 is devoted to the analysis of an inverse problem, wherein we seek parameters at the fine scale whilst only being provided with a handful of macroscopic quantities, among which the homogenized coefficients
257

Identification de paramètres et analyses de sensibilité pour un modèle d'usinage par jet d'eau abrasif / Identification of unknown model parameters and sensitivity analysis for abrasive waterjet milling process

Groza, Vladimir 09 November 2016 (has links)
Ce travail fait partie du projet Marie-Curie ITN STEEP, dans le domaine des faisceaux énergétiques. Nous étudions ici l'identification de paramètres pour un modèle générique d'usinage par jet d'eau abrasif. L'étude de ce problème trouve son origine dans les applications industrielles d'usinage, où la nécessité de modéliser et prédire la surface finale avec une très grande précision est essentielle en l'absence de connaissance des paramètres du modèle Nous proposons ici une méthode d'identification des paramètres du modèle basée sur la minimisation d'une fonction coût, mesurant la différence entre la solution numérique et les observations expérimentales. L'approche variationnelle, basée sur le Lagrangien, permet de considérer l'adjoint, et l'utilisation d'un logiciel de différentiation automatique (TAPENADE) conduit à une identification rapide et précise des paramètres, quelles que soient la complexité et la taille du problème étudié. La qualité de l'identification peut être fortement instable et dépendre largement des données expérimentales en cas de bruit. Nous introduisons alors des termes de régularisation permettant de gérer la présence d'erreurs de mesure. Plusieurs cas d'usinage par jet abrasif sont considérés: problème stationnaire, jet qui se déplace à vitesse constante, ou en accélérant, utilisation synthétiques ou réelles L'étude de sensibilité montre la robustesse de l'approche, qui permet d'obtenir de très bons résultats acceptables d'un point de vue industriel / This work is part of STEEP Marie-Curie ITN project, covering the research in field of energy beam processing. We focus on the identification of unknown parameters of the proposed generic Abrasive WaterJet Milling (AWJM) model. The necessity of studying this problem comes from the industrial milling applications where the possibility to predict and model the final surface with high accuracy is one of the primary tasks in the absence of any knowledge of the model parameters that should be used. We propose the method of the model parameters identification by minimizing a cost function, measuring the difference between experimental observation and numerical solution. The variational approach based on corresponding Lagrangian allows to obtain the adjoint state and the involvement of the automatic differentiation software tool (TAPENADE) leads to fast and efficient parameters identification. In fact the parameter identification problem is highly unstable and strictly depends on quality of input data. Regularization terms could be effectively used to deal with the presence of measurement errors. Various cases of the AWJM process such as a stationary problem and moving with constant feed speed or acceleration are studied based on both artificial and real experimental data. The sensitivity study related to these particular problems demonstrates the strong capability of the proposed approach to obtain acceptable
258

Étude mathématique et numérique des résonances dans une micro-cavité optique / Mathematical and numerical study of resonances in optical micro-cavities

Moitier, Zoïs 03 October 2019 (has links)
Cette thèse est consacrée à l'étude des fréquences de résonance de cavités optiques bidimensionnelles. Plus particulièrement, on s'intéresse aux résonances à modes de galerie (modes localisés au bord de la cavité avec un grand nombre d'oscillations). La première partie traite du calcul numérique des résonances par la méthode des éléments finis à l'aide de couches parfaitement adaptées, et d'une analyse de sensibilité des paramètres de celles-ci dans les trois situations suivantes : un problème unidimensionnel, une réduction du cas bidimensionnel invariant par rotation et le cas général. La deuxième partie porte sur la construction de développements asymptotiques des résonances à modes de galerie quand le nombre d'oscillations le long du bord tend vers l'infini. On considère d'abord le cas d'un problème invariant par rotation pour lequel le nombre d'oscillations s'interprète comme un paramètre semiclassique grâce à la transformée de Fourier angulaire. Ensuite, pour le cas général, la construction utilise un ansatz phase-amplitude de type BKW qui permet de se ramener à un opérateur de Schrödinger généralisé. Enfin, les résonances calculées numériquement dans la première partie sont comparées aux développements asymptotiques explicités par calcul formel. / This thesis is devoted to the study of resonance frequencies of bidimensional optical cavities. More specifically, we are interested in whispering-gallery modes (modes localized along the cavity boundary with a large number of oscillations). The first part deals with the numerical computation of resonances by the finite element method using perfectly matched layers, and with a sensibility analysis in the three following situations: an unidimensional problem, a reduction of the rotationally invariant bidimensional case, and the general case. The second part focuses on the construction of asymptotic expansions of whispering-gallery modes as the number of oscillations along of boundary goes to infinity. We start by considering the case of a rotationally invariant problem for which the number of oscillations can be interpreted as a semiclassical parameter by means of an angular Fourier transform. Next, for the general case, the construction uses a phase-amplitude ansatz of WKB type which leads to a generalized Schrödinger operator. Finally, the numerically computed resonances obtained in the first part are compared to the asymptotic expansions made explicit by the use of a computer algebra software.
259

Absorption de l'eau et des nutriments par les racines des plantes : modélisation, analyse et simulation / Water and nutrient uptake by plant roots : modeling, analysis and simulation

Tournier, Pierre-Henri 04 February 2015 (has links)
Dans le contexte du développement d'une agriculture durable visant à préserver les ressources naturelles et les écosystèmes, il s'avère nécessaire d'approfondir notre compréhension des processus souterrains et des interactions entre le sol et les racines des plantes.Dans cette thèse, on utilise des outils mathématiques et numériques pour développer des modèles mécanistiques explicites du mouvement de l'eau et des nutriments dans le sol et de l'absorption racinaire, gouvernés par des équations aux dérivées partielles non linéaires. Un accent est mis sur la prise en compte explicite de la géométrie du système racinaire et des processus à petite échelle survenant dans la rhizosphère, qui jouent un rôle majeur dans l'absorption racinaire.La première étude est dédiée à l'analyse mathématique d'un modèle d'absorption du phosphore (P) par les racines des plantes. L'évolution de la concentration de P dans la solution du sol est gouvernée par une équation de convection-diffusion avec une condition aux limites non linéaire à la surface de la racine, que l'on considère ici comme un bord du domaine du sol. On formule ensuite un problème d'optimisation de forme visant à trouver les formes racinaires qui maximisent l'absorption de P.La seconde partie de cette thèse montre comment on peut tirer avantage des récents progrès du calcul scientifique dans le domaine de l'adaptation de maillage non structuré et du calcul parallèle afin de développer des modèles numériques du mouvement de l'eau et des solutés et de l'absorption racinaire à l'échelle de la plante, tout en prenant en compte les phénomènes locaux survenant à l'échelle de la racine unique. / In the context of the development of sustainable agriculture aiming at preserving natural resources and ecosystems, it is necessary to improve our understanding of underground processes and interactions between soil and plant roots.In this thesis, we use mathematical and numerical tools to develop explicit mechanistic models of soil water and solute movement accounting for root water and nutrient uptake and governed by nonlinear partial differential equations. An emphasis is put on resolving the geometry of the root system as well as small scale processes occurring in the rhizosphere, which play a major role in plant root uptake.The first study is dedicated to the mathematical analysis of a model of phosphorus (P) uptake by plant roots. The evolution of the concentration of P in the soil solution is governed by a convection-diffusion equation with a nonlinear boundary condition at the root surface, which is included as a boundary of the soil domain. A shape optimization problem is formulated that aims at finding root shapes maximizing P uptake.The second part of this thesis shows how we can take advantage of the recent advances of scientific computing in the field of unstructured mesh adaptation and parallel computing to develop numerical models of soil water and solute movement with root water and nutrient uptake at the plant scale while taking into account local processes at the single root scale.
260

Modélisation mathématique du rôle et de la dynamique temporelle de la protéine p53 après dommages à l'ADN induits par les médicaments anticancéreux / Mathematical model of the role and temporal dynamics of protein p53 after drug-induced DNA damage

Elias, Jan 01 September 2015 (has links)
Plusieurs modèles pharmacocinétiques-pharmacodynamiques moléculaires ont été proposés au cours des dernières décennies afin de représenter et de prédire les effets d'un médicament dans les chimiothérapies anticancéreuses. La plupart de ces modèles ont été développés au niveau de la population de cellules, puisque des effets mesurables peuvent y être observés beaucoup plus facilement que dans les cellules individuelles.Cependant, les véritables cibles moléculaires des médicaments se trouvent au niveau de la cellule isolée. Les médicaments utilisés soit perturbent l'intégrité du génome en provoquant des ruptures de brins de l'ADN et par conséquent initialisent la mort cellulaire programmée (apoptose), soit bloquent la prolifération cellulaire, par inhibition des protéines (cdks) qui permettent aux cellules de procéder d'une phase du cycle cellulaire à la suivante en passant par des points de contrôle (principalement en $G_1/S$ et $G_2/M$). Les dommages à l'ADN causés par les médicaments cytotoxiques ou la $\gamma$-irradiation activent, entre autres, les voies de signalisation contrôlées par la protéine p53 qui forcent directement ou indirectement la cellule à choisir entre la survie et la mort.Cette thèse vise à explorer en détail les voies intracellulaires impliquant la protéine p53, ``le gardien du génome", qui sont initiées par des lésions de l'ADN, et donc de fournir un rationnel aux cancérologues pour prédire et optimiser les effets des médicaments anticancéreux en clinique. Elle décrit l'activation et la régulation de la protéine p53 dans les cellules individuelles après leur exposition à des agents causant des dommages à l'ADN. On montre que les comportements dynamiques qui ont été observés dans les cellules individuelles peuvent être reconstruits et prédits par fragmentation des événements cellulaires survenant après lésion de l'ADN, soit dans le noyau, soit dans le cytoplasme. Ceci est mis en œuvre par la description du réseau des protéines à l'aide d'équations différentielles ordinaires (EDO) et partielles (EDP) impliquant plusieurs agents dont les protéines ATM, p53, Mdm2 et Wip1, dans le noyau aussi bien que dans le cytoplasme, et entre les deux compartiments. Un rôle positif de Mdm2 dans la synthèse de p53, qui a été récemment observé, est exploré et un nouveau mécanisme provoquant les oscillations de p53 est proposé. On pourra noter en particulier que le nouveau modèle rend compte d'observations expérimentales qui n'ont pas pu être entièrement expliquées par les modèles précédents, par exemple, l'excitabilité de p53.En utilisant des méthodes mathématiques, on observe de près la façon dont un stimulus (par exemple, une $\gamma$-irradiation ou des médicaments utilisés en chimiothérapie) est converti en un comportement dynamique spécifiques (spatio-temporel) de p53, en particulier que ces dynamiques spécifiques de p53, comme messager de l'information cellulaire, peuvent moduler le cycle de division cellulaire, par exemple provoquant l'arrêt du cycle ou l'apoptose. Des modèles mathématiques EDO et EDP de réaction-diffusion sont utilisés pour examiner comment le comportement (spatio-temporel) de p53 émerge, et nous discutons des conséquences de ce comportement sur les réseaux moléculaires, avec des applications possibles dans le traitement du cancer.Les interactions protéine-protéine sont considérées comme des réactions enzymatiques. On présente quelques résultats mathématiques pour les réactions enzymatiques, en particulier on étudie le comportement en temps grand du système de réaction-diffusion pour la réaction enzymatique réversible à l'aide d'une approche entropique. À notre connaissance, c'est la première fois qu'une telle étude est publiée sur ce sujet. / Various molecular pharmacokinetic–pharmacodynamic models have been proposed in the last decades to represent and predict drug effects in anticancer therapies. Most of these models are cell population based models since clearly measurable effects of drugs can be seen on populations of (healthy and tumour) cells much more easily than in individual cells.The actual targets of drugs are, however, cells themselves. The drugs in use either disrupt genome integrity by causing DNA strand breaks and consequently initiate programmed cell death or block cell proliferation mainly by inhibiting proteins (cdks) that enable cells to proceed from one cell cycle phase to another. DNA damage caused by cytotoxic drugs or $\gamma$-irradiation activates, among others, the p53 protein-modulated signalling pathways that directly or indirectly force the cell to make a decision between survival and death.The thesis aims to explore closely intracellular pathways involving p53, ``the guardian of the genome", initiated by DNA damage and thus to provide oncologists with a rationale to predict and optimise the effects of anticancer drugs in the clinic. It describes p53 activation and regulation in single cells following their exposure to DNA damaging agents. We show that dynamical patterns that have been observed in individual cells can be reconstructed and predicted by compartmentalisation of cellular events occurring either in the nucleus or in the cytoplasm, and by describing protein interactions, using both ordinary and partial differential equations, among several key antagonists including ATM, p53, Mdm2 and Wip1, in each compartment and in between them. Recently observed positive role of Mdm2 in the synthesis of p53 is explored and a novel mechanism triggering oscillations is proposed. For example, new model can explain experimental observations that previous (not only our) models could not, e.g., excitability of p53.Using mathematical methods we look closely on how a stimulus (e.g., $\gamma$-radiation or drugs used in chemotherapy) is converted to a specific (spatio-temporal) pattern of p53 whereas such specific p53 dynamics as a transmitter of cellular information can modulate cellular outcomes, e.g., cell cycle arrest or apoptosis. Mathematical ODE and reaction-diffusion PDE models are thus used to see how the (spatio-temporal) behaviour of p53 is shaped and what possible applications in cancer treatment this behaviour might have. Protein-protein interactions are considered as enzyme reactions. We present some mathematical results for enzyme reactions, among them the large-time behaviour of the reaction-diffusion system for the reversible enzyme reaction treated by an entropy approach. To our best knowledge this is published for the first time.

Page generated in 0.047 seconds