• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 134
  • 81
  • 23
  • 2
  • 1
  • Tagged with
  • 238
  • 87
  • 72
  • 49
  • 44
  • 41
  • 38
  • 35
  • 34
  • 31
  • 30
  • 24
  • 24
  • 23
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Elaboration d'un modèle détaillé d'une boucle diphasique gravitaire et développement d'un modèle réduit associé / Elaboration of a Detailed Model of a Two-Phase Loop Thermosyphon and Development of an Associated Reduced Model

Bodjona, Hèzièwè Serge 31 March 2017 (has links)
Les systèmes électriques occupent de nos jours une place de plus en plus importante dans le domaine du transport aérien, ferroviaire et automobile. Ce progrès s'est accompagné de la miniaturisation des systèmes(convertisseurs) qui nécessitent un refroidissement très performant. Alors que les systèmes de refroidissement traditionnels atteignent leurs limites, une des solutions consiste à utiliser des boucles fluides diphasiques reposant sur le changement de phase liquide-vapeur du fluide de travail, en particulier les boucles diphasiques gravitaires. L'objectif de cette thèse est double: proposer un modèle détaillé de la boucle ainsi qu'un modèle réduit capable de calculer les variables en tout point de la boucle et en tout instant mais beaucoup moins gourmand en temps de calcul. Concernant tout d'abord le modèle détaillé, les équations de l'écoulement monodimensionnel et compressible du fluide à l'état monophasique et diphasique en régime transitoire sont résolues par la méthode d 'Euler explicite et par la méthode des volumes finis. Le mélange liquide-vapeur se comporte comme un mélange homogène, en équilibre mécanique et thermique. Les lois de fermeture du modèle sont déduites des lois d'état du type "Stiffened Gas". En ce qui concerne le modèle réduit, une extension de la méthode d'identification modale est proposée. La structure du modèle réduit est tout d'abord déterminée en effectuant la projection de Galerkine des équations de conservation continues. Ensuite les paramètres dumodèle réduit sont identifiés par la résolution d'un problème d'optimisation. Le modèle réduit ainsi construit est alors validé sur plusieurs cas présentant des dynamiques différentes. / Today, electrical systems are becoming increasingly important in the air, rail and automotive sectors.The immediate consequence of this progress is the miniaturization of systems (converters) requiring very important cooling means. Whereas conventional cooling solutions are reaching their limit, an alternative one can be sought in two-phase loops based on the liquid-vapor phase change of a working fluid, in particular two-phase loop thermosyphon. The objective of this thesis is twofold : to propose a detailed model of a two phase loop thermosyphon as well as a reduced model able to calculate the variables at any location of the loop at any time with a much smaller computing time. First, the equation of the transient one-dimensional compressible one-phase and two-phase fluid flow is solved using the explicit Euler method of order 1 and the finite volume method. The liquid-vapor mixture is modeled as a homogeneous mixture at mechanical and thermal equilibrium. The closure laws of the model are deduced from the "Stiffened Gas" state laws. For the reduced model, an extension of the modal identification method is proposed. The structure of the reduced model is first determined carrying out the Galerkin projection of the continuous conservation equations.Then the parameters of the model are identified by the resolution of an optimization problem. The reduced model thus constructed is then validated on several cases with different dynamics
22

Contribution de la cyclostationnarité et de l'identification aveugle au diagnostic des outils de coupe / Cyclostationarity and blind identification contribution to cutting tool diagnosis

Ait Sghir, Khalid 11 November 2010 (has links)
Le diagnostic des outils de coupe joue un rôle dans l’industrie où il est important de maîtriser les coûts ainsi que la qualité des produits finis tout en maintenant la sécurité et la sûreté des biens et des personnes. L’objectif de cette thèse est l’analyse vibratoire des outils de coupe d’une opération de fraisage pour le diagnostic de leur état de dégradation. Dans une première partie nous avons étudié les possibilités offertes par les traitements statistiques synchrones des signaux vibrations issus d’une opération d’usinage pour étudier leur état de fonctionnement. Les signaux vibratoires traités ont la particularité d’être cyclostationnaires, c'est-à-dire périodiques dans leurs propriétés statistiques. La prise en compte de cette propriété permet l’utilisation des descripteurs capables de caractériser instantanément les processus vibratoires, en liaison avec la cinématique mécanique de l’opération d’usinage. De plus lorsque associé à l’échantillonnage angulaire, la cyclostationnarité conduit vers la proposition d’estimateurs statistiques synchrones commodes à mette en œuvre. Les statistiques synchrones d’ordre l et d’ordre 2, la corrélation spectrale ainsi que le bispectre cyclique sont définis avec leurs interprétations et leurs estimateurs. Un modèle des signaux de fraisage est donné. Cette modélisation vise à démontrer la cyclostationnarité de ces signaux. L’emploi de ces indicateurs est illustré sur des signaux réels et comparé avec des indicateurs classiques pour le diagnostic de dégradation des outils de coupe. Dans une deuxième partie, la déconvolution aveugle de la réponse impulsionnelle d’un processus cyclostationnaire est réalisé, en utilisant seulement les statistiques d’ordre deux. Pour cela on exploite la propriété de cyclostationnarité pour estimer la phase du système, même si le système est à phase non minimale. Deux méthodes sont présentées, paramétrique Ding-p et non paramétrique Ding-n. Ces méthodes ont été validées sur des signaux de simulation des signaux vibratoires issus des machines tournantes. Deux applications ont été faites, la première est d’estimer la réponse impulsionnelle d’un système broche-outil-pièce de fabrication. La deuxième c’est de reconstruire les forces de coupe, exerçants sur la pièce de fabrication, afin de faire le monitoring / The identification of the state of a cutting tool is important in any metal cutting process. An additional cost - in terms of scrapped components, machine tool breakage and unscheduled downtime - occurs as a result of tool defects. The thesis objective is the cutting tool vibration analysis of a milling operation for the diagnosis of their state of degradation. In the first part, the possibilities offered by the synchronous statistics, applied to vibration signal captured from a milling process, are studied to examine the cutting tool condition. The processed vibration signals are cyclostationary, i.e their statistical properties are periodic. Taking into account this property, the use of descriptors able to characterize the process, in conjunction with the kinematics of the mechanical machining operation. Furthermore, when combined with the angular sampling, the cyclostationarity led to the proposed synchronous statistical estimators convenient to implement. First order and second order synchronous statistics, the spectral correlation and the cyclic bispectrum are defined with their interpretations and estimators. A model of milling vibration signal is given. This model aims to demonstrate the cyclostationarity of the signals. The use of these indicators is illustrated on real signals and compared with conventional indicators for diagnosing degradation of cutting tools.In the second part, the blind deconvolution of the impulse response of a cyclostationary process is
23

La libération modifiée de principes actifs, développement de deux approches / The modified drug release, development of two approaches

Dekyndt, Bérangère 19 January 2015 (has links)
Les thérapeutiques individualisées et ciblées se développent actuellement, les formes galéniques évoluent donc en parallèle pour contrôler la libération des principes actifs (PA) et les conduire au plus proche des sites d’intérêts. Les formes orales solides représentent les formulations galéniques les plus utilisées, faciles d’emploi, indolores et réduisant le risque d’infection. Lors de leur conception, il est aussi possible de moduler la libération du PA.Deux approches sont étudiées dans ce manuscrit, l’une correspond au ciblage de la libération d’un PA vers son site d’action thérapeutique qui est le colon, la seconde consiste à contrôler la libération du PA pour maintenir une concentration constante, minimiser les effets indésirables et les périodes de présence de concentrations sub-thérapeutiques au niveau du site d’action.Première approche :Les traitements des Maladies Inflammatoires Chroniques de l’Intestin (MICI) peuvent être significativement améliorées par une libération localisée du PA. Une des approches est l’utilisation d’enrobages composés de polysaccharides dégradés par les enzymes sécrétées par la microflore colique. Mais l’absence d’une méthode in vitro reproductible simulant les conditions physiologiques du colon et l’impact potentiel des traitements antibiotiques associées qui pourraient affecter la quantité et la qualité des bactéries présentes et des enzymes sécrétées est un obstacle à sa mise au point. L’objectif de l’étude était d’effectuer un screening de polysaccharides ayant un intérêt dans le développement de nouvelles formulations à libération colique. Après cette sélection, la libération des formulations retenues ont été évaluées par une méthode utilisant des selles de patients atteints de MICI traités ou non par antibiothérapie. Enfin, l’utilisation de mélanges bactériens pour un éventuel remplacement de l’utilisation de selles fraiches a été évaluée.Seconde approche : Les formes orales enrobées présentent un grand potentiel pour la libération contrôlée de PA. Néanmoins, il est difficile d’obtenir une libération à vitesse constante avec ce type de formulation. Ceci est généralement dû au rôle prédominant du transport de masse par diffusion, ce qui entraine, avec le temps, une diminution de la concentration en PA au cœur du système, donc une réduction du gradient de concentration qui est la force motrice de la libération du PA. Ce type de cinétique de libération peut être inapproprié pour un traitement médicamenteux sûr et efficace. Malgré l’importance pratique de ce défi crucial de formulation, étonnamment, peu de stratégies efficaces sont connues. Dans cette étude, une nouvelle approche, basée sur une succession de couches de PA et de polymères (initialement dépourvu de PA) présentant une distribution initiale de PA non homogène, associé à un effet de temps de latence et à une diffusion partielle initiale à travers le noyau de la minigranule. Des variations de type, de quantité, d’épaisseur et de séquence des couches de PA et de polymères ont été testées. Un système assez simple composé de quatre couches (deux couches de PA et deux couches de polymère) permettait d’aboutir à une libération relativement constante durant 8h. / Individualized and targeted therapies are currently developed, therefore the dosage forms move in parallel to control the drug release and drive it nearest to interest sites. Solid oral dosage forms are the pharmaceutical formulations the most common, easy to use, painless and reducing the infectious risk. In these formulation designs, it is also possible to adjust the drug release.Two approaches are discussed in this manuscript, the first one targets the drug release to the therapeutic site of action which is the colon, and the second one consists on controlling the drug release to maintain a constant concentration, minimize side effects and periods of presence of sub-therapeutic concentrations at the site of action.The first approach:The treatment of colonic disease like Inflammatory Bowel Diseases (IBD), can be significantly improved via local drug delivery. One approach is to use polysaccharide coatings, which are degraded by enzymes secreted by the colonic microflora. However, the lack of a reliable in vitro test simulating conditions in a living colon and the potential impact of associated antibiotic treatments that could affect the quality and quantity of bacteria and enzymes secreted is an obstacle to its development. The aim of the study was to perform a screening of polysaccharides suitable for the development of new colonic release formulations. After this selection, the drug release of selected formulations were evaluated by a method using the stools of IBD patients treated or not with antibiotics. Finally, the use of bacterial mixtures substituting fresh fecal samples has been evaluated.The second approach: Coated pellets offer a great potential for controlling drug delivery systems. However, constant drug release rates are difficult to achieve with this type of dosage forms if the drug is freely water-soluble. This is because diffusional mass transport generally plays a major role and with time the drug concentration within the system decreases, resulting in decreased concentration gradients, which are the driving forces for drug release. This type of release kinetics might be inappropriate for an efficient and safe drug treatment. Despite the great practical importance of this potentially crucial formulation challenge, surprisingly little is yet known about efficient formulations. In this study, a novel approach is presented based on sequential layers of drug and polymer (initially free of drug) to provide a non-homogeneous initial drug distribution, combined with lag-time effects and partial initial drug diffusion towards the pellet’s core. By changing the type, number, thickness and sequence of the drug and polymer layers, a rather simple 4 layers system (2 drug and 2 polymer layers) allowed an about constant drug release during 8 h.
24

Modélisation de la dépendance pour des statistiques d'ordre et estimation non-paramétrique. / Modelling the dependence of order statistics and nonparametric estimation.

Fischer, Richard 30 September 2016 (has links)
Dans cette thèse, on considère la modélisation de la loi jointe des statistiques d'ordre, c.à.d. des vecteurs aléatoires avec des composantes ordonnées presque sûrement. La première partie est dédiée à la modélisation probabiliste des statistiques d'ordre d'entropie maximale à marginales fixées. Les marginales étant fixées, la caractérisation de la loi jointe revient à considérer la copule associée. Dans le Chapitre 2, on présente un résultat auxiliaire sur les copules d'entropie maximale à diagonale fixée. Une condition nécessaire et suffisante est donnée pour l'existence d'une telle copule, ainsi qu'une formule explicite de sa densité et de son entropie. La solution du problème de maximisation d'entropie pour les statistiques d'ordre à marginales fixées est présentée dans le Chapitre 3. On donne des formules explicites pour sa copule et sa densité jointe. On applique le modèle obtenu pour modéliser des paramètres physiques dans le Chapitre 4.Dans la deuxième partie de la thèse, on étudie le problème d'estimation non-paramétrique des densités d'entropie maximale des statistiques d'ordre en distance de Kullback-Leibler. Le chapitre 5 décrit une méthode d'agrégation pour des densités de probabilité et des densités spectrales, basée sur une combinaison convexe de ses logarithmes, et montre des bornes optimales non-asymptotiques en déviation. Dans le Chapitre 6, on propose une méthode adaptative issue d'un modèle exponentiel log-additif pour estimer les densités considérées, et on démontre qu'elle atteint les vitesses connues minimax. L'application de cette méthode pour estimer des dimensions des défauts est présentée dans le Chapitre 7 / In this thesis we consider the modelling of the joint distribution of order statistics, i.e. random vectors with almost surely ordered components. The first part is dedicated to the probabilistic modelling of order statistics of maximal entropy with marginal constraints. Given the marginal constraints, the characterization of the joint distribution can be given by the associated copula. Chapter 2 presents an auxiliary result giving the maximum entropy copula with a fixed diagonal section. We give a necessary and sufficient condition for its existence, and derive an explicit formula for its density and entropy. Chapter 3 provides the solution for the maximum entropy problem for order statistics with marginal constraints by identifying the copula of the maximum entropy distribution. We give explicit formulas for the copula and the joint density. An application for modelling physical parameters is given in Chapter 4.In the second part of the thesis, we consider the problem of nonparametric estimation of maximum entropy densities of order statistics in Kullback-Leibler distance. Chapter 5 presents an aggregation method for probability density and spectral density estimation, based on the convex combination of the logarithms of these functions, and gives non-asymptotic bounds on the aggregation rate. In Chapter 6, we propose an adaptive estimation method based on a log-additive exponential model to estimate maximum entropy densities of order statistics which achieves the known minimax convergence rates. The method is applied to estimating flaw dimensions in Chapter 7
25

Polarimétrie harmonique et spectroscopie de photoionisation attoseconde / Harmonic polarimetry and attosecond photoionization spectroscopy

Gruson, Vincent 14 December 2015 (has links)
La physique attoseconde est un domaine en pleine expansion, intrinsèquement lié au processus de génération d’harmoniques d’ordre élevé. Cette émission, sous forme d’un train d’impulsions attosecondes ou d’une impulsion attoseconde isolée, constitue une source de lumière dans le domaine spectral extrême-UV (XUV), ultra-brève, cohérente, parfaitement synchrone du champ générateur. Deux thématiques ont été abordées. La première consiste en la caractérisation complète de l’état de polarisation des harmoniques par Polarimétrie Moléculaire en collaboration avec l’ISMO-Orsay. Cette technique est basée sur la mesure de la distribution angulaire des photoélectrons dans le référentiel moléculaire lors de l’ionisation dissociative de la molécule de NO. Nous l’appliquons à trois configurations produisant un rayonnement harmonique polarisé elliptiquement. Nous obtenons ainsi, pour la première fois, la valeur absolue de l’ellipticité harmonique, son signe, ainsi que le taux de dépolarisation.La seconde thématique est la photoionisation attoseconde résonante : nous avons étudié la photoionisation de l’hélium au voisinage de la résonance d'autoionisation 2s2p à 60.15eV, excitée par une impulsion XUV accordable et sondée par une impulsion laser IR en utilisant la technique RABBIT, qui permet la mesure de l’amplitude et de la phase spectrales de la transition résonante à deux photons. Il est ainsi possible de reconstruire dans le domaine temporel, le paquet d'ondes électronique (POE) à 2 photons. Ces mesures ont été complétées par des simulations effectuées par nos collaborateurs à UAM-Madrid et au LCPMR-Paris, qui montrent que, dans nos conditions expérimentales, ce paquet à deux photons est une image fidèle du paquet résonant à un photon. Ceci représente la première reconstruction de la dynamique temporelle d’une résonance non perturbée par le champ laser, avec une résolution attoseconde. / Attosecond physics is an expending field, intrinsically linked to the High Harmonic Generation process. This emission, which can be either an attosecond pulse train or an isolated attosecond pulse, constitutes a light source in the extreme-UV (XUV) spectral domain, coherent, perfectly synchronous of the generating field. Two thematic have been studied. The first one consists in the complete characterization of the harmonic emission through Molecular Polarimetry, in collaboration with ISMO-Orsay. This technique is based on the measurement of the Molecular Frame PhotoElectron Angular Distribution, during the dissociative ionization of NO molecules. We applied this technique to three configurations producing an elliptically polarized light. For the first time, we obtain the absolute value of the ellipticity, its sign and the depolarization rate. The second topic is the resonant attosecond photoionization: we studied the photoionization of helium, close to the 2s2p autoionization resonance at 60.15 eV, excited by a tunable XUV pulse and probed by an IR pulse, using RABBIT technique, enabling the measurement of the spectral amplitude and phase of the two photons resonant transition. From this, we can reconstruct the two-photons electron wave packets (EWP). These measurements have been completed by simulations done by our collaborator from UAM-Madrid and LCPMR-Paris, showing that, in our experimental conditions, this two photons EWP corresponds to the image of the one-photon EWP. This measurement is the first reconstruction of the temporal dynamic of a resonance non-perturbed by a laser field, with an attosecond resolution.
26

Interaction between inclusions mediated by surfactant membranes and changes in the local order of the acyl chains / Etude de l'interaction entre des inclusions médiée par des membranes de surfactant et le changement des paramètres d'ordre des chaînes alkyles

Azar, Elise 14 December 2016 (has links)
Pendant les dernières décennies les chercheurs ont étudié l'interaction entre des inclusions membranaires avec leur environnement et plus particulièrement avec la bicouche lipidique. On trouve dans la litérature beaucoup d'études théoriques et de simulations numériques sur ce sujet mais très peu d'expériences ont été menés là-dessus.Nous avons effectué des études systématiques afin de quantifier le potentiel d'interaction entre deux types d'inclusions au sein de la même couche et entre des couches adjacentes de plusieurs types de membranes ceci en variant surtout la concentration de particules dopantes, mais aussi d'autres paramètres pertinents : le type de tensioactif, l'épaisseur de la membrane, le contenu en cholestérol, la température, le degré d'hydratation. Pour cette fin nous avons utilisé la diffraction des rayons X aux petits angles et nous avons constaté que le potentiel d'interaction peut être décrit par une exponentielle décroissante en fonction de la concentration et de la température d'inclusion et qu'il dépend largement de la teneur en cholestérol et du degré d'hydratation.D'autre part, nous avons étudié l'effet de la gramicidine, un peptitde membranaire, sur l'ordre local des chaînes acyles de lipides et de tensioactifs. Cette étude a été menée en utilisant deux techniques différentes: en premier lieu la résonnance magnétique nucléaire, (DROSS-NMR) qui permet de détecter le changement d'ordre dans l'orientation des chaînes acyles, et en second lieu par diffraction des rayons X aux grands angles afin de déterminer le changement d'ordre dans la position des chaînes acyles. Nous avons trouvé que le dopage de la gramicidine dans les membranes rigidifie les chaînes acyles et dans un cas aussi les têtes polaires et en plus induit une modification de l'ordre local de ces chaînes. / For years scientists have been studying the interaction of membrane inclusions with their environment and more particularly with the lipid bilayer.This field has been based on theoretical approaches and numerical simulation and lack experiments.We performed systematic studies in order to quantify the interaction potential between two types of inclusions within the same layer and between adjacent layers in several kinds of membranes and tried to elucidate the influence of the relevant parameters: the type of lipids or surfactants, the cholesterol content, the hydration degree, the type of inclusions and the membrane thickness using small-angle X-ray scattering. We found that the interaction potential can be described by a decreasing exponential as a function of inclusion concentrations and temperature and depends largely on the cholesterol content and hydration degree.On the other hand, we also studied the effect of the peptide inclusions on the local order of lipid and surfactant acyl chains using two different techniques: DROSS-NMR technique to detect the changes in the orientational order and WAXS technique to detect the changes in the positional order of the acyl chains. We found that inserting these peptides inclusions within the membrane rigidifies the acyl chains and sometimes even the headgroups and modifies their local order.
27

Approximation par éléments finis de problèmes d'Helmholtz pour la propagation d'ondes sismiques / Finite element approximation of Helmholtz problems with application to seismic wave propagation

Chaumont Frelet, Théophile 11 December 2015 (has links)
Dans cette thèse, on s'intéresse à la propagation d'ondes en milieu fortement hétérogène modélisée par l'équation d'Helmholtz. Les méthodes numériques permettant de résoudre ce problème souffrent de dispersion numérique, en particulier à haute fréquence. Ce phénomène, appelé "effet de pollution", est largement analysé dans la littérature quand le milieu de propagation est homogène et l'utilisation de "méthodes d'ordre élevé" est souvent proposée pour minimiser ce problème. Dans ce travail, on s'intéresse à un milieu de propagation hétérogène, cas pour lequel on dispose de moins de connaissances. On propose d'adapter des méthodes éléments finis d'ordre élevé pour résoudre l'équation d'Helmholtz en milieu hétérogène, afin de réduire l'effet de pollution. Les méthodes d'ordre élevé étant généralement basées sur des maillages "larges", une stratégie multi-échelle originale est développée afin de prendre en compte des hétérogénéités de petite échelle. La convergence de la méthode est démontrée. En particulier, on montre que la méthode est robuste vis-a-vis de l'effet de pollution. D'autre part, on applique la méthode a plusieurs cas-tests numériques. On s'intéresse d'abord à des problèmes académiques, qui permettent de valider la théorie de convergence développée. On considère ensuite des cas-tests "industriels" appliqués à la Géophysique. Ces derniers nous permettent de conclure que la méthode multi-échelle proposée est plus performante que les éléments finis "classiques" et que des problèmes 3D réalistes peuvent être considérés. / The main objective of this work is the design of an efficient numerical strategy to solve the Helmholtz equation in highly heterogeneous media. We propose a methodology based on coarse meshes and high order polynomials together with a special quadrature scheme to take into account fine scale heterogeneities. The idea behind this choice is that high order polynomials are known to be robust with respect to the pollution effect and therefore, efficient to solve wave problems in homogeneous media. In this work, we are able to extend so-called "asymptotic error-estimate" derived for problems homogeneous media to the case of heterogeneous media. These results are of particular interest because they show that high order polynomials bring more robustness with respect to the pollution effect even if the solution is not regular, because of the fine scale heterogeneities. We propose special quadrature schemes to take int account fine scale heterogeneities. These schemes can also be seen as an approximation of the medium parameters. If we denote by h the finite-element mesh step and by e the approximation level of the medium parameters, we are able to show a convergence theorem which is explicit in terms of h, e and f, where f is the frequency. The main theoretical results are further validated through numerical experiments. 2D and 3D geophysica benchmarks have been considered. First, these experiments confirm that high-order finite-elements are more efficient to approximate the solution if they are coupled with our multiscale strategy. This is in agreement with our results about the pollution effect. Furthermore, we have carried out benchmarks in terms of computational time and memory requirements for 3D problems. We conclude that our multiscale methodology is able to greatly reduce the computational burden compared to the standard finite-element method
28

Adaptation de maillages pour des schémas numériques d'ordre très élevé

Mbinky, Estelle 20 December 2013 (has links) (PDF)
L'adaptation de maillages est un processus itératif qui consiste à changer localement la taille et l'orientation du maillage en fonction du comportement de la solution physique étudiée. Les méthodes d'adaptation de maillages ont prouvé qu'elles pouvaient être extrêmement efficaces en réduisant significativement la taille des maillages pour une précision donnée et en atteignant rapidement une convergence asymptotique d'ordre 2 pour des problèmes contenant des singularités lorsqu'elles sont couplées à des méthodes numériques d'ordre élevé. Dans les techniques d'adaptation de maillages basées sur les métriques, deux approches ont été proposées: les méthodes multi-échelles basées sur un contrôle de l'erreur d'interpolation en norme Lp et les méthodes ciblées à une fonctionnelle qui contrôle l'erreur d'approximation sur une fonctionnelle d'intérêt via l'utilisation de l'état adjoint. Cependant, avec l'émergence de méthodes numériques d'ordre très élevé telles que la méthode de Galerkin discontinue, il devient nécessaire de prendre en compte l'ordre du schéma numérique dans le processus d'adaptation de maillages. Il est à noter que l'adaptation de maillages devient encore plus cruciale pour de tels schémas car ils ne convergent qu'à l'ordre 1 dans les singularités de l'écoulement. Par conséquent, le raffinement du maillage au niveau des singularités de la solution doit être d'autant plus important que l'ordre de la méthode est élevé. L'objectif de cette thèse sera d'étendre les résultats numériques et théoriques obtenus dans le cas de l'adaptation pour des solutions linéaires par morceaux à l'adaptation pour des solutions d'ordre élevé polynomiales par morceaux. Ces solutions sont représentées sur le maillage par des éléments finis de Lagrange d'ordre k ≥ 2. Cette thèse portera sur la modélisation de l'erreur d'interpolation locale, polynôme homogène de degré k ≥ 3 dans le formalisme du maillage continu. Or, les méthodes d'adaptation de maillages basées sur les métriques nécessitent que le modèle d'erreur soit une forme quadratique, laquelle fait apparaître intrinsèquement un espace métrique. Pour pouvoir exhiber un tel espace, il est nécessaire de décomposer le polynôme homogène et de l'approcher par une forme quadratique à la puissance k/2. Cette modélisation permet ainsi de révéler un champ de métriques indispensable pour communiquer avec le générateur de maillages. En deux et trois dimensions, des méthodes de décomposition de tenseurs telles que la décomposition de Sylvester nous permettront de décomposer la fonction exacte d'erreur puis d'en déduire le modèle d'erreur quadratique. Ce modèle d'erreur local est ensuite utilisé pour contrôler globalement l'erreur en norme Lp et le maillage optimal est obtenu en minimisant cette erreur. Dans cette thèse, on s'attachera à démontrer la convergence à l'ordre k de la méthode d'adaptation de maillages pour des fonctions analytiques et pour des simulations numériques utilisant des solveurs d'ordre k ≥ 3.
29

Absorption à deux photons et effets de corrélation quantique dans les semiconducteurs

Boitier, Fabien 01 March 2011 (has links) (PDF)
Les corrélations de photons sont à la base d'un certain nombre d'expériences et d'applications (spectroscopie de corrélation de photons, profilométrie haute résolution, cryptographie quantique, téléportation). L'évaluation de ces propriétés de corrélation revêt dès lors une importance toute particulière et correspond à la thématique dans laquelle s'inscrit ce travail de thèse de Doctorat. Tout d'abord, les concepts de compteur de photons par absorption à deux photons ont été (ré)évalués expérimentalement dans différents semiconducteurs et nous ont conduits à établir les bases d'un modèle quantique du comptage à deux photons. Par la suite, l'absorption à deux photons dans les semiconducteurs est appliquée dans une nouvelle technique qui permet la mesure du degré de cohérence d'ordre deux de sources optiques continues de faibles puissances (0,1 µW au minimum) avec une bande passante allant de 1,1 à 1,7 µm et une résolution de l'ordre de la femtoseconde. Expérimentalement, le montage est conceptuellement proche d'un interféromètre de Hanbury Brown et Twiss où, dans notre cas, les deux sous-faisceaux décalés dans le temps sont recombinés sur un compteur à deux photons. Grâce à la très large bande passante à deux photons, les corrélations de sources larges spectralement sont caractérisées au moyen de ce montage qui permet la mesure du degré de cohérence d'ordre deux de sources chaotiques aussi bien que d'un générateur paramétrique à la dégénérescence ou hors de la dégénérescence. Pour la première fois, le phénomène de bunching des photons issus d'un corps noir a été vérifié par une mesure directe. Pour ce qui est de la lumière paramétrique, après avoir développé une source de photons jumeaux, nous avons démontré que notre montage expérimental était à même de mesurer les coïncidences exactes des photons issus d'une même paire aussi bien que les coïncidences accidentelles entre photons de paires différentes en contrôlant les phénomènes de dispersion chromatiques à l'aide d'une paire de prismes. Enfin, deux modèles théoriques originaux de corrélation de photons jumeaux ont été développés, basées sur les approches quantique et classique, et sont en excellent accord avec l'ensemble de nos résultats expérimentaux.
30

Simulation numérique de la fissuration par fatigue dans les monocristaux de superalliages à base de nickel

Aslan, Ozgur 29 March 2010 (has links) (PDF)
Les composants monocristallins fonctionnant à des températures élevées sont soumis à des conditions de chargement thermo-mécanique sévères. La géométrie et le comportement de ces composants sont très complexes. Un défi majeur est de développer des modèles mathématiques afin de prévoir l'initiation et la propagation de fissures en présence de contraintes importantes et de forts gradients de température. Dans ce cas, le comportement élastoviscoplastique fortement anisotrope du matériau étudié (superalliage à base Ni) doit être pris en compte. Le modèle correspondant doit être en mesure de rendre compte de la croissance anisotrope des fissures et de leur bifurcation dans des champs de contrainte complexes. De plus, le modèle doit être capable de prédire non seulement le taux de croissance des fissures mais aussi les chemins de fissuration. La mécanique de l'endommagement anisotrope est un cadre théorique bien adapté au développement de modèles de croissance de fissures dans les monocristaux. Au cours d'études précédentes, une loi de comportement couplant plasticité cristalline et endommagement cyclique a été développée, démontrant l'intérêt de cette approche, mais aussi ses limites, notamment du fait de la dépendance au maillage des résultats. Le développement récent de modèles non-locaux dans le cadre de la mécanique des milieux continus pourrait ainsi aider à surmonter ces difficultés. Une grande base expérimentale existe concernant l'initiation et la propagation de fissures dans les superalliages monocristallins à base de nickel. Les simulations thermomécaniques par éléments finis des aubes de turbine fournissent des informations détaillées sur la distribution des contraintes et des déformations plastiques, en particulier près de singularités géométriques comme les trous et les fentes de refroidissement. Tout d'abord, sur la base de la théorie de la plasticité cristalline qui établit un lien solide entre les contraintes et les déformations plastiques, un modèle découplé en mécanique de l'endommagement basé sur l'historique des calculs par éléments finis sera présenté. Ensuite, un modèle d'endommagement incrémental basé sur les milieux généralisés sera proposé et enfin, les prédictions du modèle pour l'initiation et la croissance de micro-fissures en résolvant le problème de dépendance au maillage seront discutés.

Page generated in 0.0417 seconds