• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 380
  • 153
  • 53
  • Tagged with
  • 574
  • 273
  • 136
  • 126
  • 123
  • 96
  • 94
  • 88
  • 74
  • 49
  • 45
  • 44
  • 43
  • 42
  • 38
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Prise en compte des méconnaissances dans la quantification de la nocivité des fissures en fatigue / Integration of uncertainties in fatigue cracks hazardness quantification.

Boutet, Pierre 15 December 2015 (has links)
Dans les installations industrielles, des inspections régulières sont planifiées pour évaluer l’état de santé interne des composants. Si des fissures sont révélées, il est souhaitable de savoir si l’exploitation de la structure peut se poursuivre ou si un régime de fonctionnement dégradé pourrait être envisagé. En se basant sur la mécanique élastique linéaire de la rupture, les travaux présentés traitent donc dans le cas de composants fissurés de la dispersion de durée de vie résiduelle relative aux incertitudes sur les paramètres du modèle de prévision. La longueur de fissure initiale, les propriétés du matériau ainsi que les paramètres d’entrée de la loi de Paris ont été considérés comme des variables aléatoires, dont les distributions ont été déterminées expérimentalement puis ajustées par des lois statistiques adéquates. Des contrôles ultrasonores par mesure du temps de vol de l’onde diffractée – Time Of Flight Diffraction (TOFD) en anglais – et des mesures de champs obtenues par corrélation d’images numériques ont été utilisés pour quantifier la propagation d’une fissure dans une éprouvette à défaut soumise à des sollicitations cycliques uniaxiales. Les données expérimentales recueillies ont été utilisées pour initialiser les calculs et valider les résultats numériques. Les distributions de taille de fissure obtenue après un nombre donné de cycles de sollicitation et de nombre de cycles de sollicitation conduisant à une taille définie de fissure ont été obtenues par une méthode de Monte-Carlo appliquée au modèle de prévision. L’ajustement de ces distributions par de lois log-normales a fourni des outils analytiques d’estimation probabiliste de propagation de fissure. Cela a notamment permis la réalisation de cartographies de risques et l’évaluation de l’évolution de la fiabilité du composant étudié. Enfin, les effets d’une actualisation de la connaissance de la longueur de fissure au cours de la vie de ce composant en termes d’incertitude de prévision et d’extension de durée de vie résiduelle prévisionnelle ont été étudiés. En particulier, afin de limiter le coût des campagnes de contrôle non destructifs dans le cas industriel, une stratégie d’optimisation de l’actualisation de cette connaissance basée sur l’étude de fiabilité a été proposée. / In industrial plants, regular inspections are planned to assess the internal state of installations. If some cracks are revealed, it is desirable to know whether the structure can still be used or if a degraded mode of operation should be considered. Starting from a linear elastic fracture mechanics model, the work presented studied the scatter of the remaining life of such cracked parts due to the uncertainties on the parameters of the prediction model. Initial crack size, material properties and input parameters of Paris’ law have been considered as random variables and their distributions have been experimentally identified and fitted with convenient statistical laws. Time Of Flight Diffraction (TOFD) and field measurement technique based on Digital Image Correlation (DIC) were used to monitor the crack propagation initiated from a notch introduced in specimen submitted to uniaxial cyclic loading. Experimental crack length results were used to initiate computations and as a mean to validate numerical results. Both the crack lengths distributions resulting from the application of loading cycles and the distribution of the number of cycles leading to a given crack length were obtained from a Monte-Carlo method applied to the prediction model. The fit of these distributions with log-normal laws provided analytical tools to assess probabilistic crack propagation. It allowed for risk mapping and for the evaluation of the studied component’s reliability evolution. Last, the effects of an actualisation of crack length knowledge along the life of this component in terms of assessment uncertainty and predicted residual life extension has been studied. Especially, to limit the cost of non-destructive techniques inspection in industrial cases, a reliability-based strategy has been proposed for the optimisation of the crack knowledge actualisation.
222

Mesure de champs thermomécaniques pour l'étude de la fatigue par chocs thermiques / Thermomechanical fields measurement for fatigue investigation under cyclic thermal shocks

Charbal, Ali 03 March 2017 (has links)
Lorsqu'une structure est soumise à un chargement thermique hétérogène, des dilatations empêchées génératrices de contraintes surviennent. Lorsque ces sollicitations sont répétées un grand nombre de fois, un endommagement puis une fissuration du matériau peuvent apparaître. On parle alors de fatigue thermique du matériau. Ce phénomène, jugé responsable de différents incidents rencontrés dans les zones de mélange entre fluides chaud et froid des centrales nucléaires a fait l'objet de nombreuses études lancées au sein de projets successifs pilotés par EDF. Ces études portaient sur la détermination des chargements thermo-hydrauliques dans les zones de mélange, le transfert de chaleur à la structure, la résolution du problème thermomécanique permettant de connaître les champs de contrainte et de déformation en tout point de la structure et enfin la résistance du matériau (un acier inoxydable austénitique AISI 304L)soumis à de telles sollicitations. Concernant ce dernier aspect, plusieurs types d'essais ont été réalisés : d'une part, des essais de fatigue uniaxiaux et isothermes pour construire une courbe de fatigue mécanique du matériau et, d'autre part, des essais sur plusieurs dispositifs expérimentaux de fatigue thermique développés au sein d'organismes de recherche (CEA, EDF, JRC, JAEA,…) pour s'approcher des conditions de service. L'interprétation de ces derniers essais passe par l'estimation des champs de température et de déplacement dans la structure à partir de quelques mesures ponctuelles de température par thermocouples. On constate alors que les premières fissures s'amorcent en fatigue thermique pour un nombre de cycles sensiblement inférieur à celui estimé à partir des courbes de fatigue mécanique du matériau et de l'amplitude maximale de déformation équivalente estimée dans les essais de fatigue thermique. L'objet de ce travail de thèse consiste donc à concevoir et à réaliser des chocs thermiques sur un matériau de structure couplés à des mesures synchrones et sans contact de champs de température et de déplacement au niveau de la surface endommagée. Les chocs thermiques seront réalisés à l'aide d'un laser de puissance dont la longueur d'onde sort du spectre utilisé par la caméra infrarouge qui mesure le champ de température de surface de telle manière que le dépôt d'énergie n'affecte pas les mesures de température. Plusieurs pistes sont envisagées selon que les champs sont mesurés uniquement avec la caméra infrarouge ou en utilisant deux caméras, l'une travaillant dans l'infrarouge et l'autre dans le visible. Dans les deux cas de figure, l'absorptivité et l'émissivité de la surface soumise au choc thermique doivent être optimisées pour permettre d'avoir à la fois un dépôt d'énergie homogène par laser et une mesure précise des champs thermomécaniques. Une difficulté qu'il conviendra de surmonter est d'obtenir un champ d'émissivité de surface représentant un compromis acceptable entre une émissivité forte et homogène dans l'infrarouge pour des mesures de température et une émissivité hétérogène (dans l'infrarouge ou le visible selon la caméra utilisée) pour créer un contraste de niveau de gris indispensable aux mesures de déplacement par corrélation d'images. Parallèlement aux essais,des simulations numériques thermomécaniques seront également réalisées pour compléter ces champs en volume et tester l'influence des conditions aux limites. L'objectif final de la thèse est d'obtenir pour la première fois une mesure fiable des quantités d'intérêt dans une zone d'amorçage en fatigue thermique et ainsi pouvoir quantifier convenablement un éventuel effet aggravant des sollicitations de fatigue thermique. / Thermal fatigue occurs in nuclear power plant pipes. The temperature variations are due to the turbulent mixing of fluids that have different temperatures. Many experimental setups have been designed but the measured temperatures have only been punctual and out of the zone of interest (e.g., via thermocouples). The equivalent strain variation in the crack initiation region is calculated with numerical thermomechanical simulations. In many cases, the comparisons between numerical and experimental results have shown that the crack initiation predictions in thermal fatigue are non-conservative. A new testing setup is proposed where thermal shocks are applied with a pulsed laser beam while the thermal and kinematic fields on the specimen surface are measured with infrared (IR) and visible cameras, respectively. Experimental testings are performed and different measurement techniques for temperature and kinematic fields are used. IR camera and pyrometers allow to measure the temperature variations in the zone impacted by the laser beam. To estimate the absolute temperature, the surface emissivities at the respective wavelengths are determined by different methods. The absolute temperature field is then used to apply the actual thermal loading in a decoupled FE model after an identification process of the parameters of the laser beam. Once the thermal loading is generated based upon the experimental data, the stress and strain fields can be computed in the region of interest with an elastoplastic law.The experimental strain variations calculated from the DIC measurements are compared with the predictions obtained with the FE simulation.
223

Développement d'un outil numérique pour la prévision de la fissuration d’une structure en béton de fibres sous impact. / Development of a numerical tool for predicting the cracking of a fibre reinforced concrete structure under impact.

Akiki, Rana 06 December 2017 (has links)
Ce travail de recherche s'inscrit dans le cadre de la sécurité du transport et de manutention des colis de confinement de déchets nucléaires. Le but est de développer un outil numérique capable de simuler le comportement global d'une structure en béton de fibres soumise à des sollicitations dynamiques. Il permet également d'accéder à des informations plus locales telle que la fissuration, tant en terme de trajet que d'ouverture de fissures. Pour ce faire, un ensemble d'essais mécaniques est réalisé afin de mieux comprendre les mécanismes d'endommagement et de fissuration du matériau sous sollicitations quasi-statique et dynamique. Le modèle capable de capturer à l'échelle globale les non-linéarités liées à la fissuration de la structure dans un cadre continu est détaillé. Les paramètres associés à la loi de comportement sont identifiés via une procédure d'identification basée sur les données expérimentales des essais conduits. La détermination de l'énergie de fissuration en dynamique est investiguée et la part inertielle structurelle de celle-ci est soulignée. Deux méthodes de post-traitement numérique des résultats des simulations numériques globales permettant d'accéder à des informations plus fines à l'échelle locale, en termes de trajet et d'ouverture de fissure, sont détaillées. Une étude d'une poutre en béton fibré soumis à un chargement de flexion 1-point dynamique post-traitée avec les deux approches est présentée. Les résultats du post-traitement numérique sont comparés à ceux obtenus expérimentalement par corrélation d'images numériques. / The research work falls within the framework of the transportation and handling safety of radioactive waste containment packages. The goal is to develop a numerical tool capable of simulating the overall behaviour of a fiber concrete structure subject to a dynamic loading. It also gives access to more local information such as cracking, both in terms of path and opening. To do this, a set of mechanical tests is carried out in order to better understand the mechanisms of damage and cracking of the material under quasi-static and dynamic loading. The model capable of capturing on a global scale the non-linearities related to the cracking of the structure in a continuous framework is detailed. The parameters associated with the material constitutive law are identified via an identification procedure based on the experimental data of the conducted tests. The determination of dynamic cracking energy is investigated and the structural inertial part of this is underlined. Two numerical methods used to post-process the results of the global numerical simulations, giving access to finer information at the local scale, in terms of path and crack opening, are detailed. The study of a fiber-reinforced concrete beam subjected to a dynamic 1-point bending loading, post-processed with the two approaches, is presented. The results of the numerical post-processing are compared with those obtained experimentally by correlation of digital images.
224

Mesure In-situ par moyens optiques / Multi-sensor In-situ measurement

Dubreuil, Lorène 26 April 2017 (has links)
Mes travaux de thèse consistent à proposer et valider une démarche de métrologie 3D in-situ multi-capteurs/multi-échelles. L'intégration de systèmes de mesure au sein du moyen de production permet d'être très réactif aux présences de défauts géométriques et ainsi directement proposer des actions correctives. Afin de limiter les arrêts de fabrication, donc la diminution de l'efficience de la machine-outil, l’interopérabilité entre la fabrication et la mesure doit être maximisée : il est important de proposer une phase de mesure rapide et assurant une qualité minimum des données acquises. Un outil de mesure par caméras (Stéréo-corrélation d'images) est proposé dans ces travaux. Basé sur la connaissance du modèle FAO de la pièce et de l’environnement de travail, cet outil de mesure permet d'obtenir une cartographie des écarts géométriques de la pièce directement dans le repère FAO. Ainsi, il est possible d'analyser directement les données de mesure dans le même repère que celui de la fabrication : les temps de traitements des données sont réduits. / Integrating inspection procedures in the machining process contributes to process optimization. The use of in-situ measurement allows a betterreactivity for corrective actions. However, to be highly efficient, Machining and Inspection Process Planning must reach a high level of integration. It is hereessential to focus on the compromise measurement time vs precision: the time dedicated to inspection must be limited, but not to the detriment ofmeasurement quality. A measurement process for in-situ machining defect detection is proposed based on a stereo-DIC.
225

Identification des chargements exercés par un pneumatique sur une roue d'aéronef / Identification of the loading applied by a tire on an aircraft wheel

Cosseron, Kévin 01 October 2019 (has links)
Le caractère prédictif des simulations numériques faites pour dimensionner une structure dépend directement de la précision avec laquelle sont introduites les conditions aux limites imposées en service à la structure. Dans le cas d’une roue d’aéronef, les chargements appliqués par les différents pneumatiques qui peuvent être montés sur celle-ci lors des manœuvres au sol de l’aéronef jouent un rôle crucial dans la précision du modèle numérique. Cependant, ces chargements sont complexes et mal connus. Les charges globales appliquées à l’interface pneu-piste sont transférées à la roue au niveau de l’interface pneu-jante grâce au pneumatique, qui est un composant intermédiaire sophistiqué que ne maîtrise pas le manufacturier de roue. La détermination des conditions aux limites directement appliquées à la roue est donc particulièrement difficile et nécessite de faire des hypothèses sur le comportement en déformation du pneumatique. L’approche proposée dans le cadre de ces travaux de thèse consiste à identifier les chargements induits par le pneumatique sur la roue via la mesure de la déformée de cette dernière pour les différents cas de charge envisagés. L’objectif est de permettre au concepteur de la roue de mieux comprendre et de modéliser l’interaction entre le pneumatique et la roue afind’obtenir des simulations numériques plus prédictives. Pour ce faire, une paramétrisation objective des chargements à l’interface pneu-jante, aussi robuste et compacte que possible, est tout d’abord définie. Des mesures non-intrusives par corrélation d’images numériques (CIN) et jauges d’extensométrie, réalisées lors d’un post-doctorat antérieur à ces travaux de thèse, sont ensuite utilisées pour calibrer les paramètres recherchés. Une procédurede recalage de modèle par éléments finis est notamment mise en œuvre. Enfin, la problématique du placement optimal de capteurs est abordée afin de définir une instrumentation permettant de minimiser les incertitudes sur les paramètres à identifier. / The predictive character of numerical simulations run to design a structure critically depends on the accuracy with which the boundary conditions prescribedon the structure are introduced. For aircraft wheel manufacturers, the loadings applied to the wheel during ground maneuvering by various tires that are mounted play an important role. However, they are hardly known apart from the resultant force between the ground and the tire. Aircraft wheel manufacturers do not control the tire, which is a complex intermediate component, but must still work with it to design their products. Because tire-ground loads are transmitted to the wheel through the tire at the tire-rim interface, assumptions on the deformation behavior of the tire are to be made to determine the correct applied loading to the wheel and many experiments are often requiredto evaluate the wheel structural response. The knowledge of tire-rim interface loadings would thus provide an invaluable help to shorten aircraft wheel design processes. To tackle this challenge, an inverse identification procedure of tire-rim loadings for several cases is proposed herein. The aim is to identify the loadings applied by a tire on an aircraft wheel via the measurement of thewheel deformation and to allow the wheel manufacturer to better understand and model the interaction between the wheel and the tire. First, an objective parameterization of tire-rim loadings, which is as robust and compact as possible, is defined. Then, non-intrusive measurements (e.g., displacement fields obtained by Digital Image Correlation analyses, strains at gauge locations) obtained during a previous postdoctoral research are used to calibrate the loading parameters. A finite element model updating algorithmis used to solve this inverse problem. Last, the optimal sensor placement problem is considered to define an instrumentation that yields the most accurate estimâtes of the loading parameters.
226

Concept de corrélation dans l'espace fréquentiel de Fourier pour la télédection passive de la terre : application à la mission SMOS-Next / Fouier correlation imaging concept for passive earth observation : a proposal to the SMOS-Next mission

Monjid, Younès 12 October 2016 (has links)
La synthèse d'ouverture est une technique interférométrique similaire à la synthèse par rotation de la terre utilisée en radioastronomie où les signaux reçus par une paire de petites antennes sont traités de telle manière à synthétiser une seule grande antenne. Le concept de synthèse d'ouverture a été réadapté pour l'observation de la terre dans le cas de la télédétection de sources étendues de température. L'utilisation de cette technique pour l'observation de la terre a permis de contourner les limitations sur la taille d'antenne en télédétection passive. La fonction de corrélation, ou de visibilité, obtenue en inter-corrélant les signaux reçus par les an- tennes d'un système interférométrique employant une synthèse d'ouverture est définie comme étant la transformée de Fourier de la carte des températures de bril lance de la scène observée. Cette relation est connue sous le nom du théorème de Van Cittert-Zernike pour des observateurs en repos par rapport aux sources de température. La forme classique de ce théorème a été dérivée en inter-corrélant les échantillons temporels instantanés du champ électrique mesurés par différentes antennes. Un nouveau concept basé une interférométrie spatio-temporelle passive a été proposé comme étant la nouvelle génération qui succédera à la mission SMOS (Soil Moisture and Ocean Salinity) opérant dans l'espace depuis Novembre 2009. Celui-ci a pour objectif principal l'amélioration de la résolution spatiale à des ordres pouvant répondre aux applications hydrologiques à l'échelle locale où des résolutions kilométriques sont exigées. Ce concept interférométrique se base sur l'idée d'intégrer le déplacement de l'observateur (l'antenne) et ainsi la variable temps dans le calcul de la fonction de corrélation. Ceci engendre la création de nouvelles lignes de base virtuelles entre les positions des antennes à des instants différents, en plus des lignes de base physiques formées entres les positions des antennes instantanées. L'étude de ce concept de corrélation a malheureusement démontré la suppression exacte de l'information additionnelle due aux lignes de base virtuelles par le décalage Doppler induit par le déplacement. Une seconde étude du concept d'interférométrie spatio-temporelle combinée à une nouvelle procé- dure d'imagerie par corrélation dans l'espace fréquentiel, accomplie en inter-corrélant les spectres fréquentiels des champs électriques mesurés par une paire d'antennes séparées d'une distance Δr à bord d'un satellite à une hauteur h, a démontré l'obtention d'une information en 2D en températures de brillance de la scène observée. En plus, le développement théorique de la fonction de corrélation a mis en évidence une relation liant les visibilités aux températures de brillance par l'intermédiaire d'un noyau hautement oscillatoire. L'élément nouveau apporté par la corrélation dans l'espace fréquentiel consiste à exploiter l'informati- on de corrélation acquise par les antennes du satellite pour des fréquences présentant de petites dif- férences et pas seulement l'auto-corrélation. Cette propriété permet une reconstruction en 2D des températures de brillance avec seulement deux antennes / Aperture synthesis is an interferometric technique similar to Earth rotation synthesis employed in radio astronomy in which the signals received by a pair of small antennas are processed in a way to synthesize a single large antenna. The aperture synthetic concept used in radioastronomy was readapted to Earth remote sensing for large thermal sources. Thanks to this technique, limitations on antenna size in passive microwave remote sensing have been overcome. The correlation, or visibility, function obtained by cross-correlating the signals received by the antennas of an interferometric system using aperture synthesis is linked to the brightness temperature map of the observed scene by means of a Fourier-transform law. This is know as the standard form of the Van Cittert-Zernike theorem for fixed observers with respect to sources of temperature. This stan- dard formulation is derived by cross-correlating the instantaneous temporal components of the measured electric fields by different antennas. A new concept based on a passive spatio-temporal interferometry was proposed as the new generation to follow the well-known SMOS (Soil Moisture and Ocean Salinity) mission successfully operating since November 2, 2009. The aim of the proposed concept is a jump in the current achieved geometric resolution to orders capable of meeting the stringent users' needs for the study of hydrological applications in the local scale where sub-kilometric resolutions are required. This interferometric concept is based on the idea of integrating the displacement of the observer (satellite's antenna), and hence the time variable, in the calculation of the correlation function, which yields the creation of virtual baselines between the positions of antennas at different instants, in addition to the physical ones formed between the instantaneous antennas' spatial positions. Sadly, the additional information due to the virtual baseline was shown to be exactly canceled by the induced Doppler shift due to the observer's motion. We show furthermore that when using the aforementioned spatio-temporal interferometric system combined with a revolutionary Fourier Correlation Imaging (FouCoIm) procedure, consisting in cross-correlating, at slightly different frequencies, the Fourier components of the fluctuations of the re- ceived electric fields by a pair of antennas separated by a distance Δr on board of a satellite flying at height h, the 2D position-dependent brightness temperature can be reconstructed. Besides, the analytical derivation of the correlation function gives rise to a relationship linking the measured cor- relations to the position-dependent brightness temperatures by means of a Highly Oscillatory Integral (HOI) kernel. Interestingly, the analytical study of the HOI kernel showed the remarkable property that a corre- lation between both antenna-signals remains within a small frequency interval (different frequencies) outside the simple auto-correlation (same frequency). As a matter of fact, while existing systems had, until now, only considered the simple 1D information contained in the auto-correlation, it appears that the resulting correlation function from this concept bears a 2D information for the measurement of the position-dependent brightness temperature. Based on this, one is capable of reconstructing 2D bright- ness temperatures starting from a simple 1D geometry (two antennas arranged perpendicularly to the flight direction)
227

Une application de l'étalonnage concurrentiel aux contrats de rémunération

Ben Hamadi, Rym 07 1900 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal. / L'étalonnage concurrentiel est un outil de gestion qui vise à améliorer la performance des organisations. Ce concept a été largement présenté dans les revues de gestion, mais n'a fait l'objet d'aucune analyse économique à notre connaissance. Notre objectif est de combler cette lacune. Nous nous proposons dans ce mémoire de passer tout d'abord en revue la littérature de gestion relative à l'étalonnage concurrentiel puis de présenter les fondements théoriques qui sous-tendent ce dernier. La notion de performance relative étant à la base de ce concept, nous avons retenu la théorie des tournois comme cadre d'analyse, cette théorie faisant intervenir une forme de compétition endogène au sein de l'organisation. Nous passerons ensuite à une application de l'étalonnage concurrentiel aux contrats de rémunération. Pour ce faire, nous étudierons trois modèles correspondants à trois stratégies différentes pour le principal. Ce dernier désire investir dans deux projets. Là où Nier (1997) considère des projets totalement indépendants, nous introduisons un facteur de corrélation, dans le but de généraliser son étude. Lorsque ce facteur prend la valeur zéro, nous retrouvons le cas étudié par l'auteur. S'informer sur chaque projet entraîne des coûts d'investigation. Le principal peut choisir de recourir à un gestionnaire qui investiguerait les deux projets avant d'investir ou bien ce gestionnaire pourrait en investiguer un seul et prendre une décision conjointe sur les deux. Une autre possibilité serait de faire recours à deux gestionnaires, chacun d'eux étant responsable d'un projet. C'est ce modèle qui ferait intervenir la performance relative, donc l'étalonnage concurrentiel. Nous montrerons que la structure optimale dépend notamment du degré de corrélation entre les projets. Lorsque la corrélation est faible, l'investigation des deux projets par un seul agent est préférée; lorsque la corrélation est élevée, le principal préfère que le gestionnaire s'informe sur un seul projet; alors que pour des valeurs intermédiaires, le recours à l'étalonnage concurrentiel est optimal. Cependant, nous verrons également que pour certaines valeurs des paramètres considérés, il n'est jamais optimal que le gestionnaire investigue un seul projet, même lorsque les projets sont parfaitement corrélés. Dans ce cas, la duplication des coûts d'investigation est optimale car elle réduit le coût de fournir des incitations aux gestionnaires. Il en résulte alors que le recours à l'étalonnage concurrentiel est préféré pour des valeurs intermédiaires et élevées du coefficient de corrélation.
228

Élaboration et validation du contenu d'un instrument de mesure du Lean leadership

Boucher, Étienne 17 June 2024 (has links)
Le développement d’un instrument de mesure du Lean leadership vient répondre à un besoin dans les organisations qui vise un changement dans leur philosophie de gestion. En effet, les gestionnaires, plus particulièrement les gestionnaires intermédiaires, doivent avoir un outil permettant d’évaluer leur comportement de leadership afin que ceux-ci concordent avec les fondements de la philosophie Lean. Le but de ce projet de recherche est de développer et de valider le contenu d’un tel outil à l’aide d’experts sur le sujet grâce à la méthode Delphi. À la suite de deux rondes d’analyse, une analyse de corrélation interclasse ainsi qu’une évaluation de pertinence pour chacun des items a permis de conclure que l’instrument créé est valide de par son contenu. Les prochaines étapes de validation de cet outil de mesure peuvent donc être effectuées pour rendre le questionnaire accessible aux organisations.
229

Construction of exchange and exchange-correlation functionals

Wang, Rodrigo 04 1900 (has links)
Le présent travail concerne l’avancement des approximations de l’énergie d’échange- corrélation (XC) de la théorie fonctionnelle de la densité (DFT) de Kohn-Sham (KS) basée sur l’approche du facteur de corrélation (CF). Le travail est organisé en trois parties où chaque partie est construite sur des modèles et méthodes précédents. La première partie du travail introduit une nouvelle condition physique à travers la déri- vation du développement en série du quatrième ordre du trou d’échange exact. La dérivation détaillée des formules requises est suivie d’une analyse approfondie qui montre que le terme de quatrième ordre peut ajouter des informations supplémentaires importantes qui sont par- ticulièrement pertinentes pour les molécules par rapport aux atomes. Sur la base de ces résultats, nous explorons les fonctionnelles d’échange qui dépendent du terme de quatrième ordre de l’expansion du trou d’échange. Nous constatons également que les développements d’ensembles de base gaussiens, fréquemment utilisés dans les codes de structure électronique, donnent des représentations insatisfaisantes du terme de quatrième ordre. La deuxième partie de ce travail porte sur la mise en œuvre de nouvelles versions du modèle CF initial [J. P. Precechtelova, H. Bahmann, M. Kaupp et M. Ernzerhof, J. Chem. Phys. 143, 144102 (2015)] dans lequel le trou XC est approximé. Étant donné que diverses contraintes satisfaites par le trou XC sont connues, des approximations peuvent être conçues pour éviter en grande partie des ajustements empiriques. Dans l’approche CF, le trou XC est écrit comme le produit d’un trou d’échange multiplié par un facteur de corrélation. Une contrainte importante satisfaite par le modèle CF est qu’il reproduit correctement l’éner- gie d’échange exacte dans la limite de haute densité. Ceci est réalisé en utilisant l’énergie d’échange exacte par particule comme variable d’entrée, c’est-à-dire que le modèle CF s’ap- puie sur l’échange exact. Des variations du modèle CF initial sont proposées qui assurent que la réponse exacte est obtenue dans la limite homogène. De plus, nous appliquons une correction à la profondeur du trou XC qui est conçue pour capturer une forte corrélation. Les fonctions d’échange-corrélation qui s’appuient sur un échange exact, comme les hybrides, échouent souvent pour les systèmes qui présentent une corrélation électronique importante. Malgré ce fait et malgré la réduction de l’empirisme à un seul paramètre dans CF, des énergies d’atomisation précises sont obtenues pour des composés de métaux de transition fortement corrélés. Le modèle CF montre des résultats significativement supérieurs aux fonctionnelles populaires comme Perdew-Burke-Ernzerhof (PBE), PBE hybride et Tao-Perdew-Staroverov- Scuseria (TPSS). La troisième partie du travail s’appuie sur les modèles CF précédents développés dans notre groupe et aborde l’erreur d’auto-interaction à un électron et introduit un modèle de facteur de corrélation modifié où f C (r, u) est construit tel qu’il se réduit à un dans les régions à un électron d’un système à plusieurs électrons. Ce trou XC avec une correction d’auto- interaction est ensuite utilisé pour générer la fonctionnelle énergie XC correspondante. La nouvelle fonctionnelle est évaluée en l’implémentant dans un programme KS et en calculant diverses propriétés moléculaires. Nous constatons que, dans l’ensemble, une amélioration significative est obtenue par rapport aux versions précédentes du modèle de facteur de cor- rélation. / The present work is concerned with the advancement of approximations to the exchangecorrelation (XC) energy of Kohn-Sham (KS) density functional theory (DFT) based on the correlation factor (CF) approach. The work is organized in three parts where each part is build upon previous models and methods. The first part of the work introduces a new physical condition through the derivation of the fourth-order series expansion of the exact exchange hole. The detailed derivation of the required formulas is followed by a thorough analysis that shows that the fourth-order term can add important additional information that is particularly relevant for molecules compared to atoms. Drawing on these findings, we explore exchange functionals that depend on the fourth-order term of the expansion of the exchange hole. We also find that Gaussian basis set expansions, frequently used in electronic structure codes, result in unsatisfactory representations of the fourth-order term. The second part of this work addresses the implementation of new versions of the initial CF model [J. P. Precechtelova, H. Bahmann, M. Kaupp, and M. Ernzerhof, J. Chem. Phys. 143, 144102 (2015)] in which the XC hole is approximated. Since various constraints satisfied by the XC hole are known, approximations to it can be designed which largely avoid empirical adjustments. In the CF approach, the XC-hole is written as a product of an exchange hole times a correlation factor. An important constraint satisfied by the CF model is that it correctly reproduces the exact exchange energy in the high density limit. This is achieved by employing the exact exchange-energy per particle as an input variable, i.e., the CF model builds on exact exchange. Variations of the initial CF model are proposed which ensure that the exact answer is obtained in the homogeneous limit. Furthermore, we apply a correction to the depth of the XC-hole that is designed to capture strong correlation. Exchangecorrelation functionals that build on exact exchange, such as hybrids, often fail for systems that exhibit sizeable electron correlation. Despite this fact and despite the reduction of empiricism to a single parameter within CF, accurate atomization energies are obtained for strongly-correlated transition metal compounds. The CF model significantly improves upon widely used functionals such as Perdew-Burke-Ernzerhof (PBE), PBE hybrid, and Tao-Perdew-Staroverov-Scuseria (TPSS) density functionals. The third part of the work builds on the previous CF models developed in our group and addresses the one-electron, self-interaction error and introduces a modified correlation factor model where fC(r, u) is constructed such that it reduces identically to one in oneelectron regions of a many-electron system. This self-interaction corrected XC-hole is then used to generate the corresponding XC-energy functional. The new functional is assessed by implementing it into a KS program and by calculating various molecular properties. We find that, overall, a significant improvement is obtained compared to previous versions of the correlation factor model.
230

Algorithmes numériques en temps réel appliqués à l'identification de cristaux et à la mesure de l'estampe du temps scanner TEP/TDM tout-numérique à base de photodiodes à avalanche

Semmaoui, Hichman January 2009 (has links)
La tomographie d'émission par positrons (TEP) est devenue un outil important dans les diagnostics de la médecine nucléaire. Avec le développement et l'utilisation de différents radiotraceurs qui permettent de visualiser les processus métaboliques et les structures organiques par des procédés non invasifs, les caméras TEP cliniques sont largement utilisées et fournissent une résolution spatiale et temporelle suffisante pour les diagnostics humains. De plus, la recherche en pharmacologie et en médecine sont d'autres champs d'applications en développement. En effet, par l'utilisation de la TEP dans les expérimentations avec des petits animaux, l'efficacité de nouveaux médicaments peut être facilement vérifiée. Cependant, le problème avec les tomographes TEP pour petits animaux est la nécessité d'une résolution spatiale et temporelle beaucoup plus grande que celle pour les examens cliniques sur les humains. Ceci requiert de nouveaux concepts de détecteurs et de traitement de signal dans le développement des systèmes TEP dédiés pour les petits animaux. En outre, ces concepts sont complémentés, pour résoudre ce problème, par la fusion d'une image morphologique (tomodensitométrie-TDM) à une image métabolique (TEP). Le LabPET[exposant TM], un scanner TEP dont l'aspect bimodal TEP/TDM est en développement. Ce scanner, dédié aux petits animaux, est développé à l'Université de Sherbrooke. Il utilise des photodiodes à avalanche (PDA) connectées individuellement à des scintillateurs et combinés à de nouveaux algorithmes numériques. Ce scanner vise à répondre aux besoins relatifs à la résolution spatiale et temporelle de l'imagerie TEP pour petits animaux. Dans cette thèse, de nouveaux algorithmes sont développés et testés afin d'augmenter la résolution spatiale et temporelle du LabPET. L'augmentation de la résolution spatiale est basée sur des algorithmes d'identification de cristaux, excités, au sein d'un détecteur multicristaux. Tandis que, l'augmentation de la résolution temporelle est basée sur un concept de déconvolution utilisant le résultat de l'identification de cristaux.

Page generated in 0.0802 seconds