• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 53
  • 18
  • 8
  • Tagged with
  • 79
  • 35
  • 18
  • 18
  • 13
  • 11
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Couplages moléculaire- théorie cinétique pour la simulation du comportement des matériaux complexes / Contributions to numerical modeling of the kinetic theory of suspensions.

Maitrejean, Guillaume 30 November 2011 (has links)
Ce travail présente une contribution à la modélisation numérique des systèmes de suspensions dans le cadre de la théorie cinétique. Cette description continue des systèmes de suspensions permet de prendre en compte l'influence de la structure à l'échelle microscopique sur la cinétique de l'écoulement macroscopique. Cependant elle présente l'inconvénient majeur d'être définie sur un espace à haute dimension et rend alors difficile la résolution de ces modèles avec des approches déterministes classiques. Afin de s'affranchir, ou du moins d'alléger, le poids du caractère micro-macro des approches en théorie cinétique, plusieurs techniques de réduction dimensionnelle s'appuyant sur l'utilisation de la Décomposition Généralisée en modes Propres (PGD) sont présentées. Une étude de différents algorithmes PGD est conduite, et dont l'efficacité en termes de vitesse de convergence et d'optimalité de la solution est illustrée. La simulation de mélanges de fluides immiscibles est conduite à l'aide du Tenseur d'aire qui est un puissant outil de caractérisation du mélange. Cependant celui-ci nécessite l'introduction d'une relation de fermeture dont l'impact est évalué avec le modèle de théorie cinétique équivalent et exact. Finalement, la simulation de systèmes de suspensions colloïdales décrits par l'équation de Smoluchowski présente une approche originale de la modélisation des suspensions solides. Cette approche permet de s'affranchir avantageusement du bruit statistique inhérent aux simulations stochastiques traditionnellement mises en œuvre. / This work is a contribution to the numerical modeling of suspension system in the kinetic theory framework. This continuum description of suspension system allows to account for the microstructure impact on the kinetic of the macroscopic flow. However, its main drawback is related to the high dimensional spaces in which kinetic theory models are defined and makes difficult for classical deterministic approaches to solve such systems. One possibility for circumventing, or at least alleviate, the weight of the micro-macro kinetic theory approaches lies in the use of separated representations strategies based on the Proper Generalized Decomposition (PGD). A study of different PGD algorithms is driven, illustrating the efficiency of these algorithms in terms of convergence speed and optimality of the solution obtained. The immiscible fluids blends modeling is driven using the area tensor which is a powerful numerical tool for characterizing blends. However it needs the introduction of closure relation of which impact is measured using equivalent and exact kinetic theory model. Finally, the numerical modeling of colloidal suspension system described by the Smoluchowski equation presents an original approach of the modeling of solid suspension system. This description allows to circumvent the statistical noise inherent to the stochastic approaches commonly used.
42

Mesure de cylindricité de très haute exactitude.Développement d’une nouvelle machine de référence / Very high accurate cylindricity inspection

Vissiere, Alain 13 December 2013 (has links)
Le Laboratoire Commun de Métrologie LNE-CNAM (LCM) souhaite affiner sa maîtrise des références de pression afin de réaliser des appareillages de tout premier rang au niveau international. L'incertitude relative visée sur les références de pression est de l'ordre de 10-6. Cet objectif se traduit par une problématique de métrologie dimensionnelle où une mesure de la forme des pistons/cylindres utilisés dans les balances manométriques doit être menée. La mesure de cylindricité est également impliquée dans un très grand nombre d'applications industrielles comme la qualification d'étalons de référence destinés à la qualification d'appareillages de mesure. Notre travail de recherche, réalisé dans le cadre d'une convention CIFRE avec la SAS GEOMNIA, concerne la réalisation d'un instrument de référence de très haute précision permettant la mesure de forme de cylindres creux ou pleins. Nous proposons un saut technologique pour satisfaire un niveau d'incertitude sur la mesure de l'écart de cylindricité de l'ordre de 10 nanomètres dans un volume de mesure cylindrique de Ø350 mm et de hauteur 150 mm. La mesure de forme est habituellement pratiquée en déplaçant un capteur par rapport à la surface à mesurer par un guidage de haute précision. Il n'est cependant pas possible de réaliser un guidage entre deux solides d'un niveau de précision permettant de garantir les incertitudes souhaitées, même en utilisant les techniques de correction d'erreurs dont la précision est limitée par le défaut de répétabilité des guidages. Pour satisfaire à ce niveau d'incertitude, nous proposons une démarche basée sur le concept de structure métrologique dissociée. La mesure d'une pièce consiste alors à comparer sa forme à celle d'une pièce cylindrique de référence. Cette dernière doit seulement présenter une stabilité de forme parfaite. La cartographie d'écart de forme de la référence cylindrique doit cependant être identifiée au même niveau d'incertitude visé.Le travail de recherche développé propose une analyse détaillée des machines actuelles et de leurs limitations. Suite à cette analyse, une architecture de machine a été proposée pour lever ces limitations. Cette architecture tient compte des écarts « secondaires » liés à la position des capteurs et des effets de second ordre, pour satisfaire le niveau de précision visé. Une procédure complète d'étalonnage de la machine a été élaborée en s'inspirant des méthodes de séparation d'erreurs. Cette procédure originale permet de séparer les défauts de forme du cylindre de référence de ceux d'une pièce de qualification cylindrique mesurée simultanément. La méthode employée ne présente pas de limitations en termes d'exactitude. Cette procédure a été expérimentalement validée. Une analyse des effets liés à la mesure de surfaces cylindriques par des capteurs capacitifs a été menée. Ces essais ont conduit au développement de stratégies d'étalonnage de ces capteurs in situ utilisant des interféromètres à laser intégrés dans la machine. La traçabilité métrologique des résultats des mesures est ainsi garantie. Deux bancs de tests ont été développés pour caractériser les diverses influences et valider les procédures d'étalonnage des capteurs. La conception détaillée de l'instrument est issue de la synthèse des réflexions menées sur l'architecture, sur l'étalonnage et sur la maîtrise de la mesure de déplacements par capteurs capacitifs. Ce travail a abouti à la réalisation de ce nouvel instrument de référence ; sa conception, son montage et son réglage sont présentés. / The “Laboratoire Commun de Métrologie LNE-CNAM (LCM)” seeks to improve the measurement of primary pressure standards done using pressure balances, to an order of 10-6 relative uncertainty. Therefore, it is appropriate to back-up these pressure balances with a measurement of the topology of the piston-cylinder devices used on these balances. Cylindricity measurement is also found in many industrial applications such as the measurement of standards used for the calibration of measuring machines. This research project, conducted in collaboration with SAS GEOMNIA under a CIFRE agreement, has a main objet to develop a new ultra-high precision machine for cylinders form measurement. We pushes with this project the leading edge of the cylinders form measurement area; we propose indeed a technological leap which leads to reduce the uncertainty associated to cylindricity errors up to 10 nm in a cylindrical working volume of 350 mm diameter rand 150 mm height. Form measurement is usually done using a measurement probe moved about the surface to be measured with high precision guiding systems. Nonetheless, these guiding systems are not precise enough to offer the low uncertainty required even when error correction techniques are used. This is because the precision of the guides is limited by their low repeatability. To meet this uncertainty level, we propose an approach based on the “dissociated metrological structure” concept. The measurement consists of comparing the artifact's form with the form of a cylindrical reference which should have perfect form stability. However, the mapping form deviation of this cylindrical reference needs to be identified at the same level of uncertainty referred.The present work exposes a detailed analysis of the existing measuring machines and their limitations. Consequently, an optimized machine architecture is proposed in order to overcome the present limitations. The proposed machine architecture takes into account the "secondary" error terms relative to the probes positions and second order effects in order to satisfy the level of accuracy sought. A complete calibration procedure of the machine has been elaborated based on the error separation methods; it allows the separation of the form errors of each of the reference cylinder and a qualification cylindrical part simultaneously measured. This procedure does not present any accuracy limitations and has been experimentally verified. An analysis of the effects related to the measurement of cylindrical artifacts using capacitive sensors has also been investigated. These experiments have led to the development of in-situ calibration strategies using laser interferometers integrated in the machine. Thus, the metrological traceability of the measurements is guaranteed. Two test benches have been developed to characterize the error sources that influence the measurement and to validate the calibration procedures of the probes used. The detailed design of the instrument synthesizes all the conceptual thoughts about the architecture, the calibration and the displacement measurement of the capacitive probes. This work has resulted in the development of this new reference instrument; its design, installation and adjustment are detailed.
43

Triaxial galaxy clusters / Amas de galaxies triaxiaux

Bonamigo, Mario 22 September 2016 (has links)
Il est bien établit théoriquement et observationnellement que les amas de galaxies ne sont pas des objets sphèriques, et qu'ils sont beaucoup mieux décrits par la géométrie triaxiale. Malgré cela, les travaux sur la forme tri-dimensionnelle des amas de galaxies sont encore trés rares. L'objet de cette thèse est de contribuer à cette problématique naissante. L'originalité de ce travail est d'aborder ce sujet théoriquement et observationnellement. J'ai mesuré la forme d'amas de galaxies simulés, proposant des prédictions sur la forme des haloes de matière noire. J'ai ensuite développé un algorithme qui se propose de combiner des données en lentilles gravitationnelles et en rayons X afin de contraindre un modèle de haloe triaxial. L'algorithme est testé sur des données simulées. Finalement, je présente l'analyse en rayons X de Abell 1703, qui, combinée avec l'analyse en lentilles gravitationnelles, permettra de déterminer la forme de Abell 1703. / It is well established both theoretically and observationally that galaxy clusters are not spherical objects and that they are much better approximated as triaxial objects. This thesis focusses on the three dimencional shape of galaxy clusters. The originality of my approach is to tackle the problem both theoretically and observationally. First, I have measured the shape of dark matter haloes in the Millenium XXL and Sbarbine simulations, providing predictions for dark matter halo shape over 5 order in magnitude in mass. Then, I have developed an algorithm aimed at fitting simultaneously lensing and X-ray data in order to constrain a triaxial mass distribution. The algorithm is tested and characterized on mock data sets. It is found to be able to recover the input parameters. Finally, I present the X-ray analysis of galaxy cluster Abell 1703, which will be combined with the existing lensing analysis in order to investigate its shape.
44

Optimisation du guidage tri-dimensionel en radiologie interventionnelle / Three-dimensional image guidance optimization in interventional radiology

Tacher, Vania 15 December 2017 (has links)
L’optimisation du guidage en radiologie interventionnelle implique de simplifier les gestes, d’améliorer la qualité d’images et leur précision tout en réduisant l’exposition aux rayons X du personnel soignants et des patients et l’usage du produit de contraste iodé, néphrotoxique. Elle implique un travail sur chacune des quatre étapes fondamentales de chaque intervention que sont : « voir », « atteindre », « intervenir » et « contrôler » le succès de l’intervention et l’absence de complication.L’étape « voir » la cible a fait l’objet de 3 études : la première, animale, portait sur l’amélioration de la qualité d’images de cone-beam computed tomography (CBCT) et la seconde, clinique, sur la précision de la segmentation des tumeurs hépatiques mise en évidence sur les images de CBCT lors de chimioembolisations (CHE). Et enfin, la troisième, clinique, sur le repérage des artères épigastriques inférieures profondes en réalité augmentée avant lambeau.L’étape « atteindre » la cible a fait l’objet de 5 études. Deux études ont validé la précision du ciblage des tumeurs hépatiques lors des CHE utilisant des logiciels de détection automatique des artères nourricières et de perfusion virtuelle du territoire tumoral à traiter sur les images de CBCT lors de CHE. Trois autres études portaient sur les cartographies 3D par la technique de fusion d’images 3D projetées sur la fluoroscopie 2D. Les deux premières premières ont montré que l’usage de la fusion d’images lors des traitements endovasculaires des anévrismes complexes de l’aorte abdominale utilisant les images d’angioscanner ou d’angioIRM préopératoires permettant de réduire voire de s’affranchir de l’usage de produit de contraste iodé dans la prise en charge de ces pathologies. Le développement de la fusion d’images notamment lors du placement de shunt porto-systémique trans-hépatique par voie trans-jugulaire a permis de faciliter ces interventions tout en limitant l’usage des rayons X dans une troisième étude.La troisième étape « interventir » a fait l’objet de trois études. Une étude, fantôme, a montré la possibilité d’obternir une imagerie sélective et quantitative des structures iodées par l’imagerie spectrale des microsphères chargées d’huile iodée. Une seconde étude préclinique animale a attesté la radioopacité de ces mêmes microsphères chargées lorsqu’elles s’accumulent dans les capillaires ou néovaisseaux et sont le reflet de la nécessité de combiner une recherche commune sur le couple imagerie/matériel. Et enfin l’étude sur la rentabilité des biospies des tumeurs guidées par l’image qui a permis de mettre fin à des dogmes.La quatrième étape « contrôler » le succès des traitements comprend deux études. La première, est une revue de la littérature et a permis de proposer une standardisation de l’usage du CBCT lors des CHE et la seconde a évalué différents facteurs prédicteurs de réponse tumorale en IRM après CHE avec un intérêt particulier porté sur l’usage de nouveaux critères d’analyse 3D (vRECIST et qEASL).Le guidage en radiologie et notamment par le CBCT est encore confronté à la limitation majeure qu’est d’utiliser des rayons X et des produits de contraste iodé mais également à un champ de vue limité et à une qualité d’images sensibles aux artéfacts. D’ou le développement d’autre moyen de guidage comme l’IRM, éléctromagnétisme, fibroptique ou encore la réalité augmentée. Ces derniers éléments font partis de projets de recherche en cours ou à venir. / Optimizing image guidance in interventional radiology involves simplifying procedures, improving image quality and accuracy while reducing X-rays exposure, and the use of iodinated contrast media, which is nephrotoxic. It involves to improve each of the four fundamental steps of each intervention: "see", "reach", "intervene" and "control" the success of the intervention and the absence of complication.To "see" the target was the subject of 3 studies: the first study, was an animal study focused on improving the quality of images of cone-beam computed tomography (CBCT). The second study was a clinical study about the precision of the tumor segmentation of on CBCT images during chemoembolization (TACE). And finally, the third study was a clinical study and described the identification of the lower deep epigastric arteries in augmented reality before flap.To "reach" the target was the subject of 5 studies. Two studies investigated the accuracy of hepatic tumor targeting in TACE using automatic feeding detection and virtual tumor perfusion software on CBCT images. Three other studies were focused on 3D roadmap using the image fusion technique overlaid onto 2D fluoroscopy. The two first studies were about endovascular treatments of complex abdominal aortic aneurysms using images fusion based on angiography of computed tomography or IRM to reduce or even eliminate the use of iodinated contrast agent in the management of such disease. The development of image fusion, particularly during trans-hepatic porto-systemic shunt placement, was shown to facilitate these interventions while limiting the use of X-rays published in to a thrid study.To "intervene" step included three studies. A phantom study showed that spectral imaging displayed selective and quantitative images of iodine content of iodine-loaded microspheres. A preclinical study demonstrated their visibility on x-ray based imaging when they accumulated in capillaries or neovessels and reflected the need to combine a common search for the couple imaging / biomaterials. And finally the study on the rentability of the image guided biospies of tumors which allowed to end dogmas.To "control" the success of treatments included two studies. The first study is a review of the literature and allowed a standardization of the use of the CBCT during the TACE and the second evaluated the factors predictors of tumor response on MRI images after TACE by the use of new 3D criteria. Image guidance with the use of CBCT, is still confronted with the major limitation of the use of X-rays and iodinated contrast media, but also to a limited field of view and a sentitive images quality to artefacts. Hence the development of other image guidance types such as MRI, electromagnetism, fibroptic or augmented reality are on its way. These last elements are part of a research projects in progress or to come.
45

Synthèse de tolérance pour la conception des systèmes mécatroniques : Approche par bond graph inverse / Tolerance synthesis for mechatronic system design : Approach with bond graph.

Nguyen, Van Hoa 05 September 2014 (has links)
Dans le contexte de conception des systèmes mécatroniques, cette thèse aborde le problème de synthèse de tolérance paramétrique par rapport aux spécifications incluant incertitudes admissible. Nous prenons en compte deux types d’incertitude : incertitude aléatoire et incertitude épistémique. La méthodologie est basée sur l’inversion du modèle bond graph et sur la propagation de l’incertitude en sortie au paramètre de conception. Les incertitudes aléatoires sont modélisées par les fonctions densité de probabilité (FDP). Les incertitudes épistémiques sont modélisées par les fonctions d’appartenance (FA). Les modèles bond graph probabiliste et bond graph flou correspondants sont alors définis. En affectant la bicausalité et exploitant le modèle bond graph bicausal, nous obtenons le modèle inverse du système. Les FDP et FA sont ensuite propagées à travers ce modèle inverse jusqu’aux paramètres de conception. Nous proposons deux approches pour la propagation de l’incertitude : l’approche globale et l’approche locale. Dans l’approche globale, les FDP et FA en sortie sont propagée grâce à la relation globale entre les sorties et les paramètres de conception (le modèle inverse). Dans l’approche locale, le modèle considéré est divisé en plusieurs sous-modèles et les FDP et FA sont transférées de sous-modèle en sous-modèle jusqu’aux paramètres de conception. Nous utilisons ensuite les FDP et FA obtenues pour synthétiser les tolérances pour les paramètres de conception. La méthodologie proposée permet le traitement de l’incertitude aléatoire et l’incertitude épistémique par des outils appropriés, dans un problème de synthèse de tolérance paramétrique incluant des spécifications complexes. / In the context of mechatronic systems design, this thesis addresses the problem of parametric tolerance synthesis with respect to specifications including allowable uncertainties. We consider two types of uncertainty: aleatory uncertainty and epistemic uncertainty. The methodology is based on the inversion of the bond graph model and the propagation of uncertainty from output to design parameter. Aleatory uncertainties are modeled by the density probability functions (PDF). Epistemic uncertainties are modeled by membership functions (MF). The probabilistic and fuzzy bond graph are then defined. By affecting bicausality and exploiting the bicausal bond graph model, we obtain the inverse model of the system. The PDF and MF are then propagated through the inverse model to the design parameters. We propose two approaches for the propagation of uncertainty: the global approach and the local approach. In the global approach, the output PDF and MF are propagated through the overall relation between the outputs and the design parameters (the inverse model). In the local approach, the model is divided into several sub-models and the PDF and MF are transferred from sub-model to sub-model until they reach the design parameters. We then use the obtained PDF and MF for synthesizing the tolerances of the design parameters. The proposed methodology allows the treatment of aleatory uncertainty and epistemic uncertainty by appropriate tools, in a problem of parametric tolerance synthesis including complex specifications.
46

Qu’est-ce que le trouble de l’addiction? : pour une définition hybride et une classification dimensionnelle de l’addiction

Frenette, Rachel 08 1900 (has links)
La catégorisation actuelle du trouble de l’addiction dans le DSM-V fait face à plusieurs problèmes théoriques. D’abord, la catégorie nommée « Troubles liés à l’abus de substance et troubles addictifs » met en évidence le problème de l’exclusion par son manque de justification à inclure certains troubles du comportement, mais à en exclure d’autres, dans sa caractérisation. Le chevauchement constitue le deuxième problème que pose la catégorie du DSM-V, dans la mesure où certaines catégories censées être distinctes se recoupent en réalité. Les problèmes d’exclusion et de chevauchement remettent en question le fait de tracer ainsi les frontières entre catégories et en révèlent leur manque de validité conceptuelle. Et alors que la catégorie du trouble de l’addiction se heurte à ces problèmes, on peut douter de son utilité dans le traitement et la prise en charge des patients. Donc, par souci de fournir une classification en psychiatrie qui est valide et utile, il est nécessaire de redéfinir le trouble de l’addiction. Cela nous permettra de le classer autrement et adéquatement. Ainsi, nous défendons la thèse, dans ce mémoire, selon laquelle l’addiction ne renvoie pas à une entité discrète mais plutôt à un continuum, où coexistent deux phénomènes qu’il faut toutefois séparer : la motivation addictive et le trouble de l’addiction. Selon la définition que nous proposons, une taxonomie dimensionnelle, plutôt que catégorielle, représente mieux le trouble de l’addiction. Une telle approche possède le potentiel d’offrir de meilleurs outils aux cliniciens et aux chercheurs dans le traitement des personnes atteintes du trouble de l’addiction. / The categorization of addiction in the DSM-V faces many theoretical problems. First, the category named “Substance-use disorders and addictive disorders” emphasizes the problem of exclusion by its lack of justification to include certain behavioral disorders, whilst also excluding many other ones. Second, the category also induces the problem of overlapping, which refers to the way certain categories expected to be distinct actually intersect with each other. These problems of exclusion and overlapping raise some questions about the way the boundaries between categories are traced and reveal their lack of conceptual validity. Moreover, as categorization faces these theoretical problems, we can also doubt the usefulness of the category of addiction in the treatment and care of patients. Therefore, it is necessary to redefine addictive disorder in order to offer a classification that is valid and useful. Thus, in this memoir, we want to argue that addiction refers not to a discrete entity but to a continuum where two distinct phenomena coexist: addictive motivation and addictive disorder. According to our definition, dimensions, rather than categories, are much more appropriate to represent as is the disorder of addiction. This approach has the potential to offer better tools to clinicians and researchers in the treatment of people suffering from an addictive disorder.
47

Inspection dimensionnelle - Une approche multi-capteurs pour la vérification des spécifications géométriques / Dimensional inspection - Multi-sensor approach for geometrical specification verification

Sadaoui, Sif Eddine 09 July 2019 (has links)
L'inspection dimensionnelle, qui consiste à vérifier la conformité géométrique des pièces vis-à-vis des spécifications, est une étape essentielle dans le cycle de vie des produits. Elle s’appuie de plus en plus sur la mesure multi-capteurs qui permet un gain de temps certain. Néanmoins, le gain de temps n'a de sens que si la qualité des résultats respecte le besoin métrologique. En effet, la mise en œuvre combinée de capteurs de technologie et de caractéristiques différentes engendre un certain nombre de problèmes qui affectent directement la qualité de la mesure. Dans ce travail, une approche d'inspection automatique utilisant un scanner combinant un capteur à contact avec un capteur laser-plan monté sur une MMT est proposée. Cette approche cherche à utiliser au mieux les capacités de chacun des capteurs, en privilégiant la mesure avec le capteur laser-plan dès lors que la qualité requise est obtenue pour un gain de temps. L’approche consiste à définir une séquence d’opérations de mesure de surfaces qui portent des spécifications, appelées entités d’inspection.Partant d'un ensemble d'orientations du scanner, la séquence d'opérations est établie pour chaque orientation par évaluation de l'aptitude du capteur laser puis celle du palpeur à mesurer les surfaces avec la qualité nécessaire. La gamme d'inspection est complétée par la définition optimale de la trajectoire du capteur laser-plan et celle du palpeur pour chaque orientation. La trajectoire finale exécutée sur machine MMT est obtenue par transformation et assemblage des deux trajectoires. À l'issue de l'exécution, la mesure avec les deux capteurs conduit à deux nuages de points hétérogènes qu’il convient de traiter avant l’évaluation finale des spécifications. / Dimensional inspection, which consists in verifying the geometric conformity of parts in terms of specifications, is an essential step in the product life cycle. Recently, dimensional inspection has been increasingly based on multi-sensor measurement that allows a significant time saving. However, time saving is only meaningful if the quality of the results respects the metrological requirements. Indeed, the combined use of sensors of different technologies and characteristics generates issues that affect the measurement quality. In this work, an automatic inspection approach using a scanner combining a contact sensor with a laser-plane sensor mounted on a CMM is proposed. This approach aims to best use the abilities of each of the sensors, giving priority to measurement with the laser-plan sensor as soon as the required quality is obtained for time saving. The approach consists in defining a sequence of surface measurement operations that have specifications, called inspection features.Starting from a set of scanner orientations, the sequence of operations is established for each orientation by evaluating the ability of the laser sensor and then that of the probe to measure surfaces with the required quality. The inspection plan is completed by the optimal definition of the laser-plane sensor path and the probe path for each orientation. The final path executed on the CMM machine is obtained by transforming and assembling the two paths. At the end of the execution, the measurement with the two sensors leads to two heterogeneous point clouds that must be processed before the final evaluation of the specifications.
48

Modélisation numérique et caractérisation des défauts dans les miroirs multicouches en vue de leur application en imagerie X cohérente. / Numerical modelling and characterization of multilayer mirror defects for coherent X-ray imaging applications

Piault, Pierre 20 June 2019 (has links)
Les miroirs multicouches trouvent de nombreuses applications utilisant les rayons X produits par les synchrotrons et les lasers à électrons libres et doivent relever de nouveaux challenges apparus avec l'amélioration de ces sources de rayonnement. Pour étudier les causes des contrastes d'intensité produits dans le faisceau réfléchi, des mesures expérimentales et une modélisation numérique ont été effectuées.Plusieurs méthodes d’analyse de la structure des multicouches et du front d’onde réfléchi par un miroir multicouches ont été mises en œuvre sur la ligne de lumière BM05 de l'ESRF. Les méthodes de mesure de 'Rocking Curve Imaging' et 'theta/2theta Imaging' ont été appliquées et adaptées pour la première fois aux miroirs multicouches. Des mesures du front d'onde réfléchi par une multicouche ont aussi été effectuées à partir des techniques d’holographie et de tavelure en champ proche. Les résultats obtenus permettent de mieux comprendre les effets de phase produits par les multicouches ainsi que leurs origines et de reconstruire la topographie de défauts de hauteur d'un miroir multicouches par l'utilisation du modèle numérique développé durant cette thèse.Un modèle numérique basé sur les équations de Takagi-Taupin a été modifié pour tenir compte de défauts dans la structure multicouches d'un miroir. Des simulations de défauts simples ont été effectuées afin de caractériser les performances et les limites du modèle numérique. La propagation et la cohérence de faisceau réfléchi ont été simulées. Les résultats expérimentaux et simulés ont alors permis de montrer que les défauts de hauteur dans la structure multicouches des miroirs constituent la cause principale des contrastes d'intensité. Les simulations effectuées conduisent à conclure que les effets induits par les défauts de hauteur dans une multicouche sont analogues aux effets de phase produits par ces même défauts de hauteur sur une surface réfléchissante.Ces modèles et ces simulations peuvent être utiliser pour spécifier les caractéristiques des défaut de hauteur qui minimise la production du contraste d'intensité. Les techniques expérimentales développées permettront de caractériser avec les rayons X les futures multicouches. / Multilayer mirrors find numerous X-ray applications in synchrotron and X-rays free electron lasers. These multilayers optical devices must take up new challenges raised with the upgrade these radiation sources. To study the origin of intensity contrast in reflected beam, experimental measurements and numerical modeling were performed.Several techniques for multilayer structure charactérization have been implemented at the ESRF beamline BM05. Measurements methods based on 'Rocking Curve Imaging' and 'theta/2theta' Imaging were performed and applied for the first time to multilayer mirrors. Measurements of the wavefront reflected by multilayers were performed using holography and near field speckle techniques. The results obtained allowed a better understanding of the phase effects induced by multilayer reflection of their origin and to reconstruct the topography of the height defects within a multilayer mirror using the numerical model developped in the course of this PhD thesis.A numerical model based on Takagi-Taupin equations was modified to account for defects present in the multilayer mirror structure. Simulations for simple defects were performed to evaluate performance and limits of the numerical model. The propagation and the coherence of the reflected beam were simulated. The measurement and simulation results show the main influence of defect heights on the generation of the intensity contrast observed. The simulations also lead to conclude the equivalency phase effect resulting of the same height defects in multilayers mirror structure and reflecting surface.These modelization and simulations results can be usefull to specify defect feature which minimise reflected intensity contrast. The new developped experimental technics will allows X-rays caracterization for next multilayer mirrors.
49

Psychologie des leaders narcissiques organisationnels

Ouimet, Gérard 04 1900 (has links)
Résumé Le premier article de la thèse se veut une revue systématique des données empiriques mettant en lumière les antécédents à la base de l’émergence du leadership narcissique dans les organisations, ses composantes psychologiques ainsi que ses incidences tant pour les organisations que pour leurs membres. Conséquemment, cette étude brosse initialement une recension détaillée des principaux facteurs idiosyncrasiques, culturels, environnementaux et structurels participant à la manifestation du leadership narcissique dans les organisations. Par la suite, elle en sonde la teneur en isolant l’existence de cinq composantes psychologiques, soit le charisme, l’influence intéressée, la motivation fallacieuse, l’inhibition intellectuelle et la considération simulée. Enfin, elle souligne les conséquences négatives de son actualisation dont les principales sont : la production de prises de décisions volatiles et risquées; la création d’un climat organisationnel toxique; la destruction de la confiance des subordonnés; la détérioration de l’efficacité organisationnelle; l’émergence d’une gestion dysfonctionnelle; et la manifestation de comportements non-éthiques. Le deuxième article s’avère une analyse comparative de deux types de leadership se révélant, de prime abord, trompeusement analogues. Ces deux types sont le leadership transformationnel et le leadership narcissique. Quoique se situant aux antipodes en matière de satisfaction de besoins (influence idéalisée versus influence intéressée), de promotion de visions (motivation inspirationnelle versus motivation fallacieuse), de réceptivité à la rétroaction d’autrui (stimulation intellectuelle versus inhibition intellectuelle) et de traitement des relations interpersonnelles (considération individualisée versus considération simulée), les leaderships transformationnel et narcissique partagent entre eux un élément commun : le charisme du leader. C’est précisément cette dernière caractéristique, conférant à son détenteur un puissant halo magnétisant, qui se révèle le creuset de la spéciosité du leadership narcissique opérant essentiellement lors des tout premiers contacts avec le leader. En fait, le charisme du leader narcissique sert en quelque sorte de fard, composé de charme et de fascination, masquant une décevante réalité psychologique et dont les propriétés captieuses s’étiolent rapidement. Le troisième article de la thèse est une étude conceptuelle examinant la structuration idiosyncrasique des criminels en col blanc ayant commis des fraudes financières se chiffrant à plusieurs dizaines de millions de dollars. Exploitant le croisement des deux dimensions fondamentales de l’agression, soit sa fonction (proactive ou réactive) et sa forme (directe ou indirecte), cette étude propose une taxonomie archétypique de différents types de psychopathie susceptible de mieux cerner la psychologie du criminel en col blanc d’envergure. L’agression est dite proactive lorsqu’elle est motivée par des impératifs de prédation indépendants de l’état émotionnel de l’individu. L’action de l’individu prédateur est intentionnelle et instrumentale. Elle vise l’atteinte d’objectifs préétablis avant l’actualisation de l’agression. Par contre, elle est considérée réactive lorsque la préservation de l’intégrité physique ou psychologique de l’individu est l’objet d’une menace émergeant de son environnement externe immédiat. Dans ce cas, la réaction agressive de l’individu est émotionnellement conditionnée. Par ailleurs, nonobstant la nature de sa fonction, l’agression peut s’exprimer directement ou indirectement. Elle est considérée directe lorsqu’elle a pour cible l’agressé en tant que tel. La forme physique d’agression peut être physique (sévices corporels) ou verbale (menaces et insultes). Par contre, lorsqu’elle emprunte des modes d’expression plus subtils, tels les rumeurs, l’humour malicieux et la tromperie, l’agression est dite indirecte. Le pairage des deux dimensions fondamentales de l’agression permet la construction d’un modèle d’analyse bidimensionnelle englobant quatre types de psychopathie, à savoir les psychopathies parasitique (préservation indirecte), colérique (préservation directe), cynégétique (prédation directe) et sympathique (prédation indirecte). C’est précisément cette dernière forme de psychopathie, le type sympathique caractérisé par un étaiement idiosyncrasique narcissico-machiavélique, qui traduit le mieux la psychologie des criminels en col blanc d’envergure. Enfin, le quatrième et dernier article de la présente thèse se propose d’explorer une problématique de recherche n’ayant reçu que très peu d’attention de la part des membres de la communauté scientifique, à savoir l’examen de l’adéquation d’un modèle dimensionnel du narcissisme pathologique inspiré du modèle développé par Roche, Pincus, Lukowitsky, Ménard et Conroy (2013). Au moyen d’une étude de cas exploratoire, il a été possible d’associer la vulnérabilité narcissique au segment décompensatoire (échec des stratégies inadaptées d’agrandissement de soi) du modèle théorique inspiré de celui de Roche et al. (2013) et ce, conformément à ses prescriptions. En effet, la comparaison des résultats de l’un des deux participants de l’étude, madame H, obtenus lors des deux saisies de données espacées d’un intervalle d’une année, indique une diminution de la vulnérabilité narcissique lors de la période de re-compensation. En outre, cette diminution est accompagnée de celle de la grandiosité narcissique. En somme, la relation positive entre les deux dimensions du narcissisme pathologique se révèle, sur un plan longitudinal, constante dans les deux segments – compensatoire (recours à des stratégies inadaptées d’agrandissement de soi) et décompensatoire – du modèle théorique inspiré de celui de Roche et al. (2013). Par ailleurs, les résultats obtenus auprès des deux participants à l’étude de cas, monsieur B et de madame H, s’avèrent éclairants eu égard à la prépondérance respective de chacune des dimensions (grandiosité et vulnérabilité) narcissiques en fonction des segments compensatoire et décompensatoire du modèle théorique inspiré de celui de Roche et al. (2013). Se trouvant en mode de compensation narcissique lors des deux saisies de données, monsieur B affiche une grandiosité narcissique supérieure à sa vulnérabilité narcissique. Cette constatation respecte en tous points les prescriptions théoriques du modèle. Quant à madame H, qu’elle soit en mode de compensation ou de décompensation narcissique (postulat non démontré eu égard aux prescriptions du modèle théorique utilisé), sa vulnérabilité narcissique demeure constamment plus élevée que sa grandiosité narcissique. Théoriquement, selon les prescriptions du modèle, la prépondérance devrait être observée chez la dimension « grandiosité narcissique » en période de compensation. De toute évidence, les données obtenues auprès de madame H s’écartent de ces prescriptions. / The first article of the thesis offers a systematic review of the empirical data highlighting the precursors to the emergence of narcissistic leadership in organizations, its psychological components, as well as its impact on both organizations and their members. Accordingly, this study begins by compiling a detailed list of the main idiosyncratic, cultural, environmental and structural factors at play in the manifestation of narcissistic leadership in organizations. It then explores their nature by identifying the existence of five psychological components: charisma, self-interested influence, deceptive motivation, intellectual inhibition and simulated consideration. Finally, it underscores the negative consequences of the emergence of narcissistic leadership, including, notably: the production of volatile and risky decision making; the creation of a toxic organizational climate; the destruction of subordinates’ trust; the degradation of organizational effectiveness; the emergence of dysfunctional management; and the manifestation of unethical behaviour. The second article proposes a comparative analysis of two types of leadership that appear at first glance to be deceptively similar. These two types of leadership are transformational leadership and narcissistic leadership. Although diametrically opposed in terms of the satisfaction of needs (idealized influence versus self-interested influence), the promotion of visions (inspirational motivation versus deceptive motivation), the receptiveness to feedback (intellectual stimulation versus intellectual inhibition) and the treatment of interpersonal relations (individualized consideration versus simulated consideration), transformational and narcissistic leadership share a common element: the charisma of the leader. This charisma places a powerful, magnetic halo on the head of the leader and it is precisely this characteristic that is the crucible of the deceptive attractiveness of narcissistic leadership that is felt upon the very first contact with the leader. In fact, the narcissistic leader’s charisma serves as a sort of mask that combines charm and fascination to conceal a disappointing psychological reality and whose attractive qualities quickly fall away. The third article of the thesis is a conceptual study of the idiosyncratic patterns of white-collar criminals who have committed fraud in the tens of millions of dollars. Based on the intersection of the two basic dimensions of aggression – i.e., its function (proactive or reactive) and its form (direct or indirect), this study proposes an archetypal taxonomy of the different types of psychopathy with a view to gaining a better understanding of the psychology of large-scale white-collar criminals. Aggression is said to be proactive when it is motivated by predatory imperatives that are independent of the individual’s emotional state. The action taken by the predatory individual is intentional and instrumental. Its aim is to meet predetermined objectives prior to the actualization of the aggressive behaviour. On the other hand, it is considered reactive when the preservation of the individual’s physical or psychological integrity is threatened by the immediate, external environment. In this case, the individual’s aggressive reaction is emotionally conditioned. Moreover, notwithstanding the nature of its function, aggression can be expressed directly or indirectly. It is considered direct when it targets the victim specifically. The form of the aggression can be physical (bodily injury) or verbal (threats and insults). On the other hand, when it is expressed in more subtle forms, such as rumours, malicious jokes and deception, the aggression is said to be indirect. Pairing the two main dimensions of aggression allows for the construction of a two-dimensional model of analysis encompassing four types of psychopathy, namely: parasitic psychopathy (indirect preservation), choleric psychopathy (direct preservation), cynegetic psychopathy (direct predation) and sympathetic psychopathy (indirect predation). It is precisely this last form of psychopathy – the sympathetic form characterized by a narcissistic and Machiavellian underpinnings idiosyncratic – that best reflects the psychology of large-scale white-collar criminals. Finally, the fourth and last article of this thesis proposes to explore a research problem that has received very little attention from members of the scientific community, namely how adequate is a dimensional model of pathological narcissism based on the model developed by Roche, Pincus, Lukowitsky, Ménard and Conroy (2013). On the basis of exploratory case study, it was possible to link narcissistic vulnerability to decompensatory segment (failure of maladaptive self-enhancement strategies) of this model. This linkage conforms to the hypothesis of the model. Indeed, the results of one of two study participants, Ms. H, indicate a decrease of narcissistic vulnerability in the re-compensatory period. Furthermore, this decrease is accompanied by a decrease of narcissistic grandiosity. In others words, on a one year longitudinal plane, the positive relationship between the two dimensions (narcissistic grandiosity and vulnerability) of pathological narcissism is found to be constant in two segments – compensation (use of maladaptive self-enhancement strategies) and decompensation – of the theoretical model based on the model of Roche et al. (2013). Moreover, the results for two study participants, Mr. B and Ms. H, prove to be enlightening according to respective preponderance of each narcissistic dimension of theoretical model based on the model developed by of Roche et al. (2013). In tests in 2012 and in 2013, Mr. B displays greater narcissistic grandiosity greater than narcissistic vulnerability, and was deemed to be in compensatory mode. This observation conforms to the hypothesis of the model. As for Ms. H, her narcissistic vulnerability remains consistently much higher than her narcissistic grandiosity. Theoretically, whether she is in narcissistic compensatory or decompensatory mode (unproven assumption in view of the theoretical model used), narcissistic vulnerability should only be dominant in the period of decompensation. Obviously, the results of Ms. H do not conform to the model.
50

Duo d'artefacts numérique et matériel pour l'apprentissage de la géométrie au cycle 3 / Duo of digital and material artefacts dedicated to the learning of geometry at primary school

Voltolini, Anne 30 August 2017 (has links)
L’objet de notre recherche en didactique des mathématiques est d’étudier l’introduction des technologies numériques comme environnement complémentaire à des manipulations concrètes. Nous définissons les duos d’artefacts comme l’articulation fructueuse entre un artefact numérique et un artefact matériel qui soit une plus-value pour les apprentissages. L’approche instrumentale de Rabardel nous permet d’établir les critères de cette articulation; chaque artefact du duo enrichit l’autre à travers les instruments construits. Un duo d’artefacts provoque des genèses instrumentales associées. Afin de fonder les conditions d’un apprentissage au sens de Brousseau, un duo n’existe que lorsqu’il est mobilisé dans une situation didactique. Notre enjeu est alors d’élaborer un duo d’artefacts incluant le compas matériel en vue de la conceptualisation du triangle à partir de sa construction à la règle et au compas. La composition du duo et son orchestration dans une situation ont pour intention de faire émerger une nouvelle genèse instrumentale du compas et, selon les travaux de Duval, une déconstruction dimensionnelle 1D du triangle. Des expérimentations en classe nous ont permis de valider l’hypothèse selon laquelle la situation et le duo provoquent l’élaboration d’un nouvel instrument compas pour faire pivoter un segment. Le modèle de conceptions de Balacheff nous a aussi permis d’identifier l’évolution des conceptions des élèves sur le triangle et le cercle au fil de la situation, en particulier l’apparition d’une vision 1D du triangle comme une ligne brisée fermée et d’une caractérisation du cercle comme la trajectoire d’une extrémité d’un segment pivoté. / Our research project in didactics of mathematics is to study the use of digital technologies as a complementary environment to concrete manipulations. We define a duo of artefacts as the fruitful link between a digital artefact and a material one in such a way that this linking is an added value for the learning process. The instrumental approach of Rabardel allows us to establish the requirements for this link, each artefact enriching the other through the constructed instruments. A duo of artefacts sets off associated instrumental geneses. In order to base the conditions of the learning process, in the sense of Brousseau, a duo exists only when it is mobilized in a didactic situation. Our issue is to develop a duo of artifacts including the pair of compasses for the conceptualization of the triangle in the teaching of its geometric construction. The composition of the duo and its orchestration in a didactic situation are intended to bring out a new instrumental genesis of the compasses and, according to Duval's work, a 1D dimensional deconstruction of the triangle. Experiments in classes have enabled us to validate the hypothesis that the situation and the duo cause the development of a new pair of compasses instrument to rotate a segment. Balacheff's model of conceptions also allowed us to identify the evolution of pupils' conceptions of the triangle and the circle as the situation progressed, specifically the improvement of a 1D vision of the triangle as a closed broken line and a characterization of the circle as the trajectory of one end of a pivoted segment.

Page generated in 0.0698 seconds