• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 303
  • 152
  • 57
  • 1
  • 1
  • Tagged with
  • 503
  • 243
  • 169
  • 144
  • 134
  • 104
  • 99
  • 94
  • 81
  • 70
  • 64
  • 61
  • 61
  • 56
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Analyse morphologique de la microstructure 3D de réfractaires électrofondus à très haute teneur en zircone : relations avec les propriétés mécaniques, chimiques et le comportement pendant la transformation quadratique-monoclinique / Morphological analysis of the 3D microstructure of high zirconia fused-cast refractories : relationship with the mechanical, chemical properties and the behaviour during the tetragonal-monoclinic transformation

Ding, Yang 28 March 2012 (has links)
Les THTZ (réfractaires électrofondus à Très Haute Teneur en Zircone) sont des matériaux utilisés pour la construction de fours verriers. Ils sont composés d'un squelette dendritique de zircone imprégné de phase vitreuse. Cette étude, qui fait partie du programme national de recherche NOREV (Nouveaux REfractaires Verriers), financé par l'ANR (Agence Nationale pour la Recherche), vise à étudier les influences de la morphologie tridimensionnelle de la microstructure et des propriétés des phases sur le comportement mécanique du THTZ, en particulier pendant la transformation quadratique-monoclinique qui intervient lors du refroidissement post-coulée. Les microstructures 3D de différents matériaux ont été investiguées par tomographie X à l'ESRF (synchrotron de Grenoble). Les images 3D segmentées ont donné lieu à des analyses d'images permettant de caractériser la topologie microstructurale des matériaux, à travers de mesures de covariance, de tortuosité et de percolation. Une relation entre la vitesse d'attaque par l'acide fluorhydrique (HF) et la densité de surface du squelette de zircone a été identifiée. En segmentant le squelette de zircone par la méthode des bassins versants (watershed), nous avons pu comparer le niveau de connectivité du réseau de zircone des différents matériaux. Les résultats sont corrélés avec les calculs numériques de la rigidité microstructurale du squelette des matériaux. Après attaque acide et à haute température, un phénomène de flexibilité a été observé sur des éprouvettes minces et a pu être mis en relation avec la connectivité des matériaux. Les mesures de dilatation lors de cycles thermiques ont mis en évidence les effets induits par l'ajout d'yttrine. La phase vitreuse joue un rôle important pendant la transformation de quadratique à monoclinique, en limitant l'endommagement microstructural des matériaux. Le THTZ dopé par l'ajout de 7% d'yttrine présente des propriétés très différentes des autres matériaux : il est plus rigide et ne subit plus la transformation martensitique. Des calculs par éléments finis tridimensionnels, réalisées à partir de volumes élémentaires de la microstructure réelle, ont permis d'estimer l'influence des propriétés des phases constituantes, de leur morphologie et des conditions aux limites sur la contrainte interne responsable de l'endommagement microstructural. / Zirconia-Rich Fused-Cast Refractories are largely used in industry to build glass furnaces. This kind of refractory is composed of two phases: a dendritic skeleton of zirconia surrounded by a glassy phase which represents about 12% in volume. This work aims to evaluate the influences of the 3D microstructural morphology and of the properties of the constituting phases on the mechanical properties of materials, especially during the transformation from tetragonal to monoclinic which occurs during cooling-down after casting. This work is part of the NOREV (New refractories for glass furnaces) project funded by the French ANR (National Agency for Research). 3D pictures of the microstructures have been obtained owing to X-ray microtomographies performed at ESRF (European Synchrotron Radiation Facility, Grenoble, France). After segmentation, these images allowed the microstructural topology of materials to be investigated, using image analysis and mathematical morphology parameters like covariance, tortuosity and percolation. A relationship between the surface density of the zirconia skeleton and its dissolution kinetics in hydrofluoric acid (HF) solution has been identified. Segmenting the skeleton using the watershed method allowed the connectivities of the different materials to be compared. The results are correlated with the numerical calculations of the microstructure stiffness. A phenomenon of flexibility of the zirconia skeleton has been observed on thin specimens, at high temperature and at room temperature, when the glassy phase has been removed. This phenomenon is related to the connectivity and to the “puzzle-like” structure of the zirconia skeleton. Dilatometric measurements revealed the effects of yttrine addition. The glassy phase exhibits a very important role in the t-m transformation, while limiting microstructural damage of materials. The refractory containing 7% yttrine revealed properties totally different from other materials: its stiffness is higher and it does not experience the t-m transformation. 3D finite element simulations have been carried out on elementary volumes of the actual microstructure of the materials. The influences of the properties of the constituting phases, of the microstructural morphology and of the boundary conditions, which are responsible for the microstructural damage during cooling down, could then be estimated.
132

Détermination de la vitesse limite par fusion de données vision et cartographiques temps-réel embarquées / Speed limit determination by real-time embedded visual and cartographical data fusion

Puthon, Anne-Sophie 02 April 2013 (has links)
Les systèmes d'aide à la conduite sont de plus en plus présents dans nos véhicules et nous garantissent un meilleur confort et plus de sécurité. Dans cette thèse, nous nous sommes particulièrement intéressés aux systèmes d'adaptation automatique de la vitesse limite. Nous avons proposé une approche alliant vision et navigation pour gérer de façon optimale l'environnement routier.Panneaux, panonceaux et marquages sont autant d'informations visuelles utiles au conducteur pour connaître les limitations temporaires en vigueur sur la route. La reconnaissance des premiers ont fait l'objet ces dernières années d'un grand nombre d'études et sont même commercialisés, contrairement aux seconds. Nous avons donc proposé un module de détection et classification de panonceaux sur des images à niveaux de gris. Un algorithme de reconstruction morphologique associé à une croissance de régions nous ont permis de concentrer la segmentation sur les zones fortement contrastées de l'image entourées d'un ensemble de pixels d'intensité similaire. Les rectangles ainsi détectés ont ensuite fait l'objet d'une classification au moyen de descripteurs globaux de type PHOG et d'une structure hiérarchique de SVMs. Afin d'éliminer en dernier lieu les panonceaux ne s'appliquant pas à la voie sur laquelle circule le véhicule, nous avons pris en compte les informations de marquages à l'aide d'une machine d'états.Après avoir élaboré un module de vision intégrant au mieux toutes les informations disponibles, nous avons amélioré le système de navigation. Son objectif est d'extraire d'une base de données embarquée, le contexte de conduite lié à la position du véhicule. Ville ou non, classe fonctionnelle et type de la route, vitesse limite sont extraits et modélisés sous forme d'attributs. La fiabilité du capteur est ensuite calculée en fonction du nombre de satellites visibles et de la qualité de numérisation du réseau. La confiance en chaque vitesse limite sera alors fonction de ces deux ensembles.La fusion des deux sources au moyen de Demspter-Shafer a conduit à de très bonnes performances sur nos bases de données et démontré l'intérêt de tous ces éléments. / ADAS (Autonomous Driving Assistance Systems) are more and more integrated in vehicles and provide to drivers more confort and safety. In this thesis, we focused on Intelligent Speed Adaptation. We proposed an approach combining vision and navigation in order to optimally manage the driving context information.Roadsigns, subsigns and markings are visual data used by the driver to determine the current temporary speed limitations. Many research were conducted during last years to recognise the first one, contrary to the second. Commercialised products are even implemented in vehicles. We thus developped a subsign detection and classification module using greyscale images. A morphological reconstruction with a growing region helped us to focus the segmentation on highly contrasted pixels surrounded by homogeneous regions. Global descriptors such as PHOGs combined to a hierarchical structure of SVMs were then used to classify the output rectangles. Finally, we eliminated subsigns which are not applicable to the current lane by considering markings.After having developed a vision module integrating all the available information, we improved the navigation system. The objective was to extract from an embedded database the driving context related to the vehicle position. Urban context or not, functional class, road type and speed limit were collected and modelised into criteria. The sensor reliability was then computed and depended on the satellite configuration and the network digitisation quality. Confidence in each speed limit combined all these elements.Fusion of both sources with the Dempster-Shafer theory led to very good performances on our databases et showed the importance of all the used information.
133

Implantation dans le matériel de fonctionnalités temps-réel dans une caméra intelligente ultralégère spécialisée pour la prise de vue aérienne / Implementation of real-time functionalities in in the hardware of ultra-light intelligent camera specialized for the aerial imaging

Audi, Ahmad 14 December 2017 (has links)
Au cours des dernières années, les drones civils sont devenus un outil intéressant dans la photographie aérienne et dans les travaux de photogrammétrie. Cela a poussé le LOEMI (Laboratoire d’Opto-Electronique, Métrologie et Instrumentation) de l'IGN (Institut National de l'Information Géographique et Forestière) de mettre au point une nouvelle caméra aérienne mieux adaptée pour l'exploitation photogrammétrique et métrologiques des images que les caméras grand public. Cette caméra est composée essentiellement d'un capteur CMOS ``global-shutter'', d'une centrale inertielle IMU, et d'un système sur puce (FPGA + 2 CPUs) pour la gestion de l'acquisition des images. Ce SoC/FPGA ouvre la porte à l'implémentation temps-réel des algorithmes de traitement d'image. Parmi les travaux futurs de l'IGN, on peut distinguer certaines applications qui nécessitent l'acquisition des images aériennes avec un temps d'exposition long, comme par exemple les prises de vue aériennes en bande spectrale étroite et les prises de vue aériennes de nuit. Ce type de prises de vue manifeste un flou de bougé dans les images dû aux mouvements erratiques du drone. Cette thèse consiste en l'implémentation dans la caméra légère de l'IGN d'un algorithme qui permet de remédier ce problème de flou de bougé. La première partie de ce travail a été consacrée au développement de la méthode qui consiste à acquérir plusieurs images avec un temps de pose court, puis utiliser un algorithme de traitement d'image afin de générer une image empilée finale avec l'équivalent d'un temps de pose long. Les paramètres des orientations correctes pour le ré-échantillonnage des images sont obtenus par l'estimation de la transformation géométrique entre la première image et la nième image à partir des points d'intérêts détectés par FAST dans la première image et les points homologues obtenus par corrélation dans les autres images accélérées par les capteurs inertiels intégrés à la caméra. Afin d'accélérer le traitement de calcul de notre algorithme, certaines phases sont accélérées en les implémentant dans le matériel (SoC/FPGA).Les résultats obtenus sur des jeux de tests acquis avec un drone type Copter 1B UAV et la caméra ultra-légère de l'IGN montrent que l'image finale empilée ne présente pas un flou de bougé. Les résultats de temps des différentes phases de l'algorithme montrent aussi que l'exécution de notre algorithme a un temps quasi-nulle. Un des sous-produits intéressants de ces travaux est la ré-étalonnage des capteurs IMU / In the recent years, the civilian UAVs (Unmanned Aerial Vehicles) have become an interesting tool in aerial photography and in photogrammetry. This led the LOEMI (Laboratoire d'Opto-électronique, de Métrologie et d'Instrumentation) team of IGN (Institut National de l'Information Géographique) to design an light-weight digital camera better adapted for exploiting photogrammetry and metrology applications than consumer cameras. This camera consists essentially of a CMOS ``global shutter'' sensor, an inertial measurement unit IMU, and a system on chip (FPGA + 2 CPUs) used originally to acquire image data from the sensor. This SoC/FPGA-based camera opens the door to implement in hardware some real-time image processing algorithms. Night-time surveys and narrow spectral band with imagery are one of the next applications targeted by IGN, this type of applications needs a long-exposure time imagery that usually exhibits a motion blur due to erratic movements of the UAV. This thesis consists in the implementation on the light-weight IGN camera of an alogirithm which makes it possible to remedy this problem of motion blur. The first part of this work was devoted to the development of the method which consists in acquiring several images with a short exposure time and then using an image processing algorithm in order to generate a stacked image with the equivalent of a long-exposure time. To obtain the correct parameters for the resampling of images, the presented method accurately estimates the geometrical relation between the first and the nth image, taking into account the internal parameters and thedistortion of the camera. Features are detected in the first image by the FAST detector, than homologous points on other images are obtained by template matching aided by the IMU sensors. In order to speed up the processing of our algorithm, some phases are accelerated by implementing them in the hardware (SoC / FPGA).The results obtained on real surveys show that the final stacked image does not present a motion blur. The time results of the different phases of the algorithm also show that the execution of the algorithm has a quasi-zero time. One of the interesting byproducts of this work is the recalibration of the IMU sensors
134

Motion based vision methods and their applications / Méthodes de vision à la motion et leurs applications

Wang, Yi January 2017 (has links)
La détection de mouvement est une opération de base souvent utilisée en vision par ordinateur, que ce soit pour la détection de piétons, la détection d’anomalies, l’analyse de scènes vidéo ou le suivi d’objets en temps réel. Bien qu’un très grand nombre d’articles ait été publiés sur le sujet, plusieurs questions restent en suspens. Par exemple, il n’est toujours pas clair comment détecter des objets en mouvement dans des vidéos contenant des situations difficiles à gérer comme d'importants mouvements de fonds et des changements d’illumination. De plus, il n’y a pas de consensus sur comment quantifier les performances des méthodes de détection de mouvement. Aussi, il est souvent difficile d’incorporer de l’information de mouvement à des opérations de haut niveau comme par exemple la détection de piétons. Dans cette thèse, j’aborde quatre problèmes en lien avec la détection de mouvement: 1. Comment évaluer efficacement des méthodes de détection de mouvement? Pour répondre à cette question, nous avons mis sur pied une procédure d’évaluation de telles méthodes. Cela a mené à la création de la plus grosse base de données 100\% annotée au monde dédiée à la détection de mouvement et organisé une compétition internationale (CVPR 2014). J’ai également exploré différentes métriques d’évaluation ainsi que des stratégies de combinaison de méthodes de détection de mouvement. 2. L’annotation manuelle de chaque objet en mouvement dans un grand nombre de vidéos est un immense défi lors de la création d’une base de données d’analyse vidéo. Bien qu’il existe des méthodes de segmentation automatiques et semi-automatiques, ces dernières ne sont jamais assez précises pour produire des résultats de type “vérité terrain”. Pour résoudre ce problème, nous avons proposé une méthode interactive de segmentation d’objets en mouvement basée sur l’apprentissage profond. Les résultats obtenus sont aussi précis que ceux obtenus par un être humain tout en étant 40 fois plus rapide. 3. Les méthodes de détection de piétons sont très souvent utilisées en analyse de la vidéo. Malheureusement, elles souffrent parfois d’un grand nombre de faux positifs ou de faux négatifs tout dépendant de l’ajustement des paramètres de la méthode. Dans le but d’augmenter les performances des méthodes de détection de piétons, nous avons proposé un filtre non linéaire basée sur la détection de mouvement permettant de grandement réduire le nombre de faux positifs. 4. L’initialisation de fond ({\em background initialization}) est le processus par lequel on cherche à retrouver l’image de fond d’une vidéo sans les objets en mouvement. Bien qu’un grand nombre de méthodes ait été proposé, tout comme la détection de mouvement, il n’existe aucune base de donnée ni procédure d’évaluation pour de telles méthodes. Nous avons donc mis sur pied la plus grosse base de données au monde pour ce type d’applications et avons organisé une compétition internationale (ICPR 2016). / Abstract : Motion detection is a basic video analytic operation on which many high-level computer vision tasks are built upon, e.g., pedestrian detection, anomaly detection, scene understanding and object tracking strategies. Even though a large number of motion detection methods have been proposed in the last decades, some important questions are still unanswered, including: (1) how to separate the foreground from the background accurately even under extremely challenging circumstances? (2) how to evaluate different motion detection methods? And (3) how to use motion information extracted by motion detection to help improving high-level computer vision tasks? In this thesis, we address four problems related to motion detection: 1. How can we benchmark (and on which videos) motion detection method? Current datasets are either too small with a limited number of scenarios, or only provide bounding box ground truth that indicates the rough location of foreground objects. As a solution, we built the largest and most objective motion detection dataset in the world with pixel accurate ground truth to evaluate and compare motion detection methods. We also explore various evaluation metrics as well as different combination strategies. 2. Providing pixel accurate ground truth is a huge challenge when building a motion detection dataset. While automatic labeling methods suffer from a too large false detection rate to be used as ground truth, manual labeling of hundreds of thousands of frames is extremely time consuming. To solve this problem, we proposed an interactive deep learning method for segmenting moving objects from videos. The proposed method can reach human-level accuracies while lowering the labeling time by a factor of 40. 3. Pedestrian detectors always suffer from either false positive detections or false negative detections all depending on the parameter tuning. Unfortunately, manual adjustment of parameters for a large number of videos is not feasible in practice. In order to make pedestrian detectors more robust on a large variety of videos, we combined motion detection with various state-of-the-art pedestrian detectors. This is done by a novel motion-based nonlinear filtering process which improves detectors by a significant margin. 4. Scene background initialization is the process by which a method tries to recover the RGB background image of a video without foreground objects in it. However, one of the reasons that background modeling is challenging is that there is no good dataset and benchmarking framework to estimate the performance of background modeling methods. To fix this problem, we proposed an extensive survey as well as a novel benchmarking framework for scene background initialization.
135

Effect of the Environment on the Fatigue Behaviour of Textile Organic Matrix Composite Materials for Aircraft Applications / Effet de l'environnement sur la fatigue de matériaux composites tissés à matrice organique pour applications aéronautiques

Foti, Federico 24 November 2017 (has links)
Les composites à matrice organiques (CMO) et fibre de carbone sont de plus en plus employés dans la réalisation de structures « tièdes » (aubes de fan, nacelles …) ; ces pièces peuvent être soumises, en service, à la fatigue mécanique, au cyclage thermique et à la fatigue thermo-mécanique. Bien qu’il existe une littérature consistante sur le comportement en fatigue des composites tissés, l'interaction entre fatigue et la dégradation liée à l'environnement à haute température n’a pas été encore bien exploitée. Le couplage entre les effets de la thermo-oxydation, le comportement mécanique (viscoélastique, viscoplastique) de la matrice organique à températures élevées et la dégradation par fatigue peut être néfaste pour le composite.Le but de ce travail est de caractériser et de modéliser - pour les composites tissés C/matrice organique - le comportement thermomécanique, l'apparition et le développement de l’endommagement liés aux mécanismes mécaniques cycliques (fatigue) sous environnement contrôlé (température et gaz).Une étude préliminaire sur un composite stratifiée [02/902]s a été menée pour pouvoir analyser les effets de l’environnement sur une architecture simple. La corrélation d’image numérique (CIN) et des scans μ-tomographiques (μCT) ont été employés pour le suivi et la caractérisation de l’endommagement de fatigue de composites tissés 2D à architecture complexe pour applications aéronautiques. Les effets de l’environnement sur la dégradation par fatigue ont été également explorés.L'objectif à long terme de cette étude est de fournir des outils expérimentaux et numériques pour renforcer la compréhension et la modélisation du couplage mécanique/endommagement/environnement pour la prédiction de la durée de vie et pour la proposition de protocoles d’essais accélérés réalistes de pièces « tièdes » en CMO. / In the next future, the employment of organic matrix/carbon fibre composites (OMC) is foreseen for the realization of “hot” structures: these parts may be subjected, in service, to mechanical fatigue (e.g. fan blades turbo-engines), thermal cycling and thermo-mechanical fatigue (e.g. aircraft structural parts). Though there is a consistent literature concerning the fatigue behaviour of woven composites, the interaction between fatigue and environmental degradation at high temperature has been poorly explored. Coupling between thermo-oxidation effects, mechanical (viscoelastic, viscoplastic) behaviour of the polymer matrix at high temperatures and degradation due to fatigue may be highly detrimental for the material. This work aims at characterizing and modelling - for carbon fibre/organic matrix (polyimide) textile composites – the thermomechanical behaviour, the onset and the development of damage related to cyclic mechanical mechanisms (fatigue) under controlled (temperature and gas) environment.A preliminary study on a cross-ply laminate [02/902]s has been carried out in order to analyse the environmental effect on a model sample. Digital Image Correlation (DIC) and μ-Computed Tomography (μCT) have been used to monitor and characterize the fatigue damage of 2D woven composites for aeronautical applications. The environmental effect on fatigue degradation have been also explored.The long-term aim of the study is to provide experimental and numerical tools to strengthen the understanding and the modelling of mechanics/damage/environment coupling for durability prediction.
136

Capteur d’humidité en Si poreux pour la fiabilité des systems in package

Ludurczak, Willy 03 November 2008 (has links)
La problématique de cette thèse est l’amélioration de la fiabilité des systèmes électroniques encapsulés, concernant l’herméticité et les perturbations causées par les infiltrations d’humidité. Le travail consiste en l’étude d’un capteur pour mesurer in situ le taux d’humidité dans les cavités des systèmes encapsulés. Comparativement aux actuelles techniques d’évaluation de l’herméticité, l’intérêt du dispositif réside dans la généralisation du test à chaque cavité, le contrôle de l’atmosphère de la cavité sur une longue période d’utilisation, et la correction automatique de la dérive occasionnée (packaging intelligent). Deux structures en Si poreux (SP) ont été étudiées pour réaliser des capteurs, et ont d’abord été caractérisées d’un point de vue morphologique. Les deux couches ont la même porosité de 45 %. Les mesures de sorption d’azote appliquées aux théories BET et BJH ont montré que SP1 et SP2 présentaient respectivement des surfaces spécifiques de 330 et 223 m²/g, et des diamètres poreux moyens de 4,3 et 5.5 nm. Une nouvelle méthode de caractérisation basée sur le traitement d’image de surface de Si poreux est présentée. La méthode permet d’estimer les distributions de taille de pore (DTP), porosité, surface spécifique et fraction volumique d’oxyde. Elle est validée par la cohérence des résultats obtenus, comparés à ceux donnés par les théories de sorption. Outre le caractère complet de l’analyse, les avantages de cette méthode sont sa simplicité de mise en œuvre, sa non restriction à une gamme de taille de pores, et l’absence d’hypothèse mathématique sur l’estimation de la DTP. Les tests électriques ont montré que SP1 présentait une résistance supérieure à SP2 et que le capteur basé sur SP1 présentait une plus grande sensibilité vis-à-vis de la prise d’humidité : -90 % entre 0 et 80 % d’humidité relative. La spécificité du transport électrique dans les structures étudiées a été mise en évidence expérimentalement, conduisant à l’hypothèse d’une barrière de potentiels à l’interface Si - Si poreux. La plus grande résistance présentée par SP1 a été explicitée par sa plus grande fraction volumique d’oxyde, ainsi que les effets plus prononcés de confinement quantique et de déplétion de surface. L’utilité d’un capteur d’humidité in situ en Si poreux pour l’herméticité des systems in package a été démontrée par les résultats expérimentaux d’un prototype. / This work deals with the improvement of reliability of packaged electronic devices, concerning the hermeticity and the disturbances caused by moisture infiltration. As an analysis method of sealing quality of Systems in Package (SiP), a study of humidity sensors for in situ moisture level evaluation of SiP microcavities is presented. Compared to others analysis methods, the interest of the present one is its global utility for all manufactured chips, the capability to monitor the cavities atmosphere over a long period, and the possibility of automatic drifts correction. Two porous silicon (PS) based structures have been studied to make sensors. First we performed morphological analyses of PS layers. Both have a porosity of 45 %. Nitrogen sorption measurements applied to BET and BJH theories showed that PS1 and PS2 respectively present specific areas of 330 and 223 m²/g and mean pore diameters of 4.3 and 5.5 nm. A new analysis method based on processing of PS surface images is presented. It allows the estimation of pore size distribution (PSD), porosity, specific area, and volumic oxide ratio. The method has been validated by the closeness between its results and sorption theories results. In addition to the method’s completeness, it presents several advantages such as easy-to-use application, no restriction on PSD range, and no computing hypothesis on PSD evaluation. Electrical measurements showed that PS1 resistance is higher than PS2 resistance, and that sensitivity of PS1 based sensors exposed to moisture variation is superior: -90 % from 0 to 80 % relative humidity. Specificity of carriers transport in PS structures has been experimentally underlined; leading to the hypothesis of a potential barrier between PS and non porous Si. Higher resistance has been explained by the higher volumic oxide ratio of PS1, and the more developed quantum confinement and depletion surface effects. Utility of such in situ PS moisture sensor for SiP hermeticity has been demonstrated by preliminary experimental results.
137

Étude du comportement mécanique d’UO2 implanté en helium par micro-diffraction des rayons X et modélisation par éléments finis / Study of UO2 mechanical behaviour implanted with Helium ions using X-ray micro-diffraction and mechanical modeling

Ibrahim, Marcelle 13 October 2015 (has links)
Dans le but d'étudier le comportement mécanique du combustible nucléaire dans un scénario de stockage direct à long terme, des polycristaux d'UO2 sont implantés en ions Hélium dans une fine couche surfacique (environ 1 µm), induisant des déformations. Ces déformations sont mesurées, à l'échelle des grains, par micro-diffraction des rayons X, en utilisant un rayonnement synchrotron (ESRF). Des méthodes d'analyse d'images sont développées pour traiter automatiquement le grand nombre de clichés de diffraction. Le développement d'outils statistiques permet de détecter des clichés problématiques et d'améliorer la précision de l'analyse. Pour des faibles profondeurs d'implantation, l'interaction mécanique entre les grains peut être négligée. Les résultats expérimentaux peuvent être approchés par un modèle mécanique simple. À plus grandes profondeurs, les résultats expérimentaux montrent une plus grande interaction mécanique aux joints de grain qui peut être modélisée par éléments finis. Des outils de géostatistique ont été utilisés pour quantifier ces interactions. Le gonflement et les constantes élastiques de la couche implantée peuvent être ajustés à travers les déformations mesurées sur un grand nombre de grains d'orientations différentes. Ces études permettent de déterminer le gonflement du combustible nucléaire en conditions d'irradiation, ainsi que les modifications de ses propriétés élastiques / In order to study the mechanical behavior of nuclear fuel during direct long term storage, UO2 polycrystals were implanted with Helium ions at a thin surface layer (1 µm approximately), which leads to stress and strain fields in the layer. Strains were measured, at the grains scale, by X-ray micro-diffraction, using synchrotron radiation (ESRF). Image analysis methods were developed for an automatic analysis of the large number of diffraction patterns. Applying statistical tools to Laue patterns allows an automatic detection of low quality images, and enhances the measurement precision. At low layer thickness, the mechanical interaction between grains can be neglected. At higher thickness, experimental results showed a higher mechanical interaction near grain boundaries that can be modeled using finite elements method. Geostatistical tools were used to quantify these interactions. The swelling and the elastic constants in the implanted layer can be estimated through the measured strains on a large number of grains with different orientations. This work allows the determination of the swelling of nuclear fuel in irradiation conditions, as well as the modification of its elastic properties
138

Contrast enhancement in digital imaging using histogram equalization / Amélioration du contraste des images numériques par égalisation d'histogrammes

Gomes, David Menotti 18 June 2008 (has links)
Aujourd’hui, des appareils capables de capter et de traiter les images peuvent être trouvés dans les systèmes complexes de surveillance ou de simples téléphones mobiles. Dans certaines applications, le temps nécessaire au traitement des images n’est pas aussi important que la qualité du traitement (par exemple, l’imagerie médicale). Par contre, dans d’autres cas, la qualité peut être sacrifiée au profit du facteur temps. Cette thèse se concentre sur ce dernier cas, et propose deux types de méthodes rapides pour l’amélioration du contraste d’image. Les méthodes proposées sont fondées sur l’égalisation d’histogramme (EH), et certaines s’adressent à des images en niveaux de gris, tandis que d’autres s’adressent à des images en couleur. En ce qui concerne les méthodes EH pour des images en niveaux de gris, les méthodes actuelles tendent à changer la luminosité moyenne de l’image de départ pour le niveau moyen de l´interval de niveaux de gris. Ce n’est pas souhaitable dans le cas de l’amélioration du contraste d’image pour les produits de l’électronique grand-public, où la préservation de la luminosité de l’image de départ est nécessaire pour éviter la production de distortions dans l’image de sortie. Pour éviter cet inconvénient, des méthodes de Biégalisation d’histogrammes pour préserver la luminosité et l’amélioration du contraste ont été proposées. Bien que ces méthodes préservent la luminosité de l’image de départ tout en améliorant fortement le contraste, elles peuvent produire des images qui ne donnent pas une impression visuelle aussi naturelle que les images de départ. Afin de corriger ce problème, nous proposons une technique appelée multi-EH, qui consiste à décomposer l’image en plusieurs sous-images, et à appliquer le procédé classique de EH à chacune d’entre elles. Bien que produisant une amélioration du contraste moins marquée, cette méthode produit une image de sortie d’une apparence plus naturelle. Nous proposons deux fonctions de décalage par découpage d’histogramme, permettant ainisi de concevoir deux nouvelle méthodes de multi-EH. Une fonction de coût est également utilisé pour déterminer automatiquement en combien de sous-images l’histogramme de l’image d’entrée sera décomposée. Les expériences montrent que nos méthodes sont meilleures pour la préservation de la luminosité et produisent des images plus naturelles que d´autres méthodes de EH. Pour améliorer le contraste dans les images en couleur, nous introduisons une méthode 5 Résumé 6 générique et rapide, qui préserve la teinte. L’égalisation d’histogramme est fondée sur l’espace couleur RGB, et nous proposons deux instantiations de la méthode générique. La première instantiation utilise des histogrammes 1D R-red, G-green, et B-bleu afin d’estimer l’histogramme 3D RGB qui doit être égalisé, alors que le deuxième instantiation utilise des histogrammes 2D RG, RB, et GB. L’égalisation d’histogramme est effectué en utilisant des transformations de décalage qui préservent la teinte, en évitant l’apparition de couleurs irréalistes. Nos méthodes ont des complexités de temps et d’espace linéaire, par rapport à la taille de l’image, et n’ont pas besoin de faire la conversion d’un espace couleur à l’autre afin de réaliser l’amélioration du contraste de l’image. Des évaluations objectives comparant nos méthodes et d’autres ont été effectuées au moyen d’une mesure de contraste et de couleur afin de mesurer la qualité de l’image, où la qualité est établie comme une fonction pondérée d’un indice de “naturalité” et d’un indice de couleur. Nous analysons 300 images extraites d’une base de données de l’Université de Berkeley. Les expériences ont montré que la valeur de contraste de l’image produite par nos méthodes est en moyenne de 50% supérieure à la valeur de contraste de l’image original, tout en conservant une qualité des images produites proche de celle des images originales / Nowadays devices are able to capture and process images from complex surveillance monitoring systems or from simple mobile phones. In certain applications, the time necessary to process the image is not as important as the quality of the processed images (e.g., medical imaging), but in other cases the quality can be sacrificed in favour of time. This thesis focuses on the latter case, and proposes two methodologies for fast image contrast enhancement methods. The proposed methods are based on histogram equalization (HE), and some for handling gray-level images and others for handling color images As far as HE methods for gray-level images are concerned, current methods tend to change the mean brightness of the image to the middle level of the gray-level range. This is not desirable in the case of image contrast enhancement for consumer electronics products, where preserving the input brightness of the image is required to avoid the generation of non-existing artifacts in the output image. To overcome this drawback, Bi-histogram equalization methods for both preserving the brightness and contrast enhancement have been proposed. Although these methods preserve the input brightness on the output image with a significant contrast enhancement, they may produce images which do not look as natural as the ones which have been input. In order to overcome this drawback, we propose a technique called Multi-HE, which consists of decomposing the input image into several sub-images, and then applying the classical HE process to each one of them. This methodology performs a less intensive image contrast enhancement, in a way that the output image presented looks more natural. We propose two discrepancy functions for image decomposition which lead to two new Multi-HE methods. A cost function is also used for automatically deciding in how many sub-images the input image will be decomposed on. Experimental results show that our methods are better in preserving the brightness and producing more natural looking images than the other HE methods. In order to deal with contrast enhancement in color images, we introduce a generic fast hue-preserving histogram equalization method based on the RGB color space, and two instances of the proposed generic method. The first instance uses R-red, G-green, and Bblue 1D histograms to estimate a RGB 3D histogram to be equalized, whereas the second instance uses RG, RB, and GB 2D histograms. Histogram equalization is performed using 7 Abstract 8 shift hue-preserving transformations, avoiding the appearance of unrealistic colors. Our methods have linear time and space complexities with respect to the image dimension, and do not require conversions between color spaces in order to perform image contrast enhancement. Objective assessments comparing our methods and others are performed using a contrast measure and color image quality measures, where the quality is established as a weighed function of the naturalness and colorfulness indexes. This is the first work to evaluate histogram equalization methods with a well-known database of 300 images (one dataset from the University of Berkeley) by using measures such as naturalness and colorfulness. Experimental results show that the value of the image contrast produced by our methods is in average 50% greater than the original image value, and still keeping the quality of the output images close to the original / Dispositivos para aquisição e processamento de imagens podem ser encontrados em sistemas complexos de monitoração de segurança ou simples aparelhos celulares. Em certas aplicações, o tempo necessário para processar uma imagem não é tão importante quanto a qualidade das imagens processadas (por exemplo, em imagens médicas), mas em alguns casos a qualidade da imagem pode ser sacrificada em favor do tempo. Essa tese se foca nesse último caso, e propõe duas metodologias eficientes para o realce de contraste de imagens. Os métodos propostos são baseados em equalização de histograma (EH), e focam em imagens em tons de cinza e em imagens coloridas. Os métodos baseados em EH atualmente utilizados para processar imagens em tons de cinza tendem a mudar o brilho médio da imagem para o tom médio do intervalo de tons de cinza. Essa mudança não é desejavél em aplicações que visam melhorar o contraste em produtos eletrônicos utilizados pelo consumidor, onde preservar o brilho da imagem original é necessário para evitar o aparecimento de artefatos não exitentes na imagem de saída. Para corrigir esse problema, métodos de bi-equalização de histogramas para preservação do brilho e contraste de imagens foram propostos. Embora esses métodos preservem o brilho da imagem original na imagem processada com um realce significante do contraste, eles podem produzir imagens que não parecem naturais. Esse novo problema foi resolvido por uma nova técnica chamada de Multi-Equalização de histogramas, que decompõe a imagem original em várias sub-imagens, e aplica o método de EH clássico em cada uma delas. Essa metodologia realiza um realce de contraste menos intenso, de forma que a imagem processada parece mais “natural”. Essa tese propõe duas novas funções de discrepância para decomposição de imagens, originando dois novos métodos de Multi-EH. Além disso, uma função de custo é utilizada para determinar em quantas sub-imagens a imagem original será dividida. Através da comparação objetiva e quantitative usando uma medida de constrate, os experimentos mostraram que os métodos propostos são melhores que outros EH estudados, uma vez que eles preservam o brilho e produzem imagens com uma aparência mais natural. Em relação aos métodos para realce de contraste em imagens coloridas, essa tese propõe um método genérico e eficiente de EH baseado no espaço de cores RGB que preserva o tom 9 Resumo 10 (a matiz), e implementa duas instâncias desse método genérico. A primeira instância utiliza os histogramas 1D R-red, G-green e B-blue para estimar um histograma 3D RGB, que é então equalizado. A segunda instância, por sua vez, utiliza os histogramas 2D RG, RB, e GB. A EH é executada utilizando transformadas de deslocamento que preservam a tonalidade da cor, evitando o aparecimento de cores não reais. Os métodos propostos tem complexidade linear no espaço e no tempo em relação ao tamanho da imagem, e não usam nenhuma conversão de um espaço de cores para outro. As imagens produzidas foram avaliadas objetivamente, comparando os métodos propostos com outros estudados. A avaliação objetiva foi feita utilizando medidas de contraste e de qualidade da cor da imagem, onde a qualidade foi definida como uma função ponderada dos índices de naturalidade e cromicidade. Um conjunto de 300 imagens extraídas da base de dados da Universidade de Berkeley foram analisadas. Os experimentos mostraram que o valor do contraste das imagens produzidas pelos métodos propostos é, em médias, 50% maior que o valor do contraste na imagem original, e ao mesmo tempo a qualidade das imagens produzidas é próxima a qualidade da imagem original / Dispositivi per l’acquisizione e lo svolgimento di immagini si possono trovare nei complessi sistemi di monitoramento di sicurezza o nei semplici cellulari. In alcune applicazioni il tempo necessario per svolgere un’immagine non è cosi importante come la qualità delle immagini svolte (es. nelle immagini mediche), ma in alcuni casi la qualità dell’immagine potrà venire daneggiata a favore del tempo. Questa tesi è basata su quest’ultimo caso e propone due metodi efficienti per evidenziare il contrasto di colore delle immagini. I metodi proposti vengono basate sull’equalizazzione d’istogramma (EI), mirati su delle immagini grigie e sulle immagini colorate. I metodi basati sull’EI attualmente utilizzati per svolgere delle immagini grigie tendono a cambiare il brillo medio dell’immagine per il tono medio dell’intervallo grigio. Questo cambiamento non è desiderato nelle applicazioni mirate al miglioramento del contrasto sui prodotti elettronici utilizzati dal consumatore, dove preservare il brillo dell’immagine originale è necessario per evitare la comparsa di artefatti inesistenti nell’immagine d’uscita. Sono stati proposti dei metodi di biequalizazzione di istogrammi per corregere questo problema della preservazione del brillo e del contrasto di colore delle immagini. Nonostante questi metodi preservino il brillo dell’immagine originale con significante rilievo del contrasto nell’immagine svolta, questi possono produrre delle immagini che non sembrino naturali. Questo nuovo problema è stato risolto con una nuova tecnica detta Multiequalizazzione di istogrammi, che decompone l’immagine originale in varie sottoimmagini, applicando su ognuna di queste il metodo EI classico. Questa metodologia realizza un contrasto di rilievo meno intenso in modo che l’immagine svolta sembri più “naturale”. Questa tesi propone due nuove funzioni di discrepanza per la decomposizione delle immagini, originandone due nuovi metodi Multi-EI. Inoltre una funzione di costo viene utilizzata per determinare in quante sottoimmagini l’immagine originale verrà divisa. Attraverso paragone obiettivo e quantitativo, usando una misura di contrasto, gli esperimenti hanno convalidato che i metodi proposti sono migliori di quegli EI studiati perché quelli preservano il brillo e producono immagini con un’apparenza più naturale. Con riferimento ai metodi utilizzati per rilevare il contrasto nelle immagini colorate questa tese propone un metodo generico ed efficiente di EI, in base negli spazi di colori 11 Risumo 12 RGB, che preserva il tono (la sfumatura) e implementa due istanze di questo metodo generico. La prima istanza utilizza gli istogrammi 1D R-Red, G-green e B-blue per stimare un istogramma 3D RGB, che viene di seguito equalizzato. La seconda istanza invece utilizza gli istogrammi 2D RG, RB e GB. La EI viene eseguita utilizzando trasformate di trasloco che preservano il tono del colore, evitando così la comparsa di colori non reali. I metodi proposti hanno complessità lineare nello spazio e nel tempo rispetto alla grandezza dell’immagine e non usano nessuna conversione da un spazio di colore all’altro. Le immagini prodotte sono state valutate in modo obiettivo, paragonando i metodi proposti con gli altri studiati. La valutazione obiettiva è stata fatta utilizzando delle misure di contrasto e qualità del colore dell’immagine, dove la qualità è stata definita come una funzione ponderata degli indici di naturalità e colorito. Si analisarano un insieme di 300 immagini tratte dalla base dei dati dell’Università di Berkeley. Gli sperimenti mostrarono che il valore del contrasto delle immagini prodotte daí metodi proposti è mediamente 50% maggiore del valore del contrasto nell’immagine originale e una volta ancora la qualità delle immagini prodotte è vicina alla qualità dell’immagine originale
139

Développement et validation d’outils pour l’analyse morphologique du cerveau de Macaque / Morphometry Analysis Tools for the Macaque Brain : Development and Validation

Balbastre, Yaël 17 October 2016 (has links)
La compréhension des mécanismes impliqués dans les maladies neurodégénératives ou développementales ainsi que la mise en place de nouvelles approches thérapeutiques reposent sur l’utilisation de modèles expérimentaux pertinents et de techniques d’imagerie adaptées. Dans ce contexte, l’IRM est un outil de choix pour l’exploration anatomique in vivo dans la mesure où elle permet d’effectuer un suivi longitudinal. Le succès translationnel des thérapies du laboratoire au patient repose sur une bonne caractérisation des modèles et une continuité des biomarqueurs utilisés. Or, si l'IRM est disponible en préclinique et en clinique, les outils d'analyse sont peu « génériques ». Au cours de cette thèse, en s'inspirant des travaux menés chez l'Homme, nous avons développé et validé des outils automatiques de segmentation des structures neuroanatomiques chez le Macaque. La méthode proposée repose sur la mise en registre avec l'IRM du sujet d'un atlas digital probabiliste suivi de l'optimisation d'un modèle statistique par mélanges de gaussiennes et champs aléatoires de Markov. Elle a été validée chez un ensemble de sujets sains adultes puis mise en application dans le contexte du développement néonatal normal du cerveau. Afin de poser les bases d'une évaluation permettant une comparaison des biomarqueurs IRM avec les biomarqueurs post mortem de référence, nous avons également mis au point une chaîne de traitement permettant la reconstruction 3D de volumes histologiques du cerveau de Macaque et l'avons appliqué à la caractérisation du contraste IRM au cours d'une greffe de cellules souches après lésion excitotoxique. / Understanding the mechanisms involved in neurodegenerative or developmental diseases and designing new therapeutic approaches are based on the use of relevant experimental models as well as appropriate imaging techniques. In this context, MRI is a prominent tool for in vivo investigation as it allows for longitudinal follow-up. Successful translation from bench to bedside calls for well-characterized models as well as transferable biomarkers. Yet, despite the existence of both clinical and preclinical scanners, analysis tools are hardly translational. In this work, inspired by standards developed in Humans, we've built and validated tools for the automated segmentation of neuroanatomical structures in the Macaque. This method is based on the registration of a digital probabilistic atlas followed by the fitting of a statistical model consisting of a gaussian mixture and Markov random fields. It was first validated in healthy adults and then applied to the study of neonatal brain development. Furthermore, to pave the way for comparisons with gold standard post mortem biomarkers, we developed a pipeline for the automated 3D reconstruction of histological volumes that we applied to the characterization of MRI contrast in a stem-cell graft following an excitotoxic lesion.
140

Imagerie SPR optimisée en résolution pour l'étude et la détection de bactéries / Resolution optimized SPR imaging for the study and detection of bacteria

Boulade, Marine 18 April 2019 (has links)
L’étude, la détection et l’identification de pathogènes est une problématique majeure pour la sécurité alimentaire et la médecine. Cependant, les pathogènes bactériens présents à de faibles concentrations nécessitent souvent une période de plus de 36h pour être identifiés par les méthodes standards. Ce délai est extrêmement contraignant pour des domaines où la rapidité du diagnostic est un facteur clé. Il y a donc une forte demande pour le développement d’outils pour mieux comprendre le comportement bactérien et ainsi développer des techniques de détection plus rapides et plus performantes.Les systèmes d’imagerie SPR sont largement utilisés pour l’analyse d’interactions moléculaires, car ils permettent une mesure en parallèle, en temps réel et sans marquage, tout en étant faciles d’utilisation et compatibles avec des milieux complexes. Cette technique a montré son efficacité pour l'étude et la détection de bactéries en utilisant les interactions moléculaires avec les anticorps, mais les délais de détection restent pénalisants.Dans ce contexte, un nouveau système d’imagerie permettant l’étude et la détection spécifique de pathogènes bactériens performant est développé en mettant à profit les avancées récentes en imagerie SPR optimisée en résolution. Notre système permet d'améliorer les temps de détection de pathogènes en milieux modèles grâce à sa capacité à détecter des bactéries individuelles. Il peut également être utilisé pour l'étude de l'interaction entre bactéries et surfaces spécifiques. Des premiers tests montrent que notre instrument est capable de caractériser le comportement bactérien de plusieurs souches bactériennes en interaction avec des surfaces fonctionnalisées par des espèces chimiques différentes / The study, detection and identification of pathogens is a major issue for food safety and medicine. However, bacterial pathogens present at low concentrations often require a period of more than 36 hours to be identified by standard methods. This delay is extremely constraining for areas where rapid diagnosis is a key factor. There is therefore a strong demand for the development of tools to better understand bacterial behavior and thus develop faster and more efficient detection techniques.SPR imaging systems are widely used for the analysis of molecular interactions, as they allow parallel, real-time and unlabeled measurement, while being easy to use and compatible with complex media. This technique has proven effective in the study and detection of bacteria using molecular interactions with antibodies, but detection times remain penalizing.In this context, a new imaging system allowing the study and specific detection of high-performance bacterial pathogens is being developed, taking advantage of recent advances in SPR imaging optimized in resolution. Our system improves pathogen detection times in model environments through its ability to detect individual bacteria. It can also be used to study the interaction between bacteria and specific surfaces. Initial tests show that our instrument is capable of characterizing the bacterial behaviour of several bacterial strains in interaction with surfaces functionalized by different chemical species.

Page generated in 0.0482 seconds