• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 101
  • 43
  • 20
  • 1
  • Tagged with
  • 170
  • 62
  • 40
  • 30
  • 25
  • 24
  • 21
  • 20
  • 19
  • 18
  • 16
  • 16
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Etude de la stabilité et de la précision des modèles utilisés dans la correction des effets de proximité optique en photolithographie / Study of the impact of different physical parameters during OPC model creation for 65nm and 45nm technologies

Saied, Mazen 30 September 2011 (has links)
À l’heure actuelle, les modèles photochimiques utilisés dans la correction des effets de proximitéoptique (OPC) en photolithographie sont devenus complexes et moins physiques afin de permettre decapturer rapidement le maximum d’effets optiques et chimiques. La question de la stabilité de tels modèlespurement empiriques est devenue d’actualité. Dans ce mémoire, nous avons étudié la stabilité desmodèles photochimiques actuels en examinant les différentes causes d’instabilité vis-à-vis des paramètresdu procédé. Dans la suite, nous avons développé une méthode perturbative permettant d’évaluer le critèrede la stabilité. L’obtention de modèles simples et stables nous conduit à séparer les effets optiques desautres effets chimiques. De plus, les approximations utilisées dans la modélisation des systèmes optiquesopérant à grande ouverture numérique entraînent des erreurs résiduelles pouvant dégrader la précisionet la stabilité des modèles OPC. Ainsi, nous nous sommes intéressés à étudier les limites de validitéde l’approximation de Kirchhoff, méthode qui, jusqu’à présent, est la plus utilisée dans la modélisationdu champ proche d’un masque. D’autres méthodes semi-rigoureuses, permettant de modéliser les effetstopographiques, ont été également évaluées. Ces méthodes approchées permettent de gagner en précisionmais dégradent le temps de calcul. Nous avons ainsi proposé différentes façons de corriger les effetstopographiques du masque, tout en gardant l’approximation de Kirchhoff dans la modélisation de la partieoptique. Parmi les méthodes proposées, nous exploitons celle permettant de réduire les erreurs liéesaux effets topographiques du masque par l’intermédiaire d’un second modèle empirique. Nous montronsque pour garantir une précision adéquate, il est nécessaire d’augmenter la complexité du modèle en rajoutantdes termes additionnels. Enfin, pour garantir la stabilité numérique du modèle empirique, nousintroduirons une nouvelle méthode approchée hybride rapide et précise, la méthode des multi-niveaux,permettant d’inclure les effets topographiques par décomposition multi-niveaux du masque fin et discuteronsses avantages et ses limites. / At present, common resist models utilized in photolithography to correct for optical proximity effects(OPC) became complex and less physical in order to capture the maximum of optical and chemical effectsin shorter times. The question on the stability of such models, purely empirical, become topical. In thisthesis, we study the stability of existing OPC models by examining the origins of model instability towardsprocess parameters. Thus, we have developed a perturbative method in order to evaluate the stabilitycriterion. However, achieving stable and simple models needs a separation between optical and otherchemical effects. Besides, multiple approximations, widely utilized in the modeling of optical systemsoperating at high numerical aperture, lead to residual errors which can degrade OPC model accuracyand stability. Thus, we were interested to study the limits of validity of the Kirchhoff approximation,a method which, so far, is the most commonly used in mask near-field modeling. Other semi-rigorousmethods for mask topography effect modeling were also evaluated. These approximate methods canimprove the accuracy but degrades the run time. We then suggested different techniques to correct formask topography effects, while keeping the Kirchhoff approximation in the modeling of the optical part.Among them, we showed that errors due to mask topography effects can be partially captured by asecond empirical model. However, in order to ensure a good accuracy, it is necessary to increase themodel complexity by using more additional empirical terms. Finally, in order to achieve a numericalstability of the empirical model, we introduced a new hybrid fast and accurate method, the multi-levelmethod, which allows us to correct for mask topography effects through a multi-level decomposition ofthe thin mask and discussed its advantages and drawbacks.
162

Surgical tools localization in 3D ultrasound images / Localisation d'outils thérapeutiques de forme linéaire par imagerie ultrasonore 3D

Uhercik, Marian 20 April 2011 (has links)
Cette thèse traite de la détection automatique d’outils chirurgicaux de géométrie linéaire tels que des aiguilles ou des électrodes en imagerie ultrasonore 3D. Une localisation précise et fiable est nécessaire pour des interventions telles que des biopsies ou l’insertion d’électrode dans les tissus afin d’enregistrer leur activité électrique (par exemple dans le cortex cérébral). Le lecteur est introduit aux bases de l’imagerie ultrasonore (US) médicale. L’état de l’art des méthodes de localisation est rapporté. Un grand nombre de méthodes sont basées sur la projection comme la transformation de Hough ou la Projection Intégrale Parallèle (PIP). Afin d’améliorer l’implantation des méthodes PIP connues pour être assez lentes, nous décrivons une possible accélération par approche multirésolution. Nous proposons d’utiliser une méthode d’ajustement de modèle utilisant une approche RANSAC et une optimization locale. C’est une méthode rapide permettant un traitement temps réel et qui a l’avantage d’être très robuste en présence d’autres structures fortement échogènes dans le milieu environnant. Nous proposons deux nouveaux modèles d’apparence et de forme de l’outil dans les images US 3D. La localisation de l’outil peut être améliorée en exploitant son aspect tubulaire. Nous proposons un modèle d’outil utilisant un filtrage rehausseur de ligne que nous avons incorporé dans le schéma de recherche de modèle. La robustesse de cet algorithme de localisation est améliorée au prix d’un temps additionnel de pré-traitement. La localisation temps-réel utilisant le modèle de forme est démontrée par une implantation sur l’échographe Ultrasonix RP. Toutes les méthodes proposées on été testée sur des données de simulation US, des données de fantômes (qui sont des tissus synthétiques imitant les tissus biologiques) ainsi que sur des données réelles de biopsie du sein. Les méthodes proposées ont montré leur capacité à produire des résultats similaires en terme de précision mais en limitant d’avantage le nombre d’échecs de détection par rapport aux méthodes de l’état de l’art basées sur les projections. / This thesis deals with automatic localization of thin surgical tools such as needles or electrodes in 3D ultrasound images. The precise and reliable localization is important for medical interventions such as needle biopsy or electrode insertion into tissue. The reader is introduced to basics of medical ultrasound (US) imaging. The state of the art localization methods are reviewed in the work. Many methods such as Hough transform (HT) or Parallel Integral Projection (PIP) are based on projections. As the existing PIP implementations are relatively slow, we suggest an acceleration by using a multiresolution approach. We propose to use model fitting approach which uses randomized sample consensus (RANSAC) and local optimization. It is a fast method suitable for real-time use and it is robust with respect to the presence of other high-intensity structures in the background. We propose two new shape and appearance models of tool in 3D US images. Tool localization can be improved by exploiting its tubularity. We propose a tool model which uses line filtering and we incorporated it into the model fitting scheme. The robustness of such localization algorithm is improved at the expense of additional time for pre-processing. The real-time localization using the shape model is demonstrated by implementation on the 3D US scanner Ultrasonix RP. All proposed methods were tested on simulated data, phantom US data (a replacement for a tissue) and real tissue US data of breast with biopsy needle. The proposed methods had comparable accuracy and the lower number of failures than the state of the art projection based methods.
163

Magnetic resonance imaging of resting cerebral oxygen metabolism : applications in Alzheimer’s disease

Lajoie, Isabelle 02 1900 (has links)
The BOLD contrast employed in functional MRI studies is an ambiguous signal composed of changes in blood flow, blood volume and oxidative metabolism. In situations where the vasculature and metabolism may have been affected, such as in aging and in certain diseases, the dissociation of the more physiologically-specific components from the BOLD signal becomes crucial. The latest generation of calibrated functional MRI methods allows the estimation of both resting blood flow and absolute oxygen metabolism. The work presented here is based on one such proof-of-concept approach, dubbed QUO2, whereby taking into account, within a generalized model, both arbitrary changes in blood flow and blood O2 content during a combination of hypercapnia and hyperoxia breathing manipulations, yields voxel-wise estimates of resting oxygen extraction fraction and oxidative metabolism. In the first part of this thesis, the QUO2 acquisition protocol and data analysis were revisited in order to enhance the temporal stability of individual blood flow and BOLD responses, consequently improving reliability of the model-derived estimates. Thereafter, an assessment of the within and between-subject variability of the optimized QUO2 measurements was performed on a group of healthy volunteers. In parallel, an analysis was performed of the sensitivity of the model to different sources of random and systematic errors, respectively due to errors in measurements and choice of assumed parameters values. Moreover, the various impacts of the oxygen concentration administered during the hyperoxia manipulation were evaluated through a simulation and experimentally, indicating that a mild hyperoxia was beneficial. Finally, the influence of Alzheimer’s disease in vascular and metabolic changes was explored for the first time by applying the QUO2 approach in a cohort of probable Alzheimer’s disease patients and age-matched control group. Voxel-wise and region-wise differences in resting blood flow, oxygen extraction fraction, oxidative metabolism, transverse relaxation rate constant R2* and R2* changes during hypercapnia were identified. A series of limitations along with recommended solutions was given with regards to the delayed transit time, the susceptibility artifacts and the challenge of performing a hypercapnia manipulation in cohorts of elderly and Alzheimer’s patients. / Le contraste BOLD employé dans les études d’imagerie par résonance magnétique fonctionnelle (IRMf) provient d’une combinaison ambigüe de changements du flux sanguin cérébral, du volume sanguin ainsi que du métabolisme oxydatif. Dans un contexte où les fonctions vasculaires ou métaboliques du cerveau ont pu être affectées, tel qu’avec l’âge ou certaines maladies, il est crucial d’effectuer une décomposition du signal BOLD en composantes physiologiquement plus spécifiques. La dernière génération de méthodes d’IRMf calibrée permet d’estimer à la fois le flux sanguin cérébral et le métabolisme oxydatif au repos. Le présent travail est basé sur une telle technique, appelée QUantitative O2 (QUO2), qui, via un model généralisé, prend en considération les changements du flux sanguin ainsi que ceux en concentrations sanguine d’O2 durant des périodes d’hypercapnie et d’hyperoxie, afin d’estimer, à chaque voxel, la fraction d’extraction d’oxygène et le métabolisme oxydatif au repos. Dans la première partie de cette thèse, le protocole d’acquisition ainsi que la stratégie d’analyse de l’approche QUO2 ont été revus afin d’améliorer la stabilité temporelle des réponses BOLD et du flux sanguin, conséquemment, afin d’accroître la fiabilité des paramètres estimés. Par la suite, une évaluation de la variabilité intra- et inter-sujet des différentes mesures QUO2 a été effectuée auprès d’un groupe de participants sains. En parallèle, une analyse de la sensibilité du model à différentes sources d’erreurs aléatoires (issues des mesures acquises) et systématiques (dues aux assomptions du model) a été réalisée. De plus, les impacts du niveau d’oxygène administré durant les périodes d’hyperoxie ont été évalués via une simulation puis expérimentalement, indiquant qu’une hyperoxie moyenne était bénéfique. Finalement, l’influence de la maladie d’Alzheimer sur les changements vasculaires et métaboliques a été explorée pour la première fois en appliquant le protocole QUO2 à une cohorte de patients Alzheimer et à un groupe témoin du même âge. Des différences en terme de flux sanguin, fraction d’oxygène extraite, métabolisme oxydatif, et taux de relaxation transverse R2* au repos comme en réponse à l’hypercapnie, ont été identifiées au niveau du voxel, ainsi qu’au niveau de régions cérébrales vulnérables à la maladie d’Alzheimer. Une liste de limitations accompagnées de recommandations a été dressée en ce qui a trait au temps de transit différé, aux artéfacts de susceptibilité magnétique, de même qu’au défi que représente l’hypercapnie chez les personnes âgées ou atteintes de la maladie d’Alzheimer.
164

Phénoménologie de modèles à symétrie droite-gauche dans le secteur des quarks / Phenomenology of Left-Right Models in the quark sector

Vale Silva, Luiz Henrique 20 September 2016 (has links)
Bien qu'ayant beaucoup de succès pour décrire la grande variété de phénomènes de la physique des particules, le Modèle Standard (MS) laisse certaines propriétés de la nature sans explication. Ici, nous allons mettre l'accent sur le traitement différent des chiralités de type gauche et droite dans le cadre du MS. Une façon naturelle d'expliquer cela est de plonger le MS dans un modèle plus fondamental, capable de traiter les chiralités d'une manière symétrique. Cette classe de modèles, connue sous le nom de "modèles à symétrie droite-gauche" (LR models, en anglais), introduit une nouvelle interaction qui couple préférentiellement aux champs "droitiers". Puis, à une haute échelle d'énergie, la symétrie reliant droite et gauche est brisée spontanément donnant naissance au MS et aux phénomènes de violation de symétrie de parité. La manière spécifique par laquelle le mécanisme Brout-Englert-Higgs (BEH) se produit dans les modèles LR peut être sondée par des observables électrofaibles de précision, ce qui sert de premier test de l'extension du MS dans le secteur électrofaible. Comme conséquence du mécanisme BEH dans les modèles LR, de nouveaux bosons de jauge sont présents. Ce sont W’ et Z’, censés être beaucoup plus lourds que les bosons de jauge W et Z afin d'expliquer pourquoi ils n'ont jamais été vus jusqu'à présent. Ces nouvelles particules sont accompagnées d'une riche phénoménologie, comme de nouvelles sources de violation de CP au-delà de celle du MS. En outre, un nouveau secteur scalaire neutre introduit des courants qui changent la saveur (FCNC, en anglais) au niveau des arbres, un processus fortement restreint dans le MS, où il arrive seulement à l'ordre des boucles. L'existence de FCNCs fournit des contraintes extrêmement puissantes sur les modèles LR, et mérite donc une attention spéciale, en particulier lors du calcul des corrections venant de la QCD. Nous calculons donc les corrections au Next-to-Leading Order des effets à de courtes distances venant de la QCD aux contributions du modèle LR aux observables liées au mélange de mésons neutres et sensibles donc aux FCNC.Ensuite, nous considérons l'étude phénoménologique des modèles LR afin de tester leur viabilité et leur structure. Plus particulièrement, nous considérons le cas où des doublets scalaires sont responsables de la brisure du groupe de jauge des modèles LR. A cet effet, nous menons une étude combinée des observables de précision électrofaible, des bornes directes sur la masse des nouveaux bosons de jauge et des observables qui dérivent de l'oscillation des mésons neutres, dans le cas plus simple où la matrice de mixing dans le secteur droit est égal à la matrice CKM. Ces observables sont combinées dans le cadre du paquet CKMfitter d'analyse statistique. La combinaison de différentes classes d'observables doit prendre en compte la particularité des incertitudes théoriques, qui ne sont pas de nature statistique comme d'autres sources d'incertitude. A ce propos, nous considérons aussi la comparaison de différentes modèles d'incertitude théorique, afin de trouver des méthodes bien adaptées à la situation actuelle de notre connaissance des incertitudes théoriques impliquées dans un fit global en physique de la saveur. / Though very successful in explaining a wide variety of particle physics phenomena, the Standard Model (SM) leaves unexplained some properties of nature. Here we focus on the different behaviours of left- and right-handed chiralities, or in other words the violation of parity symmetry. A possible and somewhat natural avenue to explain this feature is to embed the SM into a more symmetric framework, which treats the chiralities on equal footing. This class of models, the Left-Right (LR) Models, introduces new gauge interactions that couple preferentially to right-handed fields. Then, at an energy scale high enough, LR symmetry is spontaneously broken through the Brout-Englert-Higgs (BEH) mechanism, thus giving origin to the SM and to parity violating phenomena. The specific way in which the BEH mechanism operates in LR Models can be probed by EW Precision Observables, consisting of quantities that have been very accurately measured, serving as a first test of consistency for extensions of the SM in the EW sector. We revisit a simple realization of LR Models containing doublet scalars, and consider the phenomenological study of this doublet scenario in order to test the viability and structure of the LR Models. In particular, there is a rich phenomenology associated to the new gauge bosons W’ et Z’ introduced by LR Models, such as new sources of CP violation beyond the one of the SM. Moreover, the extended neutral scalar sector introduces Flavour Changing Neutral Couplings (FCNC) at tree level, which are strongly suppressed in the SM where they arrive first at one loop. FCNCs typically lead to extremely powerful constraints since they contribute to meson-mixing processes, and therefore deserve close attention. For this reason, we consider the calculation of short-distance QCD effects correcting the LR Model contributions to meson-mixing observables up to the Next-to-Leading Order (NLO), a precision required to set solid lower bounds on the LR Model scales. Finally, we combine in a global fit electroweak precision observables, direct searches for the new gauge bosons and meson oscillation observables in the simple case where the right-handed analogous of the CKM mixing-matrix is equal to the CKM matrix itself (a scenario called CKMfitter symmetry). The full set of the observables is combined by using the CKMfitter statistical framework, based on a frequentist analysis and a particular scheme for modeling theoretical uncertainties. We also discuss other possible modelings of theoretical uncertainties in a prospective study for future global flavour fits made by the CKMfitter Collaboration.
165

Développement d’un couplage de chromatographie en phase supercritique et spectrométrie de masse pour l’analyse de substances naturelles / Development of supercritical fluid chromatography coupled to mass spectrometry for natural compounds analysis

Méjean, Marie 17 October 2014 (has links)
L’objectif de ce projet doctoral a été de coupler la chromatographie en phase supercritique (SFC) avec un spectromètre de masse haute résolution pour l’analyse de substances naturelles apolaires. La SFC est une technique dite « verte » contrairement à la chromatographie liquide en phase normale (NPLC), très consommatrice de solvants organiques toxiques pour l’environnement, puisque la phase mobile est principalement constituée de CO2. Le CO2 ayant une faible viscosité, cela implique une diffusivité, des débits élevés et des temps d’analyse courts. Notre attention a été focalisée sur des molécules apolaires : les lipides. Le but était de mettre au point des dosages dans des matrices alimentaires et biologiques et de débuter une approche lipidomique d’étude de la maladie de Parkinson. La première partie a été dédiée au développement du système SFC avec une détection UV, prêté par le constructeur Agilent Technologies. La première étude s’est portée sur 6 composés de la famille des vitamines A. Une phase d’optimisation a été réalisée afin d’obtenir une séparation satisfaisante des composés, en testant différents paramètres chromatographiques comme le type de phase stationnaire ou encore la composition de la phase mobile, afin d’obtenir une résolution optimale. Ensuite, des études de linéarité et de répétabilité ont été réalisées et des limites de détection et de quantification ont été déterminées afin d’obtenir une méthode fiable et robuste. Une deuxième partie a concerné la mise en place du couplage entre la SFC et un spectromètre de masse de type quadripôle-temps de vol (Q-TOF), afin d’améliorer la spécificité et la sensibilité des analyses. Différentes sources d’ionisation ont été utilisées : ESI, APCI et APPI. Chacune des sources présente des modes d’ionisation différents, qui permettent de pouvoir balayer une large gamme de polarité des analytes. Nous avons choisi 8 dérivés de la vitamine E, composés apolaires pour lesquels la SFC paraît être la technique d’analyse idéale. La séparation de ces composés a été optimisée de façon à obtenir une bonne résolution chromatographique et un temps d’analyse minimal. L’ionisation des composés est réalisée avec les 3 sources disponibles en faisant varier les paramètres de sources ou encore le solvant « make-up », de façon à obtenir une sensibilité optimale. La source APPI a été finalement choisie après une étude sur les performances de la méthode. Cette source présente une bonne répétabilité, linéarité et des limites de détection de l’ordre de celles retrouvées dans la littérature par HPLC-MS. Nous avons ensuite réalisé la quantification des ces composés dans 2 types de matrices alimentaire et biologique : l’huile de soja et le plasma de rat. Une troisième partie a été débutée sur le profilage de lipides à polarités variées par SFC-MS. Cette technique se révèle idéale de par la faible polarité de ces composés et leur absence d’absorbance dans le domaine UV. En effet, l’intégrité des lipides peut être altérée suite aux dommages causés par les radicaux libres, qui sont potentiellement impliqués dans de nombreuses maladies neurodégénératives. Il parait primordial de développer des outils analytiques présentant une haute sensibilité et résolution et la possibilité d’accéder aux informations structurales. La source d’ionisation ESI nous a permis de détecter 12 lipides sur les 20 sous-classes analysées en mode positif et 8 lipides en mode négatif. Une application a été réalisée sur un échantillon de plasma humain. Il serait intéressant à l’avenir d’effectuer cette étude en utilisant la source APPI, source propice à l’analyse structurale de lipides et présentant une bonne sensibilité et répétabilité. Ce couplage SFC-MS, présentant une bonne sensibilité et répétabilité, sera par la suite étendu à l’analyse de lipides dans diverses matrices biologiques et pourra à l’avenir être appliqué à l’étude de nouveaux biomarqueurs et au screening rapide d’un grand nombre d’échantillons / The aim of this PhD project was to couple supercritical fluid chromatography (SFC) with a high resolution mass spectrometer for apolar natural compounds analysis. Because mobile phase is principally constituted of CO2, SFC is called “green technic” contrary to normal phase liquid chromatography (NPLC), which uses lot of organic solvents toxic for environment. The CO2 presents a low viscosity, in this way high diffusivity and flow rate, and lower analysis times are obtained. Our work was focused on apolar molecules: the lipids. The aim was to quantify molecules in alimentary and biological matrices and to a lipidomic approach to study Parkinson disease. The first part was to develop the system SFC with a UV detection on a system on loan by Agilent Technologies. This first study was carried out on 6 vitamin A compounds. An optimization of chromatographic parameters has been realized in order to obtain a good separation of the compounds. Then, linearity, repeatability, detection and quantification limits have been determined in order to have a reliable and robust method. A second part concerned the coupling of SFC and a quadrupole time-of-flight mass spectrometer (Q-TOF), in order to improve specificity and sensitivity of analysis. Different ionization sources have been tested: ESI, APCI and APPI. Each ion source presents different ionization mode, which permits to analyze a wide range of polarities of compounds. We have chosen 8 vitamin E derivatives, which are apolar compounds for which SFC seems to be well suited. Separation compounds have been optimized in order to have a good chromatographic resolution and a short analysis time. This compounds ionization is realized with the 3 sources, varying ionization parameters and make-up solvent, to have an optimal sensitivity. The APPI source has been chosen after a performance evaluation method. This source presents a good repeatability, linearity and detection limit in the same order of magnitude than those found in the literature by HPLC-MS. Then we have quantified these compounds in alimentary and biological matrices: a soya oil and plasma rat. A third study has been started on lipid profiling with various polarities by SFC-MS. This technic is well suited because of the low polarity of this molecules and their lack of absorbance in the UV range. The integrity of lipids can be altered with damages caused by free radicals, and are potentially involved in neurodegenerative diseases. It is essential to develop analytical systems with a high sensitivity and resolution and the possibility to access to structural information. The ESI source permits to detect 12 lipids on the 20 sub-classes analyzed in positive ion mode and 8 lipids in negative mode. An application has been realized on human plasma. In the future, it will be interesting to analyze these lipids with the APPI source, which is good choice for structural analysis of lipids, with good sensitivity and repeatability. Studies with this SFC-MS system, presenting good sensitivity and repeatability, will be extended to lipid analysis in biological matrices and could be applied to new biomarkers study and for fast screening of a large number of samples
166

Prédiction du risque de DMLA : identification de nouveaux biomarqueurs et modélisation du risque / AMD risk prediction : identification of new biomarkers and risk modeling

Ajana, Soufiane 04 November 2019 (has links)
La dégénérescence maculaire liée à l’âge (DMLA) est la première cause de cécité dans les pays industrialisés. C’est une maladie complexe et multifactorielle ayant des conséquences majeures sur la qualité de vie des personnes atteintes. De nombreux facteurs de risque, génétiques et non génétiques, jouent un rôle important dans la pathogénèse des stades avancés de la DMLA. Les modèles de prédiction développés à ce jour reposent sur un nombre limité de ces facteurs, et sont encore peu utilisés dans la pratique clinique.Ce travail de thèse avait pour premier objectif d’identifier de nouveaux biomarqueurs circulants du risque de DMLA. Ainsi, à partir d’une étude post-mortem basée sur une approche de lipidomique, nous avons identifié les composés lipidiques sanguins les plus prédictifs des concentrations rétiniennes en acides gras polyinsaturés omégas 3 (AGPI w-3). Nous avons développé un modèle de prédiction basé sur 7 espèces de lipides des esters de cholestérol. Ce modèle, obtenu en combinant pénalisation et réduction de la dimension, a ensuite été validé dans des études cas-témoins de DMLA et dans un essai clinique randomisé de supplémentation en AGPI w-3. Ces biomarqueurs pourraient être utiles pour l’identification des personnes à haut risque de DMLA, qui pourraient ainsi bénéficier d’une supplémentation en AGPI w-3.Le deuxième objectif de cette thèse était de développer un modèle de prédiction du risque de progression vers une DMLA avancée à partir de facteurs de risque génétiques, phénotypiques et environnementaux. Une originalité de notre travail a été d’utiliser une méthode de régression pénalisée – un algorithme d’apprentissage automatique – dans un cadre de survie afin de tenir compte de la multicollinéarité entre les facteurs de risque. Nous avons également pris en compte la censure par intervalle et le risque compétitif du décès via un modèle à 3 états sain-malade-mort. Nous avons ensuite validé ce modèle sur une étude indépendante en population générale.Il serait intéressant de valider ce modèle de prédiction dans d’autres études indépendantes en y incluant les biomarqueurs circulants identifiés à partir de l’étude de lipidomique effectuée dans le cadre de cette thèse. Le but final serait d’intégrer cet outil prédictif dans la pratique clinique afin de rendre la médecine de précision une réalité pour les patients atteints de DMLA dans le futur proche. / Age-related macular degeneration (AMD) is the leading cause of blindness in industrialized countries. AMD is a complex and multifactorial disease with major consequences on the quality of life. Numerous genetic and non-genetic risk factors play an important role in the pathogenesis of the advanced stages of AMD. Existing prediction models rely on a restricted set of risk factors and are still not widely used in the clinical routine.The first objective of this work was to identify new circulating biomarkers of AMD’s risk using a lipidomics approach. Based on a post-mortem study, we identified the most predictive circulating lipids of retinal content in omega-3 polyunsaturated fatty acids (w-3 PUFAs). We combined penalization and dimension reduction to establish a prediction model based on plasma concentration of 7 cholesteryl ester species. We further validated this model on case-control and interventional studies. These biomarkers could help identify individuals at high risk of AMD who could be supplemented with w-3 PUFAs.The second objective of this thesis was to develop a prediction model for advanced AMD. This model incorporated a wide set of phenotypic, genotypic and lifestyle risk factors. An originality of our work was to use a penalized regression method – a machine learning algorithm – in a survival framework to handle multicollinearities among the risk factors. We also accounted for interval censoring and the competing risk of death by using an illness-death model. Our model was then validated on an independent population-based cohort.It would be interesting to integrate the circulating biomarkers identified in the lipidomics study to our prediction model and to further validate it on other external cohorts. This prediction model can be used for patient selection in clinical trials to increase their efficiency and paves the way towards making precision medicine for AMD patients a reality in the near future.
167

Dissection génomique, transcriptomique et chimique des leucémies myéloïdes aiguës

Lavallée, Vincent-Philippe 08 1900 (has links)
Les leucémies myéloïdes aiguës (LMA) consistent en un groupe de cancers agressifs causés par une accumulation de mutations génétiques et épigénétiques survenant dans les cellules souches ou progénitrices de la moelle osseuse. Il s’agit d’un groupe de maladies très hétérogène, caractérisé par un grand nombre de combinaisons d’altérations qui perturbent à la fois les voies de signalisation qui y sont exprimées, leur sensibilité aux différents traitements et le pronostic des patients. Le déploiement des technologies de séquençage de nouvelle génération au courant de la dernière décennie a permis l’exploration à une échelle sans précédent du paysage mutationnel et transcriptomique de différents cancers, incluant les LMA. Dans le cadre de nos travaux, nous avons voulu tester l'hypothèse selon laquelle les LMA se déclinent en plusieurs sous-groupes génétiques caractérisés chacun par des mutations distinctes et une expression génique dérégulée, ainsi qu’une réponse différentielle à des molécules qui pourraient représenter de nouvelles stratégies thérapeutiques. Nous avons testé cette hypothèse au sein de la cohorte Leucegene, qui comprend un grand nombre de LMA primaires analysées par le séquençage du transcriptome, et nous avons analysé les différences entre les différents sous-groupes en les analysant un à la fois. Cette étude des différents sous-groupes nous a permis de disséquer le profil génomique, transcriptomique et les sensibilités aux petites molécules de sept sous-groupes génétiques, représentant environ la moitié des cas de LMA de l’adulte. Notre approche a permis de découvrir plusieurs nouvelles mutations spécifiques aux différents sous-groupes, dont certaines ont été validées dans des cohortes indépendantes. Nous avons également confirmé que les gènes différentiellement exprimés dans les sous-groupes sont plus informatifs que les signatures d'expression non supervisées pour identifier les biomarqueurs de la maladie. Nous avons ainsi identifié dans la majorité des sous-groupes des gènes représentant un biomarqueur d'intérêt, ayant une pertinence fonctionnelle ou pronostique. Ces données ont également mené à des criblages chimiques ciblés qui ont identifié de nouvelles vulnérabilités dépendant du contexte génétique. Au-delà de ces observations, nos travaux pourraient avoir une portée translationnelle tandis que le séquençage de nouvelle génération est de plus en plus utilisé en clinique. La combinaison avec d’autres modalités de séquençage et l’incorporation de technologies émergentes aideront à poursuivre la dissection génomique, transcriptomique et chimique de la LMA et l’approche utilisée pourra même éventuellement s’appliquer à d’autres types de cancers. / Acute myeloid leukemias (AML) are a group of cancers caused by an accumulation of genetic and epigenetic mutations occurring in the stem or progenitor cells of the bone marrow. They represent a very heterogeneous group of diseases, characterized by a large number of combinations of alterations which disrupt to varying degrees key networks in these cells, their sensitivity to treatments and the prognosis of the patients. The deployment of next-generation sequencing technologies over the past decade has enabled exploration on an unprecedented scale of the mutational and transcriptomic landscape of various cancers, including AML. As part of our work, we tested the hypothesis according to which AMLs comprise several genetic subgroups, each characterized by distinct mutations and deregulated gene expression profiles, as well as a differential response to molecules that could represent novel therapies. We tested this hypothesis in the Leucegene cohort, which includes a large number of primary AMLs analyzed by transcriptome sequencing, which we explored one subgroup after the other, dissecting the genomic, transcriptomic or small molecule sensitivities profile of seven AML subgroups representing approximately half of adult AML cases. Our approach has allowed us to discover several new mutations specific to different subgroups, some of which have been validated in independent cohorts. We also confirmed that genes differentially expressed in subgroups are more informative than unsupervised expression signatures, and we identified genes representing potential biomarkers, or having a functional or prognostic relevance in the majority of subgroups. Generated data also led to targeted chemical screens performed on primary AML cells, which identified new context-dependent vulnerabilities. Beyond these observations, our work could have a translational scope while next-generation sequencing is paving its way in the clinic. The combination with other Omics and the incorporation of emerging technologies will help to further the multi-dimensional dissection of these groups and additional ones, as the presented approach could be applied to additional disease subsets and cancer types.
168

Traitement antibiotique sélectif au tarissement des vaches laitières

Kabera, Fidèle 07 1900 (has links)
Le traitement sélectif (TS) des vaches laitières au tarissement (où seuls les quartiers ou les vaches infectées sont traités avec des antimicrobiens) constitue une alternative potentielle au traitement universel (TU, où tous les quartiers de toutes les vaches reçoivent des antimicrobiens, quel que soit leur statut infectieux), pour une utilisation plus judicieuse des antimicrobiens. L'objectif de cette thèse était d’apporter plus de lumière sur les décisions de traitement antimicrobien ciblant les quartiers ou vaches infecté(e)s au tarissement. Différents devis et méthodologies ont été utilisés pour répondre à cet objectif. Un essai contrôlé randomisé a été conçu et 569 vaches (2,251 quartiers) provenant de 9 troupeaux laitiers du Québec avec un comptage de cellules somatiques (CCS) du réservoir <250 000 cellules/mL ont été systématiquement enrôlées et réparties au hasard dans 4 groupes : 1) traitement antimicrobien seul pour tous les quartiers ; 2) traitement antimicrobien combiné avec un scellant interne à trayon pour tous les quartiers ; 3) traitement antimicrobien sélectif seul basé sur les résultats de la culture bactériologique du lait sur Petrifilm® ; et 4) traitement antimicrobien sélectif combiné avec un scellant interne à trayon basé sur les résultats de la culture du lait sur Petrifilm®. Dans les groupes de TS, les quartiers non infectés n'ont reçu qu'un scellant interne à trayon. Aucune différence significative n'a été détectée entre le TS par quartier et le TU des vaches laitières au tarissement, en termes d'élimination des infections intramammaires (IIM) et de prévention de nouvelles IIM pendant la période de tarissement, de risque d'un premier cas de mammite clinique (MC), de production laitière moyenne quotidienne et de CCS au cours des 120 premiers jours de la lactation suivante. Un TS reposant sur les résultats d'une culture de lait de quartier sur Petrifilm® au tarissement a permis de réduire l'utilisation d'antimicrobiens de 52% (IC à 95%: 39 – 64) par rapport à un TU. En plus de cet essai contrôlé randomisé, la culture du lait par quartier à l'aide de Petrifilm® a été comparée à l'historique du CCS par une estimation bayésienne de leur précision pour identifier les quartiers ou les vaches qui devraient être traités avec des antimicrobiens dans des protocoles de TS au tarissement. Compte tenu de la disponibilité des données de CCS, de la facilité d'utilisation du dernier test de CCS pré-tarissement et de la valeur prédictive négative élevée qui pourrait être obtenue, les producteurs pourraient envisager d'utiliser uniquement le dernier test de CCS pré-tarissement comme outil potentiel pour identifier les vaches qui devraient être traitées avec des antimicrobiens au tarissement. Le dernier test de CCS pré-tarissement peut être utilisé seul ou en combinaison avec la culture de lait par quartier sur Petrifilm® sur les vaches avec un CCS élevé pour identifier encore plus spécifiquement les quartiers qui doivent être traités. L'ajout d'une culture de lait par quartier à la ferme sur Petrifilm® pour les vaches identifiées comme infectées à l'aide des données du CCS améliorerait la précision du test (principalement la valeur prédictive positive) et réduirait davantage l'utilisation d'antimicrobiens. Également, une revue systématique et une série de méta-analyses ont été menées pour étudier l'efficacité du TS par rapport au TU, afin de guider les décideurs et les utilisateurs qui s'engagent dans une utilisation plus efficace et judicieuse des antimicrobiens au moment du tarissement. Treize articles représentant 12 essais contrôlés, randomisés ou non, étaient disponibles pour les analyses. Le TS a permis de réduire de 66% (IC à 95%: 49 – 80) l'utilisation d'antimicrobiens au moment du tarissement. Les résultats appuient fortement l'idée que le TS réduirait l'utilisation d'antimicrobiens au moment du tarissement, sans effet négatif sur la santé du pis ou la production laitière au cours des premiers mois de la lactation subséquente, si, et seulement si, les scellant internes à trayons sont utilisés pour les quartiers non traités avec des antimicrobiens. Enfin, le suivi de l'utilisation d'un scellant interne à trayon a été effectué pour déterminer la proportion de quartiers qui ont conservé le bouchon de scellant jusqu’à la première traite après le vêlage et la persistance de résidus de scellant dans le lait après le vêlage. Un bouchon de scellant était présent jusqu'à la première traite pour 83% des quartiers, et nous pourrions émettre l'hypothèse que la perte du bouchon s'est produite près du vêlage secondaire à la tétée ou pour une autre raison (ex., la pression hydrostatique du lait), étant donné que les associations observées entre la présence ou non d'un bouchon de scellant observable et les chances de nouvelles IIM étaient relativement faibles. Les résidus de scellant pouvaient être observés dans le lait jusqu'à 12 jours après le vêlage, quoique 75% des quartiers n’excrétaient plus de scellant au bout de 5 jours en lait. / Selective dry cow therapy (SDCT, in which only infected quarters or cows are treated with antimicrobials) represents an alternative to blanket dry cow therapy (BDCT, in which all quarters of all cows at dry off are treated with antimicrobials, regardless of their infection status), for a more judicious use of antimicrobials. The objective of this thesis was to shed more light on targeted antimicrobial treatment decisions of infected quarters or cows at dry-off. Different study designs and methodologies were used to meet this objective. A randomized controlled trial was designed and a total of 569 cows (2,251 quarters) from 9 dairy herds in Québec with bulk tank somatic cell count (SCC) <250,000 cells/mL were systematically enrolled and randomly allocated to 4 groups: 1) antimicrobial treatment alone of all quarters; 2) antimicrobial treatment combined with an internal teat sealant (ITS) of all quarters; 3) selective antimicrobial treatment alone based on milk bacteriological culture results on Petrifilm®; and 4) selective antimicrobial treatment combined with an ITS based on milk culture results on Petrifilm®. In the selective antimicrobial treatment groups, uninfected quarters received only an ITS. No significant differences were detected between quarter-based selective and blanket dry cow therapies, in terms of elimination of intramammary infections (IMI) and prevention of new IMI during the dry period, risk of a first case of clinical mastitis (CM), daily average milk yield and somatic cell count in the first 120 days of the subsequent lactation. A selective antimicrobial treatment relying on results of quarter milk culture using Petrifilm® at dry off enabled a reduction in antimicrobial use of 52% (95% CI: 39 – 64) as compared to blanket dry cow treatment. In addition to this randomized controlled trial, quarter milk culture using Petrifilm® was compared with SCC history through a Bayesian estimation of diagnostic accuracy to identify quarters or cows that should be treated with antimicrobials in selective treatment protocols at dry off. Considering the availability of SCC data, the easiness of using just the last Dairy Herd Improvement (DHI) test before dry off, and the high negative predictive value that could be achieved, producers may consider using just the last DHI test before dry off results as a potential tool to identify cows that should be treated with antimicrobials at dry off. The last SCC test before 7 dry off may be used alone or in combination with quarter-level on-farm Petrifilm® milk culture on high SCC cows to more specifically identify quarters that need to be treated. Adding quarter-level milk culture using Petrifilm® to cows identified as unhealthy using cow-level SCC data could improve the test accuracy (mainly the positive predictive value) and further reduced the use of antimicrobials. Also, a systematic review and a series of meta-analyses were conducted to investigate the efficacy of SDCT compared with BDCT, to guide decision-makers and users to engage in a more effective and judicious use of antimicrobials at dry-off. Thirteen articles representing 12 controlled trials, randomized or not, were available for analyses. SDCT reduced the use of antimicrobials at dry off by 66% (95% CI: 49 – 80). Evidences strongly support that SDCT would reduce the use of antimicrobials at dry off, without any detrimental effect on udder health or milk production during the first months of the subsequent lactation, if, and only if, ITS are used for healthy quarters untreated with antimicrobials. Finally, a follow up on the use of ITS was performed to determine the proportion of quarters that had retained the sealant plug until the first milking after calving and the persistence of ITS residues in milk after calving. A sealant plug was present at first milking after calving for 83% of the quarters, and we could hypothesize that the loss of the plug occurred closely around calving due to suckling or for another reason (e.g., milk hydrostatic pressure), since the observed associations between the presence or not of an observable sealant plug and the odds of new IMI were relatively small. The sealant residues could be observed in milk up to 12 days in milk, although 75% of the quarters had expelled the last ITS residues by 5 days in milk.
169

Les écoles d' horlogerie de Besançon : une contribution décisive au développement industriel local et régional (1793-1974) / The Besancon watchmaking schools

Briselance, Claude 28 October 2015 (has links)
L’Histoire des écoles d’horlogerie de Besançon est inhérente à la naissance et à la continuité d’une industrie spécifique très localisée sur un territoire. Avec elles nous partons de l’ère « proto-industrielle » qui plonge ses racines dans les idéaux révolutionnaires de 1793 pour aboutir aux bouleversements technologiques de l’électronique et du « quartz » des années 1970… S’inscrivant sur la longue durée, trois « écoles » vont se succéder. Pour répondre aux attentes d’une industrie horlogère qui doit constamment faire face aux évolutions techniques, chacune à sa manière, va innover pour constituer un « corpus » original de formation qui n’est pas sans bousculer les rites et usages du temps. Si les deux premières « écoles » eurent une durée de vie limitée, la dernière entité, née en 1861 de la volonté municipale, va pendant plus d’un siècle, accompagner toute une ville (et sa région) dans sa réussite industrielle. Dès sa création, et au fur et à mesure des adaptations qu’elle a su mettre en place, par la qualité et la spécificité des formations dispensées, elle va irriguer de ses élèves toute une industrie toujours à l’affût de personnels qualifiés. Au plan national elle va diffuser le nom de Besançon comme « capitale française de l’horlogerie » en formant nombre d’horlogers-rhabilleurs tenant boutiques et autres ateliers de réparation par tout le territoire… Elle va servir de référence pour implanter dans la Cité des laboratoires de recherche et d’enseignement supérieur : un Observatoire chronométrique, une École d’ingénieurs, un Centre d’études horlogères et de développement industriel (Cétéhor)… Elle va contribuer à la diversification industrielle de la ville dans des domaines connexes à l’horlogerie, notamment dans le découpage, la micromécanique, l’appareillage et les microtechniques… Nationalisée en 1891, elle fait dès lors partie de la petite élite des Écoles Nationales Professionnelles (par assimilation), qui vont marquer le développement industriel du Pays. En 1933, quand elle intègre ses nouveaux locaux, par le nombre et l’originalité de ses filières (de l’ouvrier qualifié à l’ingénieur), par sa dotation en matériels modernes, elle est signalée comme étant le « premier établissement de l’enseignement technique » en France. Le cheminement de cette dernière école fait aussi ressortir une histoire « humaine », « prosopographique », qui met en exergue les nombreux anciens élèves qui se sont lancés avec grande réussite dans la création d’entreprises. Restés fidèles à leur école, ils ont contribué au renom et au développement de la richesse économique de la cité et de sa région… Avec ces écoles d’horlogerie, on aborde enfin l’histoire de l’Enseignement Technique en France. Pour répondre à la demande d’une industrie horlogère en pleine croissance qui déplorait les carences de l’apprentissage en atelier, elles ont été pionnières en ouvrant la voie de « la scolarisation » de la formation professionnelle. Par leurs innovations pédagogiques, et soutenues par les Anciens Élèves, elles ont su établir un lien « École-Entreprise » des plus fructueux qui marque encore la mémoire collective des Bisontins…En 1974 elle perd toute référence à l’horlogerie pour devenir le Lycée Jules Haag. Le temps de l’histoire est désormais advenu pour tenter de comprendre ce qui a fait la force et la réussite de ces « Écoles d’horlogerie » dans leur participation active, sur la durée, à la prospérité économique et industrielle d’une ville et de sa région… / The history of the watchmaking schools in Besançon is part of the birth and continuous development of a specific industry in a very limited sector of the French territory. When studying those schools we start at the « protoindustrial » time with its roots in the revolutionary ideals of 1793 and end up with the technological upheavals of electronics and the « quartz » technology in the 1970s. Three « schools » followed one another over the long term. Each school aimed at satisfying the demands of a watchmakng industry confronted to rapidly changing technical evolutions ; so it innovated in its own way by creating an original « corpus » in the students training and most of the time upset the practices and common ideas of the time. If the first two « schools » had a limited lifespan, the last one created in 1861 by the town council itself has been supporting the industrial growth of the city and the surrounding region. Since its foundation it has stuck to the industrial reality by placing the emphasis on high standards and opening new specific branches whenever necessary, thus answering the needs of firms always looking for highly qualified staff. For a large number of French people Besançon became the « capital town of the watchmaking industry » thanks to the shops or repair workshops kept by Besançon-trained former students all over France… It served as a background to set up research and university laboratories in the city : Observatoire Chronométrique, Ecole d’Ingénieurs, Centre d’Etudes Horlogères et de Développement Industriel (Cétéhor)… It contributed to the industrial diversification of the town in fields related to watchmaking such as mechanical cutting, micromechanics, equipment and microtechniques. It was nationalized in 1891 and then belonged to the very small elite goup of the Professional National Schools that influenced the future industrial development of the country. In 1933 it moved into sparkling-new premises and was acknowledged as the flagship of technical education in France : it offered a large number of innovating courses ranging from the skilled worker to the engineer and was granted the latest equipments in every field. The path of this new school also enhanced a « humane » and « prosopographical » history ; it highlighted the part played by the numerous former students who created their own successful businesses. Being faithful to their old school they contributed to the renown and economic growth and prosperity of the city and its region… Beyond the local impact we must regard the history of the watchmaking schools as an important part of the history of Technical Education in France. To meet the needs of a soaring watchmaking industry they opened the way to the transfer of professional training from apprenticeship in workshops with its observed shortcomings to education in technical high schools. Their pedagogical innovations, the strong support of their former students created a vital school-business link that still lives on in the collective memory of the town inhabitants.In 1974 its name changed to Lycée Jules Haag thus losing any reference to watchmaking. Let us now try and understand the strong influence and success of those watchmaking schools, the active part they played in the economic industrial prosperity of a town and its surrounding region…
170

Numérisation 3D d'objets transparents par polarisation dans l'IR et par triangulation dans l'UV / 3D digitization of transparent objects by polalization techniques in IR & by triangulation in UV

Sanders, Rindra 03 November 2011 (has links)
Les travaux présentés dans ce mémoire portent sur l'étude, la conception et le développement de deux nouveaux prototypes de reconstruction tridimensionnelle, spécifique aux objets transparents. La numérisation 3D d'objets opaques est abondamment traitée dans la littérature et de nombreux systèmes sont d'ailleurs commercialisés. Cependant, lorsqu'il s'agit de la numérisation 3D d'objets transparents, les publications se font rares et aucun système de scanning n'existe sur le marché. La technique de numérisation de surfaces transparentes demeure compliquée et non maîtrisée à l'heure actuelle. L'opacification de la surface avant le scanning s'avère être la solution retenue dans le domaine du contrôle qualité. Néanmoins, cette alternative n'est pas optimale en raison du coût de traitements et du manque de précision éventuellement engendré. Afin de solutionner les problèmes de la numérisation d'objets transparents, nous avons développé deux approches dites non conventionnelles en étendant les méthodes existantes (dans le visible) aux longueurs d'onde dans lesquelles les sujets apparaissent opaques (IR et UV). Les deux méthodes de mesure sans contact retenues sont : - la reconstruction par polarisation dans l'IR, en vue de s'affranchir des problèmes d'inter-réflexions; - le scanning par laser UV, pour satisfaire les contraintes industrielles (précision, rapidité et coût) tout en résolvant de manière efficace le problème de réfraction. La première approche est fondée sur la réflexion spéculaire de l'objet dans l'IR tandis que la seconde exploite la propriété de l'objet à fluorescer sous l'irradiation UV. L'inexistence des lentilles télécentriques dans l'IR nous a conduits à adapter la reconstruction par polarisation dans l'IR à l'aide d'une lentille non télécentrique. Pour ce faire, une méthode d'approximation du modèle orthographique a été développée et une méthode de validation visant à améliorer la précision des résultats a été en outre intégrée dans le processus de reconstruction après l'étape d'estimation des paramètres de Stokes. Nos résultats sont très satisfaisants et attestent la faisabilité de la reconstruction par polarisation dans l'IR. Quatre configurations de système de scanning par triangulation ont été déployées afin d'exploiter la propriété de fluorescence des objets transparents irradiés sous un rayonnement UV. Des expérimentations visant à caractériser la fluorescence induite à la surface des objets considérés et à vérifier l'éligibilité de notre approche ont été menées. Les mesures spectroscopiques nous ont permis d'élaborer des critères de "tracking" (détection et localisation) des points fluorescents en présence des bruits inhérents à l'acquisition. Nous avons également mis au point des méthodes de validation des paramètres du modèle de reconstruction 3D estimés lors de la calibration, permettant ainsi d'optimiser la configuration du système de scanning. Les méthodes de "tracking" et de validation ont contribué considérablement à l'amélioration de la précision des résultats. Par ailleurs, la précision obtenue n'a jamais été atteinte au regard de ce que l'on trouve dans la littérature. / Two non-conventional methods for the 3D digitization of transparent objects via non-contact measurement are reported in this thesis. 3D digitization is a well acknowledged technique for opaque objects and various commercial solutions based on different measurement approaches are available in the market offering different types of resolution at different prices. Since these techniques require a diffused or lambertian surface, their application to transparent surfaces fails. Indeed, rays reflected by the transparent surface are perturbed by diverse inter-reflections induced by the refractive properties of the object. Therefore, in industrial applications like quality control, the transparent objects are powder coated followed by their digitization. However, this method is expensive and can also produce inaccuracies. Among the rare methods suggested in the literature, shape from polarization provides reliable results even though their accuracy had to be improved by coping with the inter-reflections. The two proposed solutions handle the extension of the existing methods to wavelengths beyond visible ranges: - shape from polarization in Infra Red (IR) range to deal with the above-mentioned inter-reflections; - scanning by Ultra Violet (UV) laser (based on triangulation scheme) to overcome the refraction problem that can be feasibly applied in industrial applications. The characteristic physical properties of transparent objects led us to explore the IR and UV ranges; since, transparent glass has strong absorption bands in the IR and UV ranges and therefore has opaque appearance. The first approach exploits the specular reflection of the considered object surface in IR and the second one exploits the fluorescence property of the object when irradiated with UV rays. Shape from polarization traditionally based on telecentric lenses had to be adapted with non-telecentric lenses to be used in the IR range. Thus, an approximation of the orthographic model is developed in this thesis while a validation method is implemented and integrated in the reconstruction process after Stokes parameters estimation, in order to improve the accuracy of the results. Some results of digitized objects are presented, which prove the feasibility of the shape from polarization method in the IR range to be used for transparent objects. A total of four configurations of the triangulation system are implemented in this thesis to exploit fluorescence produced by the UV laser scanning of the second approach. Experimental investigations aimed at characterizing the fluorescence are done. A specific fluorescence tracking method is carried out to deal with the inherent noise in the acquisitions. The uniqueness of the method relies on the criteria that are derived from the analysis of spectroscopic results. A validation method is made to optimize the configuration system while reducing the accuracy of reconstruction error. The results of some object digitization are presented with accuracies better than previously reported works.

Page generated in 0.0794 seconds