1271 |
Transport optimal et ondelettes : nouveaux algorithmes et applications à l'image / Optimal transportation and wavelets : new algorithms and application to imageHenry, Morgane 08 April 2016 (has links)
Le transport optimal trouve un nombre grandissant d’applications, dont celle qui nous intéresse dans ce travail, l'interpolation d’images. Malgré cet essor, la résolution numérique de ce transport soulève des difficultés et le développement d’algorithmes efficaces reste un problème d'actualité, en particulier pour des images de grande taille, comme on en trouve dans certains domaines (météorologie,...).Nous nous intéressons dans ce travail à la formulation de Benamou et Brenier, qui ont placé le problème dans un contexte de mécanique des milieux continus en ajoutant une dimension temporelle. Leur formulation consiste en la minimisation d’une fonctionnelle sur un espace des contraintes contenant une condition de divergence nulle, et les algorithmes existants utilisent une projection sur cet espace.A l'opposé, dans cette thèse, nous définissons et mettons en oeuvre des algorithmes travaillant directement dans cet espace.En effet, nous montrons que la fonctionnelle a de meilleures propriétés de convexité sur celui-ci.Pour travailler dans cet espace, nous considérons trois représentations des champs de vecteurs à divergence nulle. La première est une base d’ondelettes à divergence nulle. Cette formulation a été implémentée numériquement dans le cas des ondelettes périodiques à l'aide d'une descente de gradient, menant à un algorithme de convergence lente mais validant la faisabilité de la méthode. La deuxième approche consiste à représenter les vecteurs à divergence nulle par leur fonction de courant munie d'un relèvement des conditions au bord et la troisième à utiliser la décomposition de Helmholtz-Hodge.Nous montrons de plus que dans le cas unidimensionnel en espace, en utilisant l’une ou l'autre de ces deux dernières représentations, nous nous ramenons à la résolution d’une équation de type courbure minimale sur chaque ligne de niveau du potentiel, munie des conditions de Dirichlet appropriées.La minimisation de la fonctionnelle est alors assurée par un algorithme primal-dual pour problèmes convexes de Chambolle-Pock, qui peut aisément être adapté à nos différentes formulations et est facilement parallèlisable, menant à une implémentation performante et simple.En outre, nous démontrons les gains significatifs de nos algorithmes par rapport à l’état de l’art et leur application sur des images de taille réelle. / Optimal transport has an increasing number of applications, including image interpolation, which we study in this work. Yet, numerical resolution is still challenging, especially for real size images found in applications.We are interested in the Benamou and Brenier formulation, which rephrases the problem in the context of fluid mechanics by adding a time dimension.It is based on the minimization of a functional on a constraint space, containing a divergence free constraint and the existing algorithms require a projection onto the divergence-free constraint at each iteration.In this thesis, we propose to work directly in the space of constraints for the functional to minimize.Indeed, we prove that the functional we consider has better convexity properties on the set of constraints.To work in this space, we use three different divergence-free vector decompositions. The first in which we got interested is a divergence-free wavelet base. This formulation has been implemented numerically using periodic wavelets and a gradient descent, which lead to an algorithm with a slow convergence but validating the practicability of the method.First, we represented the divergence-free vector fields by their stream function, then we studied the Helmholtz-Hodge decompositions. We prove that both these representations lead to a new formulation of the problem, which in 1D + time, is equivalent to the resolution of a minimal surface equation on every level set of the potential, equipped with appropriate Dirichlet boundary conditions.We use a primal dual algorithm for convex problems developed by Chambolle and Pock, which can be easily adapted to our formulations and can be easily sped up on parallel architectures. Therefore our method will also provide a fast algorithm, simple to implement.Moreover, we show numerical experiments which demonstrate that our algorithms are faster than state of the art methods and efficient with real-sized images.
|
1272 |
Nouveaux paradigmes de capture d’images et traitements associés pour futurs SoC en nœuds CMOS nanométriques / New paradigms for capturing images and associated process for future SoC in CMOS nanometer nodesDupoiron, Camille 04 December 2017 (has links)
Le sujet de thèse a pour objectif de revisiter le paradigme d'acquisition d'images dans les circuits intégrés pour le rendre robuste et scalable en technologies nanométriques (telles que le 28nm FDSOI). Ceci, afin de répondre aux contraintes d’imagerie imposée par des applications de type internet des objets. Dans ce cas, un système sur puce (SoC) hétérogène conçut en technologie avancée permettrait de répondre aux contraintes de consommation d’énergie. L’utilisation des imageurs standard actuels n’est alors pas compatible avec cette exigence à cause de leur consommation excessive et leur non compatibilité avec les technologies FDSOI 28nm. De plus, les ressources importantes de calcul numérique disponibles dans ces types de SoC couplées avec de nouveaux modes de captures d'images permettraient d’atteindre des niveaux de consommation d’énergie extrêmement bas tout en offrant la possibilité d’implémenter des algorithmes de traitement d’image complexes. Après une étude bibliographique sur les différentes méthodes d’acquisition d’image ainsi qu’une étude bibliographique sur les imageurs en technologies dites avancées pour l’imagerie et pour des applications basse consommation, il a été montré qu’il était nécessaire de numériser au plus tôt l’information lumineuse reçue par le capteur. C’est pourquoi le sujet a été orienté vers une architecture de type événementielle. L’architecture d’un capteur d’image événementiel avec traitement intelligent associé a été développée, en prenant en considération les contraintes liées à la technologie. Afin de définir ces contraintes, un circuit de test de pixel en FDSOI 28nm a été réalisé permettant d’évaluer la réponse électro-optique. Les pixels ont chacun des types et des tailles de photodiodes différentes afin de valider le type et la taille les plus efficaces. Deux architectures événementielles ont été étudiées durant cette thèse afin de répondre aux contraintes d’une implémentation en technologies FDSOI 28nm : une architecture de type « Time-to-first-Spike » (TTFS) avec un système d’inhibition et une architecture dite « multi-bus » utilisant les possibilités d’interconnections denses offertes par la technologie. Ces deux architectures visent à réduire le flot de données sortant ainsi que la consommation d’énergie. Les traitements associés à l’acquisition ont été validés par des simulations MATLAB émulant l’acquisition événementielle et les prétraitements. Ce système de vision extrait donc une carte binaire correspondant aux contrastes locaux en utilisant un principe d’inhibition par bloc. Cette architecture de traitement est basée sur le pixel TTFS (et son principe d’inhibition) en adaptant son implémentation. La carte binaire est extraite de manière synchrone ce qui permet d’éviter l’ajout de matériel lié à une implémentation purement événementielle. Cette carte binaire peut servir dans des applications telles que de la détection de mouvement, ou de la classification telles que la méthode des histogrammes des gradients (HoG) le permet. La carte binaire extraite se rapproche des motifs binaires locaux (LBP) qui sont des outils fréquemment utilisés dans la détection et la reconnaissance de visage. Une partie de la thèse a également été consacrée à l’exploitation des possibilités qu’offre la technologie FDSOI 28nm. Notamment des architectures pixels utilisant une photodiode sous le transistor ont été étudiées. Il a également été développé dix matrices de 3 par 3 pixels en intégration 3D séquentielle utilisant la technologie CoolCube™ du LETI. / The goal of this thesis is to study new image acquisition paradigm in integrated vision circuits to enhance their robustness and scalability using nanometric technologies (such as the 28nm FDSOI) in order to satisfy the imaging constraints imposed by applications such as Internet of Things. In this case, a heterogeneous system-on-chip (SoC) designed in advanced technology would meet the energy consumption constraints. Using standard imagers is not compatible with this requirement because of their excessive power consumption and their architectures non-compatible with 28nm FDSOI technologies. In addition, in these SoC, significant available digital computational resources coupled with new image acquisition modes would allow ultra-low power consumption while providing the ability to implement complex image processing.After a bibliographic study on the state of the art on image acquisition methods and a study on imagers designed with advanced technologies and on low-power applications, it has been shown that it is necessary to quickly digitize light information received by the sensor (i.e. in the pixel). This is why the subject has been oriented towards an event-based vision sensor architecture.The architecture of an event-based image sensor with its associated smart processing has been developed, taking into account technology constraints. In order to define these constraints, a 28nm FDSOI pixel test circuit has been carried out to evaluate the electro-optical response. Each pixel has a different type and size of photodiodes in order to validate the most effective type and size.Two event-based architectures were studied during this thesis in order to fit with the constraints of an implementation in 28nm FDSOI technologies: a "Time-to-first-Spike" (TTFS) architecture with an inhibition system and an architecture called "multi-bus "using the dense interconnections possibilities offered by the technology. These two architectures aim to reduce the data throughput as well as energy consumption.The processing associated to the acquisition have been validated by MATLAB simulations emulating the event acquisition and pre-processing. This vision system therefore extracts a binary map corresponding to the local contrasts using block inhibition mechanism. This processing architecture is based on TTFS pixel (and its inhibition mechanism) with a dedicated pixel schematic. The binary map is extracted in a synchronous manner, thus avoiding hardware addition inherent to an AER (Adress Event Representation) implementation. This binary map can be used for applications such as motion detection, or classification such as histogram of gradient method (HoG). This extracted binary map approaches local binary patterns (LBP), which are frequently used tools in face detection and recognition.A part of this thesis has been dedicated also to the exploration of FDSOI 28nm capabilities in terms of pixel implementation. Notably, by studying pixels using a photodiode under the FDSOI transistor. It has also been developed ten 3 by 3 pixels matrices using 3D integration with LETI technology CoolCube™.
|
1273 |
Développement de matrices alimentaires permettant de protéger des substances actives lors des traitements thermiques / Development of food matrices to protect active substances during heat treatmentsNikolova, Yoana 11 July 2017 (has links)
Les produits déshydratés permettent d’optimiser la conservation et le transport des aliments. Les poudres alimentaires distribuées au consommateur affichent des garanties nutritionnelles en termes d’apports qualitatif et quantitatif. Cependant, l’apport nutritionnel du produit après reconstitution et cuisson, n’est pas garanti. Ce travail se concentre sur l’évaluation des pertes en vitamines dues aux procédés de transformation alimentaire en lien avec l’effet de la matrice alimentaire. Ces pertes mesurées après le traitement thermique ne sont pas négligeables, rendant l’encapsulation nécessaire pour répondre à l’objectif de la thèse de garantir une teneur en vitamines suffisante après reconstitution et traitement thermique du produit alimentaire déshydraté. Différentes matrices ont été testées à l’échelle laboratoire et industrielle. Parmi ces matrices, certaines comme les protéines laitières et l’amidon se sont avérées très intéressants et ont permis la préservation de la vitamine C du traitement thermique. Pour finaliser l’étude, il a été indispensable de prendre en compte le stockage des poudres de la vitamine C encapsulée avant et après leur commercialisation. Pour assurer leur teneur suffisante en vitamine C lors ce stockage, un vieillissement accéléré a été effectué. Cette thèse a permis d’apporter des réponses concrètes au problème industriel posé, qui était de garantir la teneur en vitamine C des produits commercialisés après reconstitution et traitement thermique / Dehydrated products make it possible to optimize the storage and transport of food products. Food powder mixes distributed to the consumer display nutritional guarantees in terms of qualitative and quantitative inputs. However, the nutritional value of the product after reconstitution and cooking, is not guaranteed. This PhD work focuses on the evaluation of vitamins losses due to food processing in relation to the effect of the food matrix. Losses measured after the heat treatment were not negligible, making the encapsulation necessary to meet the objective of the thesis to guarantee a sufficient vitamins content after reconstitution and heat treatment of the dehydrated food product. Different matrices have been tested at the laboratory scale and industrial scales. Some of these matrices, such as dairy proteins and starch, have proved to be very interesting and allowed the preservation of vitamin C during heat treatment. To finalize the study, it was essential to take into account that the vitamin C-encapsulating powders will be stored before and after their distribution. To ensure that they maintain a sufficient vitamin C content during storage, accelerated aging has been carried out. Thus this thesis made it possible to provide concrete answers to the posed industrial problem, which was to guarantee the vitamin C content of the commercial products after reconstitution and heat treatment
|
1274 |
Neural mechanisms of phonological processing / Mécanismes neuraux du traitement phonologiqueSun, Yue 10 December 2015 (has links)
Afin de comprendre la parole, les auditeurs ont besoin de transformer les signaux sensoriels en sens abstraits. Dans cette thèse, nous nous sommes concentrés sur les processus perceptifs liés au système des sons du langage - le traitement phonologique, et examiné les mécanismes neurobiologiques sous-jacents.Dans la première partie de la thèse, nous avons examiné l'organisation temporelle du traitement phonologique dans le cerveau humain. En utilisant des enregistrements électroencéphalographiques (EEG), nous avons étudié le décours temporel pour le traitement perceptif de règles phonologiques spécifiques à la langue maternelle des auditeurs. Les résultats montre que les connaissances des auditeurs sur les règles phonologiques complexes de leur langue maternelle sont mise en oeuvre à un stade précoce de la perception de son de la parole.Dans la deuxième partie de cette thèse, nous avons étudié l'organisation spatiale du traitement phonologique dans le cortex humain. Nous avons effectué deux études pour étudier le rôle de l'interaction sensorimotrice dans le décodage phonologique à la fois pendant la perception de la parole et la lecture. Les résultats de la première étude démontrent que le système moteur est impliqué dans la catégorisation perceptive des sons de la parole non-natifs, tantdis que ceux de la deuxième étude montrent que la réparation perceptive des séquences de lettres illégale dans la langue maternelle des auditeurs est dépendante de la disponibilité du système moteur chez les participants.L'ensemble de cette thèse fournit de nouvelles perspectives sur les aspects temporels et spatiaux de mécanismes neuronaux qui sous-tendent le traitement phonologique. / In order to understand spoken language, listeners need to transform sensory signals into abstract meanings. In this thesis, we focused on perceptual processes that deal with the sound system of spoken language – phonological processing, and examined its neurobiological underpinnings. In the first part of the thesis, we investigated the temporal organization of phonological processing in the human brain. Using electroencephalographic (EEG) recordings, we studied the time course for perceptual processing of language-specific phonological rules. Findings of this study demonstrate that listeners’ knowledge of complex phonological rules of their native language is assessed at an early stage of speech sound perception. In the second part of the thesis, we investigated the spatial organization of phonological processing in the human cortex. In particular, we conducted two studies to investigate the role of sensorimotor interaction in phonological decoding during both speech perception and reading. Results from the first study showed that the motor system is involved in the perceptual categorization of non-native speech sounds, while those from the second study demonstrated that perceptual repair of phonotactically illegal letter sequences in reader’s native language is dependent to the availability of the their motor system. Together, findings from this thesis provide new insights into temporal and spatial aspects of neural mechanisms that underlie phonological processing.
|
1275 |
Imagerie grand champ en anatomopathologie / Wide-field histopathology imagingMorel, Sophie 28 November 2016 (has links)
L’objectif de cette thèse a été de développer une méthode simple et rapide (35 minutes) d'imagerie afin d’enregistrer des images grand champ (jusqu’à 2,5 cm x 2,5 cm) et multi-échelles (µm-cm) de lames de tissus colorés et non colorés en anatomopathologie.La solution proposée est basée sur l’imagerie sans lentille. C’est une méthode simple, bas coût, qui permet d’enregistrer des images grand champ (10-30 mm²) d’objets épars, comme des virus, des bactéries ou des cellules. Dans ces travaux, nous montrons qu’il est possible d'obtenir en imagerie sans lentille des images d'objets denses tels que des lames de tissus colorés ou non marqués. Pour ce faire, l’échantillon est illuminé sous différentes longueurs d’onde, et un nouvel algorithme de reconstruction holographique multi-longueurs d’onde permet de reconstruire le module et la phase d’objets denses. Chaque image est reconstruite en 1,1 seconde couvrant un champ de 10 mm². Une image totale de la lame de tissu, couvrant un champ de 6,25 cm², est obtenue en 35 minutes en scannant l’échantillon au-dessus du capteur. Les images reconstruites sont multi-échelles, permettant à l’utilisateur d’observer en une seule fois la structure générale du tissu, et de zoomer jusqu’à la cellule individuelle (3-4 µm). La méthode a été testée sur différents échantillons anatomopathologiques colorés et non colorés. Au-delà des lames de tissus, l’imagerie sans lentille multi-longueurs d’onde montre des résultats encourageants pour le diagnostic de la méningite, le suivi au cours du temps d’une population bactérienne pour l’identification et la réalisation d’antibiogrammes, et le suivi au cours du temps de cultures cellulaires. / This PhD project aims to develop a simple, fast (35 minutes), wide-field (up to 2.5 cm x 2.5 cm) multiscale (µm-cm) imaging method for stained and unstained tissue slides for digital pathology application. We present a solution based on lensfree imaging. It is a simple, low-cost technique that enables wide field imaging (10-30 mm²) of sparse objects, like viruses, bacteria or cells. In this project, we adapted lensfree imaging for dense objects observation, like stained or unstained tissue slides. The sample is illuminated under multiple illumination wavelengths, and a new multiwavelength holographic reconstruction algorithm was developed in order to reconstruct the modulus and phase of dense objects. Each image covers 10 mm² field of view, and is reconstructed in 1.1 second. An image of the whole tissue slide covers 6.25 cm². It is recorded in 35 minutes by scanning the sample over the sensor. The reconstructed images are multiscale, allowing the user to observe the overall tissue structure and to zoom down to the single cell level (3-4 µm). The method was tested on various stained and unstained pathology samples. Besides tissue slides, multiwavelength lensfree imaging shows encouraging results for meningitis diagnosis, bacteria population monitoring for identification and antibiotic susceptibility testing, and cell culture monitoring.
|
1276 |
Lexicosemantic processing in normal and pathological agingTaler, Vanessa January 2004 (has links)
No description available.
|
1277 |
Système modulaire de traitement pour la tomographie d'émission à partir de détecteurs CdZnTe / Modular processing system for emission tomography with CdZnTe détectorBernard, Mélanie 06 November 2017 (has links)
Depuis plusieurs années, une nouvelle technologie de détecteurs à partir de matériaux semi-conducteurs CdTe/CdZnTe permet de proposer des appareils d’imagerie médicale bénéficiant de meilleures performances, notamment en imagerie gamma. Ces performances sont obtenues en combinant simultanément les technologies des détecteurs, leur géométrie, les algorithmes de reconstruction et les architectures de traitement des données. Des travaux ont précédemment montré que des améliorations étaient possibles en revoyant la collimation du système. En plus des bonnes performances intrinsèques des détecteurs à semi-conducteur, leur intérêt réside dans leur compacité, permettant de proposer des géométries plus flexibles. De nouvelles architectures ont alors vu le jour, notamment en imagerie cardiaque.Afin d’aller au-delà du compromis entre résolution spatiale, sensibilité et champ de vue imposé par la surface de détection disponible, cette thèse propose d’étudier les possibilités d’adaptation offertes par ces nouvelles architectures. Une adaptation de l’échantillonnage angulaire des têtes de détection indépendamment les unes des autres est envisagée, permettant des protocoles d’acquisition plus adaptés à la diversité des examens et des morphologies.Depuis plusieurs années, une nouvelle technologie de détecteurs à partir de matériaux semi-conducteurs CdTe/CdZnTe permet de proposer des appareils d’imagerie médicale bénéficiant de meilleures performances, notamment en imagerie SPECT. Ces performances sont obtenues en travaillant simultanément sur la localisation précise des mesures dans les détecteurs, la collimation, l’adéquation entre la géométrie des systèmes d’acquisition et les spécificités de l’examen, les algorithmes de reconstruction et les architectures de traitement des données. En plus des bonnes performances intrinsèques des détecteurs à semi-conducteur, leur intérêt réside dans leur compacité accrue par rapport aux scintillateurs et leurs photomultiplicateurs, permettant de proposer des géométries plus flexibles. De nouvelles architectures ont alors vu le jour, notamment en imagerie cardiaque.L’imagerie SPECT est contrainte par un compromis entre résolution spatiale, sensibilité et champ de vue imposé par le collimateur, et la surface de détection disponible. Afin d’aller au-delà de ce compromis, cette thèse propose d’étudier les possibilités d’adaptation en ligne offertes par ces nouvelles architectures flexibles. Un système inspiré d’un dispositif industriel déjà proposés, composé de plusieurs têtes de détection indépendantes est étudié. Une adaptation de l’échantillonnage angulaire des têtes de détection indépendamment les unes des autres est envisagée, permettant des protocoles d’acquisition plus adaptés à la diversité des examens et des morphologies.L’objectif de cette thèse est de mettre en place un processus d’acquisition / adaptation permettant de reconfigurer le parcours des têtes en fonction d’une estimation de l’objet à imager. Des solutions algorithmiques sont proposées afin d’implémenter la reconstruction en temps réel du volume à imager à partir de données rendues plus complexes par les degrés de liberté du système et par la précision du détecteur. La reconstruction obtenue en temps réel doit permettre de déterminer les zones du volume à imager les plus porteuses d’information afin d’y orienter les têtes. La simulation permet dans un premier temps l’étude théorique du concept de système modulaire, ainsi que la mise en place algorithmique du processus de reconstruction rapide, permettant une estimation exploitable de l’objet lors de l’acquisition. Quelques résultats expérimentaux permettront de valider la modélisation du système, ainsi que l’algorithme de reconstruction. Enfin, l’étude de différentes stratégies d’adaptation sera amorcée par simulation. / In the last decades, new CdTe/CdZnTe based detectors enable enhanced performances on medical imaging systems, especially in SPECT imaging. This improvements are achieved by developing simultaneously the precise localization of interaction in detectors, the collimator, matching between the system geometry and the specificities of the examination, reconstruction algorithms, and data processing architectures. In addition to their interesting intrinsic performances, CdZnTe detectors benefits from their compactness compared to previously used scintillators and photo-multiplicators. This compactness enables more flexible systems. New designs are thus proposed, especially in cardiac imaging.Performances of SPECT systems are limited by a trade-off between the spatial resolution, the sensitivity and the field of view imposed by the collimator and the available detection surface. In order to go further this compromise, this work focuses on possibilities for online adaptation offered by flexibles designs. Adaptation on a system composed of several independent detection heads already proposed by industrials is under study. We propose to adapt the angular sampling of heads, enabling acquisition protocols more accurate for different patient morphologies and examination protocols.The purpose of this work is to propose acquisition and adaptation protocols enabling the reconfiguration of the angular sampling of detection heads depending on an estimation of the imaged object. Algorithmic solutions are proposed in order to compute the reconstruction in real time from more complex data because of additional degrees of freedom and detector precision. The resulting estimation have to enable the identification of informative areas in order to focus detection heads on it. Simulations approves theoretically the use of our rapid algorithmic solution on a modular system carrying a reliable estimation of the object. Some experimental results validate the system model and the reconstruction algorithm. Then, some adaptation strategies are investigated using simulations.
|
1278 |
Estimation par stéréovision multimodale de caractéristiques géométriques d’un feu de végétation en propagation / Estimation by multimodal stereovision of geometrical characteristics of propagating vegetation fireToulouse, Tom 13 November 2015 (has links)
Les travaux menés dans cette thèse concernent le développement d'un dispositif de vision permettant l'estimation de caractéristiques géométriques d'un feu de végétation en propagation. Ce dispositif est composé de plusieurs systèmes de stéréovision multimodaux générant des paires d'images stéréoscopiques à partir desquelles des points tridimensionnels sont calculés et les caractéristiques géométriques de feu tels que sa position, vitesse, hauteur, profondeur, inclinaison, surface et volume sont estimées. La première contribution importante de cette thèse est la détection de pixels de feu de végétation. Tous les algorithmes de détection de pixels de feu de la littérature ainsi que ceux développés dans le cadre de cette thèse ont été évalués sur une base de 500 images de feux de végétation acquises dans le domaine du visible et caractérisées en fonction des propriétés du feu dans l'image (couleur, fumée, luminosité). Cinq algorithmes de détection de pixels de feu de végétation basés sur la fusion de données issues d'images acquises dans le domaine du visible et du proche-infrarouge ont également été développés et évalués sur une autre base de données composée de 100 images multimodales caractérisées. La deuxième contribution importante de cette thèse concerne l'utilisation de méthodes de fusion d'images pour l'optimisation des points appariés entre les images multimodales stéréoscopiques.La troisième contribution importante de cette thèse est l'estimation des caractéristiques géométriques de feu à partir de points tridimensionnels obtenus depuis plusieurs paires d'images stéréoscopiques et recalés à l'aide de relevés GPS et d'inclinaison de tous les dispositifs de vision.Le dispositif d'estimation de caractéristiques géométriques à partir de systèmes de stéréovision a été évalué sur des objets rigides de dimensions connues et a permis d'obtenir les informations souhaitées avec une bonne précision. Les résultats des données obtenues pour des feux de végétation en propagation sont aussi présentés. / This thesis presents the geometrical characteristics measurement of spreading vegetation fires with multimodal stereovision systems. Image processing and 3D registration are used in order to obtain a three-dimensional modeling of the fire at each instant of image acquisition and then to compute fire front characteristics like its position, its rate of spread, its height, its width, its inclination, its surface and its volume. The first important contribution of this thesis is the fire pixel detection. A benchmark of fire pixel detection algorithms and of those that are developed in this thesis have been on a database of 500 vegetation fire images of the visible spectra which have been characterized according to the fire properties in the image (color, smoke, luminosity). Five fire pixel detection algorithms based on fusion of data from visible and near-infrared spectra images have also been developed and tested on another database of 100 multimodal images. The second important contribution of this thesis is about the use of images fusion for the optimization of the matching point’s number between the multimodal stereo images.The second important contribution of this thesis is the registration method of 3D fire points obtained with stereovision systems. It uses information collected from a housing containing a GPS and an IMU card which is positioned on each stereovision systems. With this registration, a method have been developed to extract the geometrical characteristics when the fire is spreading.The geometrical characteristics estimation device have been evaluated on a car of known dimensions and the results obtained confirm the good accuracy of the device. The results obtained from vegetation fires are also presented.
|
1279 |
Degradation of estrogenic endocrine disruptors by laccases: from estrogenicity monitoring methods to reactor designBlavier, Julie 28 December 2015 (has links)
In the past decades, much concern has been expressed regarding organic micropollutants generating endocrine disruption. In particular, estrogenic endocrine disruptors, compounds that interfere with the estrogenic hormonal mechanisms, are in the center of environmental scien- tists attention. Numerous endocrine disrupting effects have been observed at concentrations corresponding to those found in aquatic environments, such as feminization of fauna, infertility, reproductive disturbance, cancer, or developmental disruption. Wastewater treatment plants ef- fluents have been identified as the main source of estrogenic endocrine disruptors in the aquatic environment, due to inappropriate treatment. Promising alternative treatment systems based on the use of ligninolytic enzymes (e.g. laccases) have recently emerged. This work falls within the framework of these new techniques. Althoughno environmentally safe threshold can clearly be set, focusing on the removal of global estrogenicity in water instead of concentrations of targeted estrogenic compounds seems a relevant research. To our knowledge, the use of these recently emerged enzymatic processes at an industrial scale (such as for the treatment of urban wastewater), oriented towards water overall estrogenicity, has not been implemented yet.The general objective of this work was to develop ans study a process of removal of estro- genicity by laccases from white-rot fungi, in laboratory, with the purpose of design and scale-up for industrial implementation. This work consisted of the conception, characterization, testing, study and modeling of this process.First, in order to enable the study and the scaling-up of a process of estrogenicity removal, op- timizing the technologies of quantification of estrogenicity in water was a real necessity. Therefore, a study of the methods of estrogenicity monitoring, within a treatment process framework, was conducted. Based on a wide literature review, existing methods were gathered and assessed with the aim of their use as monitoring and design tools. Fromthat review, four methods were selected and tested according to numerous criteria and their compatibility with our process: three bioassays (Yeast Estrogen Screen assay; Lyticase-assisted Yeast Estrogen Screen assay; MCF-7 cell based reporter gene assay) and one analytical method (High Performance Liquid Chromatography with UV detection, HPLC-UV). Concentration-response curves towards the reference 17β-estradiol, in several solvents, were acquired. A fitting model was developed for further expression of all measurements in Estradiol Equivalents. The methods were used to evaluate the estrogenicity of bisphenol A, triclosan and nonylphenol, along with estrogenicity of mixtures of bisphenol A and 17β-estradiol. The testing of these four methods enabled the assessment of their sensitivity, re- producibility, and implementation. Based on that experimental assessment, the Lyticase-assisted Yeast Estrogen Screen (LYES) assay was selected and systematized to be further applied, in combination with an adapted protocol of HPLC-UV analysis, to the monitoring of estrogenicity removal in two lab-scaled reactors. The LYES assay demonstrated a real methodological potential for thescale-up of an estrogenicity removal process and could be used as a design tool. For both reactors, results have indicated that HPLC-UV and LYES assay methods are completely inter- changeable in the case of bisphenol A monitoring (in the conditions used in this work). This work also highlighted the peculiar behavior of mixtures of bisphenol A and 17β-estradiol in terms of estrogenicity, and the parallel observation of an enhancement of bisphenol A estrogenicity removalin presence of 17β-estradiol.In the second part of this work, a batch reactor with laccases in solubilized form was developed and estrogenicity removal was assessed. Kinetics data for the degradation of estrogenic endocrinedisruptors were acquired with the LYES assay (estrogenicity) and the HPLC-UV method (concen- trations). Degradations were performed from several solutions of bisphenol A, 17β-estradiol, and mixtures. In the case of 17β-estradiol and mixtures, conversions reached minimum 90% within 1 hour of degradation at our conditions, with no dependency on pollutant initial concentrations. In the case of bisphenol A, conversions varied from 0 to 100% after 6 hours of degradation and were shown tobe strongly dependent on BPA initial concentrations, indicating the laccases deac- tivation by substrate. Bisphenol A byproducts of degradation were also analyzed, which indicated their absence of estrogenicity and their potential linear evolution with BPA degradation. Acquired kinetics data were exploited for the modeling of the batch degradations kinetics. At this stage of the work, no clear kinetics conclusions could be made in this part.From an industrial point of view, the use of immobilized enzymes is more cost-effective, due to the improvement of enzymes recovery and stability. Therefore, in the third part of this work, a continuous column-shaped packed-bed reactor composed of laccases immobilized on a silica support was developed. The packed-bed reactor was built and tested in laboratory. Residence time distributions, pressure drop calculations, and tracer degradations were performed on the re- actor for its characterization.Immobilization and activity measurements protocols were applied. Similar monitoring than in the batch reactor (LYES assay and HPLC-UV) were performed during continuous degradations of bisphenol A, 17β-estradiol, and mixtures in the packed-bed reactor. Acquired kinetics data were exploited to study and model the kinetics occurring in the packed-bed reactor. Mass transfer phenomena and laccases deactivation by substrate in the reactors were investigated and modeled, revealing, depending on the pollutant, the presence of slight external mass transfer limitation and the strong dependence of the kinetics on laccases deactivation. A design tool, in the form of a mathematical model for the design of a packed-bed reactor with immobilized laccases for the degradation of bisphenol A and related estrogenicity, was developed. The model was validated (simple validation) on experimental data. The model was then used, as a comparison, for the design of a reactor with similar conditions than a documented technique of bisphenol A degradation by ozone. The design resulted in a reactor twice smaller than for degradation by ozone, for the same conversion.In the current context of environmental crisis, this work proposed a first version of a promising practical solution for the treatment of environmentally problematic e-EDCs, oriented towards water overall estrogenicity monitoring and removal, and using natural biocatalysts. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
|
1280 |
Génération modulaire de grammaires formelles / Modular generation of formal grammarsPetitjean, Simon 11 December 2014 (has links)
Les travaux présentés dans cette thèse visent à faciliter le développement de ressources pour le traitement automatique des langues. Les ressources de ce type prennent des formes très diverses, en raison de l’existence de différents niveaux d’étude de la langue (syntaxe, morphologie, sémantique,. . . ) et de différents formalismes proposés pour la description des langues à chacun de ces niveaux. Les formalismes faisant intervenir différents types de structures, un unique langage de description n’est pas suffisant : il est nécessaire pour chaque formalisme de créer un langage dédié (ou DSL), et d’implémenter un nouvel outil utilisant ce langage, ce qui est une tâche longue et complexe. Pour cette raison, nous proposons dans cette thèse une méthode pour assembler modulairement, et adapter, des cadres de développement spécifiques à des tâches de génération de ressources langagières. Les cadres de développement créés sont construits autour des concepts fondamentaux de l’approche XMG (eXtensible MetaGrammar), à savoir disposer d’un langage de description permettant la définition modulaire d’abstractions sur des structures linguistiques, ainsi que leur combinaison non-déterministe (c’est à dire au moyen des opérateurs logiques de conjonction et disjonction). La méthode se base sur l’assemblage d’un langage de description à partir de briques réutilisables, et d’après un fichier unique de spécification. L’intégralité de la chaîne de traitement pour le DSL ainsi défini est assemblée automatiquement d’après cette même spécification. Nous avons dans un premier temps validé cette approche en recréant l’outil XMG à partir de briques élémentaires. Des collaborations avec des linguistes nous ont également amené à assembler des compilateurs permettant la description de la morphologie de l’Ikota (langue bantoue) et de la sémantique (au moyen de la théorie des frames). / The work presented in this thesis aim at facilitating the development of resources for natural language processing. Resources of this type take different forms, because of the existence of several levels of linguistic description (syntax, morphology, semantics, . . . ) and of several formalisms proposed for the description of natural languages at each one of these levels. The formalisms featuring different types of structures, a unique description language is not enough: it is necessary to create a domain specific language (or DSL) for every formalism, and to implement a new tool which uses this language, which is a long a complex task. For this reason, we propose in this thesis a method to assemble in a modular way development frameworks specific to tasks of linguistic resource generation. The frameworks assembled thanks to our method are based on the fundamental concepts of the XMG (eXtensible MetaGrammar) approach, allowing the generation of tree based grammars. The method is based on the assembling of a description language from reusable bricks, and according to a unique specification file. The totality of the processing chain for the DSL is automatically assembled thanks to the same specification. In a first time, we validated this approach by recreating the XMG tool from elementary bricks. Some collaborations with linguists also brought us to assemble compilers allowing the description of morphology and semantics.
|
Page generated in 0.0978 seconds