1331 |
Synthèse, caractérisation et réactivité de matériaux nanostructurés en TiO2 pour la dégradation photo(électro)catalytique du Paraquat / Synthesis, characterization and reactivity of nanostructured TiO2 for the photo(electro)catalytic degradation of ParaquatMarien, Cédric 29 September 2017 (has links)
Le développement de traitements photo(électro)catalytiques pour l’élimination de polluants organiques requiert la préparation de nano-TiO2 immobilisé sur des supports pour simplifier leur séparation du liquide traité. Deux procédés ont été développés dans le cadre de cette thèse. Le premier consiste à préparer des mousses en TiO2/SiC puis à les intégrer dans un réacteur annulaire entouré de lampes UV-C. Plusieurs paramètres ont été étudiés : le nombre de lampes, la température, la concentration en polluant (paraquat, herbicide) et la stabilité mécanique des mousses. Ensuite, les sous-produits de dégradation ont été identifiés. L’autre procédé développé vise à améliorer la séparation des paires électrons-trous en appliquant une différence de potentiel. Le photocatalyseur doit alors être immobilisé sur une surface conductrice. Dans cette optique, la synthèse par anodisation électrochimique de nanotubes de TiO2/Ti en milieu fluoré est une technique très prometteuse. Plusieurs paramètres ont été étudiés afin de réaliser des électrodes de grande surface et favoriser le passage de l’échelle laboratoire à l’échelle pilote. Les propriétés photoélectrochimiques des nanotubes ont ensuite été optimisées notamment via la détermination de leur longueur optimale. Par la suite, la dégradation photoélectrocatalytique du paraquat a mis en évidence qu’une faible différence de potentiel (0,5 à 1 volt) suffit pour maximiser la séparation des paires électron-trou. La conductivité de l’électrolyte doit également être suffisamment élevée pour maximiser les performances du procédé photoélectrocatalytique. / The development of photo(electro)catalytic methods for the removal of organic pollutants requires the elaboration of supported TiO2 nanomaterials in order to simplify the recovery of the photocatalyst from treated effluents. Two different approaches were developed during this PhD thesis. The first approach consists in producing a thin film of TiO2 onto alveolar SiC foams. The TiO2/SiC assembly was then integrated into a tubular reactor surrounded by UV-C lamps. Many parameters were studied: number of lamps, the temperature, pollutant’s concentration (paraquat, weed killer) and the mechanical stability of TiO2/SiC foams. Then, paraquat’s by-products of degradation were identified. Another approach was then developed in order to improve the electron-hole pair of the photocatalytic process by applying a small electrical bias. For this purpose, the photocatalyst must be coated on a conductive surface. In this field, TiO2 nanotubes grown on titanium substrate by electrochemical synthesis in a fluoride media are very promising. Many parameters were studied in order to produce large electrodes and favor the upscaling. Photoelectrochemical properties of TiO2 nanotubes were studied and optimized especially concerning nanotube’s length. Besides, photoelectrocatalytic degradation of paraquat evidences that a small applied bias (0,5 to 1 volt) is enough to ensure optimal electron-hole separation. It was also demonstrated that the effluent conductivity also has a large influence on the photoelectrochemical performances.
|
1332 |
Analyse et reconnaissance de signaux vibratoires : contribution au traitement et à l'analyse de signaux cardiaques pour la télémédecine / Analysis and recognition of vibratory signals : contribution to the treatment and analysis of cardiac signals for telemedecineBeya, Ouadi 15 May 2014 (has links)
Le coeur est un muscle. Son fonctionnement mécanique est celui d'une pompe chargée de distribuer et de récupérer le sang dans les poumons et dans le système cardiovasculaire. Son fonctionnement électrique est régulé par le son noeud sinusal, un stimulateur ou régulateur électrique chargé de déclencher les battements naturels du coeur qui rythment le fonctionnement du corps. Les médecins surveillent ce fonctionnement électromécanique du coeur en enregistrant un signal électrique appelé électrocardiogramme (ECG) ou un signal sonore : le phono-cardiogramme (PCG). L'analyse et le traitement de ces deux signaux sont fondamentaux pour établir un diagnostic et aider à déceler des anomalies et des pathologies cardiaques. L’objectif de cette thèse est de développer des techniques de traitement des signaux ECG et notamment PCG afin d’aider le médecin dans son analyse de ces signaux. L’idée de fond est de mettre en point des algorithmes relativement simples et peu coûteux en temps de calcul. Le premier intérêt serait de garantir leur implantation aisée dans un système mobile de surveillance cardiaque à l’usage du médecin, voire du patient. Le deuxième intérêt réside dans la possibilité d’une analyse automatique en temps réel des signaux avec le dispositif mobile, autorisant le choix de la transmission de ces signaux pour une levée de doute. De nombreux travaux ont mené à des avancées significatives dans l’analyse des signaux ECG et la reconnaissance automatiques des pathologies cardiaques. Des bases de données de signaux réels ou synthétiques annotées permettent également d’évaluer les performances de toute nouvelle méthode. Quant aux signaux PCG, ils sont nettement moins étudiés, difficiles à analyser et à interpréter. Même si les grandes familles de méthodes (Fourier, Wigner Ville et ondelettes) ont été testées, elles n’autorisent pas une reconnaissance automatique des signatures, d’en avoir une analyse et une compréhension assez fines.La Transformée en Ondelettes (TO) sur les signaux cardiaques a montré son efficacité pour filtrer et localiser les informations utiles mais elle fait intervenir une fonction externe de traitement (ondelette mère) dont le choix dépend de la connaissance au préalable du signal à traiter. Ce n'est pas toujours adapté aux signaux cardiaques. De plus, la Transformée en ondelettes induit généralement une imprécision dans la localisation due à la fonction externe et éventuellement au sous-échantillonnage des signatures. La nature non stationnaire de l'ECG et du PCG et leur sensibilité aux bruits rendent difficile la séparation d’une transition informative d'une transition due aux bruits de mesure. Le choix de l'outil de traitement doit permettre un débruitage et une analyse de ces signaux sans délocalisation des singularités ni altération de leurs caractéristiques. En réponse à nos objectifs et considérant ces différents problèmes, nous proposons de nous appuyer principalement sur la décomposition modale empirique (EMD) ou transformée de Hilbert Huang (THH) pour développer des solutions. L’EMD est une approche non linéaire capable de décomposer le signal étudié en fonctions modales intrinsèques (IMF), oscillations du type FM-AM, donnant ainsi une représentation temps/échelle du signal. Associée à la transformée de Hilbert (TH), la THH permet de déterminer les amplitudes instantanées (AI) et les fréquences instantanées (FI) de chaque mode, menant ainsi à une représentation temps/fréquence des signaux.Sans faire intervenir une fonction externe, on peut ainsi restaurer (réduction de bruit), analyser et reconstruire le signal sans délocalisation de ses singularités. Cette approche permet de localiser les pics R de l'ECG, déterminer le rythme cardiaque et étudier la variabilité fréquentielle cardiaque (VFC), localiser et analyser les composantes des bruits B1 et B2 du PCG. / The heart is a muscle. Its mechanical operation is like a pump charged for distributing and retrieving the blood in the lungs and cardiovascular system. Its electrical operation is regulated by the sinus node, a pacemaker or electric regulator responsible for triggering the natural heart beats that punctuate the functioning of the body.Doctors monitor the electromechanical functioning of the heart by recording an electrical signal called an electrocardiogram (ECG) or an audible signal : the phonocardiogram (PCG). The analysis and processing of these two signals are essential for diagnosis, to help detect anomalies and cardiac pathologies.The objective of this thesis is to develop signal processing tools on ECG and PCG to assist cardiologist in his analysis of these signals. The basic idea is to develop algorithms of low complexity and having inexpensive computing time. The primary interest is to ensure their easy implementation in a mobile heart monitoring system for use by the doctor or the patient. The second advantage lies in the possibility of automatic real-time analysis of signals with the mobile device, allowing control of the transmission of these signals to a removal of doubt.Numerous studies have led to significant advances in the analysis of ECG signals and the automatic recognition of cardiac conditions. Databases of real or synthetic signals annotated also assess the performance of new methods. PCG signals are much less studied, difficult to analyze and to interpret. The main methods (Fourier, wavelet and Wigner Ville) were tested : they do not allow automatic recognition of signatures, and an accurate understanding of their contents.Wavelet Transform (WT) on cardiac signals showed its effectiveness to filter and locate useful information, but it involves an external processing function (mother wavelet) whose the choice depends on the prior knowledge on the signal to be processed. This is not always suitable for cardiac signals. Moreover, the wavelet transform generally induces inaccuracies in the location due to the external function and optionally due to the sub- sampling of the signatures.The non-stationary nature of the ECG and PCG and their sensitivity to noise makes it difficult to separate an informative transition of a transition due to measurement noise. The choice of treatment tool should allow denoising and analysis of these signals without alteration or the processing tool delocalization of the singularities.In response to our objectives and considering these problems, we propose to rely primarily on empirical mode decomposition (EMD) and Hilbert Huang Transform (HHT) to develop solutions. The EMD is a non linear approach decomposing the signal in intrinsic signal (IMF), oscillations of the type FM-AM, giving a time/scale signal representation. Associated with the Hilbert transform (TH), the THH determines the instantaneous amplitude (IA) and instantaneous frequency (IF) of each mode, leading to a time/frequency representation of the ECG and PCG.Without involving an external function, EMD approach can restore (noise reduction), analyze and reconstruct the signal without relocation of its singularities. This approach allows to locate R peaks of the ECG, heart rate and study the cardiac frequency variability (CFV), locate and analyze the sound components B1 and B2 of the PCG.Among the trials and developments that we made, we present in particular a new method (EDA : empirical denoising approach) inspired by the EMD approach for denoising cardiac signals. We also set out the implementation of two approaches for locating ECG signature (QRS complex, T and P waves). The first is based on the detection of local maxima : in using Modulus Maxima and Lipschitz exponent followed by a classifier. The second uses NFLS, wich an nonlinear approach for the detection and location of unique transitions in the discrete domain.
|
1333 |
Conception d'un outil de prototypage rapide sur le FPGA pour des applications de traitement d'images / Design of tools for rapid prototyping onto FPGA for applications in image processingSaptono, Debyo 04 November 2011 (has links)
Ce manuscrit présente les travaux menés pour proposer un flot de conception permettant d’implanter des processeurs RISP dans un circuit reprogrammable (FPGA). Après une description des différentes solutions envisageables pour réaliser des prototypes dans le domaine du traitement d’image, ce document décrit une méthode qui consiste à générer des modèles matériels de processeurs destinés au traitement d’images, avec des opérateurs taillés sur une application donnée. Un ensemble d’expérimentations utilisant des algorithmes courants permet d’évaluer les performances du flot de conception proposé. Le prototypage rapide d’un système biométrique sans contact, basé sur la reconnaissance de paumes a été aussi réalisé sur la plateforme de test. / This manuscript presents work to propose a development cycle to establish RISP processors in a reprogrammable chip (FPGA). After a description of the various possible solutions to produce image processing prototypes, this document describes a method which consists in generating hardware models of processor target to image processing, with operators just for a given application. Test with a set of common algorithm makes evaluate the performances of the design cycle proposed. Rapid prototyping of a contact less biometric system, based on palmprint recognition, is also realized on the test platform.
|
1334 |
Conception d'un habillage phonique amélioré pour le compartiment moteur d'une motoneigeAmouch, Ayoub January 2016 (has links)
Le secteur de l'industrie des véhicules récréatifs est un secteur hautement concurrentiel. Il suit principalement les tendances et les perceptions des consommateurs. Depuis ces dernières années, l'industrie des véhicules récréatifs, en particulier celle de la motoneige, fait face à des demandes de plus en plus pressantes concernant le niveau de bruit de ces véhicules. Dans ce contexte, la compagnie Bombardier Recreational Products BRP souhaiterait réduire le bruit de ses motoneiges afin de respecter les normes et les réglementations en vigueur (bruit de passage) et assurer une meilleure qualité sonore des véhicules. Les traitements acoustiques utilisés dans l'habillage phonique des motoneiges font appel à des matériaux acoustiques absorbants et isolants. Ces traitements visent principalement à atténuer le bruit rayonné par le moteur, le système d'entrée d'air et le système d'échappement. C'est dans ce cadre que ce projet s'inscrit en visant à développer et à valider expérimentalement des solutions afin d'améliorer l'efficacité des traitements insonorisants ou absorbants d'un prototype de motoneige en respectant le cahier de charges fonctionnel du véhicule. Ce projet de recherche est défini en quatre étapes. Dans un premier lieu, il est demandé de développer une base de données des matériaux acoustiques et de prévoir leurs performances en termes de perte par insertion. Dans un second lieu, plusieurs concepts de traitements acoustiques seront développés et comparés à l'aide du code NOVA qui se base sur la méthode des matrices de transfert (TMM). D'autre part, il est demandé également de simuler de nouveaux concepts optimisés. La troisième étape vise à valider les traitements acoustiques conçus dans le tube d'impédance, et de fabriquer des prototypes à grande échelle afin de réaliser des tests au laboratoire dans la chambre anéchoïque du GAUS. Ceci dans le but de démontrer les gains réalisés et d'effectuer un choix final des concepts optimaux. L'étape finale de ce projet de recherche consiste à analyser l'emplacement des traitements dans le compartiment moteur de la motoneige et proposer un modèle en se basant sur la méthodologie de l'analyse statistique par l'énergie (SEA). Ce modèle permettra d'investiguer l'effet des fuites dans le compartiment moteur de la motoneige. Ce projet de recherche vise à développer des traitements acoustiques du compartiment moteur d'une motoneige appliqués sur les sous-systèmes suivants : panneaux latéraux gauche et droite, panneau supérieur et le garde poulie.
|
1335 |
In-situ investigation of elemental corrosion reactions during the surface treatment of Al-Cu and Al-Cu-Li alloys. / Investigations in situ des mécanismes de corrosion élémentaires durant le traitement de surface des alliages Al-Cu et Al-Cu-LiGharbi, Oumaïma 07 December 2016 (has links)
Ce travail de thèse s’est porté sur l’étude des alliages d’aluminium, et en particulier les alliages AA2024-T3 et AA2050-T3. L’alliage AA2024-T3 à base d’Al-Cu-Mg est utilisé depuis des décennies dans le domaine de l’aérospatial pour sa légèreté et ses excellentes propriétés mécaniques, est progressivement remplacé par les alliages Al-Cu-Li tels que l’AA2050-T3. Néanmoins, il en résulte parallèlement une microstructure très hétérogène, rendant l’AA2024 très sensible à la corrosion. Plusieurs moyens de protections - appelés traitements de surface- ont donc été développés, dans le but de ralentir au maximum la dégradation de l’alliage. Le prétraitement, une étape préliminaire au traitement de surface a pour but de préparer la surface de l’alliage. Plusieurs études ont démontré que cette étape est indispensable et assure l’efficacité du traitement de surface. Afin d’observer l’effet du prétraitement, plusieurs techniques de caractérisations de surface sont utilisées. La microscopie électronique à balayage (MEB) et la spectroscopie à photoélectron X (XPS) sont parmi les plus citées. Toutes ces méthodes ont pour objectif de s’assurer de la dissolution des éléments d’alliages, et de mettre en évidence les effets d’enrichissement de cuivre. Jusqu'à présent, aucune méthode n’a permis d’obtenir une analyse complète et in situ de la réactivité de tous les éléments lors du prétraitement. L’objectif principal de ces travaux de thèse était de développer une nouvelle méthodologie, capable de prodiguer une mesure précise de la réactivité d’alliages complexes tels que les alliages d’aluminium durant une séquence de prétraitement et d’apporter des informations sur le AA2050-T3, pour lequel la littérature est beaucoup plus pauvre en données quant à la réactivité de l’élément d’alliage Li avec les solutions de prétraitement. / This PhD thesis focused on the study of aluminum alloys, particularly the AA2024-T3 and AA2050-T3. The Al-Cu-Mg based alloy (AA2024-T3) are used for decades in the field of aerospace for its lightness and excellent mechanical properties are progressively replaced by and Al-Cu-Li (AA2050-T3) alloys. Nevertheless, they exhibit a highly heterogeneous microstructure, making them sensitive to corrosion. Several surface treatments formulations, such as coatings, have been developed, with the aim of slowing as much as possible the degradation of these alloys. The pretreatment, a preliminary step to surface treatment, is intended to prepare the surface of the alloy prior coating application. Several studies have shown that this step is essential and ensures the effectiveness of the surface treatment. In order to observe the effect of the pretreatment, several surface characterization techniques were used. Scanning electron microscopy (SEM) and X-ray photoelectron spectroscopy (XPS) are among the most cited. All these methods are intended to quantify the dissolution of the alloying elements. To date, none has been able to obtain a complete and in situ analysis of the elemental reactivity of a complex alloy during the pretreatment. The main objective of this thesis was to develop a new methodology capable of providing a precise measurement of the reactivity of complex alloys such as aluminum alloys during a pretreatment sequence and to provide information on AA2050 -T3, as very little is reported about the reactivity of Li during the surface treatment.
|
1336 |
Patient specific numerical modelling for the optimisation of HCC selective internal radiation therapy an image based approach / Modélisation numérique spécifique-patient pour l’optimisation de la radiothérapie interne sélective du CHC : une approche basée imageSimoncini, Costanza 05 May 2017 (has links)
La radiothérapie interne sélective est une thérapie émergente très peu invasive du carcinome hépatocellulaire, quatrième cause de décès par cancer dans le monde. Des millions de microsphères chargées en Yttrium 90 sont injectées dans l'artère hépatique par un cathéter. Actuellement, leur distribution lors d'une injection est estimée par l'injection préliminaire d'un radiomarqueur, ce qui peut se révéler trop approximatif. Un traitement personnalisé permettrait une concentration des radiations à la tumeur tout en épargnant le tissu sain environnant. Dans ce travail je me suis intéressée au développement d'un modèle numérique, pour une simulation spécifique à chaque patient des trajectoires des microsphères, dans le but d'optimiser le traitement. Le protocole clinique d'imagerie a été exploité et optimisé pour l'extraction de données spécifiques patients telles que le foie, les tumeurs, l'artère hépatique et le flux sanguin. Les tissus et l'artère hépatique (jusqu'à un diamètre de 0.05 mm) sains et malins ont été simulés. Cela nous permet de simuler la distribution des microsphères dans le tissue hépatique, validée grâce à la scintigraphie post-traitement. Il est supposé ici que les microsphères se distribuent de façon proportionnelle au flux sanguin, lequel est modélisé par la loi de Poiseuille. Des simulations plus approfondies en mécanique de fluides numérique du flux sanguin ont ensuite été réalisées dans l'artère hépatique du patient. Pour cela nous avons utilisé et comparé les méthodes des Volumes Finis (Ansys Fluent) et de Lattice Boltzmann (programme développé dans le laboratoire). Le transport des microsphères a été simulé dans l'artère hépatique du patient avec la méthode des volumes finis, et dans une géométrie simplifiée avec la méthode de Lattice Boltzmann. Une séquence IRM de contraste de phase a aussi été optimisée pour l'extraction de la vitesse du sang dans l'artère hépatique, dans le but de valider le modèle numérique. / Selective internal radiation therapy using Yttrium-90 loaded glass microspheres injected in the hepatic artery is an emerging, minimally invasive therapy of hepatocellular carcinoma, which is the fourth cause of mortality in the world. Currently, microspheres distribution can be only approximately predicted by the injection of a radiotracer, whose behaviour may be different. A personalised intervention can lead to high concentration dose in the tumour, while sparing the surrounding parenchyma. This work is concerned with the development of a patient-specific numerical model for the simulation of microspheres trajectories and treatment optimisation. Clinical imaging protocol is utilised and optimised in order to extract patient’s specific data such as liver, tumours, hepatic artery and blood flow. Normal and malignant hepatic arterial vasculature and tissues are simulated down to a vessels diameter of 0.05 mm. A preliminary simulation of microspheres distribution in liver tissue is proposed and validated against post-treatment scintigraphy. Microspheres are here supposed to distribute proportionally to blood flow, which is computed based on Poiseuille’s law. More precise computational fluid dynamics (CFD) simulations of blood flow in the patient’s segmented arteries are performed. The Finite Volume Method (Ansys Fluent) and the Lattice Boltzmann Method (in-house developed software) are used to this purpose and their efficacy is compared. Microspheres transport is simulated in the patient’s hepatic artery using the FVM, and in a representative geometry using the LBM method. A phase contrast MRI sequence has been optimised in order to extract blood velocity from the hepatic artery and validate CFD simulations.
|
1337 |
Développement et valorisation d'un modèle animal de gale sarcoptique. Evaluation de molécules acaricides / Use of an animal model for study of human scabies and animal sarcoptic mange. Evaluation of acaricide moleculesFang, Fang 15 April 2016 (has links)
Sarcoptes scabiei est un acarien ectoparasite obligatoire. Sa présence dans la couche cornée de l’épiderme est à l’origine d’une gale dite sarcoptique. Cette ectoparasitose a été décrite chez 104 espèces de mammifères représentant 27 familles distinctes. Les traitements actuels de la gale sarcoptique ne sont pas toujours satisfaisants et il n’existe pas de produits qui permettent d’éliminer S. scabiei dans l’environnement. Par ailleurs, la diversité génétique de S. scabiei n’est pas clairement définie et l’unicité de l’espèce fait toujours l’objet de controverses.L’objectif de cette thèse a été d’évaluer l’efficacité d’acaricides vis-à-vis de S. scabiei en utilisant un modèle animal ou par le biais de tests in vitro. La diversité génétique d’isolats d’origine animale a également été étudiée. La première partie du travail de thèse a concerné un essai thérapeutique L’efficacité d’une administration orale unique d’afoxolaner, une molécule du groupe des isoaxazolines, a été évaluée sur des porcs expérimentalement infestés. Le critère principal d’évaluation a été la réduction du nombre de sarcoptes mis en évidence dans les raclages cutanés. Huit jours après le traitement, aucun sarcopte n’a été détecté sur les 4 porcs ayant reçu l’afoxolaner alors que des sarcoptes étaient toujours présents sur les 3 porcs ayant reçu de l’ivermectine. Tous les porcs traités étaient guéris à la fin de l’essai (J35) alors que les animaux non traités sont demeurés infestés. Les autres critères d’évaluation étaient l’évolution du score clinique et de prurit. Les lésions cutanées ont rapidement régressé dans le groupe traité par l’afoxolaner alors qu’elles étaient encore présentes à J14 dans le groupe traité avec l’ivermectine. La deuxième partie du travail de thèse a porté sur l’évaluation in vitro de différentes molécules ou produits acaricides. Plusieurs concentrations d’une solution d’ivermectin ou de moxidectine ainsi 11 huiles essentielles ont été testées. Après 24h de contact avec l’ivermectine et la moxidectine, la dose létale 50% étaient de 150,2±31,4 µg/mL et 608,3±88,0 µg/mL, respectivement. Une concentration inférieure à 1 ng/mL (pour l’ivermectine) ou à 10 ng/mL (pour la moxidectine) n’a aucune activité acaricide. Pour les huiles essentielles, des tests par fumigation et par immersion ont été réalisés. Parmi Lavandula augustifolia, Melaleuca altenifolia, Pelargonium asperum, Eucalyptus radiate, Leptospermum scoparium, Cryptomeria japonica, Citrus aurantium ssp amara et 3 l’huile essentielle identifiée (BOB4, BOB5, BOB9) testés par immersion, l’huile essentielle identifiée BOB4 s’est révélée la plus efficace (une solution à 1% tue tous les acariens en 20 min). Parmi les 10 huiles essentielles énumérées avant, plus Juniperus oxycedrus testés par immersion, l’huile essentielle de Melaleuca altenifolia s’est révélée la plus efficace (tous les acariens sont morts en 4 min). Pour le contrôle de S. scabiei dans l’environnement, différents biocides ou répulsifs ont été examinés. La durée moyenne de survie a été calculée pour les produits comportant de la perméthrine, de l’esdépallethrine et de la bioresmethrine, de la bifenthrine, de la cyperméthrine et de l’imiprothrine, de la cyfluthrine, de la tétramethrine et de la sumithrine, du DEET, de l’icaridine et le produit IR3535. La deuxième partie du travail de thèse a porté sur la diversité génétique d’isolats de S. scabiei provenant d’animaux. Une partie du gène cox1 a été amplifiée. L’analyse des séquences ainsi obtenues semble montrer que les sarcoptes circulant chez le Chien sont issus de population de sarcoptes d’origine humaine. / Sarcoptes scabiei is an ectoparasite responsible for the emerging/re-emerging disease called scabies in humans or mange in animals. It was reported in 104 species across 27 families of domestic and wild animals. Current treatments for scabies/mange are limited and there are no efficient products for the environment control of S. scabiei. Moreover, the taxonomic status of S. scabiei is still under controversy and the question remains that whether it represents a single species or several taxa.The objectives of the thesis were to assess the susceptibility to acaricides and analyse the genetic diversity of S. scabiei from animals. In the first part of the thesis, an animal model was used to evaluate the efficacy of afoxolaner, a new acaricide from the isoaxazoline family. The primary outcome of efficacy was based on the reduction in the number of live mites counted in skin scrapings following treatment. At day 8, four afoxolaner-treated pigs (out of four) were mite-free, while mites were still found in three (out of three) ivermectin-treated pigs. All treated pigs were cured at the end of the study (day 35) and all pigs in the control group remained infected. Secondary outcomes included measures on the reduction of skin lesions and pruritus. The clinical lesions of scabies infection were allowed to disappear completely for all the pigs in the afoxolaner group but not in the ivermectin group at 14 days after the treatment. An increase of the pruritus was observed right after treatment, followed by a decrease of the pruritus score in both treated groups. The second part of the thesis was to evaluate the scabicidal effect of molecules or products using an in vitro test. A gradient of concentrations of ivermectin and moxidectin as well as 11 essential oils have been evaluated in vitro against S. scabiei. After 24h of exposure to ivermectin and moxidectin, the median lethal concentrations were 150.2±31.4 µg/mL and 608.3±88.0 µg/mL, respectively. Doses of ivermectin under 1 ng/mL and moxidectin under 10 ng/mL showed no scabicidal effect. Fumigation and contact bioassays were used for the assessment of essential oils efficacy. Among Lavandula augustifolia, Melaleuca altenifolia, Pelargonium asperum, Eucalyptus radiate, Leptospermum scoparium, Cryptomeria japonica, Citrus aurantium ssp amara and 3 other unknown oils (BOB4, BOB5, BOB9) tested with the contact bioassay, the essential oil identified as BOB4 demonstrated the best scabicidal effect (1% solution killed all the mites in 20 min). Among the 10 essential oils listed before plus Juniperus oxycedrus with the fumigation bioassay, the oil Melaleuca altenifolia demonstrated the best scabicidal effect (all the mites died in only 4 min). For environmental control of S. scabiei, the efficacy of biocides or repellents was assessed. The median survival time was calculated for permethrin (4% and 0.6%), esdepallethrin and bioresmethrin, bifenthrin, cypermethrin and imiprothrin, cyfluthrin, tetramethrin and sumithrin, DEET (25% and 50%), icaridin and IR3535. The third part of the thesis included the study of the genetic diversity of populations of S. scabiei from animals. A part of cox1 was used for phylogenetic analyses. The results showed that Sarcoptes mites from dogs seem to derive from humans.
|
1338 |
Prédiction de performance d'algorithmes de traitement d'images sur différentes architectures hardwares / Image processing algorithm performance prediction on different hardware architecturesSoucies, Nicolas 07 May 2015 (has links)
Dans le contexte de la vision par ordinateur, le choix d’une architecture de calcul est devenu de plus en plus complexe pour un spécialiste du traitement d’images. Le nombre d’architectures permettant de résoudre des algorithmes de traitement d’images augmente d’année en année. Ces algorithmes s’intègrent dans des cadres eux-mêmes de plus en plus complexes répondant à de multiples contraintes, que ce soit en terme de capacité de calculs, mais aussi en terme de consommation ou d’encombrement. A ces contraintes s’ajoute le nombre grandissant de types d’architectures de calculs pouvant répondre aux besoins d’une application (CPU, GPU, FPGA). L’enjeu principal de l’étude est la prédiction de la performance d’un système, cette prédiction pouvant être réalisée en phase amont d’un projet de développement dans le domaine de la vision. Dans un cadre de développement, industriel ou de recherche, l’impact en termes de réduction des coûts de développement, est d’autant plus important que le choix de l’architecture de calcul est réalisé tôt. De nombreux outils et méthodes d’évaluation de la performance ont été développés mais ceux-ci, se concentrent rarement sur un domaine précis et ne permettent pas d’évaluer la performance sans une étude complète du code ou sans la réalisation de tests sur l’architecture étudiée. Notre but étant de s’affranchir totalement de benchmark, nous nous sommes concentrés sur le domaine du traitement d’images pour pouvoir décomposer les algorithmes du domaine en éléments simples ici nommées briques élémentaires. Dans cette optique, un nouveau paradigme qui repose sur une décomposition de tout algorithme de traitement d’images en ces briques élémentaires a été conçu. Une méthode est proposée pour modéliser ces briques en fonction de paramètres software et hardwares. L’étude démontre que la décomposition en briques élémentaires est réalisable et que ces briques élémentaires peuvent être modélisées. Les premiers tests sur différentes architectures avec des données réelles et des algorithmes comme la convolution et les ondelettes ont permis de valider l'approche. Ce paradigme est un premier pas vers la réalisation d’un outil qui permettra de proposer des architectures pour le traitement d’images et d’aider à l’optimisation d’un programme dans ce domaine. / In computer vision, the choice of a computing architecture is becoming more difficult for image processing experts. Indeed, the number of architectures allowing the computation of image processing algorithms is increasing. Moreover, the number of computer vision applications constrained by computing capacity, power consumption and size is increasing. Furthermore, selecting an hardware architecture, as CPU, GPU or FPGA is also an important issue when considering computer vision applications.The main goal of this study is to predict the system performance in the beginning of a computer vision project. Indeed, for a manufacturer or even a researcher, selecting the computing architecture should be done as soon as possible to minimize the impact on development.A large variety of methods and tools has been developed to predict the performance of computing systems. However, they do not cover a specific area and they cannot predict the performance without analyzing the code or making some benchmarks on architectures. In this works, we specially focus on the prediction of the performance of computer vision algorithms without the need for benchmarking. This allows splitting the image processing algorithms in primitive blocks.In this context, a new paradigm based on splitting every image processing algorithms in primitive blocks has been developed. Furthermore, we propose a method to model the primitive blocks according to the software and hardware parameters. The decomposition in primitive blocks and their modeling was demonstrated to be possible. Herein, the performed experiences, on different architectures, with real data, using algorithms as convolution and wavelets validated the proposed paradigm. This approach is a first step towards the development of a tool allowing to help choosing hardware architecture and optimizing image processing algorithms.
|
1339 |
Rôle du traitement visuel simultané dans l'acquisition des connaissances orthographiques lexicales / Role of simultaneous visual processing in orthographic lexical acquisitionChaves, Nathalie 08 June 2012 (has links)
La connaissance orthographique des mots est indispensable au développement d’une lecture experte et rapide et d’une écriture correcte. L’acquisition de ces connaissances orthographiques lexicales est un processus complexe, encore mal compris. Cette acquisition se ferait en grande partie de façon implicite au cours de la lecture. Elle dépendrait alors de la qualité du décodage, d’autres facteurs restant à préciser. Des données théoriques et certains premiers résultats empiriques ont suggéré que le traitement visuel simultané de toutes les lettres du mot est un facteur important pour l’acquisition de son orthographe spécifique. Dans ce travail de thèse, cette hypothèse est testée d’une part par des études de régression, d’autre part par des études expérimentales. Les analyses de régression étudient le lien entre l’empan visuo-attentionnel (EVA), estimant les capacités maximales de traitement visuel simultané, et les connaissances orthographiques lexicales. Les résultats montrent une relation significative entre l’EVA et les connaissances orthographiques lexicales lorsque celles-ci sont évaluées par une épreuve de production écrite ou par un test d’auto-apprentissage. Cette relation est spécifique aux connaissances lexicales puisqu’elle ne se généralise pas à l’orthographe grammaticale. Elle existe indépendamment des capacités de mémoire de travail visuo-spatiale et de lecture. Les études expérimentales, tant chez l’enfant que chez l’adulte, explorent toutes le rôle du traitement visuel simultané sur l’acquisition des connaissances orthographiques en situation d’auto-apprentissage. Cette exploration est conduite en contrastant, pendant une lecture de mots nouveaux, une condition expérimentale où le traitement visuel simultané est possible avec une autre condition où ce type de traitement est impossible. Les résultats mettent en évidence un avantage de la condition avec traitement visuel simultané possible, sur la mémorisation de l’orthographe des mots nouveaux. Cet avantage n’est pas dû à des différences de temps de présentation ou de temps de traitement des items entre les deux conditions et confirme donc que, au-delà des capacités de lecture-décodage, les capacités de traitement visuel simultané sont directement impliquées dans l’acquisition des connaissances orthographiques lexicales. / Word orthographic knowledge is necessary to develop expert and fast reading and correct orthographic production. Lexical orthographic acquisition is a complex and largely unknown process. This acquisition is mostly implicit during reading. It would depend on phonological decoding and on other factors not précised yet. Both theoretical and empirical data suggest that the simultaneous visual processing made during word reading could influence lexical orthographic acquisition. This hypothesis is assessed with both regression analyses and experimental studies. Regression analyses examine the relation between visual attention span (VAS), which estimates the maximal simultaneous processing abilities, and the lexical orthographic knowledge. Results show a significant relation between VAS and lexical orthographic knowledge when this knowledge is assessed with a dictation task or with a self-teaching test. This relation is specific because it doesn’t extent to grammatical orthographic knowledge. It exists independently of both visual-spatial working memory and reading skills. Experimental studies, both on children and adults, investigate the role of simultaneous visual processing on lexical orthographic acquisition during self-teaching. This investigation was done with two experimental conditions during the reading of novel words. In the whole word condition, the entire letter-string of a novel word was available at once, while in the partial word condition only sub-lexical parts of the word letter string were available at once. The results show an advantage of the whole word condition on the memorization of novel word orthographic forms. This advantage is not explained by differences of presentation time or of processing time between the two conditions, and confirms that, beyond the phonological decoding skills, simultaneous visual processing abilities of entire words are involved in lexical orthographic acquisition.
|
1340 |
Capteur d’humidité en Si poreux pour la fiabilité des systems in packageLudurczak, Willy 03 November 2008 (has links)
La problématique de cette thèse est l’amélioration de la fiabilité des systèmes électroniques encapsulés, concernant l’herméticité et les perturbations causées par les infiltrations d’humidité. Le travail consiste en l’étude d’un capteur pour mesurer in situ le taux d’humidité dans les cavités des systèmes encapsulés. Comparativement aux actuelles techniques d’évaluation de l’herméticité, l’intérêt du dispositif réside dans la généralisation du test à chaque cavité, le contrôle de l’atmosphère de la cavité sur une longue période d’utilisation, et la correction automatique de la dérive occasionnée (packaging intelligent). Deux structures en Si poreux (SP) ont été étudiées pour réaliser des capteurs, et ont d’abord été caractérisées d’un point de vue morphologique. Les deux couches ont la même porosité de 45 %. Les mesures de sorption d’azote appliquées aux théories BET et BJH ont montré que SP1 et SP2 présentaient respectivement des surfaces spécifiques de 330 et 223 m²/g, et des diamètres poreux moyens de 4,3 et 5.5 nm. Une nouvelle méthode de caractérisation basée sur le traitement d’image de surface de Si poreux est présentée. La méthode permet d’estimer les distributions de taille de pore (DTP), porosité, surface spécifique et fraction volumique d’oxyde. Elle est validée par la cohérence des résultats obtenus, comparés à ceux donnés par les théories de sorption. Outre le caractère complet de l’analyse, les avantages de cette méthode sont sa simplicité de mise en œuvre, sa non restriction à une gamme de taille de pores, et l’absence d’hypothèse mathématique sur l’estimation de la DTP. Les tests électriques ont montré que SP1 présentait une résistance supérieure à SP2 et que le capteur basé sur SP1 présentait une plus grande sensibilité vis-à-vis de la prise d’humidité : -90 % entre 0 et 80 % d’humidité relative. La spécificité du transport électrique dans les structures étudiées a été mise en évidence expérimentalement, conduisant à l’hypothèse d’une barrière de potentiels à l’interface Si - Si poreux. La plus grande résistance présentée par SP1 a été explicitée par sa plus grande fraction volumique d’oxyde, ainsi que les effets plus prononcés de confinement quantique et de déplétion de surface. L’utilité d’un capteur d’humidité in situ en Si poreux pour l’herméticité des systems in package a été démontrée par les résultats expérimentaux d’un prototype. / This work deals with the improvement of reliability of packaged electronic devices, concerning the hermeticity and the disturbances caused by moisture infiltration. As an analysis method of sealing quality of Systems in Package (SiP), a study of humidity sensors for in situ moisture level evaluation of SiP microcavities is presented. Compared to others analysis methods, the interest of the present one is its global utility for all manufactured chips, the capability to monitor the cavities atmosphere over a long period, and the possibility of automatic drifts correction. Two porous silicon (PS) based structures have been studied to make sensors. First we performed morphological analyses of PS layers. Both have a porosity of 45 %. Nitrogen sorption measurements applied to BET and BJH theories showed that PS1 and PS2 respectively present specific areas of 330 and 223 m²/g and mean pore diameters of 4.3 and 5.5 nm. A new analysis method based on processing of PS surface images is presented. It allows the estimation of pore size distribution (PSD), porosity, specific area, and volumic oxide ratio. The method has been validated by the closeness between its results and sorption theories results. In addition to the method’s completeness, it presents several advantages such as easy-to-use application, no restriction on PSD range, and no computing hypothesis on PSD evaluation. Electrical measurements showed that PS1 resistance is higher than PS2 resistance, and that sensitivity of PS1 based sensors exposed to moisture variation is superior: -90 % from 0 to 80 % relative humidity. Specificity of carriers transport in PS structures has been experimentally underlined; leading to the hypothesis of a potential barrier between PS and non porous Si. Higher resistance has been explained by the higher volumic oxide ratio of PS1, and the more developed quantum confinement and depletion surface effects. Utility of such in situ PS moisture sensor for SiP hermeticity has been demonstrated by preliminary experimental results.
|
Page generated in 0.0655 seconds