• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 481
  • 149
  • 60
  • 5
  • 1
  • Tagged with
  • 690
  • 299
  • 238
  • 176
  • 153
  • 98
  • 77
  • 75
  • 73
  • 72
  • 59
  • 51
  • 50
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
421

Modélisation, analyse et optimisation d’un largage de fusée spatiale depuis un porteur de type avion / Modeling, analysis, and optimization of the separation of a space rocket from a carrier aircraft

Sohier, Henri 28 November 2014 (has links)
Un système de lancement aéroporté est constitué d'un porteur de type avion larguant un lanceur à une certaine altitude. De tels systèmes sont l'objet d'un intérêt croissant, notamment pour la mise à poste de petits satellites. Les travaux présentés dans cette thèse s'intègrent dans le programme Perseus du CNES qui a déjà donné lieu à la construction d'un modèle réduit appelé EOLE. Il s'agit d'étudier la phase de largage, particulièrement sensible.Les contraintes de similitude pouvant permettre l'étude du largage taille réelle avec EOLE sont d'abord identifiées. Les possibilités d'extrapolation directe et déterministe des mesures réalisées avec EOLE étant limitées par le non respect d'une contrainte de masse, il est choisi d'étudier le largage avec une approche probabiliste en développant un nouveau modèle multi-corps. Une grande variété d'incertitudes est prise en compte, concernant par exemple aussi bien les interactions aérodynamiques que le mécanisme de séparation. Un nouveau critère de performance générique,basé sur des géométries élémentaires, est développé pour évaluer la fiabilité du largage.L'analyse de sensibilité du largage aux facteurs d'incertitude est ensuite réalisée. Compte tenu du nombre élevé de paramètres en jeu et du temps de simulation, il est d'abord recherché une simplification du modèle. La méthode de Morris est utilisée pour identifier des facteurs d'incertitude peu influents pouvant être fixés à une certaine valeur. Cette étape est fréquente, mais il est montré qu'il existe un risque important de fixer des facteurs dont l'influence a en fait été sous-estimée. Une adaptation de la méthode de Morris améliorant l'échantillonnage des facteurs, le calcul de leurs influences et le traitement statistique des résultats permet de réduire considérablement ce risque.Une fois l'impact des différentes incertitudes estimé, il a été possible d'optimiser les conditions de largage afin de réduire la probabilité qu'un problème intervienne. / In an air launch to orbit, a space rocket is launched from a carrier aircraft. Air launchto orbit appears as particularly interesting for small satellites. This Ph.D. thesis is part of the program Pegasus of the French space agency CNES and it follows the development of a small scale demonstrator called EOLE. It focuses on the very sensitive separation phase.The similitude constraints which have to be respected to study the large scale system with EOLEare first identified. A problem of mass limits the possibilities to directly extrapolate at a larger scale, in a deterministic approach, data obtained with EOLE. It is decided to study the separation in a probabilistic approach by developing a new multi-body model. A great variety of uncertainties are taken into account, from the aerodynamic interactions to the atmospheric turbulences, the separation mechanism, and the launch trajectories. A new performance criterion is developed to quantify the safety of the separation phase. It is based on elementary geometries and it could beused in other contexts.A sensitivity analysis is applied to estimate the influence of the uncertainties on the performance criterion. Given the large number of factors of uncertainty and the non-negligible simulation time,the model is first simplified. The Morris method is applied to identify the factors with a low influence which can be fixed to a given value. It is a frequent step, but it is shown that there isa high risk to fix the wrong factors. Any further study would then be altered. The risk to fix the wrong factors is significantly reduced by improving the factors sampling, the calculation of their influence, and the statistical treatment of the results. This new method is used to estimate the influence of the uncertainties at the separation and the safety is improved by optimizing launch trajectories.
422

Développement d’un capteur de gaz à base de couche hybride dioxyde d’étain / nanotubes de carbone / Development of gas sensor based on hybrid layer of tin oxide / carbon nanotubes

Ghaddab, Boutheina 24 February 2012 (has links)
L’objectif de cette étude est le développement d’un capteur de gaz à base de couche hybrideSnO2/SWNTs dans le but d’améliorer les performances des capteurs chimiques « classiques »uniquement constitués de dioxyde d’étain. En premier lieu, afin de maîtriser la synthèse dumatériau sensible, nous avons validé l’élaboration d’une couche sensible à base de dioxyded’étain préparée par procédé sol-gel. Le matériau synthétisé a été déposé par la technique ‘microgoutte’sur une micro-plateforme permettant simultanément le chauffage de la couche sensible etla mesure de sa conductance. L’étude des réponses électriques du capteur de gaz en présence dubenzène a permis de valider la possibilité d’utilisation du sol d’étain préparé pour la réalisation decouches sensibles aux gaz. En effet, des traces de benzène (500 ppb) ont été détectées à latempérature optimale de couche sensible de 420°C.Le second volet de cette étude repose sur la fabrication du matériau hybride obtenu par dispersiondes nanotubes de carbone dans un sol d’étain. Les couches sensibles élaborées par dip-coating àpartir du sol d’étain modifié par les nanotubes de carbone ont clairement montré la possibilité dedétection de divers gaz (ozone et ammoniac) à température ambiante. Ce résultat constitue l’undes points importants de ce travail de thèse dans la mesure où jusqu’à présent les capteurschimiques à base de dioxyde d’étain ne présentaient une forte sensibilité aux gaz que pour destempératures de fonctionnement de l’ordre de 350-400°C. Pour les deux gaz cibles étudiés dans lecadre de ce travail, la limite de détection à température ambiante a été évaluée à 1 ppm enprésence de NH3 et est inférieure à 20 ppb en présence d’ozone.La dernière partie de ce travail a porté sur l’optimisation des performances de détection descouches hybrides. Dans ce cadre, les expérimentations ont porté sur l’étude de l’influence dedivers paramètres tels que la quantité de nanotubes dans le matériau hybride, la température decalcination de la couche sensible, la température de fonctionnement ou encore les propriétésphysico-chimiques des nanotubes de carbone (mode de synthèse, diamètre,…) sur l’efficacité dedétection des couches sensibles. Les résultats ainsi obtenus en termes de performance de détectionont été discutés en relation avec les paramètres expérimentaux utilisés. / The objective of this study is to develop a gas sensor based on a hybrid layer of SnO2/SWNTs inorder to improve the performance of “Conventional” chemical sensors basically made from tinoxide. First, in order to control the synthesis of the sensitive material, we validated the elaborationof a sensitive layer based on tin dioxide prepared using the sol-gel process. The synthesizedmaterial was deposited by the 'microdrop' technique on a micro-platform which simultaneouslyallows the heating of the sensitive layer whilst also measuring its conductance. The study of theelectrical responses of the gas sensor in the presence of benzene has allowed us to validate thepossibility of using our prepared tin sol for the realization of gas sensitive layers. In fact, it waspossible to detect benzene at traces with an optimal temperature of the sensing layer found to be420ºC.The second part of this study describes the synthesis of the hybrid sensor obtained by dispersingSWNTs in the tin-oxide based sol. The sensitive layers made by dip-coating from the carbonnanotubes modified tin sol have clearly shown the possibility of detecting various gases (ozoneand ammonia) at room temperature. This result is one the most important points of this work tothe extent that until now the chemical sensors based on tin dioxide only showed a high sensitivityto gases when they were operated at temperatures in the range of 350 - 400ºC. Concerning the twotarget gases tested in this work, the detection limit at room temperature was evaluated at 1 ppm inthe presence of NH3 and was lower than 20 ppb in the presence of ozone.The last part of this work has focused the optimization of the detection performance of thesensitive layers. In this case, the experimental study was oriented towards examination of theeffect of various parameters such as the amount of nanotubes in the hybrid material, thecalcination temperature of the sensitive layer, the sensor working temperature and also thephysico-chemical properties of the carbon nanotubes (synthesis method, diameter...) on thedetection efficiency of the sensing layers. The results obtained in terms of detection performancewere discussed in relation to the experimental parameters used.
423

Performances, modélisation et limites d'un procédé à lit fluidisé associant culture libre et fixée (IFAS) pour le traitement du carbone et de l'azote des eaux résiduaires / Performance, modeling and boundaries of a fluidized bed process combining free and fixed biomass (IFAS) for carbon and nitrogen removal of wastewater

Moretti, Paul 09 November 2015 (has links)
Motivées par des normes de rejets en azote toujours plus sévères et par les besoins d'extension de certaines stations d'épuration, les agglomérations sont à la recherche de nouvelles technologies de traitement plus compactes et plus performantes. Dans ce sens, le procédé hybride, à lit fluidisé placé dans un réacteur de type boues activées (IFAS), est une nouvelle technologie de traitement du carbone et de l'azote très attractive. L'objectif de cette thèse est d'optimiser le dimensionnement du procédé IFAS en configuration trois bassins (anoxie/aérobie BA/aérobie IFAS) et d'apporter des recommandations sur la conduite du procédé (charge massique appliquée, température.). Pour cela, une double démarche expérimentale et numérique a été mise en place. Un pilote de 3 m3 alimenté en eau usée brute a été conçu, instrumenté et étudié pendant 2 ans au cours de 7 périodes stabilisées (entre 0,15 et 0,30 kgDBO5/kgMVSLM/j, température entre 10 et 22°C, et le séquençage de l'aération dans les bassins). La concentration en MES dans la liqueur mixte a été maintenue à 2,3 gMES/L et la concentration en oxygène entre 2 à 6 mgO2/L. Les capacités de nitrification du biofilm et de la liqueur mixte (NPRmax) ont été mesurées tous les 15 jours. Les performances d'élimination de l'azote (nitrification et dénitrification) et du carbone observées sont restées supérieur à 90% d'élimination pour une charge massique maximale de 0,30 kgDBO5/kgMVSLM/j entre 16 à 24°C. Le biofilm dispose d'une capacité de nitrification maximale de 0,90 gN/m2/j et tributaire des concentrations en oxygène dans la liqueur mixte (contraintes diffusionnelle). Le biofilm contribue en moyenne à hauteur de 60% du flux total nitrifié dans le réacteur IFAS pour des âges de boues < 5 jours à 16°C. La diminution du MLSRT en dessous de 4 jours a permis de limiter le développement des bactéries autotrophes dans la liqueur mixte (minimum 10% du flux total nitrifié par la liqueur mixte) mais pas de les supprimer totalement (apport de nitrifiante par détachement de biofilm) / Motivated by the increasingly demanding discharge consents and by the need to improve overall treatment capacity, water authorities are uninterruptedly examining better performing and more compact wastewater treatment technologies. Thanks to its compactness and to its capacity to treat both organic matter and nitrogen at an affordable cost, the IFAS process represents an attractive addition to improve retrofitting-activated sludge plants performance. The main objective of this thesis is to optimize IFAS process with regards to key operation parameters such as dimensioning, F/M ratio by combining experimental and mathematical modelling approaches. A 3 m3 pilot IFAS fed with raw wastewater was operated at the experimental hall of La Feyssine wastewater treatment plant, Villeurbanne, for a period of 2 years. The IFAS process was separated in 3 tanks to treat organic matter and total nitrogen separately (anoxic/aerobic, suspended/aerobic IFAS). The experimental study was divided in 7 periods with different steady state operation conditions each. The feasibility of nitrification at steady F/M ratios (between 0,1S to 0,30 kgBODS/kgMLVSS/d), at constant temperatures (between 10 - 22°C) and at different oxygen supply rates was investigated. TSS in mixed liquor were maintained at 2,3 gMLTSS/L and oxygen concentration between 2 to 6 mgO2/L. Biofilm mass and combined nitrification capacity of biofilm and mixed liquor (NPRmax) were measured on a weekly basis. The removal performance was up to 90% for nitrogen and carbon treatment with a maximal F/M ratio of 0,30 kgBODS/kgMLVSS/d between 16°C to 24 °C. The biofilm was able to nitrify 0,90 gN/m2/d (NPRmax) depending on the oxygen concentration in the mixed liquor (diffusional limitation). Under the operating conditions tested in this study, biofilm was responsible for 40 to 70% of NOx-N production in IFAS reactor during nitrification. Decreasing the MLSRT to less than 4 days limits the growth of autotrophic bacteria in the mixed liquor but does not halt it completely
424

Identification des paramètres de bioprocédés environnementaux à partir des mesures accessibles issues de la respiration / Parameters indentification of environmental bioprocesses unsing accessibles measurements from respiration

Lemaire, Cyril 29 June 2015 (has links)
Les bioprocédés environnementaux prennent une place de plus en plus importante dans le paysage industriel mondial. La complexité et la diversité des processus impliqués dans les réactions biologiques de dégradation des polluants limitent considérablement la compréhension et l’utilisation de ces procédés. De plus, les mesures disponibles pour le suivi de cette activité sont souvent hors-ligne et/ou indirectes. Dans ce cadre, les outils de modélisation phénoménologique permettent, via le choix d’hypothèses judicieuses, de lier les observations du système aux processus biologiques sous-jacents. Ces méthodes nécessitent néanmoins l’application d’une étude rigoureuse d’identifiabilité afin de pouvoir exploiter correctement les résultats obtenus. Les modèles ainsi développés permettent de capitaliser des connaissances sur la description des processus biologiques grâce aux mesures effectuées sur le système. Cette approche a été développé au travers de deux cas d’étude, correspondant à deux domaines d’application industrielle. La bioremédiation des sols contaminés aux hydrocarbures constitue la méthode la plus écologique de traitement des sols. Néanmoins, le processus de biodégradation peut être long, voire inexistant en fonction des conditions environnementales. Afin de mesurer l’efficacité de la dégradation, la mesure de la respiration en phase gaz apparaît comme étant l’observation la plus facile à mettre en œuvre. Le problème est que la simple mesure de la consommation d’oxygène est généralement insuffisante. Pour répondre à cette limite, un modèle capable d’expliquer les évolutions du quotient respiratoire apparent grâce aux différentes étapes de la biodégradation a été développé. Cette mesure pourrait alors donner une indication sur l’efficacité de la biodégradation. La seconde partie de ce travail, plus conséquente, s’intéresse à l’épuration des eaux usées par boues activées, elle reprend et amplifie l’approche méthodologique développée pour la biomédiation des sols. L’efficacité de ce traitement des eaux est grandement liée à la production de boues en excès, exprimée par le rendement hétérotrophe. Ce paramètre difficile à maitriser constitue une information primordiale pour la modélisation et la conduite des stations d’épurations. Il apparaît néanmoins que sa définition usuelle ne suffit pas à expliquer ses variations observées. Dans ce cadre, différents modèles phénoménologiques issus des travaux du groupe de travail ASM (Activated Sludge Modeling) ont été étudiés afin de décrire les variations de ce rendement apparent en introduisant les hypothèses réactionnelles liées au stockage du substrat. Une étude expérimentale en laboratoire a permis de confronter ces hypothèses à des mesures de dégradation de substrats purs par des boues activées en respiromètre. L’équilibre entre le stockage du substrat et la croissance bactérienne a ainsi été proposé comme source d’influence majeure sur la valeur du rendement. Ce travail a abouti à une clarification nécessaire de la définition du rendement hétérotrophe. / Environmental bioprocesses are gaining importance in the industrial landscape. Nevertheless, the complexity of mechanisms involved in biological reactions stays an issue for their implementation. Moreover, available measurements of biological activity are often off-tine and/or indirect. ln this context, phenomenological modeling tools are a solution to link observations of the system to underlying biological reactions, considering the right hypotheses. These methods require a rigorous sensitivity analysis in order to properly process the results. Thus, the models permit to obtain precise knowledge about biological systems thanks to indirect measurement. This approach was developed throughout two cases of study corresponding to two industrial fields of application. Bioremediation is the most ecological method for hydrocarbons contaminated soils remediation. Nevertheless, biodegradation can be long or absent depending on environmental conditions. In order to measure its efficiency, respiration measurement in the gas phase seems to be the easiest observation to implement. Oxygen measurement can be insufficient on its own, that is why a model able to describe the evolution of the apparent respiratory quotient has been developed considering the different steps of biodegradation. This observation alone could give insights on the efficiency of biodegradation. The second part of this work deals with activated sludge wastewater treatment using the theoretical approach developed for soil bioremediation. The eftïciency ofthe process depends on the excess production of sludge, which is linked to the heterotrophic yield of the reaction. This parameter is a key component for modeling and optimization of wastewater treatment plant. Most of the time, its common definition is not sufficient to explain its observed variations. In this context, several phenomenological models derived from the activated sludge models were studied to explain these variations, taking into account the substrate storage process. An experimental study was conducted in order to confront the reactional hypothesis of the models to actual measurements of single substrate degradations in respirometer. The balance between substrate storage and direct growth was proposed as a main component of the yield value. This study resulted in a necessary clarification of the heterotrophic yield definition.
425

Apport et utilisation des méthodes d’inférence bayésienne dans le domaine des études cliniques diagnostiques / Contribution and use of Bayesian inference methods in the field of clinical diagnostic studies

Bastide, Sophie 16 December 2016 (has links)
Les études diagnostiques correspondent à l’ensemble des études cliniques qui ont pour objectif l’évaluation d’un nouveau test diagnostique. Dans la démarche d’évaluation, l’étape centrale est l’évaluation de la performance du nouveau test par estimation de sa sensibilité et de sa spécificité. De manière classique, la performance du nouveau test est évaluée par comparaison à un test de référence supposé parfait, appelé un « gold standard » qui permet la connaissance du statut réel de chaque sujet vis-à-vis de la pathologie étudiée. Cependant, dans de très nombreuses situations cliniques, différentes difficultés existent : l’absence de gold standard parfait, l’impossibilité de réalisation du gold standard à tous les sujets, la dépendance des résultats des tests réalisés, la variabilité de la sensibilité et/ou de la spécificité du test en fonction de certaines conditions de réalisation, la multiple réalisation du test dans le temps ou sa multiple interprétation.Une revue méthodologique systématique a été effectuée pour faire l’état des lieux des méthodes d’inférence bayésienne disponibles dans les études diagnostiques et de leur utilisation en pratique. Le focus sur les méthodes bayésiennes a été retenu du fait de leurs avantages théoriques contrastant avec leur relative sous-utilisation dans le domaine médicale. Actuellement, de nombreuses méthodes ont été proposées pour répondre à ces différentes difficultés, avec des développements très complexes en cas de combinaison de plusieurs difficultés dans une même situation. Nous avons ainsi pu établir une cartographie des combinaisons de méthodes disponibles. Cependant leur utilisation en clinique reste encore limitée, même si elle est en augmentation ces dernières années.En pratique, nous avons été confrontés à la problématique du diagnostic de pneumopathie à Pneumocystis jirovecii (PJ) (champignon ubiquitaire opportuniste responsable de mycose profonde chez les patients immunodéprimés). Dans ce projet, nous disposions des résultats de quatre techniques de PCR (Polymerase chain reaction) différentes mais sans gold standard, avec la difficulté supplémentaire de dépendance conditionnelle entre les tests du fait du principe commun à l’origine de ces quatre tests. Deux développements ont été réalisés en parallèle pour répondre à cette problématique : d’une part, un travail sur les méthodes d’élicitation des informations a priori adaptées spécifiquement aux études diagnostiques, et d’autre part, un travail de mise en œuvre d’un modèle statistique adapté à la problématique de quatre tests dépendants en l’absence de gold standard. En l’absence de données informatives dans la littérature, l’élicitation des a priori, étape obligatoire pour l’utilisation des méthodes d’inférence bayésienne, est réalisée par l’interrogation d’experts du domaine. Notre travail a consisté en une adaptation des méthodes existantes, disponibles dans le domaine des essais cliniques, spécifiquement aux études diagnostiques pour obtenir des a priori informatifs. Cette méthode a été appliquée à notre cas des PCR diagnostiques pour PJ. L’estimation des performances diagnostiques des tests en l’absence de gold standard repose de manière efficiente sur les modèles à classes latentes. Trois modèles ont été développés pour le cas de deux tests diagnostiques : un modèle à indépendance conditionnelle, un modèle à dépendance conditionnelle à effets fixes et un modèle à dépendance conditionnelle à effets aléatoires. Nous proposons dans cette thèse une adaptation de ces trois modèles à la situation de quatre tests diagnostiques avec une formulation des paramètres permettant une interprétation clinique des covariances entre les tests dans un souci de transmission des méthodes de la théorie à la pratique. Une application et une comparaison de ces modèles ont été faites pour l’estimation des sensibilités et spécificités des quatre techniques de PCR à PJ en utilisant les a priori informatifs obtenus auprès des experts. / Diagnostic studies include all clinical studies the aim of which is the evaluation of a new diagnostic test. In the evaluation process, the main step is the evaluation of the performance of the new test i.e. its sensitivity and specificity. Usually, the performance of a new test is assessed by comparison to a test of reference which is supposed to be perfect, i.e. a "gold standard", and specifies the actual patient’s status for the disease of interest (“Diseased” or “Not-Diseased” status). However, in many clinical situations, different pitfalls exist such as (i) a gold standard is not available, (ii) the gold standard is not applicable to all patients, (iii) a conditional dependence exists between test results, (iv) the performance of a test is not constant and depends on the conditions of achievement of the test, (v) the tests are repeated in time or by several machines or read by several readers, together with multiple interpretation of the results. A systematic methodological review has been performed to inventory all Bayesian inference methods available in the field of diagnostic studies and their use in practice. The focus on Bayesian methods was based on the theoretical advantages of these methods contrasting with their relative underutilization in the medical field. Finally, several interesting methods have been proposed to address methodological issues of diagnostic studies, with very complex developments when several issues were combined in the same clinical situation. We propose to map the development methods and combinations that have already been done or not. However, their clinical use is still limited, although it has increased in recent years.In practice, we met the problem of the diagnosis of pneumonia due to Pneumocystis jirovecii (PJ). PJ is an ubiquitous opportunistic fungus leading to deep mycosis in immunocompromised patients. In this study, the results of four PCR (polymerase chain reaction) assays were available, but without any gold standard, and the supplementary difficulty of conditional dependence between tests because the four tests were based on the same principle. Two works were performed in parallel to address this issue: on one hand, an adaptation of methods to elicit prior information specifically in diagnostic studies, and on the other hand, the implementation of specific Bayesian statistical models adapted to the context of four-dependent tests in the absence of gold standard. When informative information is not available in the literature, the elicitation of priors, the mandatory first step of a Bayesian inference, is carried out by registering experts’ beliefs in the field. Our work consisted in an adaptation of existing methods, available in clinical trials, specifically for diagnostic studies to obtain informative priors. We then applied this method to our four PJ PCR assays. Estimation of the diagnostic test performance in absence of gold standard is efficiently based on latent class models (LCM). Three LCM were developed for the case of two diagnostic tests: a simple LCM assuming conditional independence between tests, a fixed effects LCM and a random effects LCM providing an adjustment for conditional dependence between tests. We extended these three models to a situation where four diagnostic tests are involved and proposed a formulation that enables an interpretation of between tests covariances in a clinical perspective in order to bind theory to practice. These models were then applied and compared in an estimation study of the sensitivities and specificities of the four PJ PCR assays, by using informative priors obtained from experts.
426

Transistor silicium en couche mince à base de nano-particules de PbS : un efficace phototransistor pour la détection de lumière infrarouge / Silicon thin film transistor based on PbS nano-particles : an efficient phototransistor for the detection of infrared light

Liu, Xiang 27 December 2016 (has links)
Le phototransistor est un nouveau type de photo-détecteur avec une structure MOSFET spéciale qui peut non seulement convertir la lumière absorbée en variation de courant, mais également auto-amplifier ce photo-courant. En particulier, avec des progrès continus dans la synthèse des points Quantum Dots (QDs), les caractères optiques et électriques uniques renforcent le coefficient d'absorption et la génération des trous d'électrons par des processus intégrés faciles. Dans cette thèse, on a synthétisé les PdS infrarouges PbS avec une large absorption infrarouge (IR) (600-1400 nm) et un rendement élevé pour être mélangés avec l'isolateur de porte SU8 des TFT à faible température de poly-silicium (LTPS). Grâce à l'utilisation de cet isolateur de porte photo-sensoriel hybride, ces LTPS TFT peuvent encore obtenir d'excellentes performances électriques telles qu'une mobilité suffisante (3.1 cm2 / Vs), des caractères TFT stables, un rapport marche / arrêt raisonnable (104 ~ 105) et une tension sous-seuil /Déc). De plus, en cas d'exposition à la lumière infrarouge incidente, la sensibilité élevée (1800 A/W) et la sensibilité non négligeable (13 A/W) se trouvent respectivement à 760 nm et 1300 nm. De plus, la photosensibilité atteint également jusqu'à 80 et le temps de réponse est d'environ 30 ms pendant un balayage du signal IR pulsé. Elle prend des mesures concrètes pour l'application générale du phototransistor IR. / Phototransistor is a novel type of photodetector with special MOSFET structure which can not only convert absorbed light into variation of current but also self-amplify this photocurrent. Especially, with continual advances in quantum dots' (QDs) synthesis, the unique optical-electrical characters reinforce absorption coefficient and electron-hole's generation by easy integrated processes. In this thesis, the infrared PbS QDs with wide infrared (IR) absorption (600-1400 nm) and high efficiency were synthesized to be blended with SU8 gate insulator of Low-Temperature-Poly-Silicon (LTPS) TFTs. Through using this hybrid photo-sensing gate insulator, this LTPS TFTs can still obtain excellent electrical performance such as enough mobility (3.1 cm2/Vs), stable TFT's characters, reasonable on/off ratio (104~105) and subthreshold voltage (3.2 V/Dec). Moreover, under incident IR light's exposure, the high responsivity (1800 A/W) and not negligible responsivity (13 A/W) can be found at 760 nm and 1300 nm respectively. In addition, the photosensitivity also reaches up to 80 and the response time is approximately 30 ms during a pulsed IR signal's scanning. It takes concrete steps forward for the broad application of IR phototransistor.
427

Étude de la sensibilité aux antibiotiques et aux peptides antimicrobiens humains de Legionella pneumophila / Study of the susceptibility to antibiotics and antimicrobial peptides of Legionella pneumophila

Vandewalle-Capo, Marine 16 December 2016 (has links)
Legionella pneumophila (Lp) est un pathogène accidentel de l'homme capable d'infecter les macrophages alvéolaires et les pneumocytes. Au cours de l'infection, Legionella se confronte à différents types d'agents antibactériens, dont les peptides antimicrobiens (PAMs) produit par l'hôte et les antibiotiques à activité intracellulaire administrés aux patients. Le mécanisme d'action des PAMs humains à l'encontre de Legionella, ainsi que le niveau de résistance aux antibiotiques de la bactérie sont à ce jour encore peu documentés. Mes travaux ont pour but de contribuer à une meilleure connaissance de l'activité anti-Legionella de ces molécules. La première partie de cette étude a consisté à évaluer la sensibilité d'isolats cliniques de Lp sg 1 à 8 antibiotiques, afin de déterminer le seuil épidémiologique de sensibilité de la bactérie à ces différentes molécules. Nous avons démontré que l'ensemble des isolats cliniques sont sensibles aux antibiotiques testés. Les résultats ont révélé l'existence d'une sous-population présentant une sensibilité réduite aux macrolides. L'analyse des génomes a permis de corréler cette sensibilité diminuée à la présence de la pompe à efflux LpeAB spécifique des macrolides. Cette pompe est présente uniquement dans trois complexes clonaux centrés sur le ST1, le ST701 et le ST1335.La seconde partie de cette étude a été consacrée à la caractérisation de l'activité antibactérienne des PAMs humains LL-37 et HBD-3, ainsi qu'à l'identification de leur(s) mécanisme(s) d'action contre Legionella. L'ensemble des tests réalisés montre que LL-37 et HBD-3 induisent une perte de cultivabilité des légionelles par des modes d'action différents. Les résultats suggèrent que LL-37 agit par perméabilisation des membranes de L. pneumophila. Nos résultats ont également montré que les deux peptides exercent une activité inhibitrice sur la réplication intracellulaire des légionelles, au moins en partie grâce à une collaboration avec la cellule hôte / Legionella pneumophila (Lp) is an accidental human pathogen which can infect alveolar macrophages and pneumocytes. During infection, Legionella have to deal with to various types of antibacterial agents, such as antimicrobial peptides (AMPs) produced by the host, and antibiotics with intracellular activity administered to patients. The mechanism of action of human AMPs against Legionella, and the resistance level to antibiotics of the bacterium are still poorly described. Our work aimed to contribute to a better understanding of the anti-Legionella activity of these molecules. The first part of this study consisted in the evaluation of the susceptibility of clinical Lp sg1 isolates to 8 antibiotics, to determine the epidemiological cut-off values of these different molecules. We demonstrated that all clinical isolates are susceptible to the tested antibiotics. The results revealed the presence of a subpopulation displaying a reduced susceptibility to macrolides. The analysis of the genomes allowed us to correlate this reduced susceptibility to le presence of the LpeAB macrolides efflux pump, found specifically in the sequence types ST1, ST701 and ST1335.The second part of this study was dedicated to the characterization of the antibacterial activity of the human AMPs LL-37 and HBD-3, and to the identification of their mechanism(s) of action against Legionella. All of the experiments show that LL-37 and HBD-3 induce a loss of cultivability by different mode of action. The results suggest that LL-37 is able to permeabilize the membrane of the L. pneumophila cells. Our findings also show that both peptides inhibit the intracellular replication of L. pneumophila, in part through collaboration with the host cell
428

Modélisation hydraulique à surface libre haute-résolution : utilisation de données topographiques haute-résolution pour la caractérisation du risque inondation en milieux urbains et industriels / High-resolution modelling with bi-dimensional shallow water equations based codes : high-resolution topographic data use for flood hazard assessment over urban and industrial environments

Abily, Morgan 11 December 2015 (has links)
Pour l'évaluation du risque inondation, l’emploi de modèles numériques 2D d’hydraulique à surface libre reposant sur la résolution des équations de Saint-Venant est courant. Ces modèles nécessitent entre autre la description de la topographie de la zone d’étude. Sur des secteurs urbains denses ou des sites industriels, cette topographie complexe peut être appréhendée de plus en plus finement via des technologies dédiées telles que le LiDAR et la photogrammétrie. Les Modèles Numériques d'Elévation Haute Résolution (HR MNE) générés à partir de ces technologies, deviennent employés dans les études d’évaluation du risque inondation. Cette thèse étudie les possibilités, les avantages et les limites, liées à l'intégration des données topographiques HR en modélisation 2D du risque inondation en milieux urbains et industriels. Des modélisations HR de scénarios d'inondation d'origines pluviale ou fluviale sont testés en utilisant des HR MNE crées à partir de données LiDAR et photo-interprétées. Des codes de calculs (Mike 21, Mike 21 FM, TELEMAC-2D, FullSWOF_2D) offrant des moyens différent d'intégration de la donnée HR et basés sur des méthodes numériques variées sont utilisés. La valeur ajoutée de l'intégration des éléments fins du sur-sol impactant les écoulements est démontrée. Des outils pour appréhender les incertitudes liées à l'emploi de ces données HR sont développés et une analyse globale de sensibilité est effectuée. Les cartes d'indices de sensibilité (Sobol) produites soulignent et quantifient l'importance des choix du modélisateur dans la variance des résultats des modèles d'inondation HR ainsi que la variabilité spatiale de l'impact des paramètres incertains testés. / High Resolution (infra-metric) topographic data, including LiDAR photo-interpreted datasets, are becoming commonly available at large range of spatial extent, such as municipality or industrial site scale. These datasets are promising for High-Resolution (HR) Digital Elevation Model (DEM) generation, allowing inclusion of fine aboveground structures that influence overland flow hydrodynamic in urban environment. DEMs are one key input data in Hydroinformatics to perform free surface hydraulic modelling using standard 2D Shallow Water Equations (SWEs) based numerical codes. Nonetheless, several categories of technical and numerical challenges arise from this type of data use with standard 2D SWEs numerical codes. Objective of this thesis is to tackle possibilities, advantages and limits of High-Resolution (HR) topographic data use within standard categories of 2D hydraulic numerical modelling tools for flood hazard assessment purpose. Concepts of HR topographic data and 2D SWE based numerical modelling are recalled. HR modelling is performed for : (i) intense runoff and (ii) river flood event using LiDAR and photo-interpreted datasets. Tests to encompass HR surface elevation data in standard modelling tools ranges from industrial site scale to a megacity district scale (Nice, France). Several standard 2D SWEs based codes are tested (Mike 21, Mike 21 FM, TELEMAC-2D, FullSWOF_2D). Tools and methods for assessing uncertainties aspects with 2D SWE based models are developed to perform a spatial Global Sensitivity Analysis related to HR topographic data use. Results show the importance of modeller choices regarding ways to integrate the HR topographic information in models.
429

Etude de l'impact des incertitudes dans l'évaluation du risque NRBC provoqué en zone urbaine / A study on the impact of uncertainties in the risk assessment of CBRN scenarios in urban areas

Margheri, Luca 13 November 2015 (has links)
La dispersion d'agents biologiques hautement pathogène dans une zone urbanisée après un acte terroriste est l'une des situations que les agences de sécurité nationales ont besoin d'évaluer en termes des risques et de la prise de décision. La simulation numérique des écoulements turbulents dans les zones urbaines, y compris la surveillance de la dispersion des polluants, a atteint un niveau de maturité suffisant pour faire des prédictions sur les zones urbaines réalistes jusqu'à 4 km2. Les simulations existantes sont déterministes dans le sens que tous les paramètres qui définissent le cas étudié (l'intensité et la direction du vent, la stratification atmosphérique, l'emplacement de la source des émissions, etc.) devraient être bien connu. Cette précision ne peut être atteint dans la pratique en raison d'un manque de connaissances sur la source d'émissions et de l'incertitude aléatoire intrinsèque des conditions météorologiques.Pour augmenter la contribution de la simulation numérique pour l'évaluation des risques et la prise de décision, il est essentiel de mesurer quantitativement l'impact d'un manque de connaissances en termes de résolution spatiale et temporelle des zones de danger.L'objet de cette thèse est d'appliquer des méthodes de quantification d'incertitude pour quantifier l'impact de ces incertitudes dans l'évaluation des zones de danger à moyenne portée dans des scénarios de dispersion de gaz toxiques. Une méthode hybride c-ANOVA et POD/Krigeage permet d'envisager jusqu'à 5 paramètres incertains dans une simulation 3D-CFD haute fidélité non-stationnaire de la dispersion d'un gaz toxique provenant d'une source type flaque dans une zone urbaine de 1km2. / The dispersion of highly pathogenic biological agents in an urbanized area following a terrorist act is one of the situations that national security agencies need to evaluate in terms of risk assessment and decision-making. The numerical simulation of turbulent flows in urban areas, including monitoring the dispersion of pollutants, has reached a sufficient level of maturity to make predictions on realistic urban zones up to 4 square kilometers. However, the existing simulations are deterministic in the sense that all the parameters that define the case studied (intensity and wind direction, atmospheric stratification, source of emissions location, quantity of injected toxic agent, etc.) should be well known. Such precision cannot be achieved in practice due to a lack of knowledge about the source of emission and the intrinsic aleatoric uncertainty of the meteorological conditions. To significantly increase the contribution of numerical simulation for risk assessment and decision-making, it is essential to quantitatively measure the impact of a lack of knowledge especially in terms of spatial and temporal resolution of the danger zones. The object of this thesis is to apply uncertainty quantification methods to quantify the impact of these uncertainties in the evaluation of the danger zones in medium range toxic gas dispersion scenarios. A hybrid method merging c-ANOVA and POD/Kriging allows to consider up to 5 uncertain parameters in a high-fidelity unsteady 3D-CFD simulation of the dispersion of a toxic gas from a pond-like source in an urban area of 1km2.
430

Vieillissement des batteries Li-ion de traction : des mécanismes vers le vieillissement accéléré / Study of the lithium ion batteries ageing : from mechanisms to accelerated ageing

Edouard, Clément 13 October 2015 (has links)
En raison de leurs performances en termes de densités énergétiques et de puissance, les batteries Li-ion sont les systèmes de stockage électrique privilégiés pour les nouvelles générations de véhicules électriques. Leur modélisation est indispensable pour fournir une évaluation de leurs performances tout au long de leur durée de vie tout en limitant le nombre d'essais expérimentaux, et ceci dans le but de concevoir des configurations et des gestions optimales des packs batteries pour une application envisagée. Le but de ce travail consiste à proposer un modèle physique capable de prédire le comportement et le vieillissement de la batterie sous différentes conditions. Un modèle simplifié électrochimique et thermique capable de prédire le comportement physicochimique et le vieillissement de batteries Li-ion a été étudié. Une analyse de sensibilité a été menée sur l'ensemble des paramètres du modèle dans différentes conditions afin de mettre en évidence leurs influences sur les sorties du modèle. Sur cette base, une méthode d'identification a été proposée pour préserver une indépendance des résultats de l'identification paramétrique par rapport à la sensibilité des paramètres. Cette méthode a permis d'améliorer les prédictions de vieillissement avec des estimations très proches des résultats expérimentaux. Au-delà des gains en compréhension et prédiction, ce modèle physique ouvre de nouvelles possibilités pour établir des protocoles de vieillissement accélérés. / Due to their high power and energy densities, Li-ion batteries are the leading systems for the new generations of electric vehicles, for which an optimum cell design, management and configuration is essential. Modeling provides tools to perform complex analysis of the performance of Li-ion batteries and reduces the amount of time spent on experimental testing. The aim of our research is to propose a physics-based model that can predict battery behavior and aging under various conditions during the entire lifespan. A simplified electrochemical and thermal model that can predict both physicochemical and aging behaviors of Li-ion batteries has been studied. A sensitivity analysis of all its physical parameters has been performed in order to find out their influence on the model outputs based on simulations under various conditions. The results gave hints on whether a parameter needs particular attention when measured or identified and on the conditions under which it is the most sensitive. A specific simulation profile has been designed for parameters involved in aging equations in order to determine their sensitivity. Finally, a step-wise method has been followed to limit the influence of parameter values when identifying sorne of them. This sensitivity analysis and the subsequent step-wise identification method show very good results, such as a better fitting of the experimental data with simulated cell voltage. Beyond advanced comprehension and prediction, this physical model opens new possibilities to define accelerated aging tests.

Page generated in 0.0444 seconds