• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 478
  • 148
  • 59
  • 5
  • 1
  • Tagged with
  • 685
  • 299
  • 238
  • 176
  • 153
  • 98
  • 77
  • 74
  • 73
  • 71
  • 58
  • 50
  • 50
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
421

Identification des paramètres de bioprocédés environnementaux à partir des mesures accessibles issues de la respiration / Parameters indentification of environmental bioprocesses unsing accessibles measurements from respiration

Lemaire, Cyril 29 June 2015 (has links)
Les bioprocédés environnementaux prennent une place de plus en plus importante dans le paysage industriel mondial. La complexité et la diversité des processus impliqués dans les réactions biologiques de dégradation des polluants limitent considérablement la compréhension et l’utilisation de ces procédés. De plus, les mesures disponibles pour le suivi de cette activité sont souvent hors-ligne et/ou indirectes. Dans ce cadre, les outils de modélisation phénoménologique permettent, via le choix d’hypothèses judicieuses, de lier les observations du système aux processus biologiques sous-jacents. Ces méthodes nécessitent néanmoins l’application d’une étude rigoureuse d’identifiabilité afin de pouvoir exploiter correctement les résultats obtenus. Les modèles ainsi développés permettent de capitaliser des connaissances sur la description des processus biologiques grâce aux mesures effectuées sur le système. Cette approche a été développé au travers de deux cas d’étude, correspondant à deux domaines d’application industrielle. La bioremédiation des sols contaminés aux hydrocarbures constitue la méthode la plus écologique de traitement des sols. Néanmoins, le processus de biodégradation peut être long, voire inexistant en fonction des conditions environnementales. Afin de mesurer l’efficacité de la dégradation, la mesure de la respiration en phase gaz apparaît comme étant l’observation la plus facile à mettre en œuvre. Le problème est que la simple mesure de la consommation d’oxygène est généralement insuffisante. Pour répondre à cette limite, un modèle capable d’expliquer les évolutions du quotient respiratoire apparent grâce aux différentes étapes de la biodégradation a été développé. Cette mesure pourrait alors donner une indication sur l’efficacité de la biodégradation. La seconde partie de ce travail, plus conséquente, s’intéresse à l’épuration des eaux usées par boues activées, elle reprend et amplifie l’approche méthodologique développée pour la biomédiation des sols. L’efficacité de ce traitement des eaux est grandement liée à la production de boues en excès, exprimée par le rendement hétérotrophe. Ce paramètre difficile à maitriser constitue une information primordiale pour la modélisation et la conduite des stations d’épurations. Il apparaît néanmoins que sa définition usuelle ne suffit pas à expliquer ses variations observées. Dans ce cadre, différents modèles phénoménologiques issus des travaux du groupe de travail ASM (Activated Sludge Modeling) ont été étudiés afin de décrire les variations de ce rendement apparent en introduisant les hypothèses réactionnelles liées au stockage du substrat. Une étude expérimentale en laboratoire a permis de confronter ces hypothèses à des mesures de dégradation de substrats purs par des boues activées en respiromètre. L’équilibre entre le stockage du substrat et la croissance bactérienne a ainsi été proposé comme source d’influence majeure sur la valeur du rendement. Ce travail a abouti à une clarification nécessaire de la définition du rendement hétérotrophe. / Environmental bioprocesses are gaining importance in the industrial landscape. Nevertheless, the complexity of mechanisms involved in biological reactions stays an issue for their implementation. Moreover, available measurements of biological activity are often off-tine and/or indirect. ln this context, phenomenological modeling tools are a solution to link observations of the system to underlying biological reactions, considering the right hypotheses. These methods require a rigorous sensitivity analysis in order to properly process the results. Thus, the models permit to obtain precise knowledge about biological systems thanks to indirect measurement. This approach was developed throughout two cases of study corresponding to two industrial fields of application. Bioremediation is the most ecological method for hydrocarbons contaminated soils remediation. Nevertheless, biodegradation can be long or absent depending on environmental conditions. In order to measure its efficiency, respiration measurement in the gas phase seems to be the easiest observation to implement. Oxygen measurement can be insufficient on its own, that is why a model able to describe the evolution of the apparent respiratory quotient has been developed considering the different steps of biodegradation. This observation alone could give insights on the efficiency of biodegradation. The second part of this work deals with activated sludge wastewater treatment using the theoretical approach developed for soil bioremediation. The eftïciency ofthe process depends on the excess production of sludge, which is linked to the heterotrophic yield of the reaction. This parameter is a key component for modeling and optimization of wastewater treatment plant. Most of the time, its common definition is not sufficient to explain its observed variations. In this context, several phenomenological models derived from the activated sludge models were studied to explain these variations, taking into account the substrate storage process. An experimental study was conducted in order to confront the reactional hypothesis of the models to actual measurements of single substrate degradations in respirometer. The balance between substrate storage and direct growth was proposed as a main component of the yield value. This study resulted in a necessary clarification of the heterotrophic yield definition.
422

Apport et utilisation des méthodes d’inférence bayésienne dans le domaine des études cliniques diagnostiques / Contribution and use of Bayesian inference methods in the field of clinical diagnostic studies

Bastide, Sophie 16 December 2016 (has links)
Les études diagnostiques correspondent à l’ensemble des études cliniques qui ont pour objectif l’évaluation d’un nouveau test diagnostique. Dans la démarche d’évaluation, l’étape centrale est l’évaluation de la performance du nouveau test par estimation de sa sensibilité et de sa spécificité. De manière classique, la performance du nouveau test est évaluée par comparaison à un test de référence supposé parfait, appelé un « gold standard » qui permet la connaissance du statut réel de chaque sujet vis-à-vis de la pathologie étudiée. Cependant, dans de très nombreuses situations cliniques, différentes difficultés existent : l’absence de gold standard parfait, l’impossibilité de réalisation du gold standard à tous les sujets, la dépendance des résultats des tests réalisés, la variabilité de la sensibilité et/ou de la spécificité du test en fonction de certaines conditions de réalisation, la multiple réalisation du test dans le temps ou sa multiple interprétation.Une revue méthodologique systématique a été effectuée pour faire l’état des lieux des méthodes d’inférence bayésienne disponibles dans les études diagnostiques et de leur utilisation en pratique. Le focus sur les méthodes bayésiennes a été retenu du fait de leurs avantages théoriques contrastant avec leur relative sous-utilisation dans le domaine médicale. Actuellement, de nombreuses méthodes ont été proposées pour répondre à ces différentes difficultés, avec des développements très complexes en cas de combinaison de plusieurs difficultés dans une même situation. Nous avons ainsi pu établir une cartographie des combinaisons de méthodes disponibles. Cependant leur utilisation en clinique reste encore limitée, même si elle est en augmentation ces dernières années.En pratique, nous avons été confrontés à la problématique du diagnostic de pneumopathie à Pneumocystis jirovecii (PJ) (champignon ubiquitaire opportuniste responsable de mycose profonde chez les patients immunodéprimés). Dans ce projet, nous disposions des résultats de quatre techniques de PCR (Polymerase chain reaction) différentes mais sans gold standard, avec la difficulté supplémentaire de dépendance conditionnelle entre les tests du fait du principe commun à l’origine de ces quatre tests. Deux développements ont été réalisés en parallèle pour répondre à cette problématique : d’une part, un travail sur les méthodes d’élicitation des informations a priori adaptées spécifiquement aux études diagnostiques, et d’autre part, un travail de mise en œuvre d’un modèle statistique adapté à la problématique de quatre tests dépendants en l’absence de gold standard. En l’absence de données informatives dans la littérature, l’élicitation des a priori, étape obligatoire pour l’utilisation des méthodes d’inférence bayésienne, est réalisée par l’interrogation d’experts du domaine. Notre travail a consisté en une adaptation des méthodes existantes, disponibles dans le domaine des essais cliniques, spécifiquement aux études diagnostiques pour obtenir des a priori informatifs. Cette méthode a été appliquée à notre cas des PCR diagnostiques pour PJ. L’estimation des performances diagnostiques des tests en l’absence de gold standard repose de manière efficiente sur les modèles à classes latentes. Trois modèles ont été développés pour le cas de deux tests diagnostiques : un modèle à indépendance conditionnelle, un modèle à dépendance conditionnelle à effets fixes et un modèle à dépendance conditionnelle à effets aléatoires. Nous proposons dans cette thèse une adaptation de ces trois modèles à la situation de quatre tests diagnostiques avec une formulation des paramètres permettant une interprétation clinique des covariances entre les tests dans un souci de transmission des méthodes de la théorie à la pratique. Une application et une comparaison de ces modèles ont été faites pour l’estimation des sensibilités et spécificités des quatre techniques de PCR à PJ en utilisant les a priori informatifs obtenus auprès des experts. / Diagnostic studies include all clinical studies the aim of which is the evaluation of a new diagnostic test. In the evaluation process, the main step is the evaluation of the performance of the new test i.e. its sensitivity and specificity. Usually, the performance of a new test is assessed by comparison to a test of reference which is supposed to be perfect, i.e. a "gold standard", and specifies the actual patient’s status for the disease of interest (“Diseased” or “Not-Diseased” status). However, in many clinical situations, different pitfalls exist such as (i) a gold standard is not available, (ii) the gold standard is not applicable to all patients, (iii) a conditional dependence exists between test results, (iv) the performance of a test is not constant and depends on the conditions of achievement of the test, (v) the tests are repeated in time or by several machines or read by several readers, together with multiple interpretation of the results. A systematic methodological review has been performed to inventory all Bayesian inference methods available in the field of diagnostic studies and their use in practice. The focus on Bayesian methods was based on the theoretical advantages of these methods contrasting with their relative underutilization in the medical field. Finally, several interesting methods have been proposed to address methodological issues of diagnostic studies, with very complex developments when several issues were combined in the same clinical situation. We propose to map the development methods and combinations that have already been done or not. However, their clinical use is still limited, although it has increased in recent years.In practice, we met the problem of the diagnosis of pneumonia due to Pneumocystis jirovecii (PJ). PJ is an ubiquitous opportunistic fungus leading to deep mycosis in immunocompromised patients. In this study, the results of four PCR (polymerase chain reaction) assays were available, but without any gold standard, and the supplementary difficulty of conditional dependence between tests because the four tests were based on the same principle. Two works were performed in parallel to address this issue: on one hand, an adaptation of methods to elicit prior information specifically in diagnostic studies, and on the other hand, the implementation of specific Bayesian statistical models adapted to the context of four-dependent tests in the absence of gold standard. When informative information is not available in the literature, the elicitation of priors, the mandatory first step of a Bayesian inference, is carried out by registering experts’ beliefs in the field. Our work consisted in an adaptation of existing methods, available in clinical trials, specifically for diagnostic studies to obtain informative priors. We then applied this method to our four PJ PCR assays. Estimation of the diagnostic test performance in absence of gold standard is efficiently based on latent class models (LCM). Three LCM were developed for the case of two diagnostic tests: a simple LCM assuming conditional independence between tests, a fixed effects LCM and a random effects LCM providing an adjustment for conditional dependence between tests. We extended these three models to a situation where four diagnostic tests are involved and proposed a formulation that enables an interpretation of between tests covariances in a clinical perspective in order to bind theory to practice. These models were then applied and compared in an estimation study of the sensitivities and specificities of the four PJ PCR assays, by using informative priors obtained from experts.
423

Transistor silicium en couche mince à base de nano-particules de PbS : un efficace phototransistor pour la détection de lumière infrarouge / Silicon thin film transistor based on PbS nano-particles : an efficient phototransistor for the detection of infrared light

Liu, Xiang 27 December 2016 (has links)
Le phototransistor est un nouveau type de photo-détecteur avec une structure MOSFET spéciale qui peut non seulement convertir la lumière absorbée en variation de courant, mais également auto-amplifier ce photo-courant. En particulier, avec des progrès continus dans la synthèse des points Quantum Dots (QDs), les caractères optiques et électriques uniques renforcent le coefficient d'absorption et la génération des trous d'électrons par des processus intégrés faciles. Dans cette thèse, on a synthétisé les PdS infrarouges PbS avec une large absorption infrarouge (IR) (600-1400 nm) et un rendement élevé pour être mélangés avec l'isolateur de porte SU8 des TFT à faible température de poly-silicium (LTPS). Grâce à l'utilisation de cet isolateur de porte photo-sensoriel hybride, ces LTPS TFT peuvent encore obtenir d'excellentes performances électriques telles qu'une mobilité suffisante (3.1 cm2 / Vs), des caractères TFT stables, un rapport marche / arrêt raisonnable (104 ~ 105) et une tension sous-seuil /Déc). De plus, en cas d'exposition à la lumière infrarouge incidente, la sensibilité élevée (1800 A/W) et la sensibilité non négligeable (13 A/W) se trouvent respectivement à 760 nm et 1300 nm. De plus, la photosensibilité atteint également jusqu'à 80 et le temps de réponse est d'environ 30 ms pendant un balayage du signal IR pulsé. Elle prend des mesures concrètes pour l'application générale du phototransistor IR. / Phototransistor is a novel type of photodetector with special MOSFET structure which can not only convert absorbed light into variation of current but also self-amplify this photocurrent. Especially, with continual advances in quantum dots' (QDs) synthesis, the unique optical-electrical characters reinforce absorption coefficient and electron-hole's generation by easy integrated processes. In this thesis, the infrared PbS QDs with wide infrared (IR) absorption (600-1400 nm) and high efficiency were synthesized to be blended with SU8 gate insulator of Low-Temperature-Poly-Silicon (LTPS) TFTs. Through using this hybrid photo-sensing gate insulator, this LTPS TFTs can still obtain excellent electrical performance such as enough mobility (3.1 cm2/Vs), stable TFT's characters, reasonable on/off ratio (104~105) and subthreshold voltage (3.2 V/Dec). Moreover, under incident IR light's exposure, the high responsivity (1800 A/W) and not negligible responsivity (13 A/W) can be found at 760 nm and 1300 nm respectively. In addition, the photosensitivity also reaches up to 80 and the response time is approximately 30 ms during a pulsed IR signal's scanning. It takes concrete steps forward for the broad application of IR phototransistor.
424

Étude de la sensibilité aux antibiotiques et aux peptides antimicrobiens humains de Legionella pneumophila / Study of the susceptibility to antibiotics and antimicrobial peptides of Legionella pneumophila

Vandewalle-Capo, Marine 16 December 2016 (has links)
Legionella pneumophila (Lp) est un pathogène accidentel de l'homme capable d'infecter les macrophages alvéolaires et les pneumocytes. Au cours de l'infection, Legionella se confronte à différents types d'agents antibactériens, dont les peptides antimicrobiens (PAMs) produit par l'hôte et les antibiotiques à activité intracellulaire administrés aux patients. Le mécanisme d'action des PAMs humains à l'encontre de Legionella, ainsi que le niveau de résistance aux antibiotiques de la bactérie sont à ce jour encore peu documentés. Mes travaux ont pour but de contribuer à une meilleure connaissance de l'activité anti-Legionella de ces molécules. La première partie de cette étude a consisté à évaluer la sensibilité d'isolats cliniques de Lp sg 1 à 8 antibiotiques, afin de déterminer le seuil épidémiologique de sensibilité de la bactérie à ces différentes molécules. Nous avons démontré que l'ensemble des isolats cliniques sont sensibles aux antibiotiques testés. Les résultats ont révélé l'existence d'une sous-population présentant une sensibilité réduite aux macrolides. L'analyse des génomes a permis de corréler cette sensibilité diminuée à la présence de la pompe à efflux LpeAB spécifique des macrolides. Cette pompe est présente uniquement dans trois complexes clonaux centrés sur le ST1, le ST701 et le ST1335.La seconde partie de cette étude a été consacrée à la caractérisation de l'activité antibactérienne des PAMs humains LL-37 et HBD-3, ainsi qu'à l'identification de leur(s) mécanisme(s) d'action contre Legionella. L'ensemble des tests réalisés montre que LL-37 et HBD-3 induisent une perte de cultivabilité des légionelles par des modes d'action différents. Les résultats suggèrent que LL-37 agit par perméabilisation des membranes de L. pneumophila. Nos résultats ont également montré que les deux peptides exercent une activité inhibitrice sur la réplication intracellulaire des légionelles, au moins en partie grâce à une collaboration avec la cellule hôte / Legionella pneumophila (Lp) is an accidental human pathogen which can infect alveolar macrophages and pneumocytes. During infection, Legionella have to deal with to various types of antibacterial agents, such as antimicrobial peptides (AMPs) produced by the host, and antibiotics with intracellular activity administered to patients. The mechanism of action of human AMPs against Legionella, and the resistance level to antibiotics of the bacterium are still poorly described. Our work aimed to contribute to a better understanding of the anti-Legionella activity of these molecules. The first part of this study consisted in the evaluation of the susceptibility of clinical Lp sg1 isolates to 8 antibiotics, to determine the epidemiological cut-off values of these different molecules. We demonstrated that all clinical isolates are susceptible to the tested antibiotics. The results revealed the presence of a subpopulation displaying a reduced susceptibility to macrolides. The analysis of the genomes allowed us to correlate this reduced susceptibility to le presence of the LpeAB macrolides efflux pump, found specifically in the sequence types ST1, ST701 and ST1335.The second part of this study was dedicated to the characterization of the antibacterial activity of the human AMPs LL-37 and HBD-3, and to the identification of their mechanism(s) of action against Legionella. All of the experiments show that LL-37 and HBD-3 induce a loss of cultivability by different mode of action. The results suggest that LL-37 is able to permeabilize the membrane of the L. pneumophila cells. Our findings also show that both peptides inhibit the intracellular replication of L. pneumophila, in part through collaboration with the host cell
425

Modélisation hydraulique à surface libre haute-résolution : utilisation de données topographiques haute-résolution pour la caractérisation du risque inondation en milieux urbains et industriels / High-resolution modelling with bi-dimensional shallow water equations based codes : high-resolution topographic data use for flood hazard assessment over urban and industrial environments

Abily, Morgan 11 December 2015 (has links)
Pour l'évaluation du risque inondation, l’emploi de modèles numériques 2D d’hydraulique à surface libre reposant sur la résolution des équations de Saint-Venant est courant. Ces modèles nécessitent entre autre la description de la topographie de la zone d’étude. Sur des secteurs urbains denses ou des sites industriels, cette topographie complexe peut être appréhendée de plus en plus finement via des technologies dédiées telles que le LiDAR et la photogrammétrie. Les Modèles Numériques d'Elévation Haute Résolution (HR MNE) générés à partir de ces technologies, deviennent employés dans les études d’évaluation du risque inondation. Cette thèse étudie les possibilités, les avantages et les limites, liées à l'intégration des données topographiques HR en modélisation 2D du risque inondation en milieux urbains et industriels. Des modélisations HR de scénarios d'inondation d'origines pluviale ou fluviale sont testés en utilisant des HR MNE crées à partir de données LiDAR et photo-interprétées. Des codes de calculs (Mike 21, Mike 21 FM, TELEMAC-2D, FullSWOF_2D) offrant des moyens différent d'intégration de la donnée HR et basés sur des méthodes numériques variées sont utilisés. La valeur ajoutée de l'intégration des éléments fins du sur-sol impactant les écoulements est démontrée. Des outils pour appréhender les incertitudes liées à l'emploi de ces données HR sont développés et une analyse globale de sensibilité est effectuée. Les cartes d'indices de sensibilité (Sobol) produites soulignent et quantifient l'importance des choix du modélisateur dans la variance des résultats des modèles d'inondation HR ainsi que la variabilité spatiale de l'impact des paramètres incertains testés. / High Resolution (infra-metric) topographic data, including LiDAR photo-interpreted datasets, are becoming commonly available at large range of spatial extent, such as municipality or industrial site scale. These datasets are promising for High-Resolution (HR) Digital Elevation Model (DEM) generation, allowing inclusion of fine aboveground structures that influence overland flow hydrodynamic in urban environment. DEMs are one key input data in Hydroinformatics to perform free surface hydraulic modelling using standard 2D Shallow Water Equations (SWEs) based numerical codes. Nonetheless, several categories of technical and numerical challenges arise from this type of data use with standard 2D SWEs numerical codes. Objective of this thesis is to tackle possibilities, advantages and limits of High-Resolution (HR) topographic data use within standard categories of 2D hydraulic numerical modelling tools for flood hazard assessment purpose. Concepts of HR topographic data and 2D SWE based numerical modelling are recalled. HR modelling is performed for : (i) intense runoff and (ii) river flood event using LiDAR and photo-interpreted datasets. Tests to encompass HR surface elevation data in standard modelling tools ranges from industrial site scale to a megacity district scale (Nice, France). Several standard 2D SWEs based codes are tested (Mike 21, Mike 21 FM, TELEMAC-2D, FullSWOF_2D). Tools and methods for assessing uncertainties aspects with 2D SWE based models are developed to perform a spatial Global Sensitivity Analysis related to HR topographic data use. Results show the importance of modeller choices regarding ways to integrate the HR topographic information in models.
426

Etude de l'impact des incertitudes dans l'évaluation du risque NRBC provoqué en zone urbaine / A study on the impact of uncertainties in the risk assessment of CBRN scenarios in urban areas

Margheri, Luca 13 November 2015 (has links)
La dispersion d'agents biologiques hautement pathogène dans une zone urbanisée après un acte terroriste est l'une des situations que les agences de sécurité nationales ont besoin d'évaluer en termes des risques et de la prise de décision. La simulation numérique des écoulements turbulents dans les zones urbaines, y compris la surveillance de la dispersion des polluants, a atteint un niveau de maturité suffisant pour faire des prédictions sur les zones urbaines réalistes jusqu'à 4 km2. Les simulations existantes sont déterministes dans le sens que tous les paramètres qui définissent le cas étudié (l'intensité et la direction du vent, la stratification atmosphérique, l'emplacement de la source des émissions, etc.) devraient être bien connu. Cette précision ne peut être atteint dans la pratique en raison d'un manque de connaissances sur la source d'émissions et de l'incertitude aléatoire intrinsèque des conditions météorologiques.Pour augmenter la contribution de la simulation numérique pour l'évaluation des risques et la prise de décision, il est essentiel de mesurer quantitativement l'impact d'un manque de connaissances en termes de résolution spatiale et temporelle des zones de danger.L'objet de cette thèse est d'appliquer des méthodes de quantification d'incertitude pour quantifier l'impact de ces incertitudes dans l'évaluation des zones de danger à moyenne portée dans des scénarios de dispersion de gaz toxiques. Une méthode hybride c-ANOVA et POD/Krigeage permet d'envisager jusqu'à 5 paramètres incertains dans une simulation 3D-CFD haute fidélité non-stationnaire de la dispersion d'un gaz toxique provenant d'une source type flaque dans une zone urbaine de 1km2. / The dispersion of highly pathogenic biological agents in an urbanized area following a terrorist act is one of the situations that national security agencies need to evaluate in terms of risk assessment and decision-making. The numerical simulation of turbulent flows in urban areas, including monitoring the dispersion of pollutants, has reached a sufficient level of maturity to make predictions on realistic urban zones up to 4 square kilometers. However, the existing simulations are deterministic in the sense that all the parameters that define the case studied (intensity and wind direction, atmospheric stratification, source of emissions location, quantity of injected toxic agent, etc.) should be well known. Such precision cannot be achieved in practice due to a lack of knowledge about the source of emission and the intrinsic aleatoric uncertainty of the meteorological conditions. To significantly increase the contribution of numerical simulation for risk assessment and decision-making, it is essential to quantitatively measure the impact of a lack of knowledge especially in terms of spatial and temporal resolution of the danger zones. The object of this thesis is to apply uncertainty quantification methods to quantify the impact of these uncertainties in the evaluation of the danger zones in medium range toxic gas dispersion scenarios. A hybrid method merging c-ANOVA and POD/Kriging allows to consider up to 5 uncertain parameters in a high-fidelity unsteady 3D-CFD simulation of the dispersion of a toxic gas from a pond-like source in an urban area of 1km2.
427

Vieillissement des batteries Li-ion de traction : des mécanismes vers le vieillissement accéléré / Study of the lithium ion batteries ageing : from mechanisms to accelerated ageing

Edouard, Clément 13 October 2015 (has links)
En raison de leurs performances en termes de densités énergétiques et de puissance, les batteries Li-ion sont les systèmes de stockage électrique privilégiés pour les nouvelles générations de véhicules électriques. Leur modélisation est indispensable pour fournir une évaluation de leurs performances tout au long de leur durée de vie tout en limitant le nombre d'essais expérimentaux, et ceci dans le but de concevoir des configurations et des gestions optimales des packs batteries pour une application envisagée. Le but de ce travail consiste à proposer un modèle physique capable de prédire le comportement et le vieillissement de la batterie sous différentes conditions. Un modèle simplifié électrochimique et thermique capable de prédire le comportement physicochimique et le vieillissement de batteries Li-ion a été étudié. Une analyse de sensibilité a été menée sur l'ensemble des paramètres du modèle dans différentes conditions afin de mettre en évidence leurs influences sur les sorties du modèle. Sur cette base, une méthode d'identification a été proposée pour préserver une indépendance des résultats de l'identification paramétrique par rapport à la sensibilité des paramètres. Cette méthode a permis d'améliorer les prédictions de vieillissement avec des estimations très proches des résultats expérimentaux. Au-delà des gains en compréhension et prédiction, ce modèle physique ouvre de nouvelles possibilités pour établir des protocoles de vieillissement accélérés. / Due to their high power and energy densities, Li-ion batteries are the leading systems for the new generations of electric vehicles, for which an optimum cell design, management and configuration is essential. Modeling provides tools to perform complex analysis of the performance of Li-ion batteries and reduces the amount of time spent on experimental testing. The aim of our research is to propose a physics-based model that can predict battery behavior and aging under various conditions during the entire lifespan. A simplified electrochemical and thermal model that can predict both physicochemical and aging behaviors of Li-ion batteries has been studied. A sensitivity analysis of all its physical parameters has been performed in order to find out their influence on the model outputs based on simulations under various conditions. The results gave hints on whether a parameter needs particular attention when measured or identified and on the conditions under which it is the most sensitive. A specific simulation profile has been designed for parameters involved in aging equations in order to determine their sensitivity. Finally, a step-wise method has been followed to limit the influence of parameter values when identifying sorne of them. This sensitivity analysis and the subsequent step-wise identification method show very good results, such as a better fitting of the experimental data with simulated cell voltage. Beyond advanced comprehension and prediction, this physical model opens new possibilities to define accelerated aging tests.
428

Amélioration des métaheuristiques d'optimisation à l'aide de l'analyse de sensibilité / Improvement of optimization metaheuristics with sensitivity analysis

Loubiere, Peio 21 November 2016 (has links)
L'optimisation difficile représente une classe de problèmes dont la résolution ne peut être obtenue par une méthode exacte en un temps polynomial.Trouver une solution en un temps raisonnable oblige à trouver un compromis quant à son exactitude.Les métaheuristiques sont une classe d'algorithmes permettant de résoudre de tels problèmes, de manière générique et efficiente (i.e. trouver une solution satisfaisante selon des critères définis: temps, erreur, etc.).Le premier chapitre de cette thèse est notamment consacré à la description de cette problématique et à l'étude détaillée de deux familles de métaheuristiques à population, les algorithmes évolutionnaires et les algorithmes d'intelligence en essaim.Afin de proposer une approche innovante dans le domaine des métaheuristiques, ce premier chapitre présente également la notion d'analyse de sensibilité.L'analyse de sensibilité permet d'évaluer l'influence des paramètres d'une fonction sur son résultat.Son étude caractérise globalement le comportement de la fonction à optimiser (linéarité, influence, corrélation, etc.) sur son espace de recherche.L'incorporation d'une méthode d'analyse de sensibilité au sein d'une métaheuristique permet d'orienter sa recherche le long des dimensions les plus prometteuses.Deux algorithmes réunissant ces notions sont proposés aux deuxième et troisième chapitres.Pour le premier algorithme, ABC-Morris, la méthode de Morris est introduite dans la métaheuristique de colonie d'abeilles artificielles (ABC).Cette inclusion est dédiée, les méthodes reposant sur deux équations similaires.Afin de généraliser l'approche, une nouvelle méthode, NN-LCC, est ensuite développée et son intégration générique est illustrée sur deux métaheuristiques, ABC avec taux de modification et évolution différentielle.L'efficacité des approches proposées est testée sur le jeu de données de la conférence CEC 2013. L'étude se réalise en deux parties: une analyse classique de la méthode vis-à-vis de plusieurs algorithmes de la littérature, puis vis-à-vis de l'algorithme d'origine en désactivant un ensemble de dimensions, provoquant une forte disparité des influences / Hard optimization stands for a class of problems which solutions cannot be found by an exact method, with a polynomial complexity.Finding the solution in an acceptable time requires compromises about its accuracy.Metaheuristics are high-level algorithms that solve these kind of problems. They are generic and efficient (i.e. they find an acceptable solution according to defined criteria such as time, error, etc.).The first chapter of this thesis is partially dedicated to the state-of-the-art of these issues, especially the study of two families of population based metaheuristics: evolutionnary algorithms and swarm intelligence based algorithms.In order to propose an innovative approach in metaheuristics research field, sensitivity analysis is presented in a second part of this chapter.Sensitivity analysis aims at evaluating arameters influence on a function response. Its study characterises globally a objective function behavior (linearity, non linearity, influence, etc.), over its search space.Including a sensitivity analysis method in a metaheuristic enhances its seach capabilities along most promising dimensions.Two algorithms, binding these two concepts, are proposed in second and third parts.In the first one, ABC-Morris, Morris method is included in artificial bee colony algorithm.This encapsulation is dedicated because of the similarity of their bare bone equations, With the aim of generalizing the approach, a new method is developped and its generic integration is illustrated on two metaheuristics.The efficiency of the two methods is tested on the CEC 2013 conference benchmark. The study contains two steps: an usual performance analysis of the method, on this benchmark, regarding several state-of-the-art algorithms and the comparison with its original version when influences are uneven deactivating a subset of dimensions
429

Étude de classes de noyaux adaptées à la simplification et à l’interprétation des modèles d’approximation. Une approche fonctionnelle et probabiliste. / Covariance kernels for simplified and interpretable modeling. A functional and probabilistic approach.

Durrande, Nicolas 09 November 2011 (has links)
Le thème général de cette thèse est celui de la construction de modèles permettantd’approximer une fonction f lorsque la valeur de f(x) est connue pour un certainnombre de points x. Les modèles considérés ici, souvent appelés modèles de krigeage,peuvent être abordés suivant deux points de vue : celui de l’approximation dans les espacesde Hilbert à noyaux reproduisants ou celui du conditionnement de processus gaussiens.Lorsque l’on souhaite modéliser une fonction dépendant d’une dizaine de variables, lenombre de points nécessaires pour la construction du modèle devient très important etles modèles obtenus sont difficilement interprétables. A partir de ce constat, nous avonscherché à construire des modèles simplifié en travaillant sur un objet clef des modèles dekrigeage : le noyau. Plus précisement, les approches suivantes sont étudiées : l’utilisation denoyaux additifs pour la construction de modèles additifs et la décomposition des noyauxusuels en sous-noyaux pour la construction de modèles parcimonieux. Pour finir, nousproposons une classe de noyaux qui est naturellement adaptée à la représentation ANOVAdes modèles associés et à l’analyse de sensibilité globale. / The framework of this thesis is the approximation of functions for which thevalue is known at limited number of points. More precisely, we consider here the so-calledkriging models from two points of view : the approximation in reproducing kernel Hilbertspaces and the Gaussian Process regression.When the function to approximate depends on many variables, the required numberof points can become very large and the interpretation of the obtained models remainsdifficult because the model is still a high-dimensional function. In light of those remarks,the main part of our work adresses the issue of simplified models by studying a key conceptof kriging models, the kernel. More precisely, the following aspects are adressed: additivekernels for additive models and kernel decomposition for sparse modeling. Finally, wepropose a class of kernels that is well suited for functional ANOVA representation andglobal sensitivity analysis.
430

Genèse des gestes professionnels de l'accompagnement de la rencontre avec l’œuvre d'art chez des enseignants spécialistes et non spécialistes : une enquête au croisement de la didactique des arts visuels et des sciences de la formation / Professional background of actions for accompanying the meeting with artwork in specialist and non -specialist teachersand no specialists : an investigation at the crossroads of teaching visual arts and science education

Rivière, Mary-Eve 22 November 2014 (has links)
L'évolution des pratiques d'enseignement des arts visuels et arts plastiques dans le cadre de la commande institutionnelle préconise le recours à l'œuvre d'art authentique. Par ailleurs, l'enseignement des arts doit contribuer, au-delà de ses apports propres aux « apprentissages fondamentaux » aussi bien culturels que techniques.La mise en place et en œuvre, l'exploitation de la situation de rencontre avec l'œuvre ainsi définie requiert de la part des enseignants un ensemble de compétences qui demandent à être éclairées et problématisées. La recherche porte sur la genèse de gestes professionnels, sur le rapport à l'œuvre et le développement de compétences professionnelles, ainsi que sur la nature des objets d'enseignement, (transposition des savoirs de référence, compétences d'ingénierie didactique, articulation des savoirs spécifiques avec les « apprentissages fondamentaux » et socialisation scolaire). La problématique s'est construite sur des questions qui croisent le rapport à l'œuvre de ces enseignants, les gestes professionnels et la construction d'une théorie que nous avons explicitée comme une « théorie personnelle-en-acte ».Le recueil de données s'est fait au niveau de l'école primaire et du collège. L'enquête a intégré la spécificité d'une école maternelle possédant une Petite Galerie (espace spécifique dédié dans l'établissement où les élèves, très jeunes rencontrent des œuvres d'art « authentiques » ou réelles). Elle a apporté un éclairage sur les pratiques pédagogiques des enseignants.Les méthodologies s'appuient sur l'enquête de terrain par observation participante, l'entretien d'explicitation de type Vermersch et l'analyse du discours. Les cadres théoriques confrontent des angles d'attaque habituellement cloisonnés : esthétique, sciences de l'art, histoire des arts (Goodman, Arasse, Pélissier, Château...) ; sociologie (Heinich, Lahire) ; la didactique des arts visuels, arts plastiques (Chanteux, Gaillot, Lagoutte, Reyt...) et la didactique comparée des arts (Goodman, Rickenmann...); la théorie du développement professionnel dans les situations (théorie de l'action située, des gestes professionnels).Le rapport à l'œuvre s'est construit dans une dynamique familiale, scolaire et professionnelle et la recherche de la genèse de ce rapport à l'œuvre nous fait constater le rôle joué par certaines rencontres séminales. Les éléments d'une théorie personnelle de l'art, de l'œuvre, de l'expérience qui sous-tendent ce rapport à l'œuvre, montrent une interdépendance. La rencontre de l'art favorise la mise en place de cette « théorie-en-acte ». Enfin, le rapport à l'œuvre de nos interlocuteurs détermine leur pratique professionnelle : des liens entre rapport à l'œuvre, conceptions et gestes professionnels clefs de leur métier, ont été mis en évidence. / Changes in teaching practices of the visual arts visual arts in the context of institutional control and advocates the use of authentic artwork. In addition, arts education should contribute beyond his own contributions to the "basic skills" as well as cultural techniques.The establishment and implementation, operation of the meeting situation with the work thus defined requires that teachers with a set of competencies that need to be informed and problematized. The research focuses on the genesis of professional acts on the report at work and the development of professional skills, as well as the nature of educational objects (translation of reference knowledge, didactic engineering skills, articulation specific knowledge with the "basic skills" and academic socialization). The problem is built on issues that cross the relation to the work of these teachers, professional acts and building a theory we explained as a "personal theory-in-action."Data collection was done at the elementary and middle school. The investigation has included the specificity of a kindergarten with a Small Gallery (specific space dedicated in the institution where students encounter very young art "authentic" or real). She shed light on teaching practices.The methodologies are based on fieldwork through participant observation, maintenance of explaining Vermersch type and discourse analysis. Theoretical frameworks confront angles of attack usually compartmentalized: aesthetics, art sciences, art history (Goodman, Arasse Pelissier, Castle ...) Sociology (Heinich Lahire); the teaching of visual arts, visual arts (Chanteux, Gaillot, Lagoutte, Reyt ...) and comparative arts teaching (Goodman, Rickenmann ...) theory development in professional situations (theory of situated action, professional gestures).The report on the work was constructed in family dynamics, school and work and the search for the origins of this report at work makes us see the role played by some seminal events. The elements of a personal theory of art, the work experience behind this report to work, show an interdependence. The meeting of art promoting the establishment of this "theory-in-action." Finally, the relation to the work of our interlocutors determines their professional practice: links between relation to the work, designs and professional acts keys to their profession, were highlighted.

Page generated in 0.0584 seconds