321 |
Modèle physique de prédiction des effets des événements singuliers destructifs dans les composants électroniques de puissance / A physical prediction model of destructive Single Event Effects in power electronics devicesSiconolfi, Sara 15 January 2015 (has links)
L’environnement radiatif naturel est connu pour être sévère sur les composants électroniques de puissance. Il est caractérisé par des particules chargées électriquement, notamment des ions lourds et des protons. Dans le contexte avionique, c’est maintenant essentiel d’estimer les effets de dites particules : les MOSFETs de puissance sont en fait largement utilisés pour les caractéristiques électriques et le coût. Cette étude s’occupe de la prédiction du Single Event Effect (SEB) dans les MOSFETs de puissance : sur la base d’une analyse physique à travers des simulations TCAD, lemodèle de prédiction DELPHY est construit pour calculer les taux d’occurrence du SEB généré par ions lourds et protons. Le SEB provient de la génération d’une charge dans le composant, qui évolue via un courant élevé et auto-alimenté, ayant comme conséquence la destruction thermique du composant. Le SEB a été étudié dans ses différents aspects : c’est admit qu’il dépend de plusieurs facteurs, notamment la géométrie du composant, son dopage et sa polarisation ; la nature et le LET (Linear Energy Transfer) de la particule, le lieu et l’angle d’impact. Tous ces paramètres ne peuvent pas être contrôlés, et le compromis entre le coût et la fonctionnalité limite la mise en place des solutions de durcissement. Pour cette raison, un modèle de prédiction de l’occurrence SEB est nécessaire, ce qui fait l’objet de cette étude. Le modèle DELPHY est basé sur l’analyse physique du Single Event Burnout, à travers la simulation composant 2D TCAD, afin de maîtriser les paramètres cités auparavant qui sont pertinents pour le phénomène. Deux différentes topologies de composant on été étudiées (HEXFET et STRIPFET). A partir de cette analyse, une loi empirique de déclenchement a été calculée et un critère SEB basé sur le champ électrique et la charge déposée dans la couche epitaxiée a été défini. Les sections efficaces SEB ont été calculées pour des injections d’ions lourds. En prenant en compte la probabilité différentielle de génération des particules secondaires sous impact proton, les taux SEB ont été prédis aussi pour le cas du SEB généré par les protons. Toutes les sections efficaces calculées ont été comparées avec succès aux données expérimentales : d’abord avec les caractérisations composant publiées par le CNES ; en suite dans le cadre d’une étude spécifique commune ONERA-CERN afin de caractériser la prochaine génération des convertisseurs de puissance dans le Large Hadron Collider. DELPHY propose donc d’avoir un rôle essentiel comme instrument de prédiction SEB, et trace la route pour une amélioration de l’estimation des taux SEB. / The natural radiation environment has proved to be particularly harsh on power electronics devices. It is characterized by electrically charged particles such as heavy ions and protons among others. In particular, inside the atmosphere it has now become essential to estimate the effects of these particles: power MOSFETs in fact are widely used because of their appealing electrical characteristics and costs, thus making the prediction of destructive effects one of the fundamental parts of the project. This work focuses on the prediction of Single Event Burnout (SEB) inside power MOSFETs: based on physical analysis through TCAD simulations, the predictionmodel DELPHY is built in order to calculate occurrence rates of heavy ion and proton induced SEB. SEB consists of a charge generation inside the device, which evolves into a high and self-sustained current, whose main consequence is the thermal destruction of the component. SEB has been deeply studied in several aspects: it is now established that it depends on multiple factors, such as component geometry, doping and bias; particle nature and Linear Energy Transfer, impact location and angle. A power electronics designer does not have control over all the cited parameters, and the trade-off between cost and functionality limits the application of hardness measures at circuit and device level. For this reason, a SEB rate prediction model is neededand represents the object of this work. DELPHY model moves from physical analysis of SEB, performed with TCAD 2D simulations, in order to control the aforementioned factors which are relevant for the phenomenon. Two different MOSFET topologies have been studied (HEXFET and STRIPFET). Starting from this analysis, an empirical triggering law has been calculated and a SEB criterion based on electric field and charge deposition inside the epitaxial layer has been defined. SEB cross sections have then been calculated for heavy ion impacts. Taking into account the differential probability of secondary generation by proton impact, a SEB rate has been predicted also for proton induced SEB. All the calculated cross sections have been successfully compared to experimental data: firstly from a device characterization published by CNES; and secondly in the frame of a dedicated joint study ONERA-CERN to characterize next generation of Large Hadron Collider power converters. As a general conclusion, DELPHY model leads the way as a valid SEB prediction tool and opens new roads for enhancement of SEB rates estimation.
|
322 |
Modèles d'embeddings à valeurs complexes pour les graphes de connaissances / Complex-Valued Embedding Models for Knowledge GraphsTrouillon, Théo 29 September 2017 (has links)
L'explosion de données relationnelles largement disponiblessous la forme de graphes de connaissances a permisle développement de multiples applications, dont les agents personnels automatiques,les systèmes de recommandation et l'amélioration desrésultats de recherche en ligne.La grande taille et l'incomplétude de ces bases de donnéesnécessite le développement de méthodes de complétionautomatiques pour rendre ces applications viables.La complétion de graphes de connaissances, aussi appeléeprédiction de liens, se doit de comprendre automatiquementla structure des larges graphes de connaissances (graphes dirigéslabellisés) pour prédire les entrées manquantes (les arêtes labellisées).Une approche gagnant en popularité consiste à représenter ungraphe de connaissances comme un tenseur d'ordre 3, etd'utiliser des méthodes de décomposition de tenseur pourprédire leurs entrées manquantes.Les modèles de factorisation existants proposent différentscompromis entre leur expressivité, et leur complexité en temps et en espace.Nous proposons un nouveau modèle appelé ComplEx, pour"Complex Embeddings", pour réconcilier expressivité etcomplexité par l'utilisation d'une factorisation en nombre complexes,dont nous explorons le lien avec la diagonalisation unitaire.Nous corroborons notre approche théoriquement en montrantque tous les graphes de connaissances possiblespeuvent être exactement décomposés par le modèle proposé.Notre approche, basées sur des embeddings complexesreste simple, car n'impliquant qu'un produit trilinéaire complexe,là où d'autres méthodes recourent à des fonctions de compositionde plus en plus compliquées pour accroître leur expressivité.Le modèle proposé ayant une complexité linéaire en tempset en espace est passable à l'échelle, tout endépassant les approches existantes sur les jeux de données de référencepour la prédiction de liens.Nous démontrons aussi la capacité de ComplEx àapprendre des représentations vectorielles utiles pour d'autres tâches,en enrichissant des embeddings de mots, qui améliorentles prédictions sur le problème de traitement automatiquedu langage d'implication entre paires de phrases.Dans la dernière partie de cette thèse, nous explorons lescapacités de modèles de factorisation à apprendre lesstructures relationnelles à partir d'observations.De part leur nature vectorielle,il est non seulement difficile d'interpréter pourquoicette classe de modèles fonctionne aussi bien,mais aussi où ils échouent et comment ils peuventêtre améliorés. Nous conduisons une étude expérimentalesur les modèles de l'état de l'art, non pas simplementpour les comparer, mais pour comprendre leur capacitésd'induction. Pour évaluer les forces et faiblessesde chaque modèle, nous créons d'abord des tâches simplesreprésentant des propriétés atomiques despropriétés des relations des graphes de connaissances ;puis des tâches représentant des inférences multi-relationnellescommunes au travers de généalogies synthétisées.À partir de ces résultatsexpérimentaux, nous proposons de nouvelles directionsde recherches pour améliorer les modèles existants,y compris ComplEx. / The explosion of widely available relational datain the form of knowledge graphsenabled many applications, including automated personalagents, recommender systems and enhanced web search results.The very large size and notorious incompleteness of these data basescalls for automatic knowledge graph completion methods to make these applicationsviable. Knowledge graph completion, also known as link-prediction,deals with automatically understandingthe structure of large knowledge graphs---labeled directed graphs---topredict missing entries---labeled edges. An increasinglypopular approach consists in representing knowledge graphs as third-order tensors,and using tensor factorization methods to predict their missing entries.State-of-the-art factorization models propose different trade-offs between modelingexpressiveness, and time and space complexity. We introduce a newmodel, ComplEx---for Complex Embeddings---to reconcile both expressivenessand complexity through the use of complex-valued factorization, and exploreits link with unitary diagonalization.We corroborate our approach theoretically and show that all possibleknowledge graphs can be exactly decomposed by the proposed model.Our approach based on complex embeddings is arguably simple,as it only involves a complex-valued trilinear product,whereas other methods resort to more and more complicated compositionfunctions to increase their expressiveness. The proposed ComplEx model isscalable to large data sets as it remains linear in both space and time, whileconsistently outperforming alternative approaches on standardlink-prediction benchmarks. We also demonstrateits ability to learn useful vectorial representations for other tasks,by enhancing word embeddings that improve performanceson the natural language problem of entailment recognitionbetween pair of sentences.In the last part of this thesis, we explore factorization models abilityto learn relational patterns from observed data.By their vectorial nature, it is not only hard to interpretwhy this class of models works so well,but also to understand where they fail andhow they might be improved. We conduct an experimentalsurvey of state-of-the-art models, not towardsa purely comparative end, but as a means to get insightabout their inductive abilities.To assess the strengths and weaknesses of each model, we create simple tasksthat exhibit first, atomic properties of knowledge graph relations,and then, common inter-relational inference through synthetic genealogies.Based on these experimental results, we propose new researchdirections to improve on existing models, including ComplEx.
|
323 |
Calcul efficace de la structure des protéines à partir de contacts évolutifs / Efficient modeling of proteins structure from evolutionary contactsAllain, Fabrice 30 November 2017 (has links)
Les méthodes de prédiction structurale constituent une alternative relativement efficace aux approches expérimentales pour donner un premier aperçu du repliement natif d'une protéine. L'écart entre le nombre de structures et de séquences protéiques disponibles dans les bases de données ne cesse en effet de croître depuis l'arrivée des technologies de séquençage à haut débit. Cette forte croissance des informations génomiques a remis à l'ordre du jour des techniques modélisant les données capturées au cours de l'évolution. La conservation d'une fonction protéique impose de fortes contraintes sur les contacts impliqués dans le repliement et la fonction se traduisant par une trajectoire évolutive commune. Une fois détectées, ces interactions peuvent aider à modéliser la conformation d'une protéine. Les méthodes résolvant la structure tridimensionnelle des protéines à partir des données évolutives présentent encore plusieurs limitations notamment pour la détection des contacts faux positifs. Ces problèmes restent similaires à ceux rencontrés en détermination de structure par spectrométrie de Résonnance Magnétique Nucléaire où l'intégration des données est un processus clairement établit et en grande partie automatisé. Le logiciel ARIA (Ambiguous Restraints for Iterative Assignment) utilise le concept de contraintes de distances ambiguës et suit un processus itératif afin d'attribuer et d'affiner la liste des noyaux proches dans l'espace pour calculer un ensemble de modèles structuraux en accord avec les données. Ce travail a pour objectif d'adapter cette approche pour prédire de novo la structure d'une protéine en utilisant l'information évolutive. / Structural prediction methods provide a relatively effective alternative to experimental approaches to provide a first insight into native folding of a protein. The gap between the number of structures and protein sequences available in databases has steadily increased since the advent of high throughput sequencing technologies. This strong growth of genomic information helped bring to light prediction tools using coevolutionary data. Conservation of a specific function implies strong restraints on interacting residues involved in the folding and function. Once detected, these interactions can help to model the conformation of a protein. Some important aspects needs to be improved during the modelling process including the detection of false positive among the predicted contacts. Limitations in the field are similar to those encountered in nuclear magnetic resonance spectrometry structure determination where data integration is a clearly established and largely automated process. The Ambiguous Restraints for Iterative Assignment (ARIA) software uses the concept of ambiguous distance restraints and follows an iterative process to assign and refine the list of nearby nuclei in space to compute a set of structural models in accordance with the data. This work aims to adapt this approach to de novo predict the structure of a protein using evolutionary information.
|
324 |
Elaboration d'un Score Prédictif des Accidents Vasculaires Cérébraux au Liban / Elaboration of a Predictive Score for Cerebrovascular Accidents in LebanonEl Hajj, Maya 22 May 2017 (has links)
Background : L’accident Vasculaire Cérébral (AVC) est la deuxième cause de décès au Liban et dans le monde. Il existe une pénurie d'informations fiables concernant l'épidémiologie de l'AVC au Liban. L’objectif de cette étude est d’identifier les facteurs de risque et les symptômes d'AVC dans la population libanaise et de développer un score pour la future prédiction de l'AVC et un score pour le diagnostic de l'AVC en situation d'urgence.Méthodes : Une étude cas-témoin a été menée pour la génération des scores. Les données ont été collectées à l’aide d’une fiche de collecte de données conçue dans deux hôpitaux tertiaires au Liban entre le 1er janvier 2012 et le 31 décembre 2014. Une régression logistique a permis de déterminer les facteurs de risque et les symptômes d'AVC. Les coefficients arrondis ont engendré un score pour le risque d’AVC (ROSS) et un score de diagnostic de l'AVC (DS-Stroke). Une autre étude cas-témoin a été menée pour la validation des scores, où les données ont été collectées à l'aide d'un questionnaire normalisé dans cinq différents hôpitaux tertiaires entre le 1er janvier 2015 et le 31 décembre 2016. Le ROSS et le DS-Stroke ont été validés en les comparant au diagnostic final des hôpitaux.Résultats : En total, 732 participants ont été inclus dans l'étude de génération du score (202 cas d'AVC et 530 contrôles sans AVC) et 650 participants ont été inclus dans l'étude de validation du score (205 cas et 445 contrôles sans AVC). Plusieurs facteurs de risque et symptômes ont été associés à l'AVC au Liban. Le ROSS et le DS-Stroke ont été construits et évalués avec des hautes zones sous la courbe et des valeurs négatives et positives prédictives élevées.Conclusion : Le ROSS est un bon outil d'évaluation des risques pour améliorer la prévision de l'AVC dans la population libanaise et serait particulièrement intéressant dans le cadre des soins primaires afin de réduire l'incidence de l'AVC. Le DS-Stroke est un autre outil précieux à utiliser pour le diagnostic de l'AVC à l'urgence et serait intéressant pour l'utilisateur afin d'avoir un diagnostic précis de l'AVC, appeler à d'autres tests d'urgence si nécessaire et d’accélérer le traitement pour les patients AVC. / Background: Stroke is the second leading cause of death in Lebanon and worldwide. There is a scarcity of reliable information about the epidemiology of stroke in Lebanon. We aim to identify stroke risk factors and symptoms in the Lebanese population and develop a score for future stroke prediction and another for stroke diagnosis at emergency.Methods: A case-control study was conducted for the scores generation. Data were collected through a designed data collection sheet at two tertiary hospitals in Lebanon between January 1st, 2012 and December 31st, 2014. A logistic regression determined stroke risk factors and symptoms and the rounded coefficients generated a Risk of Stroke Score (ROSS) and a Diagnosis Score for Stroke (DS-Stroke). Another case-control study was conducted for the scores validation where data were collected through a standardized questionnaire at five different tertiary hospitals between January 1st, 2015 and December 31st, 2016. ROSS and DS-Stroke were validated by comparing them to the hospitals final diagnosis.Results: In total, 732 participants were included in the score generation study (202 stroke cases and 530 stroke-free controls) and 650 participants were included in the score validation study (205 cases and 445 stroke-free controls). Many risk factors and symptoms were found to be associated with stroke in Lebanon. ROSS and DS-Stroke were constructed and validated with high areas under the curve and high negative and positive prediction values.Conclusion: ROSS is a good risk assessment tool for use to improve the prediction of stroke in the Lebanese population and would be of particular interest in the primary care setting to reduce stroke incidence. DS-Stroke is another valuable tool to use for stroke diagnosis at emergency and would be interesting to user in order to have an accurate diagnosis of stroke, call for further emergency testing if necessary and speed up the treatment for stroke patients.
|
325 |
Prédire la chute de la personne âgée : apports des modèles mathématiques non-linéaires / Predicting of falls in the elderly : using of non-linear of mathematical modelsKabeshova, Anastasiia 14 October 2015 (has links)
En 2015, la chute de la personne âgée reste toujours un événement majeur, quel que soit l’angle de vue considéré. Elle est toujours associée à une forte morbi-mortalité, nombreuses incapacités, altération la qualité de vie du chuteur, mais aussi, en raison du vieillissement de la population, avec le nombre croissant de chuteurs requérant une prise en charge médicale. Cette situation repose en bonne partie sur notre incapacité à identifier la personne âgée qui est le plus à risque de chute, cette étape étant la première de toute stratégie d’intervention efficace et efficiente. Il est donc nécessaire voir obligatoire aujourd’hui de redoubler nos efforts sur l’amélioration de la prédiction de la chute. En contrepartie de nouvelles opportunités s’ouvrent à nous en raison de l’implantation et de l’informatisation des données médicales. La chute doit être considérée comme un événement chaotique et sa prédiction doit se faire via de nouveaux modèles mathématiques intégrant la particularité de ce comportement. C’est pour cette raison que des méthodes d’analyse basée sur l'intelligence artificielle semblent être une solution appropriée. C’est à partir de ce constat que nous avons émis l’hypothèse que les modèles mathématiques issus de l’intelligence artificielle devaient permettre d’atteindre une qualité de la prédiction meilleure. L’objectif principal de cette thèse est d’étudier la qualité de la prédiction de la chute, récurrente ou non, chez des personnes âgées de 65 ans et plus, en utilisant les réseaux neuronaux et un modèle de logique floue, en les comparant avec des modèles mathématiques linéaires utilisés classiquement dans la littérature. L’ensemble de nos résultats confirme notre hypothèse de départ en montrant que le choix du modèle mathématique influence la qualité de la prédiction de la chute, les modèles non linéaires, et notamment les réseaux neuronaux et les systèmes de logique flous, étant plus performants que les modèles linéaires pour la prédiction des chutes surtout lorsqu’elles sont récurrentes. / Falls in the elderly are still a major issue in 2015 because they are associated with high rate of morbidity, mortality and disability, which affect the quality of life. From the patient’s perspective, it is still associated with high morbidity, mortality and disability, which affect the quality of life. The number of fallers requiring medical and/or social care is growing up due to aging population. This fact seems paradoxical since during the recent years the knowledge about the mechanisms of falls and the quality of interventions to support fallers significantly increased. This is largely based on our inability to predict correctly the risk of falling among the elderly person, knowing that this is the first step of any efficient and effective intervention strategies. Therefore it is necessary today to double our efforts in improving the prediction of falls. Nonetheless, new opportunities and advanced technologies provide to us the possibility of computerizing of medical data and research, and also to improve prediction of falls using new approaches. A fall should be considered as a chaotic event, and its prediction should be done via new mathematical models incorporating the feature of this behaviour. Thus, the methods ofartificial intelligence-based analysis seem to be an appropriate solution to analyse complex medical data. These artificial intelligence techniques have been already used in many medical areas, but rarely in the field of fall prediction. Artificial neural networks are the most commonly used methods while other promising techniques based on fuzzy logic are less often applied.Based on this observation we have formulated the hypothesis that non-linear mathematical models using artificial intelligence are the models, which are the most likely to achieve the bestquality of the prediction. The main objective of this thesis is to study the quality of theprediction of falls, recurrent or not, among the adults aged 65 years and more,applying neuralnetworks and fuzzy logic models, and comparing them either among themselves or with the linear mathematical models conventionally employed in the literature for fall prediction. The first cross-sectional study was conducted by using a decision tree to explore the risk of recurrent falls in various combinations of fall risk factors compared to a logistic regression model. The second study was designed to examine the efficiency of artificial neural networks (Multilayer Perceptron and Neuroevolution of Augmenting Topologies) to classify recurrent and nonrecurrent fallers by using a set of clinical characteristics corresponding to risk factors measured among seniors living in the community. Finally, in the third study we compared the results of different statistical methods (linear and nonlinear) in order to identify the risk of falls using 7 clinical variables, separating the collection mode (retrospective and prospective) of the fall and its recurrence. The results confirm our hypothesis showing that the choice of the mathematical model affects the quality of fall prediction. Nonlinear models, such as neural networks and fuzzy logic systems, are more efficient than linear models for the prediction of falls especially for recurrent falls. However, the results show that the balance between different criteria used to judge the quality of the forecast (sensitivity, specificity, positive and negative predictive value, area under the curve, positive and negative likelihood ratio, and accuracy) has not been always correct, emphasizing the need to continue the development of the models whose intelligence should specifically predict the fall.
|
326 |
Resilient and energy-efficient scheduling algorithms at scale / Algorithmes d'ordonnancement fiables et efficaces énergétiquement à l'échelleAupy, Guillaume 16 September 2014 (has links)
Dans cette thèse, j'ai considéré d'un point de vue théorique deux problèmes importants pour les futures plateformes dîtes Exascales : les restrictions liées à leur fiabilité ainsi que les contraintes énergétiques. En première partie de cette thèse, je me suis intéressé à l'étude de placements optimal de ces checkpoints dans un but de minimisation de temps total d'exécution. En particulier, j'ai considéré les checkpoints périodiques et coordonnés. J'ai considéré des prédicteurs de fautes capables de prévoir, de manière imparfaite, les fautes arrivant sur la plateforme. Dans ce contexte, j'ai conçu des algorithmes efficaces pour résoudre mes problèmes. Dans un deuxième temps, j'ai considéré des fautes silencieuses. Ces fautes ne peuvent être détectées qu'uniquement par un système de vérification.Dans le cas où une de ces fautes est détectée, l'utilisateur doit retourner au point de sauvegarde le plus récent qui n'a pas été affecté par cette faute, si un tel point existe ! Dans ce contexte, j'ai à nouveau proposé des algorithmes optimaux au premier ordre, mixant points de sauvegarde et points de vérification. Dans la seconde partie de cette thèse, j'ai considéré des problèmes énergétiques liés à ces mêmes plateformes. Ces problèmes critiques doivent être reliés aux problèmes de fiabilité de la partie précédente. Dans ce contexte, j'ai couplé des techniques de baisse de consommation énergétique à des techniques d'augmentation de fiabilité comme la reexécution, la réplication ainsi que le checkpoint. Pour ces différents problèmes, j'ai pu fournir des algorithmes dont l'efficacité a été montrée soit au travers de simulations, soit grâce à des preuves mathématiques. / This thesis deals with two issues for future Exascale platforms, namelyresilience and energy.In the first part of this thesis, we focus on the optimal placement ofperiodic coordinated checkpoints to minimize execution time.We consider fault predictors, a software used by system administratorsthat tries to predict (through the study of passed events) where andwhen faults will strike. In this context, we propose efficientalgorithms, and give a first-order optimal formula for the amount ofwork that should be done between two checkpoints.We then focus on silent data corruption errors. Contrarily to fail-stopfailures, such latent errors cannot be detected immediately, and amechanism to detect them must be provided. We compute the optimal periodin order to minimize the waste.In the second part of the thesis we address the energy consumptionchallenge.The speed scaling technique consists in diminishing the voltage of theprocessor, hence diminishing its execution speed. Unfortunately, it waspointed out that DVFS increases the probability of failures. In thiscontext, we consider the speed scaling technique coupled withreliability-increasing techniques such as re-execution, replication orcheckpointing. For these different problems, we propose variousalgorithms whose efficiency is shown either through thoroughsimulations, or approximation results relatively to the optimalsolution. Finally, we consider the different energetic costs involved inperiodic coordinated checkpointing and compute the optimal period tominimize energy consumption, as we did for execution time.
|
327 |
Caractérisation et prédiction probabiliste des variations brusques et importantes de la production éolienne / Characterization and probabilistic forecasting of wind power production rampsBossavy, Arthur 06 December 2012 (has links)
L'énergie éolienne est aujourd'hui la source d'énergie renouvelable en plus forte expansion. Le caractère variable et partiellement contrôlable de sa production complexifie la gestion du système électrique. L'utilisation dans divers processus de décision, de prédictions du niveau de production à des horizons de 2-3 jours, permet une meilleure intégration de cette ressource. Certaines situations donnent néanmoins lieu à des performances de prédiction insatisfaisantes. Des erreurs dans la prédiction de l'instant d'apparition de variations brusques et importantes de la production, peuvent être responsables d'importants déséquilibres énergétiques, et avoir un impact négatif sur la gestion du système électrique. L'objectif de cette thèse est de proposer des approches permettant d'une part de caractériser ces variations, et d'autre part de prédire et d'estimer l'incertitude dans l'instant de leur apparition. Dans un premier temps, nous étudions différentes formes de caractérisation de ces variations. Nous proposons un modèle de rupture permettant de représenter le caractère aléatoire dans la proximité des ruptures d'un signal, tout en tenant compte des aspects borné et non-stationnaire du processus de production. A partir de simulations issues de ce modèle, nous réalisons une étude paramétrique destinée à évaluer et comparer les performances de différents filtres et approches multi-échelles de détection. Dans un deuxième temps, nous proposons une approche de prédiction probabiliste de l'instant d'apparition d'une rupture, reposant sur l'utilisation de prévisions météorologiques ensemblistes. Leur conversion en puissance fournit différents scénarii de la production, à partir desquels sont agrégées les prédictions de l'instant d'apparition d'une rupture. L'incertitude associée est représentée à l'aide d'intervalles de confiance temporels et de probabilités estimées conditionnellement. Nous évaluons la fiabilité et la finesse de ces estimations sur la base de mesures de production provenant de différentes fermes éoliennes. / Today, wind energy is the fastest growing renewable energy source. The variable and partially controllable nature of wind power production causes difficulties in the management of power systems. Forecasts of wind power production 2-3 days ahead can facilitate its integration. Though, particular situations result in unsatisfactory prediction accuracy. Errors in forecasting the timing of large and sharp variations of wind power can result in large energy imbalances, with a negative impact on the management of a power system. The objective of this thesis is to propose approaches to characterize such variations, to forecast their timing, and to estimate the associated uncertainty. First, we study different alternatives in the characterization of wind power variations. We propose an edge model to represent the random nature of edge occurrence, along with representing appropriately the bounded and non-stationary aspects of the wind power production process. From simulations, we make a parametric study to evaluate and compare the performances of different filters and multi-scale edge detection approaches. Then, we propose a probabilistic forecasting approach of edge occurrence and timing, based on numerical weather prediction ensembles. Their conversion into power provides an ensemble of wind power scenarios from which the different forecast timings of an edge are combined. The associated uncertainty is represented through temporal confidence intervals with conditionally estimated probabilities of occurrence. We evaluate the reliability and resolution of those estimations based on power measurements from various real world case studies.
|
328 |
Durabilité de produits innovants de robinetterie en polyamide 6,6 / Durability of innovative valve products in polyamide 6,6El mazry, Chaker 31 January 2013 (has links)
Le PA 6,6 est maintenant envisagé pour des pièces de robinetterie sur le réseau domestique de distribution d'eau potable. Cependant, ce matériau ne pourra être utilisé que si sa durabilité à long terme, en conditions réelles de service, est clairement démontrée. L'analyse cinétique des principaux mécanismes de vieillissement chimique susceptibles de se produire et d'interagir sur le réseau domestique de distribution d'eau potable : l'hydrolyse, la thermo-oxydation et l'attaque chimique par le dioxyde de chlore, a permis au final d'élaborer un modèle cinétique général de dégradation du PA 6,6. Ce modèle donne accès aux modifications structurales du PA 6,6 aux différentes échelles pertinentes (moléculaire, macromoléculaire, morphologique et macroscopique) en conditions de service. Il prédit la fragilisation du PA 6,6 lorsque la masse molaire moyenne en nombre atteint une valeur critique de l'ordre de 17 kg/mole. De nombreuses perspectives de recherche sont présentées comme l'introduction de ce modèle cinétique dans les codes courants de calcul mécaniques. / PA 6,6 is now considered for the elaboration of valve parts in the domestic network of drinking water distribution. However, this material will be used only if its long-term durability, in real use conditions, is clearly demonstrated. The kinetic analysis of the main chemical ageing mechanisms which may occur and interact in the domestic network of drinking water distribution: hydrolysis, thermal oxidation and chemical attack by chlorine dioxide, has allowed to finally build a general kinetic model for PA 6,6 degradation. This model gives access to PA 6,6 structural modifications at the different pertinent scales (molecular, macromolecular, morphological and macroscopic scales) in use conditions. It predicts the embrittlement of PA 6,6 when the number average molar mass reaches a critical value of the order of 17 kg/mole. Many research prospects are presented such as the introduction of this kinetic model in common mechanical calculation codes.
|
329 |
Prédiction de la perte du greffon chez les jeunes patients transplantés rénaux / Prediction of graft failure for young kidney transplant recipientsKabore, Remi 17 October 2017 (has links)
Une attention particulière doit être accordée aux jeunes patients transplantés du rein, qui sont prioritaires en France dans l’attribution de greffon rénal. Les objectifs de cette thèse étaient 1) d’étudier la dynamique du risque instantané de la perte du greffon en fonction de l’âge courant après la transplantation chez les jeunes ; 2) de réaliser un revue systématique des modèles de prédiction de perte du greffon rénal tout âge confondu; et 3) de développer et valider un modèle de prédiction adapté à cette jeune population. Pour répondre aux objectifs 1 et 3, nous avons utilisé les données des registres nationaux français REIN et CRITAL qui incluent de manière exhaustive tous les patients transplantés rénaux pédiatriques. Pour l’Objectif 1, une méthode statistique en deux étapes a permis de mettre en évidence une augmentation accrue du risque instantané de perte du greffon au moment de l’adolescence. Pour l’Objectif 2, une revue systématique des articles publiés entre 2005 et 2015 a montré qu’aucun outil prédictif de la perte du greffon n’avait été spécifiquement proposé pour les patients pédiatriques, ni aucun outil de prédiction dynamique tout âge confondu. Pour l’Objectif 3, nous avons développé et validé par validation croisée interne un modèle de prédiction dynamique de perte du greffon pour les jeunes transplantés, à partir d’un modèle conjoint à effets aléatoires partagés. Ce modèle incluait des prédicteurs classiques à l’inclusion défini par le 90ième jour après la transplantation (des caractéristiques du receveur (sexe, âge à la transplantation, durée de dialyse pré-greffe, maladie rénale initiale, nadir du DFGe entre la transplantation et J90), du donneur (âge, type), et de la transplantation (durée d’ischémie froide, nombre d’incompatibilités HLA, statut donneur/receveur pour sérologie CMV)). Le modèle incluait également la trajectoire du DFG estimé après la transplantation, en supposant que le risque instantané de perte du greffon dépendait à la fois du niveau courant du DFG mais aussi de sa pente courante. Nos résultats indiquent que ce modèle avait de bonnes performances prédictives (AUC à 5 ans variant de 0.75 à 0.86 selon les temps de prédiction après la transplantation), bien meilleures que le modèle de Cox classique ne tenant compte que des prédicteurs à l’inclusion (AUC à 5 ans variant de 0.56 à 0.62). Ce modèle permettant la mise à jour à chaque visite clinique après la transplantation, du risque futur de la perte du greffon en fonction de toutes les valeurs observées précédentes du DFG, devra être validé sur d’autres populations que la population française. Nous pensons en effet qu’un tel outil pourrait à terme être utile dans le suivi clinique des jeunes patients transplantés rénaux. / Particular attention should be paid to young patients transplanted from the kidney, which have priority in France in the assignment of renal graft. The objectives of this thesis were 1) to study the dynamics of the hazard of graft failure by current age after transplantation in young people; 2) to carry out a systematic review of prediction models for renal graft failure at all ages; and (3) to develop and validate a prediction model for this young population. To achieve Objectives 1 and 3, we used data from the French national registries REIN and CRISTAL, which included all pediatric renal transplant patients. For Objective 1, a two-stage statistical method revealed an increase in the hazard of graft failure during adolescence. For Objective 2, a systematic review of articles published between 2005 and 2015 showed that no predictive tool for graft failure has been specifically proposed for pediatric patients, as well as no dynamic predictive model for any age. For Objective 3, we developed and validated using internal cross-validation a dynamic prediction model of graft failure for young transplanted patients, using a joint model with shared random effects. This model included standard baseline predictors at the 90th day after transplantation (characteristics of the recipient (sex, age at transplantation, pretrasplant dialysis duration, primary renal disease, nadir of eGFR at J90), the donor (age and type), and transplantation (duration of cold ischemia, number of HLA incompatibilities, donor/recipient cytomegalovirus (CMV) serology status). The model also included the trajectory of GFR estimated after transplantation, assuming that the hazard of graft failure depended on both the current value of eGFR and its current slope. Our results indicate that this model had good predictive performances (AUC at 5 years ranging from 0.75 to 0.86 according to the time at prediction after transplantation), which were much better than the standard Cox model accounting for baseline predictors only (5-year AUC variant from 0.56 to 0.62). This model which allows the prediction of graft failure to be updated at each clinical visit after transplantation based on all previous observed values of eGFR, should be validated on populations other than the French population. We believe that such a tool could ultimately be useful in the clinical follow-up of young kidney transplanted patients.
|
330 |
Kinetic modeling of the polypropylene photothermal oxidation / Modélisation cinétique de la photo-thermo-oxydation du polypropylèneFrancois heude, Alexandre 19 June 2014 (has links)
Le développement d'outils numériques de prédiction de la durée de vie des polymères constitue un levier prometteur pour réduire les durées des processus de certification de ces matériaux dans le domaine automobile sans sacrifier leur fiabilité. Cette thèse s'applique à la modélisation de la photo-thermo-oxydation du polypropylène isotactique (iPP), laquelle est responsable de l'altération de ses propriétés mécaniques et d'aspect. L'approche adoptée consiste à coupler la cinétique des réactions de photo- et thermo-oxydation avec des phénomènes physiques, comme le transport du dioxygène et l'atténuation de la lumière UV dans l'épaisseur du matériau, pour décrire l'ensemble des évolutions physico-chimiques. Les propriétés aux échelles supérieures, sur lesquelles seront définis les critères de fin de vie, seront calculées a posteriori en appliquant les relations structure-propriété adéquates. Le principal enjeu était d'étendre le modèle cinétique de vieillissement thermique préexistant au vieillissement photo-thermique en prenant en compte les réactions d'amorçage photolytique. De lourdes campagnes d'essais de vieillissement et de caractérisation menées sur un iPP de référence, ainsi qu'une capitalisation exhaustive des données de la littérature d'autres iPPs, ont permis de mettre au point un modèle cinétique de photo-thermo-oxydation et de le généraliser à l'ensemble de la famille des iPPs dans de larges domaines de pression partielle d'oxygène (de 0.2 à 50 bars), de température (de 40 à 230°C) et d'exposition à la lumière UV (intensités et sources lumineuses variables) décrivant des conditions de vieillissements naturels et accélérés. La validation expérimentale du modèle a permis d'étayer l'approche cinétique et de montrer ses limites, mais aussi de révéler un certain nombre d'enjeux numériques. Le modèle a été conçu pour être un outil numérique évolutif qui permettra, à terme, d'optimiser la représentativité des méthodes d'essais de vieillissement et la performance des formulations commerciales d'iPP. L'ensemble de ces développements théoriques et numériques peut être appliqué à la photo-thermo-dégradation d'autres types de polymères, mais aussi dans d'autres champs d'application de la photochimie macromoléculaire telle que la photo-polymérisation UV.Mots-Clés : Polypropylène, photo-thermo-oxydation, contrôle par la diffusion d'oxygène, effet d'écran, modélisation cinétique, prédiction de durée de vie. / Developing numerical tools for polymer lifetime prediction constitutes a promising opportunity for shortening the duration of material certification procedures in the automotive industry without decreasing their reliability. This PhD thesis aims at modeling the photothermal oxidation of isotactic polypropylene (iPP), which is responsible for the alteration of both its mechanical and aspect properties. The adopted approach consists in coupling the kinetics of photo- and thermo-oxidation reactions with physical phenomena, such as oxygen transport and UV-light attenuation in the material thickness, in order to describe all the physico-chemical changes. Upper-scale properties, from which will be defined the end-of-life criteria, will be calculated afterwards by applying the suitable structure-property relationships. The main challenge was to extend the pre-existing kinetic model of thermal ageing to photothermal ageing by taking into account initiation reactions of photolysis. Heavy campaigns of ageing and characterization tests made on a reference iPP, as well as an exhaustive capitalization of literature data of other iPPs, have allowed elaborating a kinetic model of photothermal oxidation and to generalize it to the whole iPP family in large domains of oxygen partial pressure (from 0.2 to 50 bars), temperature (from 40 to 230°C) and UV-light exposure (variable intensities and light sources) describing both natural and accelerated ageing conditions. The experimental validation of the model has allowed substantiating the kinetic approach and showing its limitations, as well as highlighting some numerical issues. The model has been designed in order to be an upgradable numerical tool which will allow, at term, optimizing the representativeness of the ageing testing devices and the performance of commercial iPP formulations. All these theoretical and numerical developments are prone to be applied to the photothermal degradation of other types of polymer substrates, but also in other application fields of the macromolecular photochemistry such as UV-photopolymerization.Keywords: Polypropylene, photothermal oxidation, oxygen diffusion control, screen effect, kinetic modeling, lifetime prediction.
|
Page generated in 0.0642 seconds