• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 339
  • 197
  • 43
  • 1
  • Tagged with
  • 568
  • 308
  • 119
  • 70
  • 63
  • 62
  • 58
  • 57
  • 56
  • 54
  • 50
  • 48
  • 45
  • 41
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

Développement d'un modèle numérique de prédiction des émissions d'oxydes d'azote pour la simulation aux grandes échelles de chambres de combustion aéronautiques

Pecquery, François 06 June 2013 (has links) (PDF)
Cette thèse est consacrée à l'amélioration des capacités de prédiction des émissions d'oxydes d'azote (NO et NO2) des foyers de combustion aéronautiques. Les travaux, exclusivement numériques, consistent d'abord dans une étude de la cinétique chimique responsable des émissions polluantes. Cetteétude conduit à l'écriture d'un modèle, nommé NOMANI (pour Nitrogen Oxide emission model with one-dimensional MANIfold), basé sur l'approche PCM-FPI (pour Presumed Conditional Moments - Flame Prolongation of ILDM) avec une variable de progrès additionnelle afin calculer l'avancement de la chimie azotée une fois la chimie carbonée à l'équilibre. Différentes validations sur des configurations laminaires simples puis des flammes de laboratoire de Sandia sont présentées. Les résultats en terme de structure de flamme et d'émission de monoxyde d'azote sont confrontés aux mesures expérimentales. Le dernier volet de ces travaux, disponible uniquement dans la version confidentielle du manuscrit, consiste dans le développement d'un modèle de prédiction de polluants associé au modèle TF-LES (pour Thickening Flame for Large Eddy Simulation). Le modèle développé est ensuite appliqué à des calculs d'une chambre de combustion aéronautique.
312

Etude du traitement cérébral d'un contexte visuel prédictif dans l'autisme / Study of the brain mechanisms involved in visual predicitive context processing in autism

Thillay, Alix 08 December 2015 (has links)
Des réactions inhabituelles et disproportionnées face aux changements survenant de manière imprévisible dans l’environnement sont observées dans l’autisme. L’objectif de ce travail est de caractériser chez des adolescents et des jeunes adultes avec autisme les mécanismes neurophysiologiques impliqués dans le traitement d’un contexte visuel prédictif à partir de l’analyse des potentiels évoqués et des oscillations cérébrales. L’étude de la maturation au cours de l’adolescence chez le sujet au développement typique montre que les mécanismes de prédiction sont matures dès l’âge de 12 ans. Les personnes avec autisme parviennent à extraire l’information pertinente dans un contexte simple, certain et explicite, et à l’utiliser pour se préparer à la survenue d’un événement afin d’y avoir une réponse adaptée. Ces résultats suggèrent que les mécanismes de traitement d’un contexte visuel prédictif dans un contexte certain sont préservés dans l’autisme. Toutefois, les personnes avec autisme sur-anticipent les stimulations imprévisibles, en accord avec leur impression de surcharge sensorielle. Elles présentent également des difficultés pour moduler de manière flexible les activités corticales en fonction du niveau d’incertitude du contexte, en accord avec le défaut d’adaptation à un monde en perpétuel changement. Ce travail suggère qu’un dysfonctionnement des mécanismes de prédiction dans un contexte incertain pourrait fournir un cadre théorique permettant de mieux comprendre les particularités rencontrées dans l'autisme. / Individuals with autism react in an unusual and disproportionate way if unpredictable changes occur in their environment. The aim of the present work is to investigate brain mechanisms involved in visual predictive context processing in adolescents and adults with autism using analysis of event-related potentials and brain oscillations. The developmental study shows that mechanisms of prediction are mature by the age of 12 in typically developing adolescents. Individuals with autism are able to extract relevant information from the stimulus train in a simple, certain and explicit context, to use it in order to anticipate the occurrence of an event and to have an appropriate response, suggesting preserved extraction and use of predictive information during a certain context. However, individuals with autism over-anticipate stimuli during an uncertain context, consistent with the sense of being overwhelmed by incoming information, and also cannot flexibly modulate cortical activity according to changing levels of uncertainty, in agreement with atypical adaptation in an ever-changing world. This work suggests that a dysfunction of predictive processing in an uncertain context might provide a theoretical framework to better understand the symptoms encountered in autism.
313

L'activité prédictives des sciences empirique : analyse d'un succès scientifique et de sa portée / The Predictive activity of empirical sciences : structure and consequences of a scientific success

Leconte, Gauvain 06 December 2017 (has links)
La réalisation de prédictions précises et surprenantes est une pratique essentielle des sciences empiriques et la confirmation de ces prédictions semble représenter l’un de leurs principaux succès théoriques et pratiques. Ainsi de nombreux scientifiques et épistémologues attribuent-ils aux succès prédictifs le pouvoir de confirmer des hypothèses, d’influencer le cours de l’histoire scientifique, voire de révéler quelles théories reflètent la réalité. Pourtant les prédictions s’appuient souvent sur des représentations simplifiées, idéalisées ou fictionnelles de la réalité. L’objectif de cette thèse est d’analyser l’activité prédictive pour comprendre en quoi consistent les succès prédictifs et quelle portée on peut légitimement leur conférer. L’enjeu de cette analyse est notamment de savoir si une théorie ayant engendré un succès prédictif peut être considérée comme vraie ou partiellement vraie.La première partie de la thèse est consacrée à l’analyse de l’activité prédictive et conclut qu’il existe une pluralité de raisonnements et de succès prédictifs. La deuxième partie étudie l’influence de ces succès sur l’évolution d’une discipline, la cosmologie, de 1917 à nos jours et montre que les scientifiques attribuent de l’importance aux prédictions qui indiquent la capacité prédictive d’une hypothèse ou d’une théorie. Dans la troisième partie, je soutiens que le rôle des prédictions dans le choix rationnel des hypothèses est de permettre de juger de leur fécondité. La quatrième partie étudie les limites de la portée des succès prédictifs en montrant qu’ils ne permettent pas de savoir quels aspects des théories dont ils sont issus reflètent la réalité. / Deriving precise and surprising predictions is a key feature of scientific activity. The confirmation of these predictions by severe tests seems to represent major theoretical and practical successes in the field of empirical sciences. Therefore, many scientists and philosophers of science view predictive successes as having an important weight in scientific change, theory choice and for the identification of true claims about reality. However, predictions are often derived from simplified or idealised representations of real-world systems. The aim of this dissertation is to analyse the predictive activity of empirical sciences in order to circumscribe the scope of predictive success. First, I claim that predictive successes come in many forms and structures. In the second part, I investigate the impact of successful predictions in the history of modern cosmology since 1917 and argue that scientists value predictions attesting the predictive capacity of new hypotheses. In a third part, I examine the weight of successful predictions in the confirmation of hypotheses and claim that they serve as a proxy for one of the most important virtues of theories: fruitfulness. The last part is dedicated to the limits of scientific successes and shows that novel predictions cannot help us to circumscribe which posits of scientific theories are worthy of belief.
314

Prédire l'utilisation d'une nouvelle technologie : le cas des Systèmes de Transports Intelligents Coopératifs / Predicting the use of new technology : the Cooperative Intelligent Transports Systems

Bel, Marlene 15 December 2016 (has links)
Cette thèse a pour objet d’étude la prédiction de l’utilisation d’une technologie encore inconnue des utilisateurs ; c’est-à-dire une technologie que ces derniers n’ont pas encore eu l’occasion de mettre en pratique et de facto pour laquelle ils n’ont pas de représentation. Trois objectifs sont poursuivis dans ce travail. Le premier est la construction d’un modèle prédictif de l’intention comportementale d’utiliser les systèmes de transports intelligents coopératifs inconnus en convoquant les deux cadres théoriques que sont l’acceptabilité des technologies (e.g., Venkatesh et Bala, 2008) et la prédiction comportementale (Ajzen, 1991 ; Ajzen et Fishbein, 1973). L’un, focalisé sur le jugement de l’individu sur l’objet, implique la connaissance de cet objet. L’expérience antérieure et les attitudes envers des objets génériques et spécifiques connus proches de l’objet dont on souhaite prédire l’utilisation ont composé la première partie (A) du modèle. L’autre, focalisé sur le jugement de l’individu sur l’utilisation de l’objet autorise les individus à se projeter quant à la valeur attendue de l’utilisation et aux attentes sur les conséquences de cette utilisation (i.e., les origines des attitudes), à la pression de leurs proches et au contrôle qu’ils perçoivent de l’utilisation de la technologie inconnue. Ces déterminants ont composé la seconde partie (B) du modèle. Le deuxième objectif vise à tester, au cours d’une première étude, la structure factorielle de deux questionnaires relatifs à ces deux cadres théoriques A et B. Les résultats nous ont conduits à retenir un modèle en sept facteurs afin de le tester au cours d’une deuxième étude. Les résultats ont montré que l’expérience antérieure avec des objets génériques connus prédisait indirectement l’intention d’utiliser l’objet inconnu via une médiation par les attitudes envers les objets génériques, l’expérience antérieure avec les objets spécifiques et la valeur / attentes à l’égard de l’utilisation de l’objet inconnu. Les résultats ont également montré l’influence indirecte de la norme subjective et du contrôle anticipé de l’utilisation de l’objet sur l’intention via une médiation, là encore, par la valeur / attentes à l’égard de l’utilisation de l’objet inconnu. Le troisième objectif vise à relier l’intention d’utilisation avec l’utilisation réelle des systèmes de transports intelligents coopératifs en situation de conduite automobile. Ces derniers résultats, bien que ténus, ont montré que l’on pouvait réaliser cette prédiction lorsque les situations de conduite étaient adaptées à l’utilisation de la technologie (e.g., Theeuwes, 1993).Mots-clés: prédiction comportementale; acceptabilité des technologies; attitudes; intention comportementale ; comportement ; activité de conduite automobile. / This thesis focuses on the prediction of the use of an unknown technology; that is to say the users did not have yet the opportunity to practice this technology, so they still have no representation of this technology. Three objectives are pursued in this work. The first one is the construction of a predictive model of the behavioural intention to use the unknown cooperative intelligent transport systems by convening the two theoretical frameworks which are the acceptability of the technologies (e.g., Venkatesh & Bala, 2008) and the behavioural prediction (Ajzen, 1991; Ajzen & Fishbein, 1973). One of them, focused on the judgment of individuals onto the object, implies the knowledge of this object. Hence the first part (A) of the model is based on past behaviours and attitudes towards generic and specific known objects close to the one that we want to predict the use. The other one is focused on the judgment of individuals onto the use of the object. This enables individuals to project themselves regarding the expected behaviour value and the expectations of the results of using it (i.e., the attitudes’ determinants), and both the subjective norm and the perceived behavioural control of the use of this unknown technology. These determinants form the second part (B) of the model. The second objective aims at testing, in a first study, the factor structure of the two questionnaires A and B. The results led us to retain a model based on seven factors in order to test it in a second study. The results showed that past behaviours with known generic objects indirectly predicted the intention to use the unknown object via a mediation through attitudes towards generic objects, past behaviours with specific objects, expected behaviour value and expectations of the results of the use of the unknown technology. Also, the results showed an indirect influence of the subjective norm and the perceived behavioural control on the intention to use the unknown object via a mediation by the value / expectations regarding the use of the unknown object. The third objective aims at linking the intention with the actual use of cooperative intelligent transport systems in driving situations. These results, although tenuous, have shown that this prediction could be made when the driving situations were consistant with the use of the technology (Theeuwes, 1993).Keywords: behavioural prediction; technology acceptance; attitudes; behavioural intention; behaviour; activity of driving.
315

Nouvelles techniques informatiques pour la localisation et la classification de données de séquençage haut débit / Novel computational techniques for mapping and classification of Next-Generation Sequencing data

Brinda, Karel 28 November 2016 (has links)
Depuis leur émergence autour de 2006, les technologies de séquençage haut débit ont révolutionné la recherche biologique et médicale. Obtenir instantanément une grande quantité de courtes ou longues lectures de presque tout échantillon biologique permet de détecter des variantes génomiques, révéler la composition en espèces d’un métagénome, déchiffrer la biologie du cancer, décoder l'évolution d’espèces vivantes ou disparues, ou mieux comprendre les schémas de la migration humaine et l'histoire humaine en général. La vitesse à laquelle augmente le débit des technologies de séquençage dépasse la croissance des capacités de calcul et de stockage, ce qui crée de nouveaux défis informatiques dans le traitement de données de séquençage haut débit. Dans cette thèse, nous présentons de nouvelles techniques informatiques pour la localisation (mapping) de lectures dans un génome de référence et pour la classification taxonomique. Avec plus d'une centaine d’outils de localisation publiés, ce problème peut être considéré comme entièrement résolu. Cependant, une grande majorité de programmes suivent le même paradigme et trop peu d'attention a été accordée à des approches non-standards. Ici, nous introduisons la localisation dynamique dont nous montrons qu’elle améliore significativement les alignements obtenus, par comparaison avec les approches traditionnelles. La localisation dynamique est basée sur l'exploitation de l'information fournie par les alignements calculés précédemment, afin d’améliorer les alignements des lectures suivantes. Nous faisons une première étude systématique de cette approche et démontrons ses qualités à l'aide de Dynamic Mapping Simulator, une pipeline pour comparer les différents scénarios de la localisation dynamique avec la localisation statique et le “référencement itératif”. Une composante importante de la localisation dynamique est un calculateur du consensus online, c’est-à-dire un programme qui collecte des statistiques des alignements pour guider, à la volée, les mises à jour de la référence. Nous présentons OCOCO, calculateur du consensus online qui maintient des statistiques des positions génomiques individuelles à l’aide de compteurs de bits compacts. Au-delà de son application à la localisation dynamique, OCOCO peut être utilisé comme un calculateur de SNP online dans divers pipelines d'analyse, ce qui permet de prédire des SNP à partir d'un flux sans avoir à enregistrer les alignements sur disque. Classification métagénomique de lectures d’ADN est un autre problème majeur étudié dans la thèse. Etant donné des milliers de génomes de référence placés sur un arbre taxonomique, le problème consiste à affecter rapidement aux nœuds de l'arbre une énorme quantité de lectures NGS, et éventuellement estimer l'abondance relative des espèces concernées. Dans cette thèse, nous proposons des techniques améliorées pour cette tâche. Dans une série d'expériences, nous montrons que les graines espacées améliorent la précision de la classification. Nous présentons Seed-Kraken, extension sur les graines espacées du logiciel populaire Kraken. En outre, nous introduisons une nouvelle stratégie d'indexation basée sur le transformé de Burrows-Wheeler (BWT), qui donne lieu à un indice beaucoup plus compact et plus informatif par rapport à Kraken. Nous présentons une version modifiée du logiciel BWA qui améliore l’index BWT pour la localisation rapide de k-mers / Since their emergence around 2006, Next-Generation Sequencing technologies have been revolutionizing biological and medical research. Obtaining instantly an extensive amount of short or long reads from almost any biological sample enables detecting genomic variants, revealing the composition of species in a metagenome, deciphering cancer biology, decoding the evolution of living or extinct species, or understanding human migration patterns and human history in general. The pace at which the throughput of sequencing technologies is increasing surpasses the growth of storage and computer capacities, which still creates new computational challenges in NGS data processing. In this thesis, we present novel computational techniques for the problems of read mapping and taxonomic classification. With more than a hundred of published mappers, read mapping might be considered fully solved. However, the vast majority of mappers follow the same paradigm and only little attention has been paid to non-standard mapping approaches. Here, we propound the so-called dynamic mapping that we show to significantly improve the resulting alignments compared to traditional mapping approaches. Dynamic mapping is based on exploiting the information from previously computed alignments, helping to improve the mapping of subsequent reads. We provide the first comprehensive overview of this method and demonstrate its qualities using Dynamic Mapping Simulator, a pipeline that compares various dynamic mapping scenarios to static mapping and iterative referencing. An important component of a dynamic mapper is an online consensus caller, i.e., a program collecting alignment statistics and guiding updates of the reference in the online fashion. We provide OCOCO, the first online consensus caller that implements a smart statistics for individual genomic positions using compact bit counters. Beyond its application to dynamic mapping, OCOCO can be employed as an online SNP caller in various analysis pipelines, enabling calling SNPs from a stream without saving the alignments on disk. Metagenomic classification of NGS reads is another major problem studied in the thesis. Having a database of thousands reference genomes placed on a taxonomic tree, the task is to rapidly assign to tree nodes a huge amount of NGS reads, and possibly estimate the relative abundance of involved species. In this thesis, we propose improved computational techniques for this task. In a series of experiments, we show that spaced seeds consistently improve the classification accuracy. We provide Seed-Kraken, a spaced seed extension of Kraken, the most popular classifier at present. Furthermore, we suggest a new indexing strategy based on a BWT-index, obtaining a much smaller and more informative index compared to Kraken. We provide a modified version of BWA that improves the BWT-index for a quick k-mer look-up
316

Un modèle de transition logico-matérielle pour la simplification de la programmation parallèle / A software-hardware bridging model for simplifying parallel programming

Li, Chong 03 July 2013 (has links)
La programmation parallèle et les algorithmes data-parallèles sont depuis plusieurs décennies les principales techniques de soutien l'informatique haute performance. Comme toutes les propriétés non-fonctionnelles du logiciel, la conversion des ressources informatiques dans des performances évolutives et prévisibles implique un équilibre délicat entre abstraction et automatisation avec une précision sémantique. Au cours de la dernière décennie, de plus en plus de professions ont besoin d'une puissance de calcul très élevée, mais la migration des programmes existants vers une nouvelle configuration matérielle et le développement de nouveaux algorithmes à finalité spécifique dans un environnement parallèle n'est jamais un travail facile, ni pour les développeurs de logiciel, ni pour les spécialistes du domaine. Dans cette thèse, nous décrivons le travail qui vise à simplifier le développement de programmes parallèles, en améliorant également la portabilité du code de programmes parallèles et la précision de la prédiction de performance d'algorithmes parallèles pour des environnements hétérogènes. Avec ces objectifs à l'esprit, nous avons proposé un modèle de transition nommé SGL pour la modélisation des architectures parallèles hétérogènes et des algorithmes parallèles, et une mise en œuvre de squelettes parallèles basés sur le modèle SGL pour le calcul haute performance. SGL simplifie la programmation parallèle à la fois pour les machines parallèles classiques et pour les nouvelles machines hiérarchiques. Il généralise les primitives de la programmation BSML. SGL pourra plus tard en utilisant des techniques de Model-Driven pour la génération de code automatique á partir d'une fiche technique sans codage complexe, par exemple pour le traitement de Big-Data sur un système hétérogène massivement parallèle. Le modèle de coût de SGL améliore la clarté de l'analyse de performance des algorithmes, permet d'évaluer la performance d'une machine et la qualité d'un algorithme / Parallel programming and data-parallel algorithms have been the main techniques supporting high-performance computing for many decades. Like all non-functional properties of software, the conversion of computing resources into scalable and predictable performance involves a delicate balance of abstraction and automation with semantic precision. During the last decade, more and more professions require a very high computing power. However, migrating programs to new hardware configuration or developing new specific-purpose algorithms on a parallel environment is never an easy work, neither for software developers nor for domain specialists. In this thesis we describe work that attempts to improve the simplicity of parallel program development, the portability of parallel program code, and the precision of parallel algorithm performance prediction for heterogeneous environments. With these goals in mind we proposed a bridging model named SGL for modelling heterogeneous parallel architectures and parallel algorithms, and an implementation of parallel skeletons based on SGL model for high-performance computing. SGL simplifies the parallel programming either on the classical parallel machines or on the novel hierarchical machines. It generalizes the BSML programming primitives. SGL can be served later with model-driven techniques for automatic code generation from specification sheet without any complex coding, for example processing Big Data on the heterogeneous massive parallel systems. The SGL cost model improves the clarity of algorithms performance analysis; it allows benchmarking machine performance and algorithm quality
317

Development of Analytically Reduced Chemistries (ARC) and applications in Large Eddy Simulations (LES) of turbulent combustion / Développement de Chimies Analytiquement Réduites (CAR) et applications à la Simulation aux Grandes Échelles (SGE) de la combustion turbulente

Felden, Anne 30 June 2017 (has links)
L'impact environnemental du trafic aérien fait maintenant l'objet d'une réglementation qui tend à se sévériser. Dans ce contexte, les industriels misent sur l'amélioration des technologies afin de réduire la consommation de carburant et l'émission de polluants. Ces phénomènes dépendent en grande partie des chemins réactionnels sous-jacents, qui peuvent s'avérer très complexes. La Simulation aux Grandes Échelles (SGE) est un outil intéressant afin d'étudier ces phénomènes pour un coût de calcul qui reste raisonnable. Cependant, les processus chimiques, s'ils sont considérés sans simplification, font intervenir des centaines d'espèces aux temps caractéristiques très différents au sein de processus non-linéaires qui induisent une forte raideur dans le système d'équations, et un coût de calcul prohibitif. Permettant de s'absoudre de ces problèmes tout en conservant une bonne capacité de prédiction des polluants, les Chimies Analytiquement Réduites (CAR) font l'objet d'une attention grandissante au sein de la communauté. Les CAR permettent de conserver la physique du problème considéré, en conservant les espèces et voies réactionnelles les plus importantes. Grâce à l'évolution toujours croissante des moyens de calculs, les CAR sont appliqués dans des configurations de plus en plus complexes. Les travaux de thèse ont principalement portés sur deux sujets. Premièrement, une étude poussée des techniques et outils permettant une réduction efficace et systématique de chimies détaillées. L'outil de réduction multiétapes YARC est retenu et exhaustivement employé dans la dérivation et la validation d'une série de CAR préservant la description de la structure de flamme. Ensuite, une investigation de la faisabilité et des bénéfices qu'apportent l'utilisation de CAR en LES, comparé a des approches plus classiques, sur des cas tests de complexité croissante. La première configuration étudiée est une chambre de combustion partiellement pré-mélangée brûlant de l'éthylène, étudiée expérimentalement au DLR. Différentes modélisations de la chimie sont considérées, dont un CAR développé spécifiquement pour ce cas test, et les résultats démontrent qu'une prise en compte des interactions flamme-écoulement est cruciale pour une prédiction juste de la structure de la flamme et des niveaux de suies. La seconde configuration est un brûleur diphasique, avec une injection directe pauvre, brûlant du Jet-A2. Dans cette étude, une approche novatrice pour la prise en compte de la complexité du fuel réel (HyChem) est considérée, permettant la dérivation d’un CAR. Les résultats sont excellents et valident la méthodologie tout en fournissant une analyse précieuse des interactions flamme-spray et de la formation de polluants (NOx) dans des flammes à la structure complexe. / Recent implementation of emission control regulations has resulted in a considerable demand from industry to improve the efficiency while minimizing the consumption and pollutant emissions of the next generation of aero-engine combustors. Those phenomena are shown to strongly depend upon the underlying complex chemical pathways and their interaction with turbulence. Large Eddy Simulation (LES) is an attractive tool to address those issues with high accuracy at a reasonable computing cost. However, the computation of accurate combustion chemistry remains a challenge. Indeed, combustion proceeds through complex and highly non-linear processes that involve up to hundreds of different chemical compounds, which significantly increases the computational time and often induces stiffness in the resolved equations. As a mean to circumvent these drawbacks while retaining the necessary kinetics for the prediction of pollutants, Analytically Reduced Chemistry (ARC) has recently received high interest in the Computational Fluid Dynamics (CFD) community. ARC is a strategy for the description of combustion chemistry where only the most important species and reactions are retained, in a "physically-oriented way". ARC is on the verge of becoming affordable at a design stage, thanks to the continuously increasing available computational resources. The goal of the present work is twofold. A first objective is to test and validate efficient techniques and tools by which detailed chemistries are reduced to an LES-compliant format. To do so, the multi-step reduction tool YARC is selected and employed to derive and validate a series of ARC specifically designed to retrieve correct flame structures. A second objective is to investigate the overall feasibility and benefits of using ARC, combined to the Thickened Flame model (DTFLES), in performing LES of configurations of increasing complexity. The first configuration is a sooting swirl-stabilized non-premixed aero-engine combustor experimentally studied at DLR, burning ethylene. LES of this configuration is performed with the AVBP solver, in which ARC has been implemented. By comparison with global chemistry and tabulated chemistry, results highlight the importance of accurately capturing the flow-flame interactions for a good prediction of pollutants and soot. The second configuration is a swirled twophase flow burner featuring a lean direct injection system and burning Jet-A2. A novel methodology to real fuel modeling (HyChem approach) is employed, which allows subsequent ARC derivation. The excellent results in comparison with measurements constitute an additional validation of the methodology, and provide valuable qualitative and quantitative insights on the flame-spray interactions and on the pollutant formation (NOx) mechanisms in complex flame configurations.
318

Modèle physique de prédiction des effets des événements singuliers destructifs dans les composants électroniques de puissance / A physical prediction model of destructive Single Event Effects in power electronics devices

Siconolfi, Sara 15 January 2015 (has links)
L’environnement radiatif naturel est connu pour être sévère sur les composants électroniques de puissance. Il est caractérisé par des particules chargées électriquement, notamment des ions lourds et des protons. Dans le contexte avionique, c’est maintenant essentiel d’estimer les effets de dites particules : les MOSFETs de puissance sont en fait largement utilisés pour les caractéristiques électriques et le coût. Cette étude s’occupe de la prédiction du Single Event Effect (SEB) dans les MOSFETs de puissance : sur la base d’une analyse physique à travers des simulations TCAD, lemodèle de prédiction DELPHY est construit pour calculer les taux d’occurrence du SEB généré par ions lourds et protons. Le SEB provient de la génération d’une charge dans le composant, qui évolue via un courant élevé et auto-alimenté, ayant comme conséquence la destruction thermique du composant. Le SEB a été étudié dans ses différents aspects : c’est admit qu’il dépend de plusieurs facteurs, notamment la géométrie du composant, son dopage et sa polarisation ; la nature et le LET (Linear Energy Transfer) de la particule, le lieu et l’angle d’impact. Tous ces paramètres ne peuvent pas être contrôlés, et le compromis entre le coût et la fonctionnalité limite la mise en place des solutions de durcissement. Pour cette raison, un modèle de prédiction de l’occurrence SEB est nécessaire, ce qui fait l’objet de cette étude. Le modèle DELPHY est basé sur l’analyse physique du Single Event Burnout, à travers la simulation composant 2D TCAD, afin de maîtriser les paramètres cités auparavant qui sont pertinents pour le phénomène. Deux différentes topologies de composant on été étudiées (HEXFET et STRIPFET). A partir de cette analyse, une loi empirique de déclenchement a été calculée et un critère SEB basé sur le champ électrique et la charge déposée dans la couche epitaxiée a été défini. Les sections efficaces SEB ont été calculées pour des injections d’ions lourds. En prenant en compte la probabilité différentielle de génération des particules secondaires sous impact proton, les taux SEB ont été prédis aussi pour le cas du SEB généré par les protons. Toutes les sections efficaces calculées ont été comparées avec succès aux données expérimentales : d’abord avec les caractérisations composant publiées par le CNES ; en suite dans le cadre d’une étude spécifique commune ONERA-CERN afin de caractériser la prochaine génération des convertisseurs de puissance dans le Large Hadron Collider. DELPHY propose donc d’avoir un rôle essentiel comme instrument de prédiction SEB, et trace la route pour une amélioration de l’estimation des taux SEB. / The natural radiation environment has proved to be particularly harsh on power electronics devices. It is characterized by electrically charged particles such as heavy ions and protons among others. In particular, inside the atmosphere it has now become essential to estimate the effects of these particles: power MOSFETs in fact are widely used because of their appealing electrical characteristics and costs, thus making the prediction of destructive effects one of the fundamental parts of the project. This work focuses on the prediction of Single Event Burnout (SEB) inside power MOSFETs: based on physical analysis through TCAD simulations, the predictionmodel DELPHY is built in order to calculate occurrence rates of heavy ion and proton induced SEB. SEB consists of a charge generation inside the device, which evolves into a high and self-sustained current, whose main consequence is the thermal destruction of the component. SEB has been deeply studied in several aspects: it is now established that it depends on multiple factors, such as component geometry, doping and bias; particle nature and Linear Energy Transfer, impact location and angle. A power electronics designer does not have control over all the cited parameters, and the trade-off between cost and functionality limits the application of hardness measures at circuit and device level. For this reason, a SEB rate prediction model is neededand represents the object of this work. DELPHY model moves from physical analysis of SEB, performed with TCAD 2D simulations, in order to control the aforementioned factors which are relevant for the phenomenon. Two different MOSFET topologies have been studied (HEXFET and STRIPFET). Starting from this analysis, an empirical triggering law has been calculated and a SEB criterion based on electric field and charge deposition inside the epitaxial layer has been defined. SEB cross sections have then been calculated for heavy ion impacts. Taking into account the differential probability of secondary generation by proton impact, a SEB rate has been predicted also for proton induced SEB. All the calculated cross sections have been successfully compared to experimental data: firstly from a device characterization published by CNES; and secondly in the frame of a dedicated joint study ONERA-CERN to characterize next generation of Large Hadron Collider power converters. As a general conclusion, DELPHY model leads the way as a valid SEB prediction tool and opens new roads for enhancement of SEB rates estimation.
319

Modèles d'embeddings à valeurs complexes pour les graphes de connaissances / Complex-Valued Embedding Models for Knowledge Graphs

Trouillon, Théo 29 September 2017 (has links)
L'explosion de données relationnelles largement disponiblessous la forme de graphes de connaissances a permisle développement de multiples applications, dont les agents personnels automatiques,les systèmes de recommandation et l'amélioration desrésultats de recherche en ligne.La grande taille et l'incomplétude de ces bases de donnéesnécessite le développement de méthodes de complétionautomatiques pour rendre ces applications viables.La complétion de graphes de connaissances, aussi appeléeprédiction de liens, se doit de comprendre automatiquementla structure des larges graphes de connaissances (graphes dirigéslabellisés) pour prédire les entrées manquantes (les arêtes labellisées).Une approche gagnant en popularité consiste à représenter ungraphe de connaissances comme un tenseur d'ordre 3, etd'utiliser des méthodes de décomposition de tenseur pourprédire leurs entrées manquantes.Les modèles de factorisation existants proposent différentscompromis entre leur expressivité, et leur complexité en temps et en espace.Nous proposons un nouveau modèle appelé ComplEx, pour"Complex Embeddings", pour réconcilier expressivité etcomplexité par l'utilisation d'une factorisation en nombre complexes,dont nous explorons le lien avec la diagonalisation unitaire.Nous corroborons notre approche théoriquement en montrantque tous les graphes de connaissances possiblespeuvent être exactement décomposés par le modèle proposé.Notre approche, basées sur des embeddings complexesreste simple, car n'impliquant qu'un produit trilinéaire complexe,là où d'autres méthodes recourent à des fonctions de compositionde plus en plus compliquées pour accroître leur expressivité.Le modèle proposé ayant une complexité linéaire en tempset en espace est passable à l'échelle, tout endépassant les approches existantes sur les jeux de données de référencepour la prédiction de liens.Nous démontrons aussi la capacité de ComplEx àapprendre des représentations vectorielles utiles pour d'autres tâches,en enrichissant des embeddings de mots, qui améliorentles prédictions sur le problème de traitement automatiquedu langage d'implication entre paires de phrases.Dans la dernière partie de cette thèse, nous explorons lescapacités de modèles de factorisation à apprendre lesstructures relationnelles à partir d'observations.De part leur nature vectorielle,il est non seulement difficile d'interpréter pourquoicette classe de modèles fonctionne aussi bien,mais aussi où ils échouent et comment ils peuventêtre améliorés. Nous conduisons une étude expérimentalesur les modèles de l'état de l'art, non pas simplementpour les comparer, mais pour comprendre leur capacitésd'induction. Pour évaluer les forces et faiblessesde chaque modèle, nous créons d'abord des tâches simplesreprésentant des propriétés atomiques despropriétés des relations des graphes de connaissances ;puis des tâches représentant des inférences multi-relationnellescommunes au travers de généalogies synthétisées.À partir de ces résultatsexpérimentaux, nous proposons de nouvelles directionsde recherches pour améliorer les modèles existants,y compris ComplEx. / The explosion of widely available relational datain the form of knowledge graphsenabled many applications, including automated personalagents, recommender systems and enhanced web search results.The very large size and notorious incompleteness of these data basescalls for automatic knowledge graph completion methods to make these applicationsviable. Knowledge graph completion, also known as link-prediction,deals with automatically understandingthe structure of large knowledge graphs---labeled directed graphs---topredict missing entries---labeled edges. An increasinglypopular approach consists in representing knowledge graphs as third-order tensors,and using tensor factorization methods to predict their missing entries.State-of-the-art factorization models propose different trade-offs between modelingexpressiveness, and time and space complexity. We introduce a newmodel, ComplEx---for Complex Embeddings---to reconcile both expressivenessand complexity through the use of complex-valued factorization, and exploreits link with unitary diagonalization.We corroborate our approach theoretically and show that all possibleknowledge graphs can be exactly decomposed by the proposed model.Our approach based on complex embeddings is arguably simple,as it only involves a complex-valued trilinear product,whereas other methods resort to more and more complicated compositionfunctions to increase their expressiveness. The proposed ComplEx model isscalable to large data sets as it remains linear in both space and time, whileconsistently outperforming alternative approaches on standardlink-prediction benchmarks. We also demonstrateits ability to learn useful vectorial representations for other tasks,by enhancing word embeddings that improve performanceson the natural language problem of entailment recognitionbetween pair of sentences.In the last part of this thesis, we explore factorization models abilityto learn relational patterns from observed data.By their vectorial nature, it is not only hard to interpretwhy this class of models works so well,but also to understand where they fail andhow they might be improved. We conduct an experimentalsurvey of state-of-the-art models, not towardsa purely comparative end, but as a means to get insightabout their inductive abilities.To assess the strengths and weaknesses of each model, we create simple tasksthat exhibit first, atomic properties of knowledge graph relations,and then, common inter-relational inference through synthetic genealogies.Based on these experimental results, we propose new researchdirections to improve on existing models, including ComplEx.
320

Calcul efficace de la structure des protéines à partir de contacts évolutifs / Efficient modeling of proteins structure from evolutionary contacts

Allain, Fabrice 30 November 2017 (has links)
Les méthodes de prédiction structurale constituent une alternative relativement efficace aux approches expérimentales pour donner un premier aperçu du repliement natif d'une protéine. L'écart entre le nombre de structures et de séquences protéiques disponibles dans les bases de données ne cesse en effet de croître depuis l'arrivée des technologies de séquençage à haut débit. Cette forte croissance des informations génomiques a remis à l'ordre du jour des techniques modélisant les données capturées au cours de l'évolution. La conservation d'une fonction protéique impose de fortes contraintes sur les contacts impliqués dans le repliement et la fonction se traduisant par une trajectoire évolutive commune. Une fois détectées, ces interactions peuvent aider à modéliser la conformation d'une protéine. Les méthodes résolvant la structure tridimensionnelle des protéines à partir des données évolutives présentent encore plusieurs limitations notamment pour la détection des contacts faux positifs. Ces problèmes restent similaires à ceux rencontrés en détermination de structure par spectrométrie de Résonnance Magnétique Nucléaire où l'intégration des données est un processus clairement établit et en grande partie automatisé. Le logiciel ARIA (Ambiguous Restraints for Iterative Assignment) utilise le concept de contraintes de distances ambiguës et suit un processus itératif afin d'attribuer et d'affiner la liste des noyaux proches dans l'espace pour calculer un ensemble de modèles structuraux en accord avec les données. Ce travail a pour objectif d'adapter cette approche pour prédire de novo la structure d'une protéine en utilisant l'information évolutive. / Structural prediction methods provide a relatively effective alternative to experimental approaches to provide a first insight into native folding of a protein. The gap between the number of structures and protein sequences available in databases has steadily increased since the advent of high throughput sequencing technologies. This strong growth of genomic information helped bring to light prediction tools using coevolutionary data. Conservation of a specific function implies strong restraints on interacting residues involved in the folding and function. Once detected, these interactions can help to model the conformation of a protein. Some important aspects needs to be improved during the modelling process including the detection of false positive among the predicted contacts. Limitations in the field are similar to those encountered in nuclear magnetic resonance spectrometry structure determination where data integration is a clearly established and largely automated process. The Ambiguous Restraints for Iterative Assignment (ARIA) software uses the concept of ambiguous distance restraints and follows an iterative process to assign and refine the list of nearby nuclei in space to compute a set of structural models in accordance with the data. This work aims to adapt this approach to de novo predict the structure of a protein using evolutionary information.

Page generated in 0.068 seconds