Spelling suggestions: "subject:"prédiction"" "subject:"rédiction""
131 |
Classement pour la résistance mécanique du chêne par méthodes vibratoires et par mesure des orientations des fibres / Mechanical grading of oak wood using vibrational and grain angle measurementsFaydi, Younes 11 December 2017 (has links)
En France, les feuillus constituent la part majoritaire du parc forestier, dont, notamment, le chêne de qualité secondaire. Ce dernier pourrait devenir une alternative à d’autres matériaux de construction. Cependant, en fonction des singularités relatives à chaque sciage, les performances mécaniques peuvent varier considérablement. Il est donc nécessaire de trier les sciages adaptés pour une application en structure. L’efficience des méthodes de classement du chêne apparaît comme une des problématiques majeures. Ce projet de recherche a pour but de développer des méthodes et moyens de mesure capables de classer convenablement le chêne de qualité secondaire et palier au classement visuel par un opérateur. Ce dernier sous-estime fortement les qualités du chêne mais reste fréquemment employé par les industriels faute d’alternative. Au cours de cette thèse, deux modèles de prédiction des propriétés mécaniques ont été développés pour classer par machine le chêne de qualité secondaire. Ces modèles se basent sur une large campagne expérimentale de contrôle non destructif, avec validation par essais destructifs. Le premier modèle est analytique, exploitant les cartographies d’orientation des fibres des sciages pour déterminer localement les résistances et modules élastiques, et en déduire les propriétés globales. Le second modèle est statistique, basé sur l’analyse des signaux vibratoires sous sollicitation longitudinale ou transversale. Les résultats obtenus montrent que la méthode vibratoire longitudinale, employée couramment en industrie dans le cas des résineux, n’est pas adaptée pour classer convenablement le chêne de qualité secondaire. A l’inverse, la méthode vibratoire transversale sur chant permet d’obtenir des rendements de classement pertinents mais nécessite des efforts de développement pour être industrialisée. Le modèle basé sur la mesure de l’orientation des fibres offre les meilleurs rendements et des résultats stables sur l’ensemble des classes étudiées. / Hardwoods are the majority in France, with a substantial amount of small, low grade oaks. This resource could be an alternative of typical construction materials. However, mechanical properties can change a lot depending on timber defects. Thus, it is necessary to verify the good quality of each board in order it can be used in structural applications. The efficiency of grading methods is one of principal challenges to promote the use of oak in structures. The present work aims to provide new grading machine solutions relative to low grade oak which could replace the traditional and downgrading method based on visual sorting by an operator.Indeed, two models have been developed during this thesis, based on nondestructive measurements following by destructive tests to validate them. The first one is an analytical model based on grain angle scanning measurements. From grain angle data maps, local values of modulus of elasticity and resistance were computed, then the global mechanical properties were computed. The second one is a statistical model based on the analysis of longitudinal and transversal vibrational measurements. The results show that the longitudinal vibrational method based on the first longitudinal eigen frequency, which is mostly employed in softwood industry, is not suited for oak grading. However, the efficiency of the methods based on transversal vibrations is pretty good but it needs additional efforts for industrial application. In this work, the model based on grain angle scanning offer the best and the more robust grading efficiency for all grades.
|
132 |
Stratégie de modélisation et d’optimisation des performances de l’ultrafiltration pour le fractionnement d’hydrolysats protéiques / Modelling and optimization strategy of ultrafiltration performances for the fractionation of protein hydrolysatesBodin, Alice 13 December 2016 (has links)
Les hydrolysats protéiques ont une haute valeur ajoutée pour des secteurs industriels variés, de par leurs propriétés nutritives, fonctionnelles et / ou nutraceutiques. Pour améliorer les propriétés des hydrolysats, l’ultrafiltration est utilisée. Cependant, le manque d’outils de modélisation lié à la complexité des mélanges est un verrou pour une mise en œuvre rationnelle du procédé. Ces travaux ont permis de valider une stratégie de prédiction basée sur des caractéristiques classiques des hydrolysats et un étalonnage expérimental de la membrane d’ultrafiltration. Cette méthode permet de prédire les rendements et enrichissements en fraction(s) ou peptide(s) cible(s), ainsi que la productivité du procédé. Le modèle global de prédiction de l’ultrafiltration obtenu est alors utilisé afin d’optimiser la mise en œuvre de ce procédé. La démarche d’optimisation consiste à maximiser l’enrichissement de fractions ou de peptides cibles en minimisant la consommation d’eau et la durée du procédé / Protein hydrolysates are high added value mixtures for various industrial areas, thanks to their nutritive, functional or nutraceutical properties. To enhance hydrolysates performances, fractionation processes such as ultrafiltration are used. However, the lack of tools to predict ultrafiltration performances is a major bottleneck for a rational implementation of the process. This research thesis work enables to validate a prediction strategy based on classical characteristics of hydrolysates and an experimental calibration of the membrane. Yields and enrichment factors in targeted peptides or fractions during ultrafiltration as well as the productivity of the process can be predicted. This global methodology of performances prediction is then used to optimize the implementation modes of ultrafiltration. The multiobjective optimization approach consists in maximizing the enrichment in targeted peptides or fractions while water consumption and / or process duration is minimized
|
133 |
Etude des mécanismes de reconnaissance du transcrit dans la terminaison de la transcription Rho-dépendante / Study of transcript recognition mechanisms in Rho-dependent termination of transcriptionNadiras, Cédric 07 December 2018 (has links)
Terminaison de la transcription. Rho se fixe aux transcrits naissants au niveau d’un site Rut (Rhoutilization) libre à partir duquel il transloque le long de l’ARN (5’→3’) de façon ATP-dépendante pour rattraper le complexe d’élongation de la transcription et induire la dissociation de celui-ci. Il est généralement admis que les sites de fixation de Rho présentent une richesse en Cytosines et une pauvreté en Guanines, ainsi qu’une relative pauvreté en structures secondaires. Les études génomiques ou transcriptomiques n’ont pas dégagé d’éléments consensus ou de règles permettant de prédire les sites de terminaison Rho-dépendants. En combinant approches biochimiques et bioinformatiques, j’ai tenté de comprendre les mécanismes par lesquels Rho reconnait les transcrits.J’ai identifié un ensemble de déterminants de séquence qui, pris ensemble, possèdent un bon pouvoir prédictif et que j’ai utilisé pour construire le premier modèle computationnel capable de prédire la terminaison Rho-dépendante à l’échelle des génomes d’E. coli et Salmonella. J’ai caractérisé in vitro certains de ces terminateurs, en particulier dans les régions 5’UTR, avec l’espoir qu’ils soient impliqués dans des mécanismes de régulation conditionnelle. J’ai identifié des candidats dont l’activité pourrait être sous le contrôle de facteurs comme des petits ARN non codants (sRNA) ou latempérature. J’ai également développé une méthode fluorogénique pour détecter facilement la terminaison Rho-dépendante in vitro et ai commencé à adapter l’approche CLIP-seq à l’étude du transcriptome Rho-dépendant chez Salmonella. Collectivement, mes travaux offrent de nouveaux outils d’analyse et de prédiction de la terminaison Rho-dépendante, une meilleure cartographie des sites d’action de Rho chez E. coli et Salmonella, ainsi que de nouvelles pistes d’étude du rôle de Rhodans l’expression conditionnelle du génome. / Transcripts at a free Rut (Rho-utilization) site from which Rho moves along the RNA in an ATP dependentfashion to catch up with and dissociate the transcription elongation complex. It is generally believed that the Rut sites are, respectively, rich and poor in Cytosines and Guanines as well as relatively poor in secondary structures. Studies at the genomic or transcriptomic scale have notrevealed any stronger consensus features or rules for predicting potential Rho-dependent termination sites. By combining biochemical and bioinformatics approaches, I have explored the mechanisms by which Rho recognizes transcripts to induce transcription termination. I have identified a complex set of sequence determinants which, taken together, have good predictive power and which I used to build the first computational model able to predict Rho-dependent termination at the scale of Escherichiacoli and Salmonella genomes. I have characterized in vitro some of these terminators, particularly in 5'UTRs, with the hope that they will be involved in conditional regulatory mechanisms. I have identified several candidates whose activity may be under the control of factors such as small non-coding RNAs(sRNA) or temperature. I have also developed a fluorogenic method to easily detect Rho-dependent termination in vitro and have begun to adapt the CLIP-seq approach to the study of the Rhodependent transcriptome in Salmonella. Collectively, my work offers new tools for the analysis and prediction of Rho-dependent termination, a better mapping of the sites of probable Rho action in E.coli and Salmonella, as well as several lines of investigation of the role of Rho in the conditional expression of bacterial genomes.
|
134 |
Quelle prédictibilité pour les éruptions volcaniques ? De l'échelle mondiale au Piton de la Fournaise / How predictable are the volcano eruptions? from global scale to Piton de la Fournaise volcano.Schmid, Agathe 20 October 2011 (has links)
Ce travail de thèse a porté sur différents aspects de la prédiction des éruptions. La première partie, basée sur une approche statistique de l'information, nous a permis d'aborder la prédictabilité des éruptions de façon globale, et d'avoir une vision intégrée, à différentes échelles, de la dynamique éruptive. La dernière partie basée sur une approche déterministe du signal, nous a emmené de façon plus indirecte vers la prédiction des éruptions par le biais de l'analyse et la modélisation des comportements éruptifs d'un unique volcan à travers la sismicité. Ce travail de thèse nous a donc permis de traverser plusieurs échelles de temps et d'espace, en partant de la plus large, la Terre dans sa globalité, pour se concentrer ensuite sur le cas d'un volcan unique, le Piton de la Fournaise et finalement se focaliser sur une propriété spécifique de la sismicité du Piton de la Fournaise à travers la détermination des mécanismes source. Dans un premier temps, une analyse descriptive des propriétés statistiques de la dynamique éruptive à l'échelle mondiale et l'apparition de lois puissances à différentes échelles nous ont permis de relier la dynamique des éruptions à celle d'un système critique auto-organisé, justifiant de la difficulté rencontrée à prédire les éruptions de façon déterministe et de la nécessité de se tourner vers les méthodes statistiques. L'étude à l'échelle mondiale des lois d'Omori retrouvées pour la sismicité autour des éruptions, ainsi que l'analyse des propriétés de ces lois d'Omori en fonction de la taille des éruptions, suggèrent que l'énergie d'endommagement et de relaxation dans la croûte est distribuée en loi puissance autour des éruptions, mais avec des coefficients de chargement et de relaxation différents de la sismicité tectonique classique, et donc dépendant des processus qui génèrent l'endommagement. En zoomant sur trois observables du Piton de la Fournaise (sismicité, déformation et variations de vitesse sismique), nous avons montré que les comportement respectifs des observables imagent les différentes étapes du processus éruptif, pour différentes échelles de temps et d'espace. L'analyse des comportements pré-éruptifs et l'utilisation de méthodes de "pattern recognition" ont permis de mettre en évidence l'apport de la combinaison des informations des différents précurseurs dans l'amélioration des résultats de prédiction. Enfin, l'analyse plus spécifique et déterministe des mécanismes source au Piton de la Fournaise, à partir d'une méthode développée pour le contexte particulier d'une sismicité de magnitude très faible en milieu fortement hétérogène, a permis de mettre en évidence l'apparition de trois familles d'événements similaires. Deux de ces familles peuvent être interprétées comme l'ajustement du milieu au passage du dyke, la troisième famille correspondant à la signature de l'interaction entre les fluides et l'édifice volcanique au niveau du toit de la chambre magmatique. / This PhD work focused on several aspects of the eruptions prediction. It allowed us to consider different space scales from global scale to a single volcano, Piton de la Fournaise, through statistical approaches. We then focused more specifically on the volcano-seismicity associated to its eruptive processes, using deterministic methods. First, we analyzed the statistical properties of the eruptive dynamics at the global scale. The emergence of recurrent power laws allowed us to relate the eruptive dynamics to the SOC systems, thereby attesting for the difficulty to predict eruptions by means of deterministic methods. At the global scale, the study of the Omori-law found for eruptions foreshocks and aftershocks, along with the analysis of the parameters of those Omori laws given the size of eruptions, suggests that the damage and relaxation energy in the crust around eruption time and location is power-law distributed. However, the loading and relaxation coefficients are found different than for classical tectonic seismicity, thereby attesting their dependency to the damage processes. When zooming on three observables of Piton de la Fournaise volcano (seismicity, deformation and seismic velocity changes), me showed in a third part that the respective behaviors of the three observables respond to the different steps of the eruptive process, at different time and space scales. The analysis of the pre-eruptive behaviors of those forerunners under pattern recognition techniques enhanced the optimization of the prediction results by combining simultaneously their pre-eruptive information. Lastly, we performed a specific and deterministic study of the volcano-tectonic seismicity of Piton de la Fournaise through the assessment of the source mechanisms of the volcano-tectonic seismicity. Given the complexity of volcanic context, we developed a method to retrieve the source mechanisms of small and high-frequency seismic signals. Using this method three main families of events with different locations and times of occurrence emerge. Two of them may be interpreted as the readjustment of the crust during dyke opening whereas the third family is interpreted as the signature of fluids-rock interactions at the top of the magma Storage zone.
|
135 |
The role of spontaneous movements in spatial orientation and navigation / Le rôle des mouvements spontanés dans l’orientation et la navigation spatialesTcaci Popescu, Sergiu 12 January 2018 (has links)
Les gens produisent des mouvements spontanés pendant des tâches de raisonnement spatial. Ces mouvements aident-ils à la performance de la tâche? Nous avons étudié le rôle des mouvements spontanés dans l'orientation spatiale en utilisant des tâches de prise de perspective spatiale (PPS) dans lesquelles les participants devaient imaginer un point de vue différent de leur point de vue actuel. Nous nous sommes concentrés sur des perspectives exigeant des rotations mentales de soi - particulièrement difficiles, elles sont grandement facilitées par un mouvement actif, même en l'absence de vision. La contribution motrice à la performance de la tâche pourrait résulter d'un mécanisme prédictif, qui anticipe les conséquences d'une action avant son exécution, comme un modèle d'anticipation interne (Wolpert & Flanagan, 2001), inhibant par la suite l’exécution du mouvement si nécessaire. Les mouvements observés peuvent être des traces visibles de ce processus. En utilisant un système de capture de mouvements, nous avons montré que les rotations de la tête sont géométriquement liées à la PPS : leur direction et amplitude étaient liées à la direction et à l'angle entre les perspectives réelles et imaginée (Exp. 1). Chez les contrôleurs aériens, qualifiés ou apprentis, seule la direction de la rotation de la tête était liée à la PPS, reflétant probablement l'expertise spatiale ainsi que le rôle crucial de la direction dans la rotation mentale (Exp. 2). Dans un environnement virtuel, les rotations de tête spontanées étaient liées à une performance accrue. Cependant, les rotations volontaires, qui imitent celles qui sont produites spontanément, ne facilitent pas la performance de navigation (Exp. 3), mais l'empêchent lorsqu’elles sont contraires à la direction de la rotation virtuelle. Nos résultats suggèrent une contribution motrice spécifique à l'orientation spatiale, compatible avec la prédiction motrice. / People produce spontaneous movements during spatial reasoning tasks. Do they relate to task performance? We investigated the role of spontaneous movements in spatial orientation using spatial perspective-taking (SPT) tasks where participants adopted imaginary perspectives. We focused on imaginary perspectives requiring mental rotations of the self as they are particularly difficult and greatly facilitated by active movement in the absence of vision. Motor contribution to task performance could result from a predictive mechanism, which anticipates the consequences of an action before its execution, such as an internal forward model (Wolpert & Flanagan, 2001), further inhibiting full rotations of the head. Observed movements may be visible traces of this process. Using motion capture, we showed that head movements are geometrically related to SPT: both the direction and amplitude of head rotations were related to the direction and angle between the actual and imagined perspectives (Exp. 1). In air traffic controllers and apprentices, only the direction of head rotation was related to SPT, probably reflecting spatial expertise and its crucial role in mental rotation (Exp. 2). In a virtual environment, spontaneous head rotations were related to increased performance. However voluntary rotations, emulating the spontaneously produced ones, did not facilitate navigation performance (Exp. 3), but hindered it when inconsistent with the direction of virtual rotation. Overall, our findings suggest a specific motor contribution to spatial orientation consistent with motor prediction.
|
136 |
Epidémiologie des cardiopathies ischémiques du sujet âgé non institutionnalisé-Etude des Trois Cités / Inflammatory and lipid markers with occurence of ischaemic heart disease in community dwelling elderly-The Three City StudyStraczek, Céline 18 October 2011 (has links)
L’objectif est de tester les associations de marqueurs inflammatoires et lipidiques avec la survenue de cardiopathies ischémiques chez la personne âgée non institutionnalisée. Les analyses sont menées dans une étude cas cohorte dans le cadre de l’étude des 3 Cités. Elle inclut 199 sujets ayant développé un premier évènement coronaire sur 4 ans de suivi et 1086 sujets sans antécédents cardiovasculaires (sous cohorte). Un premier travail suggère que la protéine C-réactive (CRP-US) est un marqueur de risque indépendant des évènements coronaires (risque relatif standardisé du log de la CRP-US=1,27 ; IC95%=1,08-1,64) mais n’améliore pas la prédiction du risque coronaire. Le second travail démontre une hétérogénéité dans l’association des lipides classiques et des apolipoprotéines avec les évènements coronaires selon la prise et la nature du traitement hypolipémiant à l’inclusion. Le troisième travail indique que les apolipoprotéines AI et B100 mais pas le non-HDL cholestérol améliorent significativement la prédiction du risque coronaire sur la base d’indice de reclassification. / The aim was investigate associations of inflammatory and lipids markers with occurrence of ischaemic heart disease (IHD) in community dwelling elderly subjects. Within the Three City Study, a case cohort study was used including 199 subjects with first coronary events over 4 years and 1086 participants free from prevalent cardiovascular disease (random sample). The first paper showed that C-reactive protein was independently associated with IHD (standardized hazard ratio of log CRP-US=1.27; CI95%=1.08-1.64) but did not improve IHD risk prediction beyond usual risk factors. The second paper showed heterogeneity in the association between lipids and apolipoproteins with IHD depending on the use and the type of lipid-lowering therapy (statins or fibrates). Using imputations and reclassification metrics, the third paper suggests that apolipoproteins AI and B100 added significant predictive information beyond usual risk factors for IHD risk prediction.
|
137 |
Cooperation strategies for inter-cell interference mitigation in OFDMA systems / Les stratégies de coopération inter-cellules pour l'atténuation des interférences dans les systèmes OFDMAKurda, Reben 18 March 2015 (has links)
Récemment, l'utilisation des réseaux cellulaires a radicalement changé avec l’émergence de la quatrième génération (4G) de systèmes de télécommunications mobiles LTE/LTE-A (Long Term Evolution-Advanced). Les réseaux de générations précédentes (3G), initialement conçus pour le transport de la voix et les données à faible et moyen débits, ont du mal à faire face à l’augmentation accrue du trafic de données multimédia tout en répondant à leurs fortes exigences et contraintes en termes de qualité de service (QdS). Pour mieux répondre à ces besoins, les réseaux 4G ont introduit le paradigme des Réseaux Hétérogènes (HetNet).Les réseaux HetNet introduisent une nouvelle notion d’hétérogénéité pour les réseaux cellulaires en introduisant le concept des smalls cells (petites cellules) qui met en place des antennes à faible puissance d’émission. Ainsi, le réseau est composé de plusieurs couches (tiers) qui se chevauchent incluant la couverture traditionnelle macro-cellulaire, les pico-cellules, les femto-cellules, et les relais. Outre les améliorations des couvertures radio en environnements intérieurs, les smalls cells permettent d’augmenter la capacité du système par une meilleure utilisation du spectre et en rapprochant l’utilisateur de son point d’accès au réseau. Une des conséquences directes de cette densification cellulaire est l’interférence générée entre les différentes cellules des diverses couches quand ces dernières réutilisent les mêmes fréquences. Aussi, la définition de solutions efficaces de gestion des interférences dans ce type de systèmes constitue un de leurs défis majeurs. Cette thèse s’intéresse au problème de gestion des interférences dans les systèmes hétérogènes LTE-A. Notre objectif est d’apporter des solutions efficaces et originales au problème d’interférence dans ce contexte via des mécanismes d’ajustement de puissance des petites cellules. Nous avons pour cela distingués deux cas d’étude à savoir un déploiement à deux couches macro-femtocellules et macro-picocellules. Dans la première partie dédiée à un déploiement femtocellule et macrocellule, nous concevons une stratégie d'ajustement de puissance des femtocellules assisté par la macrocellule et qui prend en compte les performances des utilisateurs des femtocells tout en atténuant l'interférence causée aux utilisateurs des macrocellules sur leurs liens montants. Cette solution offre l’avantage de la prise en compte de paramètres contextuels locaux aux femtocellules (tels que le nombre d’utilisateurs en situation de outage) tout en considérant des scénarios de mobilité réalistes. Nous avons montré par simulation que les interférences sur les utilisateurs des macrocellules sont sensiblement réduites et que les femtocellules sont en mesure de dynamiquement ajuster leur puissance d'émission pour atteindre les objectifs fixés en termes d’équilibre entre performance des utilisateurs des macrocellules et celle de leurs propres utilisateurs. Dans la seconde partie de la thèse, nous considérons le déploiement de picocellules sous l'égide de la macrocellule. Nous nous sommes intéressés ici aux solutions d’extension de l’aire picocellulaire qui permettent une meilleure association utilisateur/cellule permettant de réduire l’interférence mais aussi offrir une meilleure efficacité spectrale. Nous proposons donc une approche basée sur un modèle de prédiction de la mobilité des utilisateurs qui permet de mieux ajuster la proportion de bande passante à partager entre la macrocellule et la picocellule en fonction de la durée de séjour estimée de ces utilisateurs ainsi que de leur demandes en bande passante. Notre solution a permis d’offrir un bon compromis entre les débits réalisables de la Macro et des picocellules. / Recently the use of modern cellular networks has drastically changed with the emerging Long Term Evolution Advanced (LTE-A) technology. Homogeneous networks which were initially designed for voice-centric and low data rates face unprecedented challenges for meeting the increasing traffic demands of high data-driven applications and their important quality of service requirements. Therefore, these networks are moving towards the so called Heterogeneous Networks (HetNets). HetNets represent a new paradigm for cellular networks as their nodes have different characteristics such as transmission power and radio frequency coverage area. Consequently, a HetNet shows completely different interference characteristics compared to homogeneous deployment and attention must be paid to these disparities when different tiers are collocated together. This is mostly due to the potential spectrum frequency reuse by the involved tiers in the HetNets. Hence, efficient inter-cell interference mitigation solutions in co-channel deployments of HetNets remain a challenge for both industry and academic researchers. This thesis focuses on LTE-A HetNet systems which are based on Orthogonal Frequency Division Multiplexing Access (OFDMA) modulation. Our aim is to investigate the aggressive interference issue that appears when different types of base stations are jointly deployed together and especially in two cases, namely Macro-Femtocells and Macro-Picocells co-existence. We propose new practical power adjustment solutions for managing inter-cell interference dynamically for both cases. In the first part dedicated to Femtocells and Macrocell coexistence, we design a MBS-assisted femtocell power adjustment strategy which takes into account femtocells users performance while mitigating the inter-cell interference on victim macrocell users. Further, we propose a new cooperative and context-aware interference mitigation method which is derived for realistic scenarios involving mobility of users and their varying locations. We proved numerically that the Femtocells are able to maintain their interference under a desirable threshold by adjusting their transmission power. Our strategies provide an efficient means for achieving the desired level of macrocell/femtocell throughput trade-off. In the second part of the studies where Picocells are deployed under the umbrella of the Macrocell, we paid a special attention and efforts to the interference management in the situation where Picocells are configured to set up a cell range expansion. We suggest a MBS-assisted collaborative scheme powered by an analytical model to predict the mobility of Macrocell users passing through the cell range expansion area of the picocell. Our goal is to adapt the muting ratio ruling the frequency resource partitioning between both tiers according to the mobility behavior of the range-expanded users, thereby providing an efficient trade-off between Macrocell and Picocell achievable throughputs.
|
138 |
Managing the empirical hardness of the ontology reasoning using the predictive modelling / Modélisation prédictive et apprentissage automatique pour une meilleure gestion de la complexité empirique du raisonnement autour des ontologiesAlaya Mili, Nourhene 13 October 2016 (has links)
Multiples techniques d'optimisation ont été implémentées afin de surmonter le compromis entre la complexité des algorithmes du raisonnement et l'expressivité du langage de formulation des ontologies. Cependant les compagnes d'évaluation des raisonneurs continuent de confirmer l'aspect imprévisible et aléatoire des performances de ces logiciels à l'égard des ontologies issues du monde réel. Partant de ces observations, l'objectif principal de cette thèse est d'assurer une meilleure compréhension du comportement empirique des raisonneurs en fouillant davantage le contenu des ontologies. Nous avons déployé des techniques d'apprentissage supervisé afin d'anticiper des comportements futurs des raisonneurs. Nos propositions sont établies sous forme d'un système d'assistance aux utilisateurs d'ontologies, appelé "ADSOR". Quatre composantes principales ont été proposées. La première est un profileur d'ontologies. La deuxième est un module d'apprentissage capable d'établir des modèles prédictifs de la robustesse des raisonneurs et de la difficulté empirique des ontologies. La troisième composante est un module d'ordonnancement par apprentissage, pour la sélection du raisonneur le plus robuste étant donnée une ontologie. Nous avons proposé deux approches d'ordonnancement; la première fondée sur la prédiction mono-label et la seconde sur la prédiction multi-label. La dernière composante offre la possibilité d'extraire les parties potentiellement les plus complexes d'une ontologie. L'identification de ces parties est guidée par notre modèle de prédiction du niveau de difficulté d'une ontologie. Chacune de nos approches a été validée grâce à une large palette d'expérimentations. / Highly optimized reasoning algorithms have been developed to allow inference tasks on expressive ontology languages such as OWL (DL). Nevertheless, reasoning remains a challenge in practice. In overall, a reasoner could be optimized for some, but not all ontologies. Given these observations, the main purpose of this thesis is to investigate means to cope with the reasoner performances variability phenomena. We opted for the supervised learning as the kernel theory to guide the design of our solution. Our main claim is that the output quality of a reasoner is closely depending on the quality of the ontology. Accordingly, we first introduced a novel collection of features which characterise the design quality of an OWL ontology. Afterwards, we modelled a generic learning framework to help predicting the overall empirical hardness of an ontology; and to anticipate a reasoner robustness under some online usage constraints. Later on, we discussed the issue of reasoner automatic selection for ontology based applications. We introduced a novel reasoner ranking framework. Correctness and efficiency are our main ranking criteria. We proposed two distinct methods: i) ranking based on single label prediction, and ii) a multi-label ranking method. Finally, we suggested to extract the ontology sub-parts that are the most computationally demanding ones. Our method relies on the atomic decomposition and the locality modules extraction techniques and employs our predictive model of the ontology hardness. Excessive experimentations were carried out to prove the worthiness of our approaches. All of our proposals were gathered in a user assistance system called "ADSOR".
|
139 |
Traffic state estimation and prediction in freeways and urban networks / Estimation et prédiction de l'état du trafic dans les autoroutes et les réseaux urbainsLadino lopez, Andrés 08 March 2018 (has links)
La centralisations du travail, la croissance économique et celle de la population autant que l’urbanisation continue sont les causes principales de la congestion. Lors que les villes s’efforcent pour mettre à jour leurs infrastructures du trafic, l’utilisation de nouvelles techniques pour la modélisation, l’analyse de ces systèmes ainsi que l’intégration des mega données aux algorithmes aident à mieux comprendre et combattre les congestions, un aspect crucial pour le bon développement de nos villes intelligentes du XXIe siècle. Les outilsd’assistance de trafic spécialement conçus pour détecter, prévoir et alerter des conditions particulières sont très demandés dans nos jours.Cette recherche est consacrée au développement des algorithmes pour l’estimation et la prédiction sur des réseaux de trafic routier. Tout d’abord, nous considérons le problème de prévision à court terme du temps de trajet dynamique basé sur des méthodes pilotées par les données. Nous proposons deux techniques de fusion pour calculer les prévisions à court terme. Dans un première temps, nous considérons la matrice de covariance d’erreur et nous utilisons ses informations pour fusionner les prévisions individuelles créées á partir de clusters. Dans un deuxième temps, nous exploitons les mesures de similarité parmi le signal á prédire et des clusters dans l’histoire et on propose une fusion en tant que moyenne pondérée des sorties des prédicteurs de chaque cluster. Les résultats des deux méthodes on été validés dans le Grenoble Traffic Lab, un outil en temps réel qui permet la récupération de données d’une autoroute d’environ (10.5Km) qui couvre le sud de Grenoble.Postérieurement nous considérons le problème de reconstruction de la densité / et le débit de façon simultanée à partir de sources d’information hétérogènes. Le réseau de trafic est modélisé dans le cadre de modèles de trafic macroscopique, où nous adoptons l’équation de conservation Lighthill-Whitham-Richards avec un diagramme fondamental linaire par morceaux. Le problème d’estimation repose sur deux principes clés. Dans un premier temps, nous considérons la minimisation des erreurs entre les débits et les densités mesurés et reconstruits. Finalement, nous considérons l’état d’équilibre du réseau qui établit la loi de propagation des flux entrants et sortants dans le réseau. Tous les principes sont intégrés et le problème est présenté comme une optimisation quadratique avec des contraintes d’égalité a fin de réduire l’espace de solution des variables à estimer. Des scénarios de simulation basés sur des données synthétiques pour un réseau de manhattan sont fournis avec l’objectif de valider les performances de l’algorithme proposé. / Centralization of work, population and economic growth alongside continued urbanization are the main causes of congestion. As cities strive to update or expand aging infrastructure, the application of big data, new models and analytics to better understand and help to combat traffic congestion is crucial to the health and development of our smart cities of XXI century. Traffic support tools specifically designed to detect, forecast and alert these conditions are highly requested nowadays.This dissertation is dedicated to study techniques that may help to estimate and forecast conditions about a traffic network. First, we consider the problem Dynamic Travel Time (DTT) short-term forecast based on data driven methods. We propose two fusion techniques to compute short-term forecasts from clustered time series. The first technique considers the error covariance matrix and uses its information to fuse individual forecasts based on best linear unbiased estimation principles. The second technique exploits similarity measurements between the signal to be predicted and clusters detected in historical data and it performs afusion as a weighted average of individual forecasts. Tests over real data were implemented in the study case of the Grenoble South Ring, it comprises a highway of 10.5Km monitored through the Grenoble Traffic Lab (GTL) a real time application was implemented and open to the public.Based on the previous study we consider then the problem of simultaneous density/flow reconstruction in urban networks based on heterogeneous sources of information. The traffic network is modeled within the framework of macroscopic traffic models, where we adopt Lighthill-Whitham-Richards (LWR) conservation equation and a piecewise linear fundamental diagram. The estimation problem considers two key principles. First, the error minimization between the measured and reconstructed flows and densities, and second the equilibrium state of the network which establishes flow propagation within the network. Both principles are integrated together with the traffic model constraints established by the supply/demand paradigm. Finally the problem is casted as a constrained quadratic optimization with equality constraints in order to shrink the feasible region of estimated variables. Some simulation scenarios based on synthetic data for a manhattan grid network are provided in order to validate the performance of the proposed algorithm.
|
140 |
Development and validation of a predictive model to ensure the long-term electromagnetic compatibility of embedded electronic systems / Développement et validation de modèle prédictif pour assurer la compatibilité électromagnétique à long terme des systèmes électroniques embarqués.Ghfiri, Chaimae 13 December 2017 (has links)
Avec l’avancement technologique des circuits intégrés à travers la miniaturisation des tailles des transistors et leur multiplication au sein d’une même puce, l’intégration des circuits dans des systèmes embarqués complexes, principalement dans l’industrie aéronautique, spatiale et automobile, rencontre de plus en plus d’exigences en termes de respect des niveaux d’émission et d’immunité. De plus, étant donné que l’évolution des niveaux de Compatibilité Electromagnétique (CEM) des équipements électroniques doit respecter ces exigences à long terme, les marges définis par les industriels sont souvent surestimés et les systèmes de filtrages établis par les équipementiers peuvent être surdimensionnés. De ce fait, pour les circuits intégrés dédiés aux applications embarquées, il est nécessaire d’étudier les deux aspects qui concernent la modélisation CEM ainsi que la modélisation de la fiabilité. Ces dernières années, des standards ont été proposés et permettent la construction de modèles CEM prédictifs tel que ICEM-CE/RE (Integrated Circuit Emission Model for Conducted and Radiated Emission) et ICIM-CI (Integrated Circuit Immunity Model for Conducted Immunity). De plus, pour intégrer l’effet du vieillissement dans les modèles CEM, il faut étudier les principaux mécanismes de dégradation intrinsèques aux circuits intégrés qui accélèrent leur vieillissement tels que le HCI (Hot Carrier Injection), TDDB (Time Dependent Dielectric Breakdown), EM (Electromigration) et NBTI (Negative Bias Temperature Instability). Des modèles standardisés sont utilisés dans les différents domaines industriels qui permettent la construction de modèle de fiabilité tels que le standard MIL-HDBK-217 et le standard FIDES. Cependant, ils ne permettent de prendre en compte qu’un seul mécanisme de dégradation à la fois. Ce manuscrit de thèse introduit ces aspects de modélisation CEM et de fiabilité. Il traite également la construction d’un modèle d’émission conduite d’un FPGA avec la proposition de nouvelle méthodologie de modélisation. Ensuite, l’étude de la fiabilité du FPGA est décrite à travers l’utilisation d’un nouveau modèle permettant la prise en compte des différents mécanismes de dégradations et a été combiné au modèle CEM pour la prédiction des niveaux d’émissions conduite à long terme. / With the technological evolution of integrated circuits (ICs) through the transistors scaling, which leads to the multiplication of the number of transistors within a chip, the requirements in terms of emission and immunity levels become more restrictive in the aeronautic, space and automotive industries. Moreover, since the evolution of Electromagnetic Compatibility (EMC) levels of electronic equipment after aging must meet the EMC long-term requirements, the EMC margins defined by the manufacturers are often overestimated and the filtering systems designed by the equipment manufacturer could be oversized.Therefore, for the integrated circuits dedicated to embedded applications, it is necessary to study the different aspects of EMC modeling as well as the reliability the modeling. These last years, several standards have been proposed for the construction of predictive EMC models such as ICEM-CE/RE (Integrated Circuit Emission Model for Conducted and Radiated Emission) and ICIM-CI (Integrated Circuit Immunity Model for Conducted Immunity). On the other hand, to integrate the effect of aging in EMC models, it is important to study the main intrinsic degradation mechanisms that accelerate the aging of ICs, such as HCI (Hot Carrier Injection), TDDB (Time Dependent Dielectric Breakdown), EM (Electromigration) and NBTI (Negative Bias Temperature Instability). For this purpose, there are existing models for the reliability prediction, such as the MIL-HDBK-217 standard and the FIDES standard. However, these models could take into account only the activation of one degradation mechanism. The combination of several degradation mechanisms could be critical for the IC performances and could contribute in the evolution of EMC level.This thesis introduces the different aspects of EMC and reliability modeling. This work deals with the construction of a conducted emission model of an FPGA and the proposition of new modeling methodologies. Furthermore, the reliability of the tested FPGA is described using a new predictive model, which takes into account the activation of the different degradation mechanisms. The reliability model has been combined with the EMC model for the long-term conducted emission level prediction.
|
Page generated in 0.0653 seconds