251 |
Prédiction des séries temporelles larges / Prediction of large time seriesHmamouche, Youssef 13 December 2018 (has links)
De nos jours, les systèmes modernes sont censés stocker et traiter des séries temporelles massives. Comme le nombre de variables observées augmente très rapidement, leur prédiction devient de plus en plus compliquée, et l’utilisation de toutes les variables pose des problèmes pour les modèles classiques.Les modèles de prédiction sans facteurs externes sont parmi les premiers modèles de prédiction. En vue d’améliorer la précision des prédictions, l’utilisation de multiples variables est devenue commune. Ainsi, les modèles qui tiennent en compte des facteurs externes, ou bien les modèles multivariés, apparaissent, et deviennent de plus en plus utilisés car ils prennent en compte plus d’informations.Avec l’augmentation des données liées entre eux, l’application des modèles multivariés devient aussi discutable. Le challenge dans cette situation est de trouver les facteurs les plus pertinents parmi l’ensemble des données disponibles par rapport à une variable cible.Dans cette thèse, nous étudions ce problème en présentant une analyse détaillée des approches proposées dans la littérature. Nous abordons le problème de réduction et de prédiction des données massives. Nous discutons également ces approches dans le contexte du Big Data.Ensuite, nous présentons une méthodologie complète pour la prédiction des séries temporelles larges. Nous étendons également cette méthodologie aux données très larges via le calcul distribué et le parallélisme avec une implémentation du processus de prédiction proposé dans l’environnement Hadoop/Spark. / Nowadays, storage and data processing systems are supposed to store and process large time series. As the number of variables observed increases very rapidly, their prediction becomes more and more complicated, and the use of all the variables poses problems for classical prediction models.Univariate prediction models are among the first models of prediction. To improve these models, the use of multiple variables has become common. Thus, multivariate models and become more and more used because they consider more information.With the increase of data related to each other, the application of multivariate models is also questionable. Because the use of all existing information does not necessarily lead to the best predictions. Therefore, the challenge in this situation is to find the most relevant factors among all available data relative to a target variable.In this thesis, we study this problem by presenting a detailed analysis of the proposed approaches in the literature. We address the problem of prediction and size reduction of massive data. We also discuss these approaches in the context of Big Data.The proposed approaches show promising and very competitive results compared to well-known algorithms, and lead to an improvement in the accuracy of the predictions on the data used.Then, we present our contributions, and propose a complete methodology for the prediction of wide time series. We also extend this methodology to big data via distributed computing and parallelism with an implementation of the prediction process proposed in the Hadoop / Spark environment.
|
252 |
Services e-santé basés sur la reconnaissance et la prédiction des activités quotidiennes dans les espaces intelligents / E-health services based on the recognition and prediction of daily activities in smart spacesZaineb, Liouane 30 June 2018 (has links)
Les progrès de la technologie des capteurs et leur disponibilité ont permis de mesurer diverses propriétés et activités des habitants dans une maison intelligente. Cependant, l’obtention de connaissances significatives à partir d’une grande quantité d’informations collectées à partir d’un réseau de capteurs n’est pas une tâche simple. En raison de la complexité du comportement des habitants, l’extraction d’informations significatives et la prédiction précise des valeurs représentant les activités futures d’un occupant sont des défis de recherche [6]. L’objectif principal de notre travail de thèse est d’assurer une analyse efficace des données recueillies à partir des capteurs d’occupation dans une maison intelligente. A ce propos, ce travail se base sur la reconnaissance et l’évaluation des activités quotidiennes d’une personne âgée dans le but d’observer, de prédire et de suivre l’évolution de son état de dépendance, de santé et de détecter par la même occasion, la présence d’une perte ou d’une perturbation de l’autonomie en temps réel. / Advances in sensor technology and their availability have measured various properties and activities of residents in a smart home. However, obtaining significant knowledge from a large amount of information collected from a sensor network is not a simple task. Due to the complexity of the behavior of the inhabitants, the extraction of meaningful information and the accurate prediction of values representing the future activities of an occupant are research challenges. The main objective of our thesis work is to ensure an efficient analysis of data collected from occupancy sensors in a smart home. In this regard, this work is based on the recognition and evaluation of the daily activities of an elderly person in order to observe, predict and monitor the evolution of his state of dependence, health and to detect by the same occasion, the presence of a loss or a disruption of autonomy in real time.
|
253 |
Identification of rigid industrial robots - A system identification perspective / Identification de robots industriels rigides – Apport des méthodes de l’identification de systèmesBrunot, Mathieu 30 November 2017 (has links)
L’industrie moderne fait largement appel à des robots industriels afin de réduire les coûts, ou encore améliorer la productivité et la qualité par exemple. Pour ce faire, une haute précision et une grande vitesse sont simultanément nécessaires. La conception de lois de commande conformes à de telles exigences demande une modélisation mathématique précise de ces robots. A cette fin, des modèles dynamiques sont construits à partir de données expérimentales. L’objectif de cette thèse est ainsi de fournir aux ingénieurs roboticiens des outils automatiques pour l’identification de bras robotiques. Dans cette perspective, une analyse comparative des méthodes existantes pour l’identification de robot est réalisée. Les avantages et inconvénients de chaque méthode sont ainsi mis en exergue. À partir de ces observations, les contributions sont articulées selon trois axes. Premièrement, l’étude porte sur l’estimation des vitesses et accélérations des corps du robot à partir de la position mesurée. Ces informations sont en effet nécessaires à la construction du modèle. La méthode usuelle est basée sur prétraitement "sur mesure" qui requière une connaissance fiable des bande-passantes du système, alors que celui-ci est encore inconnu. Pour surmonter ce dilemme, nous proposons une méthode capable d’estimer les dérivées automatiquement sans réglage préalable par l’utilisateur. Le deuxième axe concerne l’identification du contrôleur. Sa connaissance est en effet requise par la grande majorité des méthodes d’identification. Malheureusement, pour des raisons de propriété industrielle, il n’est pas toujours accessible. Pour traiter ce problème, deux méthodes sont introduites. Leur principe de base est d’identifier la loi de commande dans un premier temps avant d’identifier le modèle dynamique du bras robotique dans un second temps. La première méthode consiste à identifier la loi de commande de manière paramétrique, alors que la seconde fait appel à une identification non-paramétrique. Finalement, le troisième axe porte sur le réglage "sur mesure" du filtre decimate. L’identification du filtre de bruit est introduite en s’inspirant des méthodes développées par la communauté d’identification de systèmes. Ceci permet l’estimation automatique des paramètres dynamiques avec de faibles covariances tout en apportant une connaissance concernant la circulation du bruit à travers le système en boucle-fermée. Toutes les méthodes proposées sont validées sur un robot industriel à six degrés de liberté. Des perspectives sont esquissées pour de futurs travaux portant sur l’identification de systèmes robotiques, voire d’autres applications. / In modern manufacturing, industrial robots are essential components that allow saving cost, increase quality and productivity for instance. To achieve such goals, high accuracy and speed are simultaneously required. The design of control laws compliant with such requirements demands high-fidelity mathematical models of those robots. For this purpose, dynamic models are built from experimental data. The main objective of this thesis is thus to provide robotic engineers with automatic tools for identifying dynamic models of industrial robot arms. To achieve this aim, a comparative analysis of the existing methods dealing with robot identification is made. That allows discerning the advantages and the limitations of each method. From those observations, contributions are presented on three axes. First, the study focuses on the estimation of the joint velocities and accelerations from the measured position, which is required for the model construction. The usual method is based on a home-made prefiltering process that needs a reliable knowledge of the system’s bandwidths, whereas the system is still unknown. To overcome this dilemma, we propose a method able to estimate the joint derivatives automatically, without any setting from the user. The second axis is dedicated to the identification of the controller. For the vast majority of the method its knowledge is indeed required. Unfortunately, for copyright reasons, that is not always available to the user. To deal with this issue, two methods are suggested. Their basic philosophy is to identify the control law in a first step before identifying the dynamic model of the robot in a second one. The first method consists in identifying the control law in a parametric way, whereas the second one relies on a non-parametric identification. Finally, the third axis deals with the home-made setting of the decimate filter. The identification of the noise filter is introduced similarly to methods developed in the system identification community. This allows estimating automatically the dynamic parameters with low covariance and it brings some information about the noise circulation through the closed-loop system. All the proposed methodologies are validated on an industrial robot with 6 degrees of freedom. Perspectives are outlined for future developments on robotic systems identification and other complex problems.
|
254 |
Exploring the use of conceptual catchment models in assessing irrigation water availability for grape growing in the semi-arid Andes / Apport des modèles hydrologiques conceptuels à l’estimation de la disponibilité en eau pour l’irrigation de la vigne dans les Andes semi-aridesHublart, Paul 30 November 2015 (has links)
La thèse explore l’utilisation de modèles hydrologiques globaux pour estimer la disponibilité en eau agricole dans le contexte des Andes chiliennes semi-arides. Dans cette région, l’approvisionnement en eau des cultures irriguées de fonds de vallée durant l’été dépend de précipitations se produisant sous forme de neige à haute altitude lors de quelques évènements hivernaux. L’influence des phénomènes ENSO et PDO induit par ailleurs une forte variabilité climatique à l’échelle inter-annuelle, marquée par l’occurrence d’années extrêmement sèches ou humides. La région connaît aussi depuis les années 1980 une progression importante de la viticulture irriguée. Afin de prendre en compte les variations saisonnières et inter-annuelles de la disponibilité et de la consommation en eau d’irrigation, une chaîne de modélisation intégrée a été développée et différentes méthodes de quantification/réduction des incertitudes de simulation ont été mises en œuvre. Les écoulements naturels ont été simulés avec un modèle hydrologique global de type empirique/conceptuel prenant en compte les processus d’accumulation et d’ablation de la neige. En parallèle, les besoins en eau d’irrigation ont été estimés à l’échelle du bassin à partir de modèles phénologiques orientés processus et d’une approche simple du bilan hydrique du sol. Dans l’ensemble, une approche holistique et parcimonieuse a été privilégiée afin de maintenir un niveau d’abstraction mathématique et de représentation des processus équivalent à celui des modèles de bassin couramment utilisés. Afin d’améliorer l’utilité et la fiabilité des simulations obtenues en contexte de changement ou de forte variabilité climatique, l’effet des températures extrêmes sur le développement des cultures et l’impact des pertes en eau par sublimation à haute altitude ont fait l’objet d’une attention particulière. Ce cadre de modélisation conceptuel a été testé pour un bassin typique des Andes semi-arides (1512 km2, 820–5500 m a.s.l.) sur une période de 20 ans incluant une large gamme de conditions climatiques et des pratiques agricoles non-stationnaires (évolution des variétés de vigne, des surfaces et modes d’irrigation, etc). L’évaluation des modèles a été réalisée dans un cadre bayésien en faisant l’hypothèse d’erreurs auto-corrélées, hétéroscédastiques et non-gaussiennes. Différents critères et sources de données ont par ailleurs été mobilisés afin de vérifier l’efficacité et la cohérence interne de la chaîne de modélisation ainsi que la fiabilité statistique et la finesse des intervalles de confiance obtenus. De manière alternative, une caractérisation des erreurs de structure et de l’ambiguïté propre au choix du modèle hydrologique a été réalisée de manière non-probabiliste à partir d’une plate-forme de modélisation modulaire. Dans l’ensemble, la prise en compte explicite de la consommation en eau des cultures a mis en valeur certaines interactions entre paramètres hydrologiques et permis d’améliorer la fiabilité des simulations hydrologiques en année sèche. Finalement, une étude de sensibilité à différents seuils d’augmentation de la température et de la concentration en CO2 a été effectuée afin d’évaluer l’impact potentiel des changements climatiques sur le comportement de l’hydrosystème et la capacité à satisfaire la demande en eau d’irrigation dans le futur. / This thesis investigates the use of lumped catchment models to assess water availability for irrigation in the upland areas of northern-central Chile (30°S). Here, most of the annual water supply falls as snow in the high Cordillera during a few winter storms. Seasonal snowpacks serve as natural reservoirs, accumulating water during the winter and sustaining streams and aquifers during the summer, when irrigation demand in the cultivated valleys is at its peak. At the inter-annual timescale, the influence of ENSO and PDO phenomena result in the occurrence of extremely wet and dry years. Also, irrigated areas and grape growing have achieved a dramatic increase since the early 1980s. To evaluate the usefulness of explicitly accounting for changes in irrigation water-use in lumped catchment models, an integrated modeling framework was developed and different ways of quantifying/reducing model uncertainty were explored. Natural streamflow was simulated using an empirical hydrological model and a snowmelt routine. In parallel, seasonal and inter-annual variations in irrigation requirements were estimated using several process-based phenological models and a simple soil-water balance approach. Overall, this resulted in a low-dimensional, holistic approach based on the same level of mathematical abstraction and process representation as in most commonly-used catchment models. To improve model reliability and usefulness under varying or changing climate conditions, particular attention was paid to the effects of extreme temperatures on crop phenology and the contribution of sublimation losses to water balance at high elevations. This conceptual framework was tested in a typical semi-arid Andean catchment (1512 km2, 820–5500 m a.s.l.) over a 20–year simulation period encompassing a wide range of climate and water-use conditions (changes in grape varieties, irrigated areas, irrigation techniques). Model evaluation was performed from a Bayesian perspective assuming auto-correlated, heteroscedastic and non-gaussian residuals. Different criteria and data sources were used to verify model assumptions in terms of efficiency, internal consistency, statistical reliability and sharpness of the predictive uncertainty bands. Alternatively, a multiple-hypothesis and multi-criteria modeling framework was also developed to quantify the importance of model non-uniqueness and structural inadequacy from a non-probabilistic perspective. On the whole, incorporating the effects of irrigation water-use led to new interactions between the hydrological parameters of the modeling framework and improved reliability of streamflow predictions during low-flow periods. Finally, a sensitivity analysis to changes in climate conditions was conducted to evaluate the potential impacts of increasing temperatures and atmospheric CO2 on the hydrological behavior of the catchment and the capacity to meet future water demands.
|
255 |
Prédire en relations internationales : étude de la place de l'avenir au sein des discours théoriques : soutiens, contestations, perspectives / Prediction in International Relations : the Place of the Future in Theoretical Discourse : foundations, Critiques, PerspectivesSpyropoulos, Michalis 27 November 2013 (has links)
Cette thèse propose de couvrir l’évolution de l’intérêt pour la prévision dans la théorie des relations internationales, en partant d’une constatation générale : son existence est contrastée, tributaire des fluctuations conceptuelles. Les deux premières Parties s’articulent respectivement autour de la défense d’une part et de la critique, d’autre part, de l’étude de l’avenir. Si l’on remonte tout d’abord aussi loin que la naissance du champ dans le monde anglo-américain, c’est parce que la question fut abordée par les premiers théoriciens libéraux, en raison du contexte issu de la première Guerre mondiale. Les contributions majeures de Hans Morgenthau, Morton Kaplan et Kenneth Waltz sont ensuite analysées, avant de céder leur place aux discours critiques. Une fois cet état de l’art établi, cette thèse suggère un bilan des parties en présence et propose une justification alternative, visant à légitimer différemment l’insertion d’une réflexion sur l’inconnu temporel en Relations internationales. La méthode alors préconisée déplace le cœur de l’argumentation vers les terrains de l’épistémologie et de la prescription, en vue de montrer finalement que la question de l’avenir est à la fois légitime et incontournable. / This thesis proposes to cover the evolution of the interest for the prediction in the theories of international relations, starting with a general observation: its existence is contrasted, dependent on conceptual changes. The first two Parties are organized respectively around the defense on the one hand and criticism, on the other hand, of the study of the future. If we decide to go back as far as the birth of the field in the Anglo-American world, it is because the issue was first addressed by liberal theorists, due to the context after the World War I. The major contributions of Hans Morgenthau, Kenneth Waltz and Morton Kaplan are then analyzed before we focus on critical discourses. Once this state of the art established, this thesis suggests a review of the parties and offers an alternative justification to legitimize differently inserting a reflection on the unknown time in International Relations. The preferred method then moves the heart of the argument to the fields of epistemology and prescription, in order to finally show that the question of the future is both legitimate and compelling.
|
256 |
Algorithmes pour la prédiction in silico d'interactions par similarité entre macromolécules biologiques / Similarity-based algorithms for the prediction of interactions between biomoleculesVoland, Mathieu 03 April 2017 (has links)
Un médicament, ou tout autre petite molécule biologique, agit sur l’organisme via des interactions chimiques qui se produisent avec d’autres macromolécules telles que les protéines qui régissent le fonctionnement des cellules. La détermination de l’ensemble des cibles, c’est à dire de l’ensemble des macromolécules susceptibles de lier une même molécule, est essentielle pour mieux comprendre les mécanismes moléculaires à l’origine des effets d’un médicament. Cette connaissance permettrait en effet de guider la conception d’un composé pour éviter au mieux les effets secondaires indésirables, ou au contraire découvrir de nouvelles applications à des molécules connues. Les avancées de la biologie structurale nous permettent maintenant d’avoir accès à un très grand nombre de structures tridimensionnelles de protéines impliquées dans ces interactions, ce qui motive l’utilisation d’outils in silico (informatique) pour complémenter ou guider les expériences in vitro ou in vivo plus longues et plus chères.La thèse s’inscrit dans le cadre d’une collaboration entre le laboratoire DAVID de l’Université de Versailles-Saint-Quentin, et l’entreprise Bionext SA qui propose une suite logicielle permettant de visualiser et d’étudier les interactions chimiques. Les travaux de recherches ont pour objectif de développer un algorithme permettant, à partir des données structurales des protéines, de déterminer des cibles potentielles pour un composé donné. L’approche choisie consiste à utiliser la connaissance d’une première interaction entre un composé et une protéine afin de rechercher par similarité d’autres protéines pour lesquelles on peut inférer la capacité à se lier avec le même composé. Il s’agit plus précisément de rechercher une similarité locale entre un motif donné, qui est la région permettant à la cible connue de lier le composé, et un ensemble de protéines candidates.Un algorithme a été développé, BioBind, qui utilise un modèle des surfaces des macromolécules issu de la théorie des formes alpha afin de modéliser la surface accessible ainsi qu’une topologie sur cette surface permettant la définition de régions en surface. Afin de traiter le problème de la recherche d’un motif en surface, une heuristique est utilisée consistant à définir des motifs réguliers qui sont une approximation de disques géodésiques et permettant un échantillonnage exhaustif à la surface des macromolécules. Ces régions circulaires sont alors étendues à l’ensemble du motif recherché afin de déterminer une mesure de similarité.Le problème de la prédiction de cibles est ramené à un problème de classification binaire, où il s’agit pour un ensemble de protéines données de déterminer lesquelles sont susceptibles d’interagir avec le composé considéré, par similarité avec la première cible connue. Cette formalisation permet d’étudier les performances de notre approche, ainsi que de la comparer avec d’autres approches sur différents jeux de données. Nous utilisons pour cela deux jeux de données issus de la littérature ainsi qu’un troisième développé spécifiquement pour cette problématique afin d’être plus représentatif des molécules pertinentes du point de vue pharmacologique, c’est-à-dire ayant des propriétés proches des médicaments. Notre approche se compare favorablement sur ces trois jeux de données par rapport à une autre approche de prédiction par similarité, et plus généralement notre analyse confirme que les approches par docking (amarrage) sont moins performantes que les approches par similarité pour le problème de la prédiction de cibles. / The action of a drug, or another small biomolecule, is induced by chemical interactions with other macromolecules such as proteins regulating the cell functions. The determination of the set of targets, the macromolecules that could bind the same small molecule, is essential in order to understand molecular mechanisms responsible for the effects of a drug. Indeed, this knowledge could help the drug design process so as to avoid side effects or to find new applications for known drugs. The advances of structural biology provides us with three-dimensional representations of many proteins involved in these interactions, motivating the use of in silico tools to complement or guide further in vitro or in vivo experiments which are both more expansive and time consuming.This research is conducted as part of a collaboration between the DAVID laboratory of the Versailles-Saint-Quentin University, and Bionext SA which offers a software suite to visualize and analyze chemical interactions between biological molecules. The objective is to design an algorithm to predict these interactions for a given compound, using the structures of potential targets. More precisely, starting from a known interaction between a drug and a protein, a new interaction can be inferred with another sufficiently similar protein. This approach consists in the search of a given pattern, the known binding site, across a collection of macromolecules.An algorithm was implemented, BioBind, which rely on a topological representation of the surface of the macromolecules based on the alpha shapes theory. Our surface representation allows to define a concept of region of any shape on the surface. In order to tackle the search of a given pattern region, a heuristic has been developed, consisting in the definition of regular region which is an approximation of a geodesic disk. This circular shape allows for an exhaustive sampling and fast comparison, and any circular region can then be extended to the actual pattern to provide a similarity evaluation with the query binding site.The target prediction problem is formalized as a binary classification problem, where a set of macromolecules is being separated between those predicted to interact and the others, based on their local similarity with the known target. With this point of view, classic metrics can be used to assess performance, and compare our approach with others. Three datasets were used, two of which were extracted from the literature and the other one was designed specifically for our problem emphasizing the pharmacological relevance of the chosen molecules. Our algorithm proves to be more efficient than another state-of-the-art similarity based approach, and our analysis confirms that docking software are not relevant for our target prediction problem when a first target is known, according to our metric.
|
257 |
Evolution et coévolution des petits ARNs régulateurs et des gènes codants chez les bactéries / Evolution and coevolution of small regulatory RNAs and coding genes in bacteriaCerutti, Franck 05 January 2018 (has links)
Les ARNs non-codants régulateurs (ARNnc) regroupent des acteurs majeurs de la régulation de l'expression des gènes, retrouvés de manière ubiquitaire dans l'ensemble des domaines du vivant. Chez les bactéries ils sont également appelés sRNAs, jouent des rôles clefs dans de nombreuxprocessus physiologiques et adaptatifs. Ces sRNAs ont été mis en évidence par des méthodes expérimentales haut-débit (microarray, tilling-array...) dans plusieurs espèces bactériennes d'intérêt. Ils agissent majoritairement au niveau post-transcriptionnel via une interaction physique avec un ou plusieurs ARNs messagers(s) cibles(s). Cependant, les informations sur les ARNmet les fonctions potentielles de ces sRNAs restent très parcellaires à ce jour. De plus, les profils d'évolution des sRNAs ont été peu étudiés chez les bactéries pathogènes. Le travail réalisé dans cette thèse repose sur l'hypothèse que l'évolution des sRNAs et leur coévolution avec d'autres éléments fonctionnels dans un ensemble de génomes, peut permettre de mieux comprendre leurs histoires évolutives, mais également de caractériser leurs fonctions potentielles et peut-être d'aider à identifier le ou les ARNm cibles avec lesquels ils interagissent. Dans ce but, nous avons conçu et implémenté une stratégie de phylogénomique robuste et géné- rique permettant d'analyser l'évolution et la coévolution des sRNAs et des ARNm cibles dans un ensemble de génomes bactériens annotés, à partir de leur profil de présence-absence. Cette méthode a été appliquée à l'analyse de l'évolution et de la coévolution de 154 sRNAs trans régulateurs de Listeria monocytogenes EGD-e. Elle nous a permis d'identifier 52 sRNAs accessoires dont la majo- rité étaient présents dans l'ancêtre commun des souches de Listeria et ont été perdus au cours de l'évolution. Nous avons ensuite détecté une coévolution significative entre 23 sRNAs et 52 ARNm et nous avons reconstruit le réseau de coévolution des sRNAs et ARNm de Listeria. Ce réseau contient un hub principal de 12 sRNAs qui coévoluent avec des ARNm codant pour des protéines de la paroi ainsi que des facteurs de virulence. Parmi eux nous avons pu identifier 4 sRNAs coévoluant avec 7 gènes codant pour des internalines qui sont connues pour regrouper d'importants facteurs de virulence chez Listeria. De plus, l'ARN rli133, qui coévolue avec plusieurs gènes impliqués dans le pouvoir pathogène de Listeria, contient des régions compatibles avec des interactions physiques directes inhibitrices pour la majorité de ses partenaires de coévolution. / Non coding RNAs (ncRNA) are main actors of gene expression regulation and are found ubiquitously in all domains of life. In bacteria, ncRNAs play key roles in a wide range of physiological and adaptive processes. These "small non coding RNAs" (sRNAs) are identified by high-throughput experimental methods (microarray, tilling-array, ...) in several bacteria species of interest. They mainly act at post-transcriptional level through physical interactions with one or several mRNA(s). Nevertheless, the available informations about mRNA targets and sRNAs functions, remain very limited. In addition, evolutionary patterns of sRNAs have been poorly studied in pathogenic bacteria. The main hypothesis of my PhD work is therefore that analysis of evolution and coevolution between sRNAs and other functional elements in a given genomes set, may allow to understand their evolutionary histories, to better characterize their putative functions, and may also help to identify their potential mRNA(s) target(s). For this purpose, we designed and developed a robust and generic phylogenomic approach to analyze evolution and coevolution between sRNAs and mRNA from their presence-absence profiles, in a set of annotated bacterial genomes. This method was thereafter used to analyze evolution and coevolution of 154 Listeria monocytogenes EGD-e trans regulatory sRNAs in 79 complete genomes of Listeria. This approach allowed us to discover 52 accessory sRNAs, the majority ofwhich were present in the Listeria common ancestor and were subsequently lost during evolution of Listeria strains. We then detected significant coevolutions events between 23 sRNAs and 52 mRNAs and reconstructed the coevolving network of Listeria sRNA and mRNA. This network contains a main hub of 12 sRNAs that coevolves with mRNA encoding cell wall proteins and virulence factors. Among them, we have identified 4 sRNAs coevolving with 7 internalin-coding genes that are known to group important virulence factors of Listeria. Additionaly, rli133, a sRNA that coevolve with several genes involved in Listeria pathogenicity, exhibits regions compatible with direct translational inhibitory physical interactions for most of its coevolution partners.
|
258 |
Durabilité des miroirs pour l'énergie solaire à concentration : étude des modes de vieillissement / Durability of mirrors for concentrating solar power : study of aging modesAvenel, Coralie 16 October 2018 (has links)
La durabilité des miroirs solaires est un point clé pour le développement des centrales solaires à concentration, du fait de l’investissement important, des 30 ans d’opération visés et des zones d’implantations aux climats agressifs. Ces travaux de recherche portent ainsi sur l’étude des modes de dégradation et de la durabilité de miroirs solaires en verre monolithiques ou laminés. Cette thèse a permis d’appliquer avec succès au CSP une méthodologie de prédiction de la durée de vie développée dans des domaines plus matures. Les corrélations entre les vieillissements accélérés et les expositions extérieures réalisées sur trois sites ont mis en avant le rôle prédominant de l’eau et de l’irradiance dans la dégradation des peintures de protection des miroirs monolithiques. Les essais en chaleur humide ont quant à eux été jugés trop agressifs pour les miroirs, considérant de plus les conditions climatiques des sites d’application potentiels. Les résultats expérimentaux des essais de vieillissements accélérés ont conduit à la détermination des paramètres cinétiques des miroirs inclus dans les relations mathématiques modélisant les principaux facteurs de stress identifiés précédemment. Les facteurs d’accélération ont ainsi été calculés pour des essais standards par rapport à des sites comportant des centrales CSP opérationnelles. Ce travail a permis au final d’estimer des durées de vie des miroirs sur les sites choisis, en considérant que seuls les facteurs de stress étudiés intervenaient dans la dégradation. / Durability of solar mirrors is a key point for the development of concentrating solar power plants, because of the large investment, the goal of 30 years lifetime and of the implantations areas with hostile climates. This research work concerns the study of degradation modes and of monolithic or laminated glass solar mirrors durability. This thesis allows to successfully apply to CSP a lifetime prediction method already developed in more mature fields. Correlations between accelerated ageing tests and natural outdoor exposures performed on three sites evidence the predominant role of water and irradiance in protection paints of monolithic mirrors degradation. Damp heat tests were evaluated too aggressive for mirrors, considering thus the climatic conditions of potential application sites. Experimental results of accelerated ageing tests lead to the determination of kinetic parameters included in mathematical relationships modelling the main stress factors previously identified. Acceleration factors were then calculated for standard tests compared to sites with operational CSP plants. This work finally allows to estimate lifetimes of mirrors on specific sites, assuming that only the studied stress factors take part in degradation.
|
259 |
Efficient inference and learning in graphical models for multi-organ shape segmentation / Inférence efficace et apprentissage des modèles graphiques pour la segmentation des formes multi-organesBoussaid, Haithem 08 January 2015 (has links)
Cette thèse explore l’utilisation des modèles de contours déformables pour la segmentation basée sur la forme des images médicales. Nous apportons des contributions sur deux fronts: dans le problème de l’apprentissage statistique, où le modèle est formé à partir d’un ensemble d’images annotées, et le problème de l’inférence, dont le but est de segmenter une image étant donnée un modèle. Nous démontrons le mérite de nos techniques sur une grande base d’images à rayons X, où nous obtenons des améliorations systématiques et des accélérations par rapport à la méthode de l’état de l’art. Concernant l’apprentissage, nous formulons la formation de la fonction de score des modèles de contours déformables en un problème de prédiction structurée à grande marge et construisons une fonction d’apprentissage qui vise à donner le plus haut score à la configuration vérité-terrain. Nous intégrons une fonction de perte adaptée à la prédiction structurée pour les modèles de contours déformables. En particulier, nous considérons l’apprentissage avec la mesure de performance consistant en la distance moyenne entre contours, comme une fonction de perte. L’utilisation de cette fonction de perte au cours de l’apprentissage revient à classer chaque contour candidat selon sa distance moyenne du contour vérité-terrain. Notre apprentissage des modèles de contours déformables en utilisant la prédiction structurée avec la fonction zéro-un de perte surpasse la méthode [Seghers et al. 2007] de référence sur la base d’images médicales considérée [Shiraishi et al. 2000, van Ginneken et al. 2006]. Nous démontrons que l’apprentissage avec la fonction de perte de distance moyenne entre contours améliore encore plus les résultats produits avec l’apprentissage utilisant la fonction zéro-un de perte et ce d’une quantité statistiquement significative.Concernant l’inférence, nous proposons des solveurs efficaces et adaptés aux problèmes combinatoires à variables spatiales discrétisées. Nos contributions sont triples: d’abord, nous considérons le problème d’inférence pour des modèles graphiques qui contiennent des boucles, ne faisant aucune hypothèse sur la topologie du graphe sous-jacent. Nous utilisons un algorithme de décomposition-coordination efficace pour résoudre le problème d’optimisation résultant: nous décomposons le graphe du modèle en un ensemble de sous-graphes en forme de chaines ouvertes. Nous employons la Méthode de direction alternée des multiplicateurs (ADMM) pour réparer les incohérences des solutions individuelles. Même si ADMM est une méthode d’inférence approximative, nous montrons empiriquement que notre implémentation fournit une solution exacte pour les exemples considérés. Deuxièmement, nous accélérons l’optimisation des modèles graphiques en forme de chaîne en utilisant l’algorithme de recherche hiérarchique A* [Felzenszwalb & Mcallester 2007] couplé avec les techniques d’élagage développés dans [Kokkinos 2011a]. Nous réalisons une accélération de 10 fois en moyenne par rapport à l’état de l’art qui est basé sur la programmation dynamique (DP) couplé avec les transformées de distances généralisées [Felzenszwalb & Huttenlocher 2004]. Troisièmement, nous intégrons A* dans le schéma d’ADMM pour garantir une optimisation efficace des sous-problèmes en forme de chaine. En outre, l’algorithme résultant est adapté pour résoudre les problèmes d’inférence augmentée par une fonction de perte qui se pose lors de l’apprentissage de prédiction des structure, et est donc utilisé lors de l’apprentissage et de l’inférence. [...] / This thesis explores the use of discriminatively trained deformable contour models (DCMs) for shape-based segmentation in medical images. We make contributions in two fronts: in the learning problem, where the model is trained from a set of annotated images, and in the inference problem, whose aim is to segment an image given a model. We demonstrate the merit of our techniques in a large X-Ray image segmentation benchmark, where we obtain systematic improvements in accuracy and speedups over the current state-of-the-art. For learning, we formulate training the DCM scoring function as large-margin structured prediction and construct a training objective that aims at giving the highest score to the ground-truth contour configuration. We incorporate a loss function adapted to DCM-based structured prediction. In particular, we consider training with the Mean Contour Distance (MCD) performance measure. Using this loss function during training amounts to scoring each candidate contour according to its Mean Contour Distance to the ground truth configuration. Training DCMs using structured prediction with the standard zero-one loss already outperforms the current state-of-the-art method [Seghers et al. 2007] on the considered medical benchmark [Shiraishi et al. 2000, van Ginneken et al. 2006]. We demonstrate that training with the MCD structured loss further improves over the generic zero-one loss results by a statistically significant amount. For inference, we propose efficient solvers adapted to combinatorial problems with discretized spatial variables. Our contributions are three-fold:first, we consider inference for loopy graphical models, making no assumption about the underlying graph topology. We use an efficient decomposition-coordination algorithm to solve the resulting optimization problem: we decompose the model’s graph into a set of open, chain-structured graphs. We employ the Alternating Direction Method of Multipliers (ADMM) to fix the potential inconsistencies of the individual solutions. Even-though ADMMis an approximate inference scheme, we show empirically that our implementation delivers the exact solution for the considered examples. Second,we accelerate optimization of chain-structured graphical models by using the Hierarchical A∗ search algorithm of [Felzenszwalb & Mcallester 2007] couple dwith the pruning techniques developed in [Kokkinos 2011a]. We achieve a one order of magnitude speedup in average over the state-of-the-art technique based on Dynamic Programming (DP) coupled with Generalized DistanceTransforms (GDTs) [Felzenszwalb & Huttenlocher 2004]. Third, we incorporate the Hierarchical A∗ algorithm in the ADMM scheme to guarantee an efficient optimization of the underlying chain structured subproblems. The resulting algorithm is naturally adapted to solve the loss-augmented inference problem in structured prediction learning, and hence is used during training and inference. In Appendix A, we consider the case of 3D data and we develop an efficientmethod to find the mode of a 3D kernel density distribution. Our algorithm has guaranteed convergence to the global optimum, and scales logarithmically in the volume size by virtue of recursively subdividing the search space. We use this method to rapidly initialize 3D brain tumor segmentation where we demonstrate substantial acceleration with respect to a standard mean-shift implementation. In Appendix B, we describe in more details our extension of the Hierarchical A∗ search algorithm of [Felzenszwalb & Mcallester 2007] to inference on chain-structured graphs.
|
260 |
Développement et validation d’un modèle de sources virtuelles adapté à la prédiction d’images EPID pour le contrôle qualité des traitements de RCMI / Development and validation of a new virtual source model for portal image prediction and treatment quality controlChabert, Isabelle 11 February 2015 (has links)
L’essor des nouvelles techniques de traitement en radiothérapie externe a rendu nécessaire la mise en place de nouveaux contrôles qualité (CQ). Il est en effet capital de s’assurer que la dose délivrée au patient est bien conforme à celle qui lui a été prescrite. Les détecteurs EPID, initialement utilisés pour contrôler l’exactitude du positionnement du patient, sont de plus en plus employés pour vérifier la conformité du traitement. L’image qu’ils enregistrent au cours d’une irradiation peut par exemple être comparée à une image de référence, qui correspond à ce qui aurait été mesuré si le traitement s’était déroulé dans les conditions de sa planification. Le succès de ce CQ repose (1) sur la précision avec laquelle on peut prédire l’image EPID (ou portale) de référence et (2) sur les performances de l’outil de comparaison d’image utilisé. Nous avons étudié au cours de cette thèse ces deux points clés. Nous nous sommes tout d’abord tournés vers une méthode de prédiction d’images EPID haute résolution basée sur le couplage de simulations Monte-Carlo (MC) et de la technique de débruitage DGPLM. Pour la mettre en œuvre, nous avons modélisé un accélérateur linéaire d’électrons à usage médical (linac) dans le code MC PENELOPE et optimisé les paramètres de sa source d’électrons primaires pour des calculs de dose dans l’eau. L’analyse d’un fichier d’espace des phases (PSF) de 71 Go stocké sous le cône égalisateur nous a ensuite permis de développer un modèle de sources virtuelles (MSV) représenté par des histogrammes corrélés (environ 200 Mo). Ce nouveau MSV, plus compact que le PSF, est tout aussi précis pour les calculs de dose dans l’eau si son maillage est déterminé selon une méthode adaptative. La modélisation du détecteur EPID dans PENELOPE suggère que les hypothèses faites sur les propriétés de la tâche focale du linac sont trop simplistes et doivent être reconsidérées. L’évaluation du MSV pour la prédiction d’images EPID haute résolution a quant à elle conduit à d’excellents résultats. Une fois la chaine de prédiction de l’image portale de référence validée, nous l’avons utilisée pour détecter des irrégularités dans les traitements de RCMI. Dans une étude préliminaire, nous avons volontairement introduit des erreurs de traitement dans le calcul d’images EPID (dérive du faisceau d’irradiation, modification de la morphologie ou de la position du patient). Le γ-index traditionnellement utilisé en routine s’est avéré moins performant que le χ-index pour les détecter. Une étude plus approfondie aura pour objet de déterminer des seuils de détection d’erreurs en fonction de leur nature et d’éprouver les performances d’autres tests. / Advanced techniques used in radiotherapy for cancer treatment, such as Intensity-Modulated Radiation Therapy (IMRT), require extensive verification procedures to ensure the correct dose delivery. Electronic Portal Imaging Devices (EPIDs) are widely used for quality assurance in radiotherapy, and also for dosimetric verifications. For this latter application, the images obtained during the treatment session can be compared to a pre-calculated reference image in order to highlight dose delivery errors. The quality control performance depends (1) on the accuracy of the pre-calculated reference image (2) on the ability of the tool used to compare images to detect errors. These two key points were studied during this PhD work. We chose to use a Monte Carlo (MC)-based method developed in the laboratory and based on the DPGLM (Dirichlet process generalized linear model) denoising technique to predict high-resolution reference images. A model of the studied linear accelerator (linac Synergy, Elekta, Crawley, UK) was first developed using the PENELOPE MC codes, and then commissioned using measurements acquired in the Hôpital Nord of Marseille. A 71 Go phase space file (PSF) stored under the flattening filter was then analyzed to build a new kind of virtual source model based on correlated histograms (200 Mo). This new and compact VSM is as much accurate as the PSF to calculate dose distributions in water if histogram sampling is based on adaptive method. The associated EPID modelling in PENELOPE suggests that hypothesis about linac primary source were too simple and should be reconsidered. The use of the VSM to predict high-resolution portal images however led to excellent results. The VSM associated to the linac and EPID MC models were used to detect errors in IMRT treatment plans. A preliminary study was conducted introducing on purpose treatment errors in portal image calculations (primary source parameters, phantom position and morphology changes). The γ-index commonly used in clinical routine appears to be less effective than the χ-index. A future in-depth study will be dedicated to determine error detection threshold according to their nature and to evaluate other comparison test robustness. The developed portal image prediction method associated to robust analysis tools will then constitute an adapted way to assure treatment quality control.
|
Page generated in 0.099 seconds