• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 231
  • 104
  • 23
  • 2
  • 1
  • Tagged with
  • 353
  • 138
  • 118
  • 95
  • 76
  • 70
  • 69
  • 63
  • 52
  • 47
  • 37
  • 34
  • 34
  • 30
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Arbre de décision temporel multi-opérateur / Multi-operator Temporal Decision Trees

Shalaeva, Vera 30 November 2018 (has links)
Aujourd'hui, du fait de la multiplication du nombre des capteurs et, plus généralement, de celle des données issues de dispositifs connectés, de nombreux domaines d'activité sont intéressés par la classification automatique des séries temporelles.Au-delà de la recherche théorique de nouveaux algorithmes d'apprentissage automatique capables de traiter ces données complexes, il est important de fournir aux utilisateurs des méthodes capables de construire efficacement des modèles prédictifs, mais aussi de se focaliser sur l'explicabilité des modèles générés et la transparence des processus mis en oeuvre.Ainsi, les utilisateurs qui n'ont pas forcément des connaissances en théorie d'apprentissage peuvent prendre en main plus rapidement ces méthodes et surtout valider la qualité des connaissances apprises vis à vis de leur domaine d'expertise.Dans ce travail de doctorat, nous nous sommes intéressée à la génération d'arbres de décision sur des données temporelles qui est une approche susceptible de construire des modèles assez faciles à interpréter pour un utilisateur "non-expert". Nous avons cherché à améliorer les différentes méthodes présentes dans la littérature en nous focalisant sur trois aspects liés à la construction des noeuds de l'arbre. Premièrement, nous avons introduit la notion d'arbre de décision temporel multi-opérateur (MTDT) qui consiste à utiliser, en concurrence, plusieurs méthodes pour construire chaque noeud. D'une part cela permet d'améliorer les capacités prédictives des arbres en capturant les meilleures structures géométriques discriminantes pour chaque classe et pour chaque niveau de l'arbre. D'autre part, grâce à cette approche on améliore la lisibilité des modèles en réduisant significativement la taille des arbres qui sont produits. Deuxièmement, nous avons cherché à réduire la complexité des algorithmes en utilisant une recherche locale pour explorer les opérateurs de contruction des noeuds. Cette recherche s'appuie sur la définition de bornes dans les métriques utilisées. Enfin, nous avons développé et comparé différentes méthodes automatiques de pondération des sous-séquences des séries temporelles de manière à maximiser la précision des arbres de décision produits. / Rising interest in mining and analyzing time series data in many domains motivates designing machine learning (ML) algorithms that are capable of tackling such complex data. Except of the need in modification, improvement, and creation of novel ML algorithms that initially works with static data, criteria of its interpretability, accuracy and computational efficiency have to be fulfilled. For a domain expert, it becomes crucial to extract knowledge from data and appealing when a yielded model is transparent and interpretable. So that, no preliminary knowledge of ML is required to read and understand results. Indeed, an emphasized by many recent works, it is more and more needed for domain experts to get a transparent and interpretable model from the learning tool, thus allowing them to use it, even if they have few knowledge about ML's theories. Decision Tree is an algorithm that focuses on providing interpretable and quite accurate classification model.More precisely, in this research we address the problem of interpretable time series classification by Decision Tree (DT) method. Firstly, we present Temporal Decision Tree, which is the modification of classical DT algorithm. The gist of this change is the definition of a node's split. Secondly, we propose an extension, called Multi-operator Temporal Decision Tree (MTDT), of the modified algorithm for temporal data that is able to capture different geometrical classes structures. The resulting algorithm improves model readability while preserving the classification accuracy.Furthermore, we explore two complementary issues: computational efficiency of extended algorithm and its classification accuracy. We suggest that decreasing of the former is reachable using a Local Search approach to built nodes. And preserving of the latter can be handled by discovering and weighting discriminative time stamps of time series.
32

Dynamique non linéaire des systèmes volcaniques à partir des données géodésiques / Nonlinear dynamics of volcanic systems from geodetic data

Walwer, Damian 23 February 2018 (has links)
Nous étudions dans un premier temps l'intérêt de l'utilisation de la "multichannel singular spectrum analysis" (M-SSA) sur des séries temporelles de positionnements GPS. Cette méthode permet de simultanément analyser un ensemble de séries temporelles et d'en extraire des modes de variabilités communs sans utiliser d'information a priori sur les structures spatiales et temporelles des champs géophysiques. Ces modes correspondent à des tendances non linéaires, des oscillations ou du bruit. Nous l'appliquons à des données enregistrées sur le volcan Akutan en Alaska. Nous y extrayons deux types de signaux. L'un correspondant à des déformations dites saisonnières, l'autre représentant deux cycles d'inflations et de déflations successifs du volcan Akutan. Les inflations sont rapides et courtes et suivies de déflations plus lentes et plus longues. Dans une seconde partie nous tirons parti de la M-SSA pour analyser des séries temporelles enregistrées sur plusieurs volcans. Les volcans Okmok et Shishaldin en Alaska et le Piton de la Fournaise à la Réunion possèdent une partie de leurs histoires de déformations qui est similaire à celle d'Akutan. Le caractère oscillatoire de ces cycles de déformations est comparé au régime oscillatoire d'un simple oscillateur non linéaire. Les données pétrologiques, géochimiques et géophysiques disponibles pour Okmok et le Piton de la Fournaise combinées aux contraintes sur la dynamique apportées par l'oscillateur non linéaire permet de proposer un modèle physique. Deux réservoirs superficiels sont connectés par un conduit cylindrique dans lequel le magma possède une viscosité qui dépend de la température. Un tel système se comporte de manière similaire à l'oscillateur non linéaire étudié précédemment. Lorsque que le gradient de température vertical présent dans le fluide est suffisamment important et que le flux de magma entrant dans le système de réservoirs est compris entre deux valeurs déterminées analytiquement un régime oscillatoire se met en place. / We study the use of the "multichannel singular spectrum analysis" on GPS time series. This method allows to simultaneously analyze a set of time series in order to extract from it common modes of variability without using any a priori on the temporal or the spatial structure of geophysical fields. The extracted modes correspond either to nonlinear trends, oscillations or noise. The method is applied on a set of GPS time series recorded at Akutan, a volcano located in Aleutian arc in Alaska. Two types of signals are extracted from it. The first one corresponds to seasonal deformations and the other represents two successive cycles of inflation and subsidence of Akutan volcano. The inflations are fast and short and are followed by deflations that are slower and longer. In the second part we take benefit of the M-SSA to analyze GPS time series recorded at several volcanoes. Okmok and Shishaldin in Alaska and Piton de la Fournaise in La Réunion possess a part of their deformation history that is similar to Akutan volcano. The cyclic nature of the observed deformations leads us to make an analogy between the oscillatory regime of a simple nonlinear oscillator and the deformation cycles of these volcanoes. Geochemical, petrological and geophysical data available for Okmok and Piton de la Fournaise combined with the constraint on the qualitative dynamics bring by the nonlinear oscillator allow to propose a physical model. Two shallow reservoirs are connected by a cylindrical conduit in which the magma have a viscosity that depends on the temperature. Such system behaves like the nonlinear oscillator mentioned above. When the temperature gradient inside theconduit is large enough and the flux of magma entering the shallow system is bounded by values that are determined analytically anonlinear oscillatory regime arises.
33

Signatures : detecting and characterizing complex recurrent behavior in sequential data / Détection et caractérisation de comportements complexes récurrents dans des données séquentielles

Gautrais, Clément 16 October 2018 (has links)
Cette thèse introduit un nouveau type de motif appelé signature. La signature segmente une séquence d'itemsets, afin de maximiser la taille de l'ensemble d'items qui apparaît dans tous les segments. La signature a été initialement introduite pour identifier les produits favoris d'un consommateur de supermarché à partir de son historique d'achat. L'originalité de la signature vient du fait qu'elle identifie les items récurrents qui 1) peuvent apparaître à différentes échelles temporelles, 2) peuvent avoir des occurrences irrégulières et 3) peuvent être rapidement compris par des analystes. Étant donné que les approches existantes en fouille de motifs n'ont pas ces 3 propriétés, nous avons introduit la signature. En comparant la signature avec les méthodes de l'état de l'art, nous avons montré que la signature est capable d'identifier de nouvelles régularités dans les données, tout en identifiant les régularités détectées par les méthodes existantes. Bien qu'initialement liée au domaine de la fouille de motifs, nous avons également lié le problème de la fouille de signatures au domaine de la segmentation de séquences. Nous avons ensuite défini différents algorithmes, utilisant des méthodes liées à la fouille de motifs et à la segmentation de séquences. Les signatures ont été utilisées pour analyser un large jeu de données issu d'un supermarché français. Une analyse qualitative des signatures calculées sur ces consommateurs réels a montré que les signatures sont capables d'identifier les produits favoris d'un consommateur. Les signatures ont également été capables de détecter et de caractériser l'attrition de consommateurs. Cette thèse définit également 2 extensions de la signature. La première extension est appelée la sky-signature. La sky-signature permet de présenter les items récurrents d'une séquence à différentes échelles de temps. La sky-signature peut être vue comme une manière efficace de résumer les signatures calculées à toutes les échelles de temps possibles. Les sky-signatures ont été utilisées pour analyser les discours de campagne des candidats à la présidentielle américaine de 2016. Les sky-signatures ont identifié les principaux thèmes de campagne de chaque candidat, ainsi que leur rythme de campagne. Cette analyse a également montré que les signatures peuvent être utilisées sur d'autres types de jeux de données. Cette thèse introduit également une deuxième extension de la signature, qui permet de calculer la signature qui correspond le plus aux données. Cette extension utilise une technique de sélection de modèle basée sur le principe de longueur de description minimale, communément utilisée en fouille de motifs. Cette extension a également été utilisée pour analyser des consommateurs de supermarché. / Cette thèse introduit un nouveau type de motif appelé signature. La signature segmente une séquence d'itemsets, afin de maximiser la taille de l'ensemble d'items qui apparaît dans tous les segments. La signature a été initialement introduite pour identifier les produits favoris d'un consommateur de supermarché à partir de son historique d'achat. L'originalité de la signature vient du fait qu'elle identifie les items récurrents qui 1) peuvent apparaître à différentes échelles temporelles, 2) peuvent avoir des occurrences irrégulières et 3) peuvent être rapidement compris par des analystes. Étant donné que les approches existantes en fouille de motifs n'ont pas ces 3 propriétés, nous avons introduit la signature. En comparant la signature avec les méthodes de l'état de l'art, nous avons montré que la signature est capable d'identifier de nouvelles régularités dans les données, tout en identifiant les régularités détectées par les méthodes existantes. Bien qu'initialement liée au domaine de la fouille de motifs, nous avons également lié le problème de la fouille de signatures au domaine de la segmentation de séquences. Nous avons ensuite défini différents algorithmes, utilisant des méthodes liées à la fouille de motifs et à la segmentation de séquences. Les signatures ont été utilisées pour analyser un large jeu de données issu d'un supermarché français. Une analyse qualitative des signatures calculées sur ces consommateurs réels a montré que les signatures sont capables d'identifier les produits favoris d'un consommateur. Les signatures ont également été capables de détecter et de caractériser l'attrition de consommateurs. Cette thèse définit également 2 extensions de la signature. La première extension est appelée la sky-signature. La sky-signature permet de présenter les items récurrents d'une séquence à différentes échelles de temps. La sky-signature peut être vue comme une manière efficace de résumer les signatures calculées à toutes les échelles de temps possibles. Les sky-signatures ont été utilisées pour analyser les discours de campagne des candidats à la présidentielle américaine de 2016. Les sky-signatures ont identifié les principaux thèmes de campagne de chaque candidat, ainsi que leur rythme de campagne. Cette analyse a également montré que les signatures peuvent être utilisées sur d'autres types de jeux de données. Cette thèse introduit également une deuxième extension de la signature, qui permet de calculer la signature qui correspond le plus aux données. Cette extension utilise une technique de sélection de modèle basée sur le principe de longueur de description minimale, communément utilisée en fouille de motifs. Cette extension a également été utilisée pour analyser des consommateurs de supermarché.
34

Modélisation d'événements composites répétitifs, propriétés et relations temporelles / Modeling periodic composite events, temporal properties and relations

Faucher, Cyril 13 December 2012 (has links)
La modélisation des événements et de leurs propriétés temporelles concerne des types variés d’utilisateurs et de communautés scientifiques. Nous nous plaçons dans le cadre du paradigme Objet et construisons un méta modèle opérationnel servant de représentation pivot, indépendante du métier pour représenter des événements composites avec leurs propriétés structurelles et temporelles. Le méta modèle PTOM (Periodic Temporal Occurrence Metamodel) prend en compte l’expression de contraintes structurelles sur les événements, ou géométriques, topologiques et relationnelles sur la temporalité de leurs occurrences. Il privilégie la représentation en intension (vs extension) des occurrences d’événements périodiques. PTOM étend la norme ISO 19108 et s’adapte aux standards EventsML G2 et iCalendar. Sur un plan théorique, nous étendons les algèbres d’intervalles d’ALLEN et de LIGOZAT, et proposons un système de relations topologiques entre intervalles non convexes (ALLEN*) dont nous étudions les propriétés. Ces résultats sont intégrés dans PTOM. La première application de PTOM est la spécification de la sémantique du calendrier grégorien. Les éléments calendaires sont réintroduits en tant qu’événements périodiques dans PTOM, ce qui renforce son pouvoir expressif. PTOM a été mis en œuvre lors d’un projet ANR sur des corpus d’événements journalistiques (agences de presse) concernant les loisirs et la culture. L’Ingénierie Dirigée par les Modèles a été utilisée pour la conception et l’exploitation de PTOM. Cela permet de gérer la complexité, d’assurer la maintenabilité et la cohérence de l’ensemble et enfin, de générer automatiquement des interfaces pour les pourvoyeurs ou utilisateurs de données. / Modelling events with their temporal properties concerns many users and scientific communities. We adopted the Object paradigm and designed an operational metamodel which stands as a pivot business independent representation for composite events accompanied with their structural and temporal properties. PTOM metamodel (Periodic Temporal Occurrence Metamodel) accounts for structural constraints upon events and geometric, topologic or relational constraints upon their temporal occurrences. It gives prominence to intensional representations of periodic events occurrences vs extensional ones. PTOM extends ISO 19108 standard and fits EventsML G2 and iCalendar. From a theoretical viewpoint, we extend ALLEN’s and LIGOZAT’s interval algebras and propose a special set of topological relations between non convexintervals (ALLEN*), and study its properties. These results are part of PTOM. The first application of PTOM results in a specification of the Gregorian calendar semantics. Calendar elements are reinserted as periodic events in PTOM thus enhancing its expressiveness. PTOM was also experimented upon a corpus of journalistic (press agencies) events dedicated to leisure and culture at the occasion of an ANR project. Model Driven Engineering was extensively used for PTOM design and use.It allows to manage complexity and to ensure maintainability, consistency and eventually can automatically generate data provider or end user interfaces as well.
35

Fouille de données pour l'extraction de profils d'usage et la prévision dans le domaine de l'énergie / Data mining for the extraction of usage profiles and forecasting in the energy field

Melzi, Fateh 17 October 2018 (has links)
De nos jours, les pays sont amenés à prendre des mesures visant à une meilleure rationalisation des ressources en électricité dans une optique de développement durable. Des solutions de comptage communicantes (Smart Meters), sont mises en place et autorisent désormais une lecture fine des consommations. Les données spatio-temporelles massives collectées peuvent ainsi aider à mieux connaitre les habitudes de consommation et pouvoir les prévoir de façon précise. Le but est d'être en mesure d'assurer un usage « intelligent » des ressources pour une meilleure consommation : en réduisant par exemple les pointes de consommations ou en ayant recours à des sources d'énergies renouvelables. Les travaux de thèse se situent dans ce contexte et ont pour ambition de développer des outils de fouille de données en vue de mieux comprendre les habitudes de consommation électrique et de prévoir la production d'énergie solaire, permettant ensuite une gestion intelligente de l'énergie.Le premier volet de la thèse s'intéresse à la classification des comportements types de consommation électrique à l'échelle d'un bâtiment puis d'un territoire. Dans le premier cas, une identification des profils types de consommation électrique journalière a été menée en se basant sur l'algorithme des K-moyennes fonctionnel et sur un modèle de mélange gaussien. A l'échelle d'un territoire et en se plaçant dans un contexte non supervisé, le but est d'identifier des profils de consommation électrique types des usagers résidentiels et de relier ces profils à des variables contextuelles et des métadonnées collectées sur les usagers. Une extension du modèle de mélange gaussien classique a été proposée. Celle-ci permet la prise en compte de variables exogènes telles que le type de jour (samedi, dimanche et jour travaillé,…) dans la classification, conduisant ainsi à un modèle parcimonieux. Le modèle proposé a été comparé à des modèles classiques et appliqué sur une base de données irlandaise incluant à la fois des données de consommations électriques et des enquêtes menées auprès des usagers. Une analyse des résultats sur une période mensuelle a permis d'extraire un ensemble réduit de groupes d'usagers homogènes au sens de leurs habitudes de consommation électrique. Nous nous sommes également attachés à quantifier la régularité des usagers en termes de consommation ainsi que l'évolution temporelle de leurs habitudes de consommation au cours de l'année. Ces deux aspects sont en effet nécessaires à l'évaluation du potentiel de changement de comportement de consommation que requiert une politique d'effacement (décalage des pics de consommations par exemple) mise en place par les fournisseurs d'électricité.Le deuxième volet de la thèse porte sur la prévision de l'irradiance solaire sur deux horizons temporels : à court et moyen termes. Pour ce faire, plusieurs méthodes ont été utilisées parmi lesquelles des méthodes statistiques classiques et des méthodes d'apprentissage automatique. En vue de tirer profit des différents modèles, une approche hybride combinant les différents modèles a été proposée. Une évaluation exhaustive des différents approches a été menée sur une large base de données incluant des paramètres météorologiques mesurés et des prévisions issues des modèles NWP (Numerical Weather Predictions). La grande diversité des jeux de données relatifs à quatre localisations aux climats bien distincts (Carpentras, Brasilia, Pampelune et Ile de la Réunion) a permis de démontrer la pertinence du modèle hybride proposé et ce, pour l'ensemble des localisations / Nowadays, countries are called upon to take measures aimed at a better rationalization of electricity resources with a view to sustainable development. Smart Metering solutions have been implemented and now allow a fine reading of consumption. The massive spatio-temporal data collected can thus help to better understand consumption behaviors, be able to forecast them and manage them precisely. The aim is to be able to ensure "intelligent" use of resources to consume less and consume better, for example by reducing consumption peaks or by using renewable energy sources. The thesis work takes place in this context and aims to develop data mining tools in order to better understand electricity consumption behaviors and to predict solar energy production, then enabling intelligent energy management.The first part of the thesis focuses on the classification of typical electrical consumption behaviors at the scale of a building and then a territory. In the first case, an identification of typical daily power consumption profiles was conducted based on the functional K-means algorithm and a Gaussian mixture model. On a territorial scale and in an unsupervised context, the aim is to identify typical electricity consumption profiles of residential users and to link these profiles to contextual variables and metadata collected on users. An extension of the classical Gaussian mixture model has been proposed. This allows exogenous variables such as the type of day (Saturday, Sunday and working day,...) to be taken into account in the classification, thus leading to a parsimonious model. The proposed model was compared with classical models and applied to an Irish database including both electricity consumption data and user surveys. An analysis of the results over a monthly period made it possible to extract a reduced set of homogeneous user groups in terms of their electricity consumption behaviors. We have also endeavoured to quantify the regularity of users in terms of consumption as well as the temporal evolution of their consumption behaviors during the year. These two aspects are indeed necessary to evaluate the potential for changing consumption behavior that requires a demand response policy (shift in peak consumption, for example) set up by electricity suppliers.The second part of the thesis concerns the forecast of solar irradiance over two time horizons: short and medium term. To do this, several approaches have been developed, including autoregressive statistical approaches for modelling time series and machine learning approaches based on neural networks, random forests and support vector machines. In order to take advantage of the different models, a hybrid model combining the different models was proposed. An exhaustive evaluation of the different approaches was conducted on a large database including four locations (Carpentras, Brasilia, Pamplona and Reunion Island), each characterized by a specific climate as well as weather parameters: measured and predicted using NWP models (Numerical Weather Predictions). The results obtained showed that the hybrid model improves the results of photovoltaic production forecasts for all locations
36

Spécification et vérification de propriétés quantitatives sur des automates à contraintes

Gascon, Régis 22 November 2007 (has links) (PDF)
L'utilisation omniprésente des systèmes informatiques impose de s'assurer de leur bon fonctionnement. Dans ce but, les méthodes de vérification formelle permettent de suppléer les simulations qui ne peuvent être complètement exhaustives du fait de la complexité croissante des systèmes. Le model checking fait partie de ces méthodes et présente l'avantage d'être complètement automatisée. Cette méthode consiste à développer des algorithmes pour vérifier qu'une spécification exprimée la plupart du temps sous la forme d'une formule logique est satisfaite par un modèle du système. Les langages historiques de spécification utilisent comme formules atomiques des variables propositionnelles qui permettent d'exprimer principalement des propriétés portant sur les états de contrôle du modèle. Le but de cette thèse est de vérifier des propriétés plus riches portant sur diverses données manipulées par les modèles: des compteurs, des horloges ou des queues. Ces données peuvent prendre une infinité de valeurs et induisent donc des modèles avec un nombre infini d'états. Nous définissons un cadre général pour l'extension des logiques temporelles avec des contraintes permettant de comparer la valeur des variables a différents états de l'exécution. Nous établissons des résultats de décidabilité et complexité pour des problèmes de model checking impliquant diverses instances de ces extensions. Nous privilégions pour cela l'approche à base d'automates en combinant des constructions connues pour les logiques propositionnelles classiques avec des méthodes d'abstraction des modèles dont les variables sont interprétées dans des domaines infinis.
37

Dynamique des épidémies de choléra dans la région des grands lacs africains: cas de la République Démocratique du Congo

Bompangue, Didier 23 October 2009 (has links) (PDF)
Le choléra est une maladie diarrhéique contagieuse strictement humaine, causée par Vibrio cholerae, un bacille gram négatif. La maladie se traduit par une diarrhée acqueuse profuse parfois accompagnée de vomissements survenant quelques heures à quelques jours après l'ingestion d'eau ou d'aliments souillés par V. cholerae. Dans l'environnement, V. cholerae est retrouvé dans les eaux saumâtres des zones d'estuaire où il colonise la surface de certaines algues et de copépodes, pouvant ainsi persister en l'absence de l'homme pendant des périodes de temps prolongées. C'est le cas dans les zones estuariennes d'Asie du Sud-Est telle que la région du golfe du Bengale, où la maladie est connue depuis la plus haute antiquité. Après avoir été relativement épargnée par les six premières pandémies, l'Afrique continentale a été frappée par la 7ème pandémie en 1970. Depuis cette date, selon l'Organisation Mondiale de la Santé (OMS), plus de 90 % des cas de choléra sont rapportés par l'Afrique sub-saharienne. La République Démocratique du Congo (RDC) fait partie des pays les plus touchés. En RDC, de 2000 à 2008, 208 875 cas et 7 335 décès (létalité de 3,51%) dus au choléra ont été notifiés à l'OMS, soit 15 % des cas et 20 % des décès rapportés dans le monde pour la même période. Ces cas de choléra touchent essentiellement les provinces de l'est de la RDC, situées dans la région des grands lacs. Après plus de trente ans de lutte contre le choléra en RDC, une étude épidémiologique de la dynamique du choléra a été initiée dans ce pays dans le but de comprendre les facteurs de récurrence épidémique et de proposer des ajustements sur les approches opérationnelles. Les principaux résultats de ce travail de recherche ont permis de mettre en évidence qu'à peine 10 % des zones de santé, toutes situées à proximité des lacs de l'est de la RDC, jouent le rôle de zones sanctuaires pour le choléra. Ces résultats ont également permis de mettre en évidence la saisonnalité du choléra, avec moins de cas en saison sèche, et le rôle spécifique des populations de pêcheurs, de commerçants et de mineurs artisanaux dans l'émergence et la diffusion des épidémies de choléra. Il a également été démontré que le choléra n'est pas endémique dans toutes les régions de l'est de la RDC. Le fonctionnement du choléra dans cette région d'Afrique est globalement instable avec des flambées épidémiques suivies de phases d'extinction relativement prolongées, les flambées épidémiques se produisant selon un mode métastable lorsqu'on considère l'Est de la RDC dans son ensemble. Cependant, il a aussi été montré que certains foyers fonctionnant jusque-là sur un mode métastable sont, depuis quelques années, passés à un fonctionnement endémique. C'est le cas des foyers de Kalemie et de Goma. Sur la base de ces résultats, il a été recommandé la mise en place d'un projet de lutte contre le choléra avec pour objectif d'éliminer cette maladie de l'ensemble de la RDC. Ce plan vise à concentrer les efforts de lutte sur les sept foyers sanctuaires identifiés en privilégiant les apports en eau potable parmi l'éventail des moyens de lutte existant. Lorsque les premières actions ont été mises en oeuvre sur le site pilote de Kalemie, nous avons constaté une diminution importante de l'incidence du choléra, tandis que les examens microbiologiques ont confirmé que les quelques cas de diarrhée encore rapportés à Kalemie n'étaient plus dus à V. cholerae mais à d'autres bactéries. L'épidémiologie du choléra telle que nous l'observons dans la région des Grands Lacs africains est différente de celle décrite en zone estuarienne d'Asie du Sud-Est. Même si plusieurs questionnements subsistent concernant les modes de persistance du choléra dans les zones lacustres ou la pérennité du V. cholerae dans les eaux des lacs, les résultats de ce travail sont porteurs d'un nouvel espoir pour la relance de la lutte contre cette maladie négligée.
38

Réseaux de Petri P-temporels: Modélisation et validation d'exigences temporelles

Collart-Dutilleul, Simon 28 November 2008 (has links) (PDF)
Le corps de ce travail concerne la modélisation des systèmes à événements discrets. Il s'intéresse par ailleurs en quasi exclusivité à la gestion des contraintes de temps de séjour. Mes travaux de thèse ont comporté la constitution du cahier des charges en amont et les applications en aval d'un outil de modélisation des exigences temporelles : Les Réseaux de Petri P-temporels. L'ensemble de mes travaux de recherche a été développé dans le but d'asseoir l'utilisation de cet outil. Un premier axe a été de positionner l'outil par rapport à ceux de l'état de l'art. Une deuxième tâche a été de prouver un certains nombre de propriétés mathématiques dans l'optique de permettre des applications industrielles efficaces. Au delà de la stricte recherche de propriété, l'extension du champ applicatif, vers le domaine du ferroviaire par exemple, a pris une part très importante. Une troisième activité a débouché sur la caractérisation des limites du modèle et la proposition d'extension fonctionnelle ou de rapprochement de l'outil de modélisation vers des modèles existants. Ce modèle concerne donc les Systèmes à Evénements Discrets où l'on rencontre des contraintes de temps de séjour maximum dans un état donné. C'est le cas de la galvanoplastie qui a été le premier support applicatif. Très rapidement, le champ des applications potentielles de l'outil a été élargi par des publications dans les domaines de l'industrie alimentaire. Les travaux se sont par ailleurs concentrés sur la partie commande, en supposant que la séquence des opérations avait déjà été fixée. Ils ont été appuyés par le travail de master de recherche de M.F. Karoui en 2004 (deux conférences ont été publiées dans la suite de son mémoire). Par ailleurs, l'expertise en supervision qui se trouvait au sein de l'équipe Système à Evénement Discret a été valorisée par le stage de master de T. Lecuru sur la supervision des ateliers automobiles en 2003. Ce travail a pris une autre ampleur avec la thèse de Jerbi Nabil sur la commande des ateliers à contraintes de temps soutenue en 2006 (3 publications de revue). Il se poursuit avec la thèse de Annis Mhalla. En 2006, F. Defossez soutient un master dans le domaine ferroviaire sur la gestion des exigences temporelles de sécurité. Ce dernier va s'inscrire en troisième année de thèse et a déjà publié 5 conférences. Ce travail ouvre un champ très important pour l'outil de modélisation que je porte. Par exmple, cela a amné la participation à un projet Européen. Ce projet SELCAT qui s'intéresse au passage à niveau et qui s'est terminé en juin 2008. Il se prolongera dans un projet national ANR accepté qui débutera autour de janvier 2009. En parallèle, un projet spécifique ayant trait aux outils de modélisation sur les chantiers est en cours avec la SNCF. Enfin, la thèse de Hedi Dhouibi a été l'occasion de proposer un nouveau modèle capable de généraliser certaines propriétés des Réseaux de Pétri P-temporels à des systèmes où le paramètre critique est différent du temps. Une validation industrielle sur des données réelles a pu être effectuée (soutenance en 2005). Elle fait l'objet de trois publications de revues internationales (acceptation en 2008).
39

Recalage de séquences cardiaques spation-temporelles IRM et TEP/SCAN

Bâty, Xavier 13 March 2007 (has links) (PDF)
Les travaux décrits dans ce manuscrit ont pour thème général le recalage de séquences d'images multimodales : Image par Résonance Magnétique (IRM), Tomographie par Émission de Positons (TEP) et images de scanner X (CT) synchronisées à l'électrocardiogramme (ECG). Ces modalités présentent un intérêt pour l'évaluation de la fonction cardiaque permettant un diagnostic et un suivi des pathologies cardio-vasculaires. La TEP permet d'évaluer la fonction ventriculaire et l'IRM est une méthode de référence pour l'étude de la fonction ventriculaire gauche. L'intérêt de ce recalage est de pouvoir fusionner des images fonctionnelles, apportées par la TEP étudiant la viabilité myocardique et des images anatomiques plus précises apportées par l'IRM. Le recalage de ces séquences d'images, nécessite la mise en place de méthodes adaptées aux modalités mises en jeu et se décompose en deux étapes distinctes : (i) un recalage global 3D rigide, entre les données IRM et CT, fondé sur une approche modèle et (ii) un recalage local 2D utilisant l'information mutuelle et une Free Form Deformation (FFD). Concernant la première étape, nous proposons l'utilisation de modèles cardiaques 3D définis sur les données IRM et CT et recalés par ICP. Le recalage local 2D fait l'objet de deux contributions. Afin de rendre l'information mutuelle sensible aux informations des données TEP et CT, nous proposons la création d'une image composite qui permet de rendre compte des contours du myocarde (visibles sur les images TEP) et de l'enveloppe totale du coeur (visible sur les images CT). Pour optimiser notre processus dans l'étude de la séquence complète des images, nous proposons une initialisation originale aux transformations utilisées en utilisant le champ de déplacement temporel issu des données IRM. L'ensemble des résultats obtenus a été évalué par un expert
40

Des bisimulations pour la sémantique des systèmes réactifs

Pinchinat, Sophie 08 January 1993 (has links) (PDF)
Cette these contribue a l'etude des semantiques pour la specification et la verification des systemes reactifs. Plus precisement, nous comparons des semantiques comportementales, basees sur la bisimulation avec celles induites par des logiques modales du temps arborescent. Dans la premiere partie, nous considerons les modeles d'entrelacement pour les systemes sequentiels non-deterministes. Plusieurs travaux recents ont montre que dans le cadre des systemes a branchement infini (c-a-d. non-determinisme infini), l'equivalence de bisimulation (forte), reconnue comme l'equivalence semantique de base pour le temps arborescent, est strictement plus fine que celles induites par les logiques du temps arborescent (nous savons depuis longtemps qu'elles coincident sous l'hypothese de branchement fini). Nous utilisons les Processus Ordinaux de Klop, et, en derivant une notion de pouvoir de distinction d'une equivalence semantique, nous montrons dans un cadre parfaitement unifie que la bisimulation est plus fine que les logiques du temps arborescent, mais aussi que pour une large classe de combinateurs, les congruences engendrees par les logiques restent strictement plus faibles que la bisimulation. Dans la deuxieme partie de la these, nous considerons les modeles d'ordre partiel pour les systemes paralleles, dans lesquels on dispose d'une definition satisfaisante de l'operation de raffinement de programme (cette notion est liee a la methode classique de conception hierarchique des programmes). Parmi les equivalences semantiques de la litterature, la history preserving bisimulation est particulierement interessante car c'est une congruence pour l'operation de raffinement quand les systemes n'ont pas d'action invisible. En utilisant une caracterisation de cette equivalence en termes d'une bisimulation avant-arriere, nous exhibons deux caracterisations logiques, ainsi qu'un algorithme de traduction entre ces deux logiques. Nous etudions aussi plusieurs variantes de cette bisimulation avant-arriere. Enfin, nous elargissons le champ de travail en considerant les modeles d'ordre partiel avec actions invisibles. Nous montrons que la bisimulation avant-arriere susmentionnee, adaptee a ce cadre, coincide avec la branching bisimulation sur les arbres causaux, mais aussi avec deux nouvelles equivalences~: l'equivalence de mixed-ordering branching et la history preserving branching bisimulation, que nous etudions.

Page generated in 0.0434 seconds