• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 102
  • 30
  • 16
  • Tagged with
  • 150
  • 53
  • 51
  • 47
  • 42
  • 41
  • 29
  • 28
  • 27
  • 24
  • 21
  • 19
  • 18
  • 18
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Systèmes de fusion pour la segmentation hors-ligne de signaux GPS multi-porteuses

Boutoille, Stanislas 27 March 2007 (has links) (PDF)
Le système de positionnement GPS (Global Positioning System) permet à tout utilisateur de déterminer sa position sur la Terre. Un récepteur calcule les temps de propagation que mettent des ondes électromagnétiques émises par une constellation de satellites pour lui parvenir. L'estimation de ce temps de propagation est obtenue grâce à un signal discriminant, construit à partir de la corrélation des codes du signal reçu avec les codes générés par le récepteur. Actuellement, ces ondes ne sont émises que sur une unique fréquence porteuse pour une utilisation civile. Avec l'évolution future du système GPS, ainsi que la mise en place du système européen Galileo, plusieurs fréquences et donc plusieurs mesures de discriminants seront disponibles. Le travail présenté dans cette thèse a pour objet l'étude et la mise en oeuvre de méthodes de fusion appliquées à la segmentation hors-ligne des discriminants de code. Pour cela, plusieurs approches de segmentations bayésiennes sont étudiées. Une première technique de fusion hybride permet de déterminer la présence d'une rupture de stationnarité dans une fenêtre d'observation et sur plusieurs signaux. La seconde méthode de fusion, hors-ligne et multi-ruptures, permet de déterminer les ruptures de linéarités de signaux grâce à la minimisation d'une fonction de contraste pénalisée. Ces méthodes sont ensuite appliquées à l'estimation de la distance entre un satellite et un récepteur, et évaluées sur signaux réels pour le calcul de la position d'un récepteur toutes les millisecondes.
32

Modèles d'information et méthodes pour aider à la prise de décision en management de projets

Marle, Franck 25 November 2002 (has links) (PDF)
L'augmentation des contraintes de coût, délai et qualité, et de la complexité des projets rend de plus en plus difficile la visualisation, et donc la compréhension de ce qui se passe et de ce qu'il faut faire.<br />À partir d'informations incomplètes et peu sûres et sous une pression constante, il est difficile aujourd'hui de prendre des décisions fiables, notamment dans l'élaboration du projet, ce qui peut avoir de graves conséquences sur le succès du projet.<br />Le travail de recherche, appliqué chez PSA Peugeot-Citroën, a donné les résultats suivants :<br />Création d'un référentiel projet qui identifie les objets constituant un projet et son environnement, les interactions entre ces objets, à l'intérieur d'un projet ou entre projets ou entre projets et autres entités, et les caractéristiques internes de description de ces objets,<br />Description de trois opérateurs de base de l'élaboration de projet, qui contribuent à rationaliser les méthodes de conception de projet,<br />Intégration de ces informations et méthodes dans un support unique qui :<br />Formalise une information jusque là pas toujours disponible, sur les interactions que chacun a avec son environnement direct, et sur les caractéristiques décrivant la situation de chacun,<br />Structure cette information en un format standard, permettant une interactivité et une représentation graphique poussée tenant en un écran (1 A4),<br />Aide à la prise de décision; <br />par l'apport d'informations supplémentaires et plus fiables, <br />par l'apport de méthodologie pour le déroulement des processus de décision dans l'élaboration de projet, à savoir pour la décomposition, l'affectation et la gestion de l'état d'avancement. Cela fiabilise le processus de décision,<br />Met en relation des personnes et crée des échanges, voire des réseaux qui permettent d'étudier notamment des chaînes d'influence et de contribution, ce qui contribue à décloisonner les métiers et les supports de communication, du type organigramme des tâches ou planning,<br />Permet de mieux évaluer l'impact d'un changement ou d'une décision, par la visualisation des réactions en cascade initiées par les interactions identifiées,<br />Permet de partager les représentations et les perceptions des personnes, afin de profiter de la richesse qu'il y a à récupérer des autres.
33

Habitat, aménagement et gouvernance locale en Palestine : le cas de Naplouse

Abushosha, Suhail 15 May 2013 (has links) (PDF)
Ces dernières années, les villes Cisjordaniennes ont connu un développement urbain très dynamique mais cette urbanisation est aujourd'hui encadrée par des dispositifs législatifs et techniques hérités des périodes successives de colonisation qui ne sont plus adaptés à la ville contemporaine. Ce développement urbain anarchique s'est peu à peu inscrit dans les modes de pensée des acteurs locaux comme une nécessité justifiée par la situation géopolitique et ledéveloppement économique du pays. Le marché du logement s'est accru au point de devenir aujourd'hui une composante essentielle de la transformation des villes cisjordaniennes. Notre travail de recherche de six ans, dont les conclusions sont exposées dans cette thèse, a consisté à décrire puis analyser la réalité de ce marché qui soulève actuellement de nombreuses questions. En effet, le rythme soutenu de la construction de logements a laissé de côté des problématiques que nous avons souhaitées mettre en perspective ici. Ces processus interrogent tout d'abord la réalité et la cohérence de ce marché avec une offre qui doit correspondre à la demande tant sur le plan quantitatif que qualitatif. La situation du logement en Cisjordanie pose aussi la question de la structuration du tissu urbain qui transcende désormais les limites communales, les logiques foncières et les zones à risques. Enfin, se pose la question du cadre de vie pour les populations, le paysage urbain en devenir et la disparition d'une identité jusque là transmise en partie par l'habitat traditionnel. Ce travail de recherche appuyé par des entretiens et par la construction d'un véritable système d'informationsgéographiques a permis de vérifier l'adéquation entre d'un côté, le processus de production du logement et les volontés qui y sont associées, et de l'autre, la réalité du terrain et les enjeux réels du logement palestinien. L'absence de données géographiques et statistiques sur ce territoire nous a poussé à construire un outil complet d'analyse cartographique etdémographique permettant de décrire les phénomènes passés, d'analyser la situation présente et surtout de créer un modèle prospectif pour les horizons 2025 et 2050. A travers, le cas de la ville de Naplouse, il apparaît que les jeux d'acteurs constatés aujourd'hui, ne sont justifiés par aucune cohérence géographique ou démographique. A l'inverse, nous montrons ici que des logiques de marché intéressées sont à l'oeuvre, plaçant devant le fait accompli un cadrelégislatif et technique défaillant. Les conséquences, dès aujourd'hui visibles, constatées sur le terrain et cartographiées ici, interrogent sérieusement le caractère durable des villes cisjordaniennes. Ces résultats mettent en évidence un processus destructeur pour l'ensemble de l'armature urbaine de la Palestine et nécessite une réponse. La situation géopolitique et lagravité des risques identifiés nous poussent à proposer des préconisations pour la mise en place d'une véritable politique locale de l'habitat qui doit conditionner l'émergence d'une maîtrise urbaine. Portés par une gouvernance intercommunale à l'échelle de l'aire urbaine, nous décrivons un outil de planification et de programmation permettant à projet urbain depasser du marché du logement à la construction d'un véritable habitat
34

Fusion de mesures de déplacement issues d'imagerie SAR : application aux modélisations séismo-volcaniques

Yan, Yajing 08 December 2011 (has links) (PDF)
Suite aux lancements successifs de satellites pour l'observation de la Terre dotés de capteur SAR (Synthetic Aperture Radar), la masse de données SAR disponible est considérable. Dans ce contexte, la fusion des mesures de déplacement issues de l'imagerie SAR est prometteuse à la fois dans la communauté de la télédétection et dans le domaine géophysique. Dans cette optique, cette thèse propose d'élargir les approches conventionnelles en combinant les techniques de traitement des images SAR, les méthodes de fusion d'informations et la connaissance géophysique. Dans un premier temps, cette thèse a pour objectif d'étudier plusieurs stratégies de fusion, l'inversion jointe, la pré-fusion et la post-fusion, afin de réduire l'incertitude associée d'une part à l'estimation du déplacement en 3 dimensions (3D) à la surface de la Terre, d'autre part à la modélisation physique qui décrit la source en profondeur du déplacement observé en surface. Nous évaluons les avantages et les inconvénients de chacune des stratégies en ce qui concerne la réduction de l'incertitude et la robustesse vis à vis du bruit. Dans un second temps, nous visons à prendre en compte les incertitudes épistémiques, en plus des incertitudes aléatoires, présentes dans les mesures et proposons les approches classiques et floues basées sur la théorie des probabilités et la théorie des possibilités pour modéliser ces incertitudes. Nous analysons et mettons en évidence l'efficacité de chaque approche dans le cadre de chaque stratégie de fusion. La première application consiste à estimer les champs du déplacement 3D à la surface de la Terre dus au séisme du Cachemire en octobre 2005 et à l'éruption du Piton de la Fournaise en janvier 2004 sur l'île de la Réunion. La deuxième application porte sur la modélisation de la rupture de la faille en profondeur liée au séisme du Cachemire. Les principales avancées sont évaluées d'un point de vue méthodologique en traitement de l'information et d'un point de vue géophysique. Au niveau méthodologique, afin de lever les principales difficultées rencontrées pour l'application de l'interférométrie différentielle à la mesure du déplacement induit par le séisme du Cachemire, une stratégie de multi-échelles basée sur l'information a priori en utilisant les fréquences locales de phase interférométrique est adoptée avec succès. En ce qui concerne la gestion de l'incertitude, les incertitudes aléatoires et épistémiques sont analysées et identifiées dans les mesures du déplacement. La théorie des probabilités et la théorie des possibilités sont utilisées afin de modéliser et de gérer les propagations des incertitudes au cours de la fusion. En outre, les comparaisons entre les distributions de possibilité enrichissent les comparaisons faites simplement entre les valeurs et indiquent la pertinence des distributions de possibilité dans le contexte étudié. Par ailleurs, la pré-fusion et la post-fusion, 2 stratégies de fusion différentes de la stratégie d'inversion jointe couramment utilisée, sont proposées afin de réduire autant que possible les incertitudes hétérogènes présentes en pratique dans les mesures et pour contourner les principales limitations de la stratégie d'inversion jointe. Les bons cadres d'application de chaque approche de la gestion de l'incertitude sont mis en évidence dans le contexte de ces stratégies de fusion. Au niveau géophysique, l'application de l'interférométrie différentielle à l'étude du séisme du Cachemire est réalisée pour la première fois et compléte les études antérieures basées sur les mesures issues de la corrélation des images SAR et optiques, les mesures télésismiques et les mesures de terrain. L'interférométrie différentielle apporte une information précise sur le déplacement en champ lointain par rapport à la position de la faille. Ceci permet d'une part de réduire les incertitudes associées aux mesures de déplacement en surface et aux paramètres du modèle, et d'autre part de détecter les déplacements post-sismiques qui existent potentiellement dans les mesures cosismiques qui couvrent la période de mouvement post-sismique. Par ailleurs, la prise en compte de l'incertitude épistémique et la proposition de l'approche floue pour gérer ce type d'incertitude, fournissent une vision différente de l'incertitude de mesure connue par la plupart des géophysiciens et complétent la connaissance de l'incertitude aléatoire et l'application de la théorie des probabilités dans ce domaine. En particulier, la gestion de l'incertitude par la théorie des possibilités permet de contourner le problème de sous-estimation d'incertitude par la théorie des probabilités. Enfin, la comparaison du déplacement mesuré par les images SAR avec le déplacement mesuré par les images optiques et le déplacement issu des mesures sur le terrain révèle toute la difficulté d'interpréter différentes sources de données plus ou moins compatibles entre elles. Les outils développés dans le cadre de cette thèse sont intégrés dans le package MDIFF (Methods of Displacement Information Fuzzy Fusion) dans l'ensemble des "EFIDIR Tools" distribués sous licence GPL.
35

Informativeness of bank financing announcements and relationship banking : models and tests /

Dai, Jie. January 2005 (has links)
Thèse (Ph. D.)--Université Laval, 2005. / Bibliogr.: f. 97-99. Publié aussi en version électronique.
36

Fusion d'informations multi-capteurs pour la commande du robot humanoïde NAO / Multi-sensor information fusion : application for the humanoid NAO robot

Nguyen, Thanh Long 05 April 2017 (has links)
Dans cette thèse nous montrons comment améliorer la perception d’un robot humanoïde NAO en utilisant la fusion multi-capteurs. Nous avons proposé deux scénarios: la détection de la couleur et la reconnaissance d’objets colorés. Dans ces deux situations, nous utilisons la caméra du robot et nous ajoutons des caméras externes pour augmenter la fiabilité de la détection car nous nous plaçons dans un contexte expérimental dans lequel l’environnement est non contrôlé. Pour la détection de la couleur, l’utilisateur demande au robot NAO de trouver un objet coloré. La couleur est décrite par des termes linguistiques tels que: rouge, jaune, .... Le principal problème à résoudre est la façon dont le robot reconnaît les couleurs. Pour ce faire, nous avons proposé un système Flou de Sugeno pour déterminer la couleur demandée. Pour simplifier, les cibles choisies sont des balles colorées. Nous avons appliqué la transformation de Hough pour extraire les valeurs moyennes des pixels des balles détectées. Ces valeurs sont utilisées comme entrées pour le système Flou. Les fonctions d'appartenance et les règles d'inférence du système sont construites sur la base de l'évaluation perceptive de l'humain. La sortie du système Flou est une valeur numérique indiquant le nom de la couleur. Une valeur de seuil est introduite pour définir la zone de décision pour chaque couleur. Si la sortie floue tombe dans cet intervalle, alors la couleur est considérée comme la vraie sortie du système. Nous sommes dans un environnement non contrôlé dans lequel il y a des incertitudes et des imprécisions (variation de la lumière, qualité des capteurs, similarité entre couleurs). Ces facteurs affectent la détection de la couleur par le robot. L’introduction du seuil qui encadre la couleur, conduit à un compromis entre l'incertitude et la fiabilité. Si cette valeur est faible, les décisions sont plus fiables, mais le nombre de cas incertains augmente, et vice et versa. Dans nos expérimentations, on a pris une valeur de seuil petite, de sorte que l'incertitude soit plus importante, et donc la prise de décision par un capteur unique, celui de NAO, soit faible. Nous proposons d'ajouter d’autres caméras 2D dans le système afin d’améliorer la prise de décision par le robot NAO. Cette prise de décision résulte de la fusion des sorties des caméras en utilisant la théorie des fonctions de croyance pour lever les ambiguïtés. La valeur de seuil est prise en compte lors de la construction des valeurs de masse à partir de la sortie Floue de Sugeno de chaque caméra. La règle de combinaison de Dempster-Shafer et le maximum de probabilité pignistique sont choisis dans la méthode. Selon nos expériences, le taux de détection du système de fusion est grandement amélioré par rapport au taux de détection de chaque caméra prise individuellement. Nous avons étendu cette méthode à la reconnaissance d’objets colorés en utilisant des caméras hétérogènes 2D et 3D. Pour chaque caméra, nous extrayons vecteurs de caractéristiques (descripteurs SURF et SHOT) des objets, riches en informations caractérisant les modèles d'objets. Sur la base de la correspondance avec des modèles formés et stockés dans la base d'apprentissage, chaque vecteur de caractéristiques de l'objet détecté vote pour une ou plusieurs classes appartenant à l'ensemble de puissance. Nous construisons une fonction de masse après une étape de normalisation. Dans cette expérimentation, la règle de combinaison de Dempster-Shafer et le maximum de probabilité pignistique sont utilisés pour prendre la décision finale. A la suite des trois expérimentations réalisées, le taux de reconnaissance du système de fusion est bien meilleur que le taux de décision issu de chaque caméra individuellement. Nous montrons ainsi que la fusion multi-capteurs permet d’améliorer la prise de décision du robot. / Being interested in the important role of robotics in human life, we do a research about the improvement in reliability of a humanoid robot NAO by using multi-sensor fusion. In this research, we propose two scenarios: the color detection and the object recognition. In these two cases, a camera of the robot is used in combination with external cameras to increase the reliability under non-ideal working conditions. For the color detection, the NAO robot is requested to find an object whose color is described in human terms such as: red, yellow, brown, etc. The main problem to be solved is how the robot recognizes the colors as well as the human perception does. To do that, we propose a Fuzzy Sugeno system to decide the color of a detected target. For simplicity, the chosen targets are colored balls, so that the Hough transformation is employed to extract the average pixel values of the detected ball, then these values are used as the inputs for the Fuzzy system. The membership functions and inference rules of the system are constructed based on perceptual evaluation of human. The output of the Fuzzy system is a numerical value indicating a color name. Additionally, a threshold value is introduced to define the zone of decision for each color. If the Fuzzy output falls into a color interval constructed by the threshold value, that color is considered to be the output of the system. This is considered to be a good solution in an ideal condition, but not in an environment with uncertainties and imprecisions such as light variation, or sensor quality, or even the similarity among colors. These factors really affect the detection of the robot. Moreover, the introduction of the threshold value also leads to a compromise between uncertainty and reliability. If this value is small, the decisions are more reliable, but the number of uncertain cases are increases, and vice versa. However, the threshold value is preferred to be small after an experimental validation, so the need for a solution of uncertainty becomes more important. To do that, we propose adding more 2D cameras into the detection system of the NAO robot. Each camera applies the same method as described above, but their decisions are fused by using the Dempster-Shafer theory in order to improve the detection rate. The threshold value is taken into account to construct mass values from the Sugeno Fuzzy output of each camera. The Dempster-Shafer's rule of combination and the maximum of pignistic probability are chosen in the method. According to our experimens, the detection rate of the fusion system is really better than the result of each individual camera. We extend this recognition process for colored object recognition. These objects are previously learned during the training phase. To challenge uncertainties and imprecisions, the chosen objects look similar in many points: geometrical form, surface, color, etc. In this scenario, the recognition system has two 2D cameras: one of NAO and one is an IP camera, then we add a 3D camera to take the advantages of depth information. For each camera, we extract feature points of the objects (SURF descriptor for 2D data, and the SHOT descriptor for 3D data). To combine the cameras in the recognition system, the Dempster-Shafer theory is again employed for the fusion. Based on the correspondence to trained models stored in the learning base, each feature point of the detected object votes for one or several classes i.e. a hypothesis in the power set. We construct a mass function after a normalization step. In this case, the Dempster-Shafer's rule of combination and the maximum of pignistic probability are employed to make the final decision. After doing three experiments, we conclude that the recognition rate of the fusion system is much better than the rate of each individual camera, from that we confirm the benefits of multi-sensor fusion for the robot's reliability.
37

Fusion de mesures de déplacement issues d'imagerie SAR : application aux modélisations séismo-volcaniques / Fusion of displacement measurements from SAR imagery : application to seismo-volcanic modeling

Yan, Yajing 08 December 2011 (has links)
Suite aux lancements successifs de satellites pour l'observation de la Terre dotés de capteur SAR (Synthetic Aperture Radar), la masse de données SAR disponible est considérable. Dans ce contexte, la fusion des mesures de déplacement issues de l'imagerie SAR est prometteuse à la fois dans la communauté de la télédétection et dans le domaine géophysique. Dans cette optique, cette thèse propose d'élargir les approches conventionnelles en combinant les techniques de traitement des images SAR, les méthodes de fusion d'informations et la connaissance géophysique. Dans un premier temps, cette thèse a pour objectif d'étudier plusieurs stratégies de fusion, l'inversion jointe, la pré-fusion et la post-fusion, afin de réduire l'incertitude associée d'une part à l'estimation du déplacement en 3 dimensions (3D) à la surface de la Terre, d'autre part à la modélisation physique qui décrit la source en profondeur du déplacement observé en surface. Nous évaluons les avantages et les inconvénients de chacune des stratégies en ce qui concerne la réduction de l'incertitude et la robustesse vis à vis du bruit. Dans un second temps, nous visons à prendre en compte les incertitudes épistémiques, en plus des incertitudes aléatoires, présentes dans les mesures et proposons les approches classiques et floues basées sur la théorie des probabilités et la théorie des possibilités pour modéliser ces incertitudes. Nous analysons et mettons en évidence l'efficacité de chaque approche dans le cadre de chaque stratégie de fusion. La première application consiste à estimer les champs du déplacement 3D à la surface de la Terre dus au séisme du Cachemire en octobre 2005 et à l'éruption du Piton de la Fournaise en janvier 2004 sur l'île de la Réunion. La deuxième application porte sur la modélisation de la rupture de la faille en profondeur liée au séisme du Cachemire. Les principales avancées sont évaluées d'un point de vue méthodologique en traitement de l'information et d'un point de vue géophysique. Au niveau méthodologique, afin de lever les principales difficultées rencontrées pour l'application de l'interférométrie différentielle à la mesure du déplacement induit par le séisme du Cachemire, une stratégie de multi-échelles basée sur l'information a priori en utilisant les fréquences locales de phase interférométrique est adoptée avec succès. En ce qui concerne la gestion de l'incertitude, les incertitudes aléatoires et épistémiques sont analysées et identifiées dans les mesures du déplacement. La théorie des probabilités et la théorie des possibilités sont utilisées afin de modéliser et de gérer les propagations des incertitudes au cours de la fusion. En outre, les comparaisons entre les distributions de possibilité enrichissent les comparaisons faites simplement entre les valeurs et indiquent la pertinence des distributions de possibilité dans le contexte étudié. Par ailleurs, la pré-fusion et la post-fusion, 2 stratégies de fusion différentes de la stratégie d'inversion jointe couramment utilisée, sont proposées afin de réduire autant que possible les incertitudes hétérogènes présentes en pratique dans les mesures et pour contourner les principales limitations de la stratégie d'inversion jointe. Les bons cadres d'application de chaque approche de la gestion de l'incertitude sont mis en évidence dans le contexte de ces stratégies de fusion. Au niveau géophysique, l'application de l'interférométrie différentielle à l'étude du séisme du Cachemire est réalisée pour la première fois et compléte les études antérieures basées sur les mesures issues de la corrélation des images SAR et optiques, les mesures télésismiques et les mesures de terrain. L'interférométrie différentielle apporte une information précise sur le déplacement en champ lointain par rapport à la position de la faille. Ceci permet d'une part de réduire les incertitudes associées aux mesures de déplacement en surface et aux paramètres du modèle, et d'autre part de détecter les déplacements post-sismiques qui existent potentiellement dans les mesures cosismiques qui couvrent la période de mouvement post-sismique. Par ailleurs, la prise en compte de l'incertitude épistémique et la proposition de l'approche floue pour gérer ce type d'incertitude, fournissent une vision différente de l'incertitude de mesure connue par la plupart des géophysiciens et complétent la connaissance de l'incertitude aléatoire et l'application de la théorie des probabilités dans ce domaine. En particulier, la gestion de l'incertitude par la théorie des possibilités permet de contourner le problème de sous-estimation d'incertitude par la théorie des probabilités. Enfin, la comparaison du déplacement mesuré par les images SAR avec le déplacement mesuré par les images optiques et le déplacement issu des mesures sur le terrain révèle toute la difficulté d'interpréter différentes sources de données plus ou moins compatibles entre elles. Les outils développés dans le cadre de cette thèse sont intégrés dans le package MDIFF (Methods of Displacement Information Fuzzy Fusion) dans l'ensemble des "EFIDIR Tools" distribués sous licence GPL. / Following the successive launches of satellites for Earth observation with SAR (Synthetic Aperture Radar) sensor, the volume of available radar data is increasing considerably. In this context, fusion of displacement measurements from SAR imagery is promising both in the community of remote sensing and in geophysics. With this in mind, this Ph.D thesis proposes to extend conventional approaches by combining SAR image processing techniques, information fusion methods and the knowledge on geophysics. First, this Ph.D thesis aims to explore several fusion strategies, joint inversion, pre-fusion and post-fusion, to reduce the uncertainty associated on the one hand to the estimation of the 3-dimensional (3D) displacement at the Earth's surface, on the other hand to physical modeling that describes the source in depth of the displacement observed at the Earth's surface. We evaluate advantages and disadvantages of each fusion strategy in terms of reducing uncertainty and of robustness against noise. Second, we aim to take account of epistemic uncertainty, in addition to the random uncertainty present in the measurements and propose the conventional and fuzzy approaches based on probability theory and possibility theory respectively to model these uncertainties. We analyze and highlight the efficiency of each approach in context of each fusion strategy. The first application consists of estimating the 3D displacement fields at the Earth's surface due to the Kashmir earthquake in October 2005 and the eruption of Piton de la Fournaise in January 2004 on Reunion Island. The second application involves the modeling of the fault rupture in depth related to the Kashmir earthquake. The main achievements and contributions are evaluated from a methodological point of view in information processing and from a geophysical point of view. In the methodological view, in order to address the major difficulties encountered in the application of differential interferometry for measuring the displacement induced by the Kashmir earthquake, a multi-scale strategy based on prior information issued from a deformation model using local frequencies of interferometric phase is adopted successfully. Regarding the measurement uncertainty management, both random and epistemic uncertainties are analyzed and identified in the displacement measurements. The conventional approach and a fuzzy approach based on respectively probability theory and possibility theory are proposed to model uncertainties and manage the uncertainty propagation in the fusion system. In addition, comparisons between possibility distributions enrich the comparisons made simply between displacement values ​​and indicate the relevance of possibility distributions in the considered context. Furthermore, pre-fusion and post-fusion, two fusion strategies different from the commonly used fusion strategy of joint inversion, are proposed to reduce heterogeous uncertainties present in practice in the measurements and to get around the main limitations of joint inversion. Appropriated conditions of the application of each uncertainty management approach are highlighted in the context of these fusion strategies. In the geophysical view, the application of differential interferometry to the Kashmir earthquake is performed successfully for the first time and it completes previous studies based on measurements from the correlation of SAR and optical images, teleseismic measurements and in situ field measurements. Differential interferometry provides accurate displacement information in the far field relative to the fault position. This allows on the one hand reducing uncertainties associated with surface displacement measurements and with model parameters, on the other hand detecting post-seismic movements that exist potentially in the used coseismic measurements covering the post-seismic period. Moreover, taking into consideration of epistemic uncertainty and the proposition of a fuzzy approach for its management, provide a different view of the measurement uncertainty known by most geophysicists and complete the knowledge of the random uncertainty and the application of probability theory in this domain. In particular, the management of uncertainty by possibility theory allows overcoming the problem of under-estimation of uncertainty by probability theory. Finally, comparisons of the displacement measured by SAR images with the displacement measured by optical images and the displacement from in situ field measurements reveal the difficulty to interpret different data sources more or less compatible among them. The tools developed during this Ph.D thesis are included in the MDIFF (Methods of Displacement Information Fuzzy Fusion) package in "EFIDIR Tools" distributed under the GPL lisence.
38

Pharmacoépidémiologie de la thrombopénie immunologique en France : suivi de cohorte issue du Système national d'information inter-régimes de l'Assurance maladie et création d'un registre clinique / Pharmacoepidemiology of immune thrombocytopenia in France : follow-up of a cohort built in the French national health insurance database and creation of a clinical registry

Moulis, Guillaume 05 January 2016 (has links)
La thrombopénie immunologique (TI) est une maladie auto-immune rare. Son épidémiologie est mal connue. Le traitement de la TI aiguë repose sur les corticoïdes et les immunoglobulines. Passée la phase aiguë, plusieurs traitements sont possibles, dont la splénectomie, le rituximab et les agonistes du récepteur à la thrombopoiétine. L'exposition aux traitements de la TI en vie réelle n'a jamais été évaluée, et leur risque infectieux jamais comparé. Des vaccinations sont recommandées avant le rituximab et la splénectomie, mais la couverture vaccinale n'est pas connue. Nous avons constitué deux matériels complémentaires : 1) la cohorte French Adult Immune Thrombocytopenia : a pHarmacoepidemiological study (FAITH) est la cohorte des patients adultes incidents ayant une TI primaire traités de façon persistante (plus de 3 mois), bâtie dans le Système National d'Information Inter-régimes de l'Assurance Maladie (SNIIRAM) au niveau national ; 2) le registre Cytopénie Auto-immune : Registre Midi-PyrénéEN (CARMEN) est une étude observationnelle en vie réelle suivant les patients incidents de TI dans la région Midi-Pyrénées. Grâce à ces deux cohortes, nous avons décrit l'épidémiologie de la TI incidente en France, l'exposition aux traitements et la couverture vaccinale chez l'adulte, et évalué le risque infectieux des traitements et l'effet protecteur des vaccins. / Immune thrombocytopenia (ITP) is a rare autoimmune bleeding disorder. ITP epidemiology is not well known. ITP treatment is based on glucocorticoids, and intravenous polyvalent immunoglobulin in case of severe bleeding. ITP becomes persistent (lasting more than 3 months) or chronic (more than 12 months) in about 70% of adults. In that case, non-corticosteroid treatments are suggested, mostly splenectomy, rituximab and thrombopoietin receptor agonists. The use of these treatments have never been assessed in the real life practice as well as their effectiveness and safety, particularly as regards the risk of infection. Vaccinations are recommended before splenectomy or rituximab. However, the vaccination rates and their effectiveness has not been assessed. We build two complementary materials: 1) the French Adult Immune Thrombocytopenia: a pHarmacoepidemiological study (FAITH) is the cohort of all incident primary ITP adults persistently treated (more than 3 months), built in the French health Insurance system database (Système national d'information inter-régimes de l'Assurance Maladie, SNIIRAM) at the national level; 2) the Cytopénie Auto-immune : Registre Midi-PyrénéEN (CARMEN) registry that includes and follows all incident ITP adults in the French Midi-Pyrénées region. Thanks to these two cohorts, we could assess the epidemiology of incident ITP in France; describe the exposure ITP treatments; assess the vaccination coverage in rituximab treated and splenectomized patients in France; and assess the risk of infection according to ITP treatments and the protective effect of the vaccines in this population.
39

Multi-scale computational rhythm analysis : a framework for sections, downbeats, beats, and microtiming / Analyse numérique multi-échelle du rythme musical : un cadre unifié pour les sections, premiers temps, temps et microtiming

Fuentes, Magdalena 12 November 2019 (has links)
La modélisation computationnelle du rythme a pour objet l'extraction et le traitement d’informations rythmiques à partir d’un signal audio de musique. Cela s'avère être une tâche extrêmement complexe car, pour traiter un enregistrement audio réel, il faut pouvoir gérer sa complexité acoustique et sémantique à plusieurs niveaux de représentation. Les méthodes d’analyse rythmique existantes se concentrent généralement sur l'un de ces aspects à la fois et n’exploitent pas la richesse de la structure musicale, ce qui compromet la cohérence musicale des estimations automatiques. Dans ce travail, nous proposons de nouvelles approches tirant parti des informations multi-échelles pour l'analyse automatique du rythme. Nos modèles prennent en compte des interdépendances intrinsèques aux signaux audio de musique, en permettant ainsi l’interaction entre différentes échelles de temps et en assurant la cohérence musicale entre elles. En particulier, nous effectuons une analyse systématique des systèmes de l’état de l’art pour la détection des premiers temps, ce qui nous conduit à nous tourner vers des architectures convolutionnelles et récurrentes qui exploitent la modélisation acoustique à court et long terme; nous introduisons un modèle de champ aléatoire conditionnel à saut de chaîne pour la détection des premiers temps. Ce système est conçu pour tirer parti des informations de structure musicale (c'est-à-dire des répétitions de sections musicales) dans un cadre unifié. Nous proposons également un modèle linguistique pour la détection conjointe des temps et du micro-timing dans la musique afro-latino-américaine. Nos méthodes sont systématiquement évaluées sur diverses bases de données, allant de la musique occidentale à des genres plus spécifiques culturellement, et comparés à des systèmes de l’état de l’art, ainsi qu’à des variantes plus simples. Les résultats globaux montrent que nos modèles d’estimation des premiers temps sont aussi performants que ceux de l’état de l'art, tout en étant plus cohérents sur le plan musical. De plus, notre modèle d’estimation conjointe des temps et du microtiming représente une avancée vers des systèmes plus interprétables. Les méthodes présentées ici offrent des alternatives nouvelles et plus holistiques pour l'analyse numérique du rythme, ouvrant des perspectives vers une analyse automatique plus complète de la musique. / Computational rhythm analysis deals with extracting and processing meaningful rhythmical information from musical audio. It proves to be a highly complex task, since dealing with real audio recordings requires the ability to handle its acoustic and semantic complexity at multiple levels of representation. Existing methods for rhythmic analysis typically focus on one of those levels, failing to exploit music’s rich structure and compromising the musical consistency of automatic estimations. In this work, we propose novel approaches for leveraging multi-scale information for computational rhythm analysis. Our models account for interrelated dependencies that musical audio naturally conveys, allowing the interplay between different time scales and accounting for music coherence across them. In particular, we conduct a systematic analysis of downbeat tracking systems, leading to convolutional-recurrent architectures that exploit short and long term acoustic modeling; we introduce a skip-chain conditional random field model for downbeat tracking designed to take advantage of music structure information (i.e. music sections repetitions) in a unified framework; and we propose a language model for joint tracking of beats and micro-timing in Afro-Latin American music. Our methods are systematically evaluated on a diverse group of datasets, ranging from Western music to more culturally specific genres, and compared to state-of-the-art systems and simpler variations. The overall results show that our models for downbeat tracking perform on par with the state of the art, while being more musically consistent. Moreover, our model for the joint estimation of beats and microtiming takes further steps towards more interpretable systems. The methods presented here offer novel and more holistic alternatives for computational rhythm analysis, towards a more comprehensive automatic analysis of music.
40

Enforcing information-flow policies by combining static and dynamic analyses

Bedford, Andrew 22 February 2019 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2018-2019 / Le contrôle de flot d’information est une approche prometteuse permettant aux utilisateurs decontrôler comment une application utilise leurs informations confidentielles. Il reste toutefois plusieurs défis à relever avant que cette approche ne puisse être utilisée par le grand public. Plus spécifiquement, il faut que ce soit efficace, facile à utiliser, que ça introduise peu de surcharge à l’exécution, et que ça fonctionne sur des applications et langages réels. Les contributions présentées dans cette thèse nous rapprochent de ces buts. Nous montrons qu’une combinaison d’analyse statique et dynamique permet d’augmenter l’efficacité d’un mécanisme de contrôle de flot d’information tout en minimisant la surcharge introduite. Notre méthode consiste en trois étapes : (1) à l’aide d’analyse statique, vérifier que le programme ne contient pas de fuites d’information évidentes; (2) instrumenter l’application (c.-à-d., insérer des commandes) pour prévenir les fuites d’information confidentielles à l’exécution; (3) évaluer partiellement le programme pour diminuer l’impact de l’instrumentation sur le temps d’exécution. Pour aider les utilisateurs à identifier les applications qui sont les plus susceptibles de faire fuirde l’information confidentielle (c.à.d., les applications malicieuses), nous avons développé un outil de détection de maliciel pour Android. Il a une précision de 94% et prend moins d’une seconde pour effectuer son analyse.Pour permettre aux utilisateurs de prioriser l’utilisation de ressources pour protéger l’information provenant de certaines sources, nous introduisons le concept defading labels. Pour permettre aux chercheurs de développer plus facilement et rapidement des mécanismes de contrôle de flot d’informations fiables, nous avons développé un outil permettant de générer automatiquement la spécification d’un mécanisme à partir de la spécification d’un langage de programmation. Pour permettre aux chercheurs de plus facilement communiquer leurs preuves écrites en Coq, nous avons développé un outil permettant de générer des versions en langue naturelle de preuves Coq. / Information-flow control is a promising approach that enables users to track and control how applications use their sensitive information. However, there are still many challenges to be addressed before it can be used by mainstream users. Namely, it needs to be effective, easy to use, lightweight, and support real applications and languages. The contributions presented in this thesis aim to bring us closer to these goals. We show that a combination of static and dynamic analysis can increase the overall effectiveness of information-flow control without introducing too much overhead. Our method consists of three steps: (1) using static analysis, we verify that the program does not contain anyobvious information leaks; (2) we instrument the program to prevent less obvious leaks from occurring at runtime; (3) we partially evaluate the program to minimize the instrumentation’simpact on execution time. We present a static-based malware detection tool for Android that allows users to easily identify the applications that are most likely to leak sensitive information (i.e., maliciousapplications). It boasts an accuracy of 94% and takes less than a second to perform its analysis. We introduce the concept of fading-labels, which allows information-flow control mechanisms to prioritize the usage of resources to track information from certain sources. We present a tool that can, given a programming language’s specification, generate information-flow control mechanism specifications. This should allow researchers to more easily develop information-flow control mechanisms. Finally, we present a tool that can generate natural-language versions of Coq proofs so that researchers may more easily communicate their Coq proofs.

Page generated in 0.1068 seconds