• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 46
  • 14
  • 4
  • Tagged with
  • 62
  • 62
  • 24
  • 21
  • 17
  • 16
  • 10
  • 9
  • 9
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Caractérisation, Analyse et Modélisation statistiques de fragments osseux crâniens pour la prédiction de paramètres mécaniques lésionnels.

Rambaud, Fabienne 14 December 2007 (has links) (PDF)
Les accidents de la circulation, fléau de la société, représentent un sérieux problème de santé. En France, 105980 usagers de la route ont été blessés au cours de l'année 2006, et 4942 tués. La tête représente un des segments corporels les plus vulnérables. <br />Cette thèse est une contribution à l'amélioration de la connaissance du comportement mécanique des os crâniens, en particulier dans le contexte accidentologique. <br />Les mécanismes de fractures du crâne ont été étudiés par un grand nombre de chercheurs. De multiples techniques et approches ont été élaborées pour la modélisation du comportement mécanique des os crâniens ; ces modèles ne permettent cependant pas de pallier aux problèmes de dispersions inter et intra individuelles propres aux sujets humains.<br />Dans un premier temps, selon un protocole expérimental, 289 éprouvettes prélevées sur différentes zones osseuses de 17 calottes crâniennes humaines sont testées en essais de flexion trois points quasi-statiques. La force de rupture obtenue à partir des courbes effort/déplacement représente le paramètre mécanique à prédire dans nos modèles statistiques. A partir de mesures morphométriques obtenues par analyse d'images et tests expérimentaux, 15 paramètres morphométriques et densitométriques sont définis pour chaque éprouvette.<br /> Ensuite, une analyse de données exploratoire multidimensionnelle est réalisée sur le tableau de données préalablement fuzzifiées. Cette analyse a permis de nous orienter sur les liaisons linéaires et non linéaires existant entre les paramètres. Des régressions multiples linéaires et curvilinéaires sont réalisées par ajustement des paramètres jugés pertinents. Les modèles sont choisis par la méthode de validation croisée, et par une étude complète de diagnostic des résidus.<br />L'élaboration de modèles statistiques a permis, selon un sexe et une classe d'âge, de prédire le comportement mécanique de fragments osseux crâniens soumis à des sollicitations de flexion quasi-statique de manière personnalisée.
12

Statistical methods for analysis and correction of high-throughput screening data

Dragiev, Plamen 11 1900 (has links) (PDF)
Durant le criblage à haut débit (High-throughput screening, HTS), la première étape dans la découverte de médicaments, le niveau d'activité de milliers de composés chimiques est mesuré afin d'identifier parmi eux les candidats potentiels pour devenir futurs médicaments (i.e., hits). Un grand nombre de facteurs environnementaux et procéduraux peut affecter négativement le processus de criblage en introduisant des erreurs systématiques dans les mesures obtenues. Les erreurs systématiques ont le potentiel de modifier de manière significative les résultats de la sélection des hits, produisant ainsi un grand nombre de faux positifs et de faux négatifs. Des méthodes de correction des données HTS ont été développées afin de modifier les données reçues du criblage et compenser pour l'effet négatif que les erreurs systématiques ont sur ces données (Heyse 2002, Brideau et al. 2003, Heuer et al. 2005, Kevorkov and Makarenkov 2005, Makarenkov et al. 2006, Malo et al. 2006, Makarenkov et al. 2007). Dans cette thèse, nous évaluons d'abord l'applicabilité de plusieurs méthodes statistiques servant à détecter la présence d'erreurs systématiques dans les données HTS expérimentales, incluant le x2 goodness-of-fit test, le t-test et le test de Kolmogorov-Smirnov précédé par la méthode de Transformation de Fourier. Nous montrons premièrement que la détection d'erreurs systématiques dans les données HTS brutes est réalisable, de même qu'il est également possible de déterminer l'emplacement exact (lignes, colonnes et plateau) des erreurs systématiques de l'essai. Nous recommandons d'utiliser une version spécialisée du t-test pour détecter l'erreur systématique avant la sélection de hits afin de déterminer si une correction d'erreur est nécessaire ou non. Typiquement, les erreurs systématiques affectent seulement quelques lignes ou colonnes, sur certains, mais pas sur tous les plateaux de l'essai. Toutes les méthodes de correction d'erreur existantes ont été conçues pour modifier toutes les données du plateau sur lequel elles sont appliquées et, dans certains cas, même toutes les données de l'essai. Ainsi, lorsqu'elles sont appliquées, les méthodes existantes modifient non seulement les mesures expérimentales biaisées par l'erreur systématique, mais aussi de nombreuses données correctes. Dans ce contexte, nous proposons deux nouvelles méthodes de correction d'erreur systématique performantes qui sont conçues pour modifier seulement des lignes et des colonnes sélectionnées d'un plateau donné, i.e., celles où la présence d'une erreur systématique a été confirmée. Après la correction, les mesures corrigées restent comparables avec les valeurs non modifiées du plateau donné et celles de tout l'essai. Les deux nouvelles méthodes s'appuient sur les résultats d'un test de détection d'erreur pour déterminer quelles lignes et colonnes de chaque plateau de l'essai doivent être corrigées. Une procédure générale pour la correction des données de criblage à haut débit a aussi été suggérée. Les méthodes actuelles de sélection des hits en criblage à haut débit ne permettent généralement pas d'évaluer la fiabilité des résultats obtenus. Dans cette thèse, nous décrivons une méthodologie permettant d'estimer la probabilité de chaque composé chimique d'être un hit dans le cas où l'essai contient plus qu'un seul réplicat. En utilisant la nouvelle méthodologie, nous définissons une nouvelle procédure de sélection de hits basée sur la probabilité qui permet d'estimer un niveau de confiance caractérisant chaque hit. En plus, de nouvelles mesures servant à estimer des taux de changement de faux positifs et de faux négatifs, en fonction du nombre de réplications de l'essai, ont été proposées. En outre, nous étudions la possibilité de définir des modèles statistiques précis pour la prédiction informatique des mesures HTS. Remarquons que le processus de criblage expérimental est très coûteux. Un criblage virtuel, in silico, pourrait mener à une baisse importante de coûts. Nous nous sommes concentrés sur la recherche de relations entre les mesures HTS expérimentales et un groupe de descripteurs chimiques caractérisant les composés chimiques considérés. Nous avons effectué l'analyse de redondance polynomiale (Polynomial Redundancy Analysis) pour prouver l'existence de ces relations. En même temps, nous avons appliqué deux méthodes d'apprentissage machine, réseaux de neurones et arbres de décision, pour tester leur capacité de prédiction des résultats de criblage expérimentaux. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : criblage à haut débit (HTS), modélisation statistique, modélisation prédictive, erreur systématique, méthodes de correction d'erreur, méthodes d'apprentissage automatique
13

Statistical methodologies for modelling the impact of process variability in ultra-deep-submicron SRAMs / Méthodologie statistique de modélisation pour l'optimisation de l'offre SRAM 'basse puissance'

Akyel, Kaya Can 17 December 2014 (has links)
La miniaturisation des transistors vers ses ultimes limites physiques a exacerbé les effets négatifs qui sont liées à la granularité de la matière. Plusieurs nouvelles sources de variabilités affectent les transistors qui, bien qu'identiquement dessinés, montrent des caractéristiques électriques qui sont variables entre eux et entre différents moments de leur utilisation. Les circuits de mémoire SRAM, qui sont conçues avec des règles de dessin parmi le plus agressives et contiennent un nombre de transistors très élevé, sont menacés en particulier par ce phéomène de variabilité qui représente le plus grand obstacle non seulement pour la réduction de la surface d'un point mémoire SRAM, mais aussi pour la réduction de son tension d'alimentation. L'optimisation des circuits SRAM est devenue une tache cruciale afin de répondre à la fois aux demandes d'augmentation de densité et de la réduction de la consommation, donc une méthodologie statistique permettant de modéliser an amont l'impact de la variabilité à travers des simulations SPICE est devenue un besoin obligatoire. Les travaux de recherches présentés se concentrent sur le développement des nouvelles méthodologies pour la simulation des points mémoires sous l'impact de la variabilité, dans le but d'accomplir une modélisation précise de la tension d'alimentation minimale d'un SRAM quelques soit les conditions d'opérations. La variabilité dynamique liée au bruit RTS qui cause le changement des caractéristiques électrique des transistors au cours de leurs opérations est également étudiée avec un effort particulier de modélisation. Ce travail a donné lieu à de nombreuses publications internationales et à un brevet. Aujourd'hui cette méthodologie est retenue par STMicroelectronics et est utilisé dans la phase d'optimisation des plans mémoires SRAM. / The downscaling of device geometry towards its physical limits exacerbates the impact of the inevitable atomistic phenomena tied to matter granularity. In this context, many different variability sources raise and affect the electrical characteristics of the manufactured devices. The variability-aware design methodology has therefore become a popular research topic in the field of digital circuit design, since the increased number of transistors in the modern integrated circuits had led to a large statistical variability affecting dramatically circuit functionality. Static Random Access Memory (SRAM) circuits which are manufactured with the most aggressive design rules in a given technology node and contain billions of transistor, are severely impacted by the process variability which stands as the main obstacle for the further reduction of the bitcell area and of its minimum operating voltage. The reduction of the latter is a very important parameter for Low-Power design, which is one of the most popular research fields of our era. The optimization of SRAM bitcell design therefore has become a crucial task to guarantee the good functionality of the design at an industrial manufacturing level, in the same time answering to the high density and low power demands. However, the long time required by each new technology node process development means a long waiting time before obtaining silicon results, which is in cruel contrast with the fact that the design optimization has to be started as early as possible. An efficient SPICE characterization methodology for the minimum operating voltage of SRAM circuits is therefore a mandatory requirement for design optimization. This research work concentrates on the development of the new simulation methodologies for the modeling of the process variability in ultra-deep-submicron SRAMs, with the ultimate goal of a significantly accurate modeling of the minimum operating voltage Vmin. A particular interest is also carried on the time-dependent sub-class of the process variability, which appears as a change in the electrical characteristics of a given transistor during its operation and during its life-time. This research work has led to many publications and one patent application. The majority of findings are retained by STMicroelectronics SRAM development team for a further use in their design optimization flow.
14

Le microclimat urbain à haute résolution : mesures et modélisation / The urban microclimate at high resolution : measurement and modeling

Le Bras, Julien 24 June 2015 (has links)
Le confort thermique des habitants d'une ville est principalement affecté par l'îlot de chaleur urbain. Ce phénomène se traduit par des températures plus chaudes en ville que dans sa périphérique, principalement la nuit. Il est causé par les relâchements de chaleur stockée dans les bâtiments et la route le jour mais aussi par des sources anthropiques comme le chauffage ou le trafic routier. L'îlot de chaleur urbain peut atteindre jusqu'à 10°C la nuit pour les plus grandes mégapoles. Mais au cœur d'un quartier, la variabilité de la température, en fonction des ombrages ou de la présence d'eau et de parcs peut aussi atteindre quelques degrés. Elle peut donc être de la même amplitude que l'îlot de chaleur urbain. L'objectif de cette thèse est d'étudier la variabilité de la température à l'échelle de la ville et à l'échelle de la rue. Le but est de mettre en place une chaîne de modélisation de la température à l'échelle de rue à partir de données de stations météorologiques opérationnelles en périphérie d'une ville. Cette chaîne de modélisation doit être rapide et faire appel à des données accessibles au plus grand nombre afin de pouvoir simuler des scénarios d'aménagement urbains sur le long terme en dehors des laboratoires de recherche. La première partie de la chaîne de modélisation s'appuie sur un modèle numérique physique, le générateur de climat urbain spatialisé, permettant de calculer l'îlot de chaleur à l'échelle du quartier à partir de données se situant en dehors d'une ville et d'un modèle de surface de ville comme le modèle TEB. La deuxième partie permet de modéliser statistiquement la variabilité de température à l'échelle de la rue à partir des conditions météorologiques simulées par le générateur au sein d'un quartier et d'une cartographie précise du tissu urbain du quartier considéré. Cette modélisation statistique s'appuie sur des campagnes de mesures effectuées en 2013 et 2014 dans des quartiers des villes de Marseille, Paris et Toulouse. / The thermal comfort of the inhabitants of a city is mainly affected by the urban heat island (difference in air temperature between urban and surrounding area. This effect is caused by anthropogenic sources, low vegetated areas and heat stored in buildings and roads during the night. The urban heat island can reach 10°C at night for the biggest cities. But inside a neighborhood, the temperature variability can reach a few degrees with the effect of the shadow of the trees or the presence of lake or parks. This variability may have the same magnitude than the urban heat island. The objective of this thesis is to study the temperature variability at the city-scale and at the street-scale. The aim of this PhD work is to develop a modeling chain of the temperature at the street-scale from data from operational weather stations located in airports.The modeling chain has to be fast in order to simulate long term urban planning scenarios and have a low computational cost in order to be run outside of atmospheric sciences laboratories. The first step of the modeling chain is the spatialized urban weather generator, a numerical physical scheme which calculated the urban heat island at the neighborhood scale from data of an operational weather station located outside of the city and with sur urban surface model TEB. The second part is a statistical model of temperature variability at the street scale calculated with meteorological data coming from the generator and a mapping of the urban tissue. The statistical model relies on field campaigns achieved in 2013 and 2014 in the neighborhoods of Marseille, Paris and Toulouse.
15

Sur la construction de générateurs aléatoires de conditions de vent au large de la Bretagne / On the construction of stochastic generators of wind conditions offshore Brittany

Bessac, Julie 20 October 2014 (has links)
Mon travail porte sur la construction de générateurs aléatoires de conditions de vent en Bretagne. Ces modèles permettent de simuler artificiellement des conditions météorologiques réalistes et sont couramment utilisés pour la gestion des risques liés aux aléas climatiques. Ils sont construits sur la base de données historiques dans le but de produire des simulations cohérentes avec le climat actuel mais peuvent intégrer des scénarios de changement climatique. Les séquences simulées permettent de pallier le manque de données réelles et sont utilisées en entrée de modèles économiques ou écologiques. / This work is aimed at constructing stochastic weather generators. These models enable to simulate artificially weather data that have statistical properties consistent with observed meteorology and climate. Outputs of these models are generally used in impact studies in agriculture or in ecology.
16

Intégration de connaissances linguistiques pour la reconnaissance de textes manuscrits en-ligne

Quiniou, Solen 17 December 2007 (has links) (PDF)
L'objectif de ces travaux de thèse est de construire un système de reconnaissance de phrases, en se basant sur un système de reconnaissance de mots existant. Pour cela, deux axes de recherche sont abordés : la segmentation des phrases en mots ainsi que l'intégration de connaissances linguistiques pour prendre en compte le contexte des phrases. Nous avons étudié plusieurs types de modèles de langage statistiques, en comparant leurs impacts respectifs sur les performances du système de reconnaissance. Nous avons également recherché la meilleure stratégie pour les intégrer efficacement dans le système de reconnaissance global. Une des orginalités de cette étude est l'ajout d'une représentation des différentes hypothèses de phrases sous forme d'un réseau de confusion, afin de pouvoir détecter et corriger les erreurs de reconnaissance restantes. L'utilisation des technique présentées permet de réduire de façon importante le nombre d'erreurs de reconnaissance, parmi les mots des phrases.
17

Adaptation thématique non supervisée d'un système de reconnaissance automatique de la parole

Lecorvé, Gwénolé 24 November 2010 (has links) (PDF)
Les systèmes actuels de reconnaissance automatique de la parole (RAP) reposent sur un modèle de langue (ML) qui les aide à déterminer les hypothèses de transcription les plus probables. Pour cela, le ML recense des probabilités de courtes séquences de mots, appelées n-grammes, fondées sur un vocabulaire fini. Ces ML et vocabulaire sont estimés une fois pour toutes à partir d'un vaste corpus de textes traitant de sujets variés. En conséquence, les systèmes actuels souffrent d'un manque de spécificité lorsqu'il s'agit de transcrire des documents thématiquement marqués. Pour pallier ce problème, nous proposons un nouveau processus d'adaptation thématique non supervisée du ML et du vocabulaire. Sur la base d'une première transcription automatique d'un document audio, ce processus consiste à récupérer sur Internet des textes du même thème que le document, textes à partir desquels nous réestimons le ML et enrichissons le vocabulaire. Ces composants adaptés servent alors à produire une nouvelle transcription dont la qualité est espérée meilleure. Ce processus est particulièrement original car il se préserve de toute connaissance a priori sur les éventuels thèmes des documents à transcrire et il intègre des techniques de traitement automatique des langues. De plus, nous apportons des contributions pour chaque étape du processus. Tout d'abord, étant donnée la transcription initiale d'un document audio, nous avons aménagé le critère tf-idf , issu du domaine de la recherche d'information, aux spécificités de l'oral afin de caractériser le thème du document par des mots-clés extraits automatiquement. Via un moteur de recherche sur Internet, ces mots-clés nous permettent de récupérer des pages Web que nous filtrons afin d'assurer leur cohérence thématique avec le document audio. Ensuite, nous avons proposé une nouvelle technique de réestimation thématique du ML. En extrayant des mots et séquences de mots spécifiques au thème considéré à partir des corpora Web, nous utilisons le cadre de l'adaptation par minimum d'information discriminante pour ne modifier que les probabilités des n-grammes propres au thème, laissant les autres probabilités inchangées. Enfin, nous montrons également que les corpora extraits du Web peuvent servir à repérer des mots hors vocabulaire spécifiques aux thèmes. Nous proposons une technique originale qui permet d'apprendre ces nouveaux mots au système et, notamment, de les intégrer dans le ML en déterminant automatiquement dans quels n-grammes ils sont susceptibles d'apparaître. Pour cela, chaque nouveau mot est assimilé à d'autres, déjà connus du système, avec lesquels il partage une relation paradigmatique. Nos expériences, menées sur des émissions d'actualités radiodiffusées, montrent que l'ensemble de ces traitements aboutit à des améliorations significatives du taux de reconnaissance d'un système de RAP.
18

Développement et application d'une méthode de reconstitution paléoclimatique quantitative basée sur des données polliniques fossiles en Afrique australe / Development of a new method for paleoclimat reconstruction in South Africa, from pollen analysis

Truc, Loïc 20 December 2013 (has links)
Idéalement située à la confluence entre climat tropical et climat tempéré, l'Afrique australe est une zone très sensible aux variations des conditions climatiques. Cette région fait cependant preuve d'un manque de données paléoclimatiques important, et les méthodes de reconstruction traditionnelles trouvent rapidement leurs limites face aux conditions particulières qui y sévissent. Les méthodes de reconstruction quantitatives communément employées se révèlent inutilisables face aux conditions d'aridité extrêmes qui ne permettent que très rarement l'accumulation et la préservation de pollen moderne et fossile et se confrontent également aux particularités de la végétation abritée par cette région. L'objectif de ces travaux de thèse vise à développer une méthode de reconstruction quantitative basée sur des données polliniques fossiles, à partir de la relation entre la distribution actuelle des taxons polliniques et le climat en Afrique australe. Nous avons développé une fonction de transfert utilisant les propriétés des fonctions de densité de probabilité (pdfs), permettant de transformer l'information contenue dans un assemblage pollinique en estimation quantitative du climat. En parallèle, cette étude a permis de développer une méthode permettant de sélectionner les espèces les plus probables à inclure dans chaque type pollinique qui compose un assemblage. Cette méthode de sélection des espèces (SSM) a permis de pallier la faible résolution taxonomique des données polliniques de cette région caractérisée par une biodiversité élevée et d'affiner la méthode des espèces indicatrices, afin de la rendre utilisable en Afrique australe. Cette méthodologie a été appliquée aux données polliniques du site de Wonderkrater (Afrique du Sud). Les résultats observés et leur comparaison avec ceux provenant de sites régionaux ont permis de déterminer que les températures estivales et hivernales étaient 6±2°C inférieure au cours du LGM et du Younger Dryas et que les précipitations au cours de la saison humide étaient 50% moins importantes qu'actuellement. Ces résultats montrent que les SST enregistrées dans le canal du Mozambique régissent les conditions hydrologiques du continent adjacent, en opposition avec la possible implication de l'ITCZ sous ces latitudes. Les résultats indiquent également que les deux tropiques montrent des tendances climatiques similaires au cours des derniers 20 000 ans. La méthode a ensuite été appliquée à un enregistrement pollinique provenant de la région du fynbos (Afrique du Sud). Les résultats ont montré les limites de la méthode au vu de la faible amplitude de reconstruction obtenue pour les températures entre le LGM et l'Holocène (~2°C). Les résultats ont néanmoins permis de mettre en évidence que les températures montraient un pattern similaire à celui observé en Antarctique. Nous avons également pu montrer que les périodes glaciaires coïncidaient avec les périodes les plus humides, en accord avec le modèle de Cockroft (1987). Ce modèle dérive du mécanisme de migration des « westerlies » vers l'équateur au cours des périodes glaciaires, en réponse au déplacement du vortex circcum polaire. Les travaux issus de cette thèse ont montré qu'il était possible d'utiliser la distribution actuelle des plantes pour estimer les variations quantitatives des changements climatiques passés, dans la plupart des configurations botaniques et climatiques rencontrées en Afrique australe. La méthode de sélection des espèces se révèle être un outil indispensable dans cette région de haute biodiversité. Ces travaux offrent des perspectives intéressantes dans cette zone actuellement dépourvue de reconstructions climatiques quantitatives. Cependant, les résultats émanant des deux cas d'études ont mis en évidence des faiblesses et des limites méthodologiques qui devront faire l'objet d'études supplémentaires afin d'en améliorer les performances. / Located at the interface between tropical and temperate climate systems, southern Africa is a particularly sensitive region in terms of long-term climate change. However, few reliable paleoclimatic records exist from the region – largely as a result of the arid climate with precludes the preservation of wetland sequences - , and virtually no quantitative reconstructions are available.The aim of this thesis is to develop quantitative palaeoclimate reconstruction method based the relation between modern plant distributions and climate in southern Africa. We develop botanical-climatological transfer functions derived from probability density functions (pdfs), allowing for quantitative estimates of the palaeoclimatic variables to be calculated from fossil pollen assemblages. In addition, a species-selection method (SSM) based on Bayesian statistics is outlined, which provides a parsimonious choice of most likely plant species from what are otherwise taxonomically broad pollen-types. This method addresses limitations imposed by the low taxonomic resolution of pollen identification, which is particularly problematic in areas of high biodiversity such as many regions of southern Africa.This methodology has been applied to pollen record from Wonderkrater (South Africa). Results indicate that temperatures during both the warm and cold season were 6±2°C colder during the Last Glacial Maximum and Younger Dryas, and that rainy season precipitation during the Last Glacial Maximum was ~50% of that during the mid-Holocene. Our results also imply that changes in precipitation at Wonderkrater generally track changes in Mozambique Channel sea-surface temperatures, with a steady increase following the Younger Dryas to a period of maximum water availability at Wonderkrater ~3-7 ka. These findings indicate that the northern and southern tropics experienced similar climatic trends during the last 20 kyr, and highlight the role of variations in sea-surface temperatures over the more popularly perceived role of a shifting Intertropical Convergence Zone in determining long-term environmental trends.This method has also been applied to a pollen record from Pakhuis Pass, in the Fynbos Biome (South Africa). Results show the limitations of quantitative methods, with only unrealistically low amplitude being reconstructed between the Last Glacial Maximum and Holocene (~2°C). However, results indicate that the reconstructed temperature trends, if not amplitudes, are similar to trends observed in Antarctic ice core records. Further, in reconstructing past humidity, we show that over the last 18 kyr, cooler conditions appear to be generally wetter at the site. These results are consistent with Cockcroft model (1987), derived from equatorward shift of the westerlies resulting from expansions of the circum-polar vortex.This study shows the potential of using modern plant distributions to estimates past climate parameters in southern Africa, and the species selection method proves to be a useful tool in region with high biodiversity. This work provides a novel perspective in the region, where no quantitative paleoclimatic reconstructions have been available. However, results from Pakhuis Pass highlight some of the limitations of this methodology, which will be subject of future work in this promising field of inquiry.
19

Modélisation statistique des associations et des interactions entre des parasites transmis par des vecteurs, à partir de données issues d'études transversales / Statistical modelling of associations and interactions between vector borne parasites, using data from cross-sectional studies

Vaumourin, Elise 26 September 2014 (has links)
Le multiparasitisme et surtout les associations qui en découlent, ont une grande influence sur l’écologie des parasites concernés. Elle est d’autant plus grande que les parasites peuvent interagir et ainsi modifier leurs effets sur les hôtes. Cependant, l’identification des associations et interactions de parasites est complexe au niveau populationnel. Notre objectif était de modéliser les associations et les interactions multiparasitaires, notamment dans le cadre des parasites d’importance médicale, vétérinaire ou agronomique. Nous avons tout d’abord réalisé une revue bibliographique sur les différentes causes et conséquences du multiparasitisme ainsi que sur les méthodes et outils disponibles pour comprendre les phénomènes qui le génèrent. Dans un second temps, nous nous sommes intéressés tout particulièrement à la détection des associations multiparasitaires. Nous avons développé une nouvelle méthode « de screening des associations » pour tester statistiquement la présence d’associations de parasites à une échelle globale. Nous avons utilisé cette méthode pour identifier les associations et pour révéler précisément les parasites associés au sein de diverses populations d’hôtes. Puis, nous avons étudié les interactions entre les parasites. Nous avons développé un modèle pour identifier les interactions entre deux parasites vectorisés et persistants chez un hôte, à partir de données issues d’études transversales. L’une des voies de progression de la connaissance sur les interactions est la prise en compte des facteurs de risque communs. La prise en compte des interactions contribue à améliorer le diagnostic, les traitements et la prévention des maladies infectieuses. / Multiparasitism and specifically statistical associations among parasites, have a strong influence on the ecology of parasites. This influence reinforced when parasites interact and thus modify their effect on hosts. However, the identification of associations and interactions between parasites is complex at the population level. Our aim was to model multi-parasite associations and interactions, in particular for parasites of medical, veterinary or agricultural importance. We first present a review of the literature on the different causes and consequences of multiparasitism and the methods and tools available to better understand the phenomena that generate them. In a second step we worked on the detection of multi-parasite associations. We developed a new approach « association screening » to statistically test the presence of multi-parasite associations on a global scale. We used this method to identify associations and to reveal precisely associated parasites in different host populations. Then, we focused on the study of interactions between parasites. We developed a model to identify the interactions between two vector-borne and persistent parasites in a host, using data from cross-sectional studies. One way to increase our capacity to detect parasite interactions in populations is the taking into account common risk factors. Taking into account interactions increases diagnosis, treatments and prevention of infectious diseases.
20

Précipitations et relief en Afrique orientale et australe : modélisations statistiques et géostatistiques.

Oettli, Pascal 02 July 2008 (has links) (PDF)
Ce travail a un double objectif : à travers les exemples est- et sud-africain, mieux comprendre l'influence du relief sur l'organisation spatiale des précipitations et spatialiser les données pluviométriques ponctuelles en fonction du relief. Ce travail tente d'appliquer à des régions tropicales et sub-tropicales une méthodologie en partie dérivée de méthodologies précédemment définies dans les régions extra-tropicales.<br />Dans un premier temps, un modèle issu d'une régression linéaire multiple, basée sur une décomposition, à différentes échelles spatiales, de l'information topographique en descripteurs, aide à mieux comprendre le lien entre précipitations et topographie. En Afrique de l'Est, les effets de versants sont très importants pour expliquer la répartition spatiale des précipitations, ainsi que l'effet sommital (sommet isolé ou crête). En Afrique du Sud, c'est principalement un gradient sud-ouest/nord-est dans les précipitations qui ressort, atténuant l'influence de la topographie. Ce gradient est toutefois moins marqué en fin de saison des pluies.<br />Dans un deuxième temps, le modèle de précipitation est amélioré par la modélisation géostatistique des erreurs du modèle statistique. Cette combinaison aboutit à un modèle multiplicatif, servant à reconstituer, pour les cartographier, des champs pluviométriques mensuels moyens, dans chacune des régions. La cartographie obtenue montre des capacités plus que satisfaisantes du modèle à reproduire la variabilité spatiale des précipitations moyennes, notamment en Afrique de l'Est.<br />Dans un troisième temps, l'évolution interannuelle de l'organisation des précipitations mensuelles en fonction du relief est étudiée. D'une année sur l'autre, une partie inégale de la distribution des précipitations est expliquée par les modèles de précipitations. Une méthodologie originale est aussi mise en place afin de déterminer s'il existe des distributions spatiales récurrentes des précipitations (des modes), liées aux mêmes descripteurs du relief. Dans cette recherche de modes récurrents dans l'organisation spatiale des précipitations ne ressortent, en Afrique de l'Est, que les mois de transition entre saison pluvieuse et saison sèche. Ces modes sont associés à des anomalies récurrentes dans la circulation atmosphérique de plus large échelle, principalement liées aux phases d'installation/retrait des moussons d'été et d'hiver.

Page generated in 0.1228 seconds