• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 481
  • 201
  • 43
  • 2
  • Tagged with
  • 722
  • 722
  • 334
  • 329
  • 196
  • 174
  • 144
  • 126
  • 114
  • 113
  • 104
  • 88
  • 83
  • 67
  • 67
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Agrégation de données décentralisées pour la localisation multi-véhicules

Karam, Nadir 14 December 2009 (has links) (PDF)
Les avancées technologiques notables dans le domaine de la communication sans fil ont ouvert de nouvelles perspectives pour améliorer les systèmes d'aide à la conduite existants. En effet il a été prouvé que l'échange de données de positionnement absolu et relatif entre des véhicules d'un même groupe peut améliorer la précision de la localisation de tous ces membres. Le travail présenté dans ce manuscrit s'inscrit dans ce cadre et propose une approche totalement distribuée permettant de combiner les informations provenant des capteurs de tous les véhicules d'un groupe pour obtenir l'estimation la plus précise possible de la pose de ces derniers tout en minimisant les informations transmises sur le réseau de communication. Le principe de l'approche proposée est que chaque véhicule utilise ses propres capteurs pour mettre à jour une estimation de l'état du groupe puis la transmet à ses congénères. La fusion des états reçus et l'état construit dans chaque véhicule donne l'estimation de l'état global du groupe qui intègre les informations provenant de tous ces membres. L'approche proposée a été validée expérimentalement en simulation et dans un environnement réel avec un groupe de deux véhicules urbains.
202

CO.SY.NUS. langage de commande pour le système C.A.R.I.N.E. (Computer Aided Research In Neutron Exeriment) pilotant des expériences de diffraction neutronique

Entressangle, Gabriel 31 January 1973 (has links) (PDF)
.
203

L'Analyse économique des architectures de marché électrique. <br />L'application au market design du temps réel.

Saguan, Marcelo 28 April 2007 (has links) (PDF)
Ce travail s'inscrit dans l'analyse économique des architectures de marché électrique. Il s'appuie sur un cadre d'analyse modulaire permettant de séparer les problèmes du market design en modules distincts. Il se concentre sur le design du temps réel ayant un rôle clé pour l'électricité. Un modèle d'équilibre à deux étapes a permis d'analyser les deux variantes de design du temps réel : le marché et le mécanisme (utilisant de pénalités). Les simulations numériques ont montré que le design du temps réel n'est pas neutre vis-à-vis de la séquence des marchés d'énergie et de la dynamique concurrentielle. Les designs s'écartant du « marché » provoquent des distorsions, des inefficacités et peuvent créer des barrières à l'entrée. L'ampleur des distorsions est déterminée par la fermeture des marchés forward (gate closure). Cette modélisation a permis aussi de montrer le rôle fondamental de l'intégration entre deux zones en temps réel et l'importance d'une harmonisation adéquate des designs.
204

Méthodologie de conception de systèmes temps réel et distribués en contexte UML/SysML

Fontan, Benjamin 17 January 2008 (has links) (PDF)
En dépit de ses treize diagrammes, le langage UML (Unified Modeling Language) normalisé par l'OMG (Object Management Group) n'offre aucune facilité particulière pour appréhender convenablement la phase de traitement des exigences qui démarre le cycle de développement d'un système temps réel. La normalisation de SysML et des diagrammes d'exigences ouvre des perspectives qui ne sauraient faire oublier le manque de support méthodologique dont souffrent UML et SysML. Fort de ce constat, les travaux exposés dans ce mémoire contribuent au développement d'un volet " méthodologie " pour des profils UML temps réel qui couvrent les phases amont (traitement des d'exigences - analyse - conception) du cycle de développement des systèmes temps réel et distribués en donnant une place prépondérante à la vérification formelle des exigences temporelles. La méthodologie proposée est instanciée sur le profil TURTLE (Timed UML and RT-LOTOS Environment). Les exigences non-fonctionnelles temporelles sont décrites au moyen de diagrammes d'exigences SysML étendus par un langage visuel de type " chronogrammes " (TRDD = Timing Requirement Description Diagram). La formulation d'exigences temporelles sert de point de départ à la génération automatique d'observateurs dédiés à la vérification de ces exigences. Décrites par des méta-modèles UML et des définitions formelles, les contributions présentées dans ce mémoire ont vocation à être utilisées hors du périmètre de TURTLE. L'approche proposée a été appliquée à la vérification de protocoles de communication de groupes sécurisée (projet RNRT-SAFECAST).
205

Traitement Hiérarchique, Edition et Synthèse de Géométrie Numérisée

Boubekeur, Tamy 21 September 2007 (has links) (PDF)
La représentation des surfaces du monde réel dans la mémoire d'une machine peut désormais être obtenue automatiquement via divers périphériques de capture tels que les scanners 3D. Ces nouvelles sources de données, précises et rapides, amplifient de plusieurs ordres de grandeur la résolution des surfaces 3D, apportant un niveau de précision élevé pour les applications nécessitant des modèles numériques de surfaces telles que la conception assistée par ordinateur, la simulation physique, la réalité virtuelle, l'imagerie médicale, l'architecture, l'étude archéologique, les effets spéciaux, l'animation ou bien encore les jeux video. Malheureusement, la richesse de la géométrie produite par ces méthodes induit une grande, voire gigantesque masse de données à traiter, nécessitant de nouvelles structures de données et de nouveaux algorithmes capables de passer à l'échelle d'objets pouvant atteindre le milliard d'échantillons. Dans cette thèse, je propose des solutions performantes en temps et en espace aux problèmes de la modélisation, du traitement géométrique, de l'édition intéractive et de la visualisation de ces surfaces 3D complexes. La méthodologie adoptée pendant l'élaboration transverse de ces nouveaux algorithmes est articulée autour de 4 éléments clés : une approche hiérarchique systématique, une réduction locale de la dimension des problèmes, un principe d'échantillonage-reconstruction et une indépendance à l'énumération explicite des relations topologiques aussi appelée approche basée-points. En pratique, ce manuscrit propose un certain nombre de contributions, parmi lesquelles : une nouvelle structure hiérarchique hybride de partitionnement, l'Arbre Volume-Surface (VS-Tree) ainsi que de nouveaux algorithmes de simplification et de reconstruction ; un système d'édition intéractive de grands objets ; un noyau temps-réel de synthèse géométrique par raffinement et une structure multi-résolution offrant un rendu efficace de grands objets. Ces structures, algorithmes et systèmes forment une chaîne capable de traiter les objets en provenance du pipeline d'acquisition, qu'ils soient représentés par des nuages de points ou des maillages, possiblement non 2-variétés. Les solutions obtenues ont été appliquées avec succès aux données issues des divers domaines d'application précités.
206

Risque de salmonellose humaine liée à la consommation de fromage à pâte molle au lait cru : développement d'un modèle pour l'appréciation quantitative du risque

Fares, Almabrouk 17 December 2007 (has links) (PDF)
Les salmonelles sont l'une des causes les plus importantes de maladie transmise par les produits laitiers crus. L'appréciation du risque associé à la consommation de ces produits est nécessaire et la méthode la plus appropriée pour réaliser ce but est l'utilisation du processus d'analyse de risque qui associe les microbes pathogènes dans l'aliment au problème de santé publique. Le but principal de cette thèse est donc d'évaluer quantitativement le risque de salmonellose humaine lié à la consommation de Camembert fromage au lait cru. Les lacunes qui sont en général identifiées pour l'appréciation des risques sont le manque de données quantitatives sur les microbes pathogènes contaminant les aliments. Donc, comme premier objectif de cette thèse, nous avons developeé une méthode rapide, sensible et fiable pour la quantification des salmonelles dans le lait artificiellement contaminé. La méthode a combiné les principes de la méthode du nombre-le plus-probable (NPP) avec une analyse PCR en temps réel. Avec cette analyse (NPP-PCR en temps réel) fiable niveau de la contamination (1- 5 ufc/mL) du lait peut être énuméré après 8 h d'enrichissement non-sélectif dans l'eau peptone tamponée. Toutes les valeurs de nombre le plus probable ont bien correspondu au niveau estimé de contamination des salmonelles inoculées dans des échantillons de lait. Afin d'évaluer l'utilité de cette analyse de quantification, nous l'avons appliquée aux échantillons naturellement contaminés de lait de tank d'exploitations laitières situées dans l'Ouest de la France. Huit (2,68%) des 299 échantillons de lait de tank étaient trouvés positifs, avec des comptes estimés de nombre plus probable s'étendant de 3,7 à 79,2 /mL de lait. En dépit des problèmes d'inhibition observés avec quelques échantillons de lait, l'application de l'analyse par PCR en temps réel pour mesurer des salmonelles dans le lait cru s'est avérée être rapide, facile à exécuter et extrêmement sensible. Dans l'appréciation des risques potentiels liés aux salmonelles dans le lait cru et les produits à base de lait cru il était nécessaire d'examiner la vii capacité des salmonelles à se développer dans le lait. Par conséquent, nous présentons dans cette thèse des modèles primaires et secondaires décrivant mathématiquement la croissance des salmonelles (S. Typhimurium et S. Montevideo) dans le lait à température constante pendant différentes périodes d'incubation. Le modèle logistique avec délai a été employé pour décrire la croissance des salmonelles en fonction du temps. Les taux de croissance spécifiques de S. Typhimurium et de S. Montevideo différent selon le sérotype et la température. Les taux de croissance maximum ont été alors modélisés en fonction de la température en utilisant le modèle cardinal secondaire de Rosso. Les valeurs cardinales obtenues avec S. Typhimurium et S. Montevideo étaient: Tmin 3,02, 3,40 ; Topt 38,44, 38,55 et Tmax 44,51, 46,97°C, respectivement. À la température optimum de croissance (Topt) les taux de croissance maximum étaient 1,36 et 1,39 log10 ufc/h-1 pour S. Typhimurium et S. Montevideo respectivement. Les modèles primaires et secondaires ont permis de bons ajustements aux données de croissance avec un pseudo R2 = 0.97-0.99. Un modèle d'appréciation du risque de salmonellose humaine liée à la consommation de Camembert au lait cru est présentée qui est basée sur les résultats des objectifs précédemment mentionnés dans cette thèse. Différentes distributions ont été posées en hypothèse pour des paramètres du modèle et une simulation de Monte Carlo a été employée pour modeler le processus et pour mesurer le risque lié à la consommation de la portion de 25 g du fromage. Le 99th percentile du nombre de cellules de salmonelles dans les portions de 25 g de fromage était 5 cellules à l'heure de la consommation, correspondant à 0,2 cellule des salmonelles par gramme. Le risque de salmonellose par portion de 25 g est compris entre 0 et 1,2 × 10-7 avec une médiane de 7,4 × 10-8. Pour 100 millions de portions de 25g, le nombre de cas de salmonellose prévue par le modèle est en moyenne de 7,4. Quand la prévalence est réduite dans le modèle d'un facteur de 10, le nombre de cas par 100 millions de portions est réduit à moins de 1 cas. En dépit des limites et des données manquantes, nous avons démontré l'avantage de l'appréciation du viii risque non seulement comme outil d'évaluation de risque mais également comme dispositif d'aide à la prise de décision et à la gestion des risques.
207

Vers une nouvelle génération de systèmes de test et de simulation avionique dynamiquement reconfigurables

Afonso, George 02 July 2013 (has links) (PDF)
L'objectif de cette thèse est la proposition de nouvelles solutions dans le domaine des systèmes de test et de simulation avioniques et ce, à plusieurs niveaux. Dans un premier temps, nous avons proposé un modèle d'exécution dynamique permettant d'unifier les métiers du test et de la simulation, de répondre aux contraintes imposées, d'apporter de nouvelles possibilités et ainsi d'accélérer le cycle de développement des futurs équipements embarqués. Ensuite, un support matériel basé sur une architecture hétérogène CPU-FPGA a été défini afin de répondre à la problématique proposée et aux contraintes imposées par le domaine d'application telles que le respect du temps-réel et la capacité de reconfiguration dynamique hétérogène. A ce support matériel, est venue s'ajouter une méthodologie de développement permettant une meilleure prise en charge du code "legacy" de l'industriel. Enfin, un environnement unifié temps réel mou pour le test et la simulation avionique a été mis en avant, permettant de diminuer les coûts liés à la maîtrise et à la maintenance d'un nouvel environnement. Finalement, une étude de cas a permis de mettre en avant les capacités de reconfiguration dynamique et les performances de l'environnement développé.
208

MR-guided thermotherapies of mobile organs : advances in real time correction of motion and MR-thermometry / Thermothérapies guidées par IRM sur organes mobiles : avancées sur la correction en temps réel du mouvement et de la thermométrie

Roujol, Sébastien 25 May 2011 (has links)
L'ablation des tissus par hyperthermie locale guidée par IRM est une technique prometteuse pour le traitement du cancer et des arythmies cardiaques. L'IRM permet d'extraire en temps réel des informations anatomiques et thermiques des tissus. Cette thèse a pour objectif d'améliorer et d'étendre la méthodologie existante pour des interventions sur des organes mobiles comme le rein, le foie et le coeur. La première partie a été consacrée à l'introduction de l'imagerie rapide (jusqu'à 10-15 Hz) pour le guidage de l'intervention par IRM en temps réel. L'utilisation de cartes graphiques (GPGPU) a permis une accélération des calculs afin de satisfaire la contrainte de temps réel. Une précision, de l'ordre de 1°C dans les organes abdominaux et de 2-3°C dans le coeur, a été obtenue. Basé sur ces avancées, de nouveaux développements méthodologiques ont été proposés dans une seconde partie de cette thèse. L'estimation du mouvement basée sur une approche variationnelle a été améliorée pour gérer la présence de structures non persistantes et de fortes variations d'intensité dans les images. Un critère pour évaluer la qualité du mouvement estimé a été proposé et utilisé pour auto-calibrer notre algorithme d'estimation du mouvement. La méthode de correction des artefacts de thermométrie liés au mouvement, jusqu'ici restreinte aux mouvements périodiques, a été étendue à la gestion de mouvements spontanés. Enfin, un nouveau filtre temporel a été développé pour la réduction du bruit sur les cartographies de température. La procédure interventionnelle apparaît maintenant suffisamment mature pour le traitement des organes abdominaux et pour le transfert vers la clinique. Concernant le traitement des arythmies cardiaques, les méthodes ont été évaluées sur des sujets sains et dans le ventricule gauche. Par conséquent, la faisabilité de l'intervention dans les oreillettes mais aussi en présence d'arythmie devra être abordée. / MR-guided thermal ablation is a promising technique for the treatment of cancer and atrial fibrillation. MRI provides both anatomical and temperature information. The objective of this thesis is to extend and improve existing techniques for such interventions in mobile organs such as the kidney, the liver and the heart. A first part of this work focuses on the use of fast MRI (up to 10-15 Hz) for guiding the intervention in real time. This study demonstrated the potential of GPGPU programming as a solution to guarantee the real time condition for both MR-reconstruction and MR-thermometry. A precision in the range of 1°C and 2-3°C was obtained in abdominal organs and in the heart, respectively. Based on these advances, new methodological developments have been carried out in a second part of this thesis. New variational approaches have proposed to address the problem of motion estimation in presence of structures appearing transient and high intensity variations in images. A novel quality criterion to assess the motion estimation is proposed and used to autocalibrate our motion estimation algorithm. The correction of motion related magnetic susceptibility variation was extended to treat the special case of spontaneous motion. Finally, a novel temporal filter is proposed to reduce the noise of MR-thermometry measurements while controlling the bias introduced by the filtering process. As a conclusion, all main obstacles for MR-guided HIFU-ablation of abdominal organs have been addressed in in-vivo and ex-vivo studies, therefore clinical studies will now be realized. However, although promising results have been obtained for MR-guided RF-ablation in the heart, its feasibility in the atrium and in presence of arrhythmia still remains to be investigated.
209

Modélisation et rendu temps-réel de milieux participants à l'aide du GPU / Modeling and real-time rendering of participating media using the GPU

Giroud, Anthony 18 December 2012 (has links)
Cette thèse traite de la modélisation, l'illumination et le rendu temps-réel de milieux participants à l'aide du GPU. Dans une première partie, nous commençons par développer une méthode de rendu de nappes de brouillard hétérogènes pour des scènes en extérieur. Le brouillard est modélisé horizontalement dans une base 2D de fonctions de Haar ou de fonctions B-Spline linéaires ou quadratiques, dont les coefficients peuvent être chargés depuis une textit{fogmap}, soit une carte de densité en niveaux de gris. Afin de donner au brouillard son épaisseur verticale, celui-ci est doté d'un coefficient d'atténuation en fonction de l'altitude, utilisé pour paramétrer la rapidité avec laquelle la densité diminue avec la distance au milieu selon l'axe Y. Afin de préparer le rendu temps-réel, nous appliquons une transformée en ondelettes sur la carte de densité du brouillard, afin d'en extraire une approximation grossière (base de fonctions B-Spline) et une série de couches de détails (bases d'ondelettes B-Spline), classés par fréquence.%Les détails sont ainsi classés selon leur fréquence et, additionnées, permettent de retrouver la carte de densité d'origine. Chacune de ces bases de fonctions 2D s'apparente à une grille de coefficients. Lors du rendu sur GPU, chacune de ces grilles est traversée pas à pas, case par case, depuis l'observateur jusqu'à la plus proche surface solide. Grâce à notre séparation des différentes fréquences de détails lors des pré-calculs, nous pouvons optimiser le rendu en ne visualisant que les détails les plus contributifs visuellement en avortant notre parcours de grille à une distance variable selon la fréquence. Nous présentons ensuite d'autres travaux concernant ce même type de brouillard : l'utilisation de la transformée en ondelettes pour représenter sa densité via une grille non-uniforme, la génération automatique de cartes de densité et son animation à base de fractales, et enfin un début d'illumination temps-réel du brouillard en simple diffusion. Dans une seconde partie, nous nous intéressons à la modélisation, l'illumination en simple diffusion et au rendu temps-réel de fumée (sans simulation physique) sur GPU. Notre méthode s'inspire des Light Propagation Volumes (volume de propagation de lumière), une technique à l'origine uniquement destinée à la propagation de la lumière indirecte de manière complètement diffuse, après un premier rebond sur la géométrie. Nous l'adaptons pour l'éclairage direct, et l'illumination des surfaces et milieux participants en simple diffusion. Le milieu est fourni sous forme d'un ensemble de bases radiales (blobs), puis est transformé en un ensemble de voxels, ainsi que les surfaces solides, de manière à disposer d'une représentation commune. Par analogie aux LPV, nous introduisons un Occlusion Propagation Volume, dont nous nous servons, pour calculer l'intégrale de la densité optique entre chaque source et chaque autre cellule contenant soit un voxel du milieu, soit un voxel issu d'une surface. Cette étape est intégrée à la boucle de rendu, ce qui permet d'animer le milieu participant ainsi que les sources de lumière sans contrainte particulière. Nous simulons tous types d'ombres : dues au milieu ou aux surfaces, projetées sur le milieu ou les surfaces / This thesis deals with modeling, illuminating and rendering participating media in real-time using graphics hardware. In a first part, we begin by developing a method to render heterogeneous layers of fog for outdoor scenes. The medium is modeled horizontally using a 2D Haar or linear/quadratic B-Spline function basis, whose coefficients can be loaded from a fogmap, i.e. a grayscale density image. In order to give to the fog its vertical thickness, it is provided with a coefficient parameterizing the extinction of the density when the altitude to the fog increases. To prepare the rendering step, we apply a wavelet transform on the fog's density map, and extract a coarse approximation and a series of layers of details (B-Spline wavelet bases).These details are ordered according to their frequency and, when summed back together, can reconstitute the original density map. Each of these 2D function basis can be viewed as a grid of coefficients. At the rendering step on the GPU, each of these grids is traversed step by step, cell by cell, since the viewer's position to the nearest solid surface. Thanks to our separation of the different frequencies of details at the precomputations step, we can optimize the rendering by only visualizing details that contribute most to the final image and abort our grid traversal at a distance depending on the grid's frequency. We then present other works dealing with the same type of fog: the use of the wavelet transform to represent the fog's density in a non-uniform grid, the automatic generation of density maps and their animation based on Julia fractals, and finally a beginning of single-scattering illumination of the fog, where we are able to simulate shadows by the medium and the geometry. In a second time, we deal with modeling, illuminating and rendering full 3D single-scattering sampled media such as smoke (without physical simulation) on the GPU. Our method is inspired by light propagation volumes, a technique whose only purpose was, at the beginning, to propagate fully diffuse indirect lighting. We adapt it to direct lighting, and the illumination of both surfaces and participating media. The medium is provided under the form of a set of radial bases (blobs), and is then transformed into a set of voxels, together with solid surfaces, so that both entities can be manipulated more easily under a common form. By analogy to the LPV, we introduce an occlusion propagation volume, which we use to compute the integral of the optical density, between each source and each other cell containing a voxel either generated from the medium, or from a surface. This step is integrated into the rendering process, which allows to animate participating media and light sources without any further constraint
210

Écologie des Vibrio spp. en Manche-Mer du Nord : diversité et occurrence de souches potentiellement pathogènes pour l'homme et les animaux, et déterminisme des paramètres environnementaux sur l'abondance des Vibrio spp.

Tall, Amadou 16 January 2013 (has links)
Plus de 130 espèces de Vibrio, bactéries ubiquitaires des milieux marins et estuariens sont décrites, dont certaines sont des pathogènes d’organismes marins (poissons, coraux, coquillages, …). Douze espèces sont pathogènes pour l’homme, parmi lesquelles V. cholerae, V. parahaemolyticus et V. vulnificus. Les cas d’infections humaines sont essentiellement liés à la consommation de produits de la mer crus ou à l’exposition de plaies cutanées à l’eau de mer. En France, ce risque est faible mais pourrait s’accentuer en raison de la consommation croissante de produits de la mer, de l'augmentation de la part des individus immunodéprimés dans la population, de l'impact des activités anthropiques et du réchauffement climatique sur le milieu marin. Une meilleure compréhension de l'écologie de ces bactéries (distribution, abondance et diversité) est un pré-requis à la mise en place d’une surveillance environnementale de ce risque. L’étude menée au cours de ma thèse en zone Manche-Mer du Nord, dans le cadre du programme Vibrio Manche (2009-2012, partenariat EDFR&D/Ifremer/Institut Pasteur de Lille), avait pour objectif d'évaluer la diversité et la distribution spatio-temporelle côtière des vibrions, dont des espèces potentiellement pathogènes pour l’homme et les animaux, et leur relation avec les paramètres environnementaux biologiques (phytoplancton et zooplancton) et physico-chimiques. La stratégie de suivi a reposé sur le dénombrement et l’isolement de souches de Vibrio, à 22°C et 37°C sur milieu sélectif, à partir d’eau de mer et de sédiments superficiels collectés au cours de neuf campagnes d’échantillonnage et associés à la mesure de paramètres environnementaux. Le développement et la validation d’outils d’identification des souches environnementales par PCR en temps réel et le séquençage de marqueurs génétiques discriminants ont conduit à mettre en évidence une grande diversité d’espèces parmi les isolats à 22°C, celle-ci étant composée principalement de pathogènes d’organismes marins dont l’espèce V. splendidus. Les isolats à 37°C, marqués par la prédominance de deux espèces, V. alginolyticus et V. harveyi, et la rareté des pathogènes humains détectés dans les conditions d’analyses retenues pour cette étude. Au terme de l’étude, nous avons mis en évidence la présence de 20 et 17 espèces de vibrions respectivement à 22°C (deux campagnes) et 37°C (neuf campagnes) sur la zone étudiée, et l’influence probable de conditions environnementales contrastées sur la structure de ces populations. En termes d’abondance, les vibrions cultivables à 37°C ont montré une forte saisonnalité, et une relation significative à la température de l’eau et à l’abondance totale du zooplancton. La saisonnalité des vibrions cultivables à 22°C a été moindre, et leur abondance a pu être reliée de façon significative à la concentration en chlorophylle a totale et également à l’abondance totale en zooplancton. Ces éléments de connaissance et la stratégie d’identification développée pourront, à terme, contribuer au développement d’outils de surveillance microbiologique environnementale et ouvrent des perspectives pour mieux comprendre l’écologie des vibrions et les facteurs structurant non seulement leur abondance, mais aussi leur diversité. / One hundred and thirty species of vibrios, ubiquitous bacteria of marine and estuarine environments have been described, some of them being pathogenic for marine organisms. Twelve species are classified as human pathogens, Vibrio cholerae, V. parahaemolyticus and V. vulnificus being the most frequently reported in cases of infection. Human infections are linked mostly to raw seafood consumption or to the exposure of skin wounds to contaminated seawater. In France, the risk is low but it is expected to increase in the future due to the increase of raw seafood consumption, the part of immuno-compromised people, but also the impact of anthropic activities and global warming on the marine environment. A better understanding of the ecology of these bacteria (distribution pattern, abundance and diversity) is a prerequisite for the monitoring of the Vibrio-risk in the environment. The 2-year study carried out in the Eastern English Channel during my PhD was part of the Vibrio Manche program (2009-2012, funding EDF R&D/Ifremer/Institut Pasteur de Lille), which main objective was to characterize the spatio-temporal distribution of the vibrios, among which the potentially pathogenic species for human and animal, and their relations with the biotic(phytoplankton and zooplankton) and abiotic environmental parameters. The strategy consisted in the enumeration and isolation of Vibrio strains, at 22°C and37°C on a selective medium, from seawater and superficial sediments collected during nine sampling campaigns and associated with the recording of environmental parameters. The protocol developed in this study provides an appropriate and rapid screening tool to identify a large number of bacterial strains routinely isolated from the environment. This was based on real-time PCR assays and the sequencing of discriminant genetic markers. We highlighted the important diversity of species among the 22°C isolates, represented mainly by species pathogenic for marine organisms such as V. splendidus. Contrastingly, the 37°C isolates were mainly represented by two species, V. alginolyticus and V. harveyi, and the potentially pathogenic species for humans were rarely detected using this experimental approach. We detected 20 and 17 species of vibrios among the 22°C (two sampling campaigns) and 37°C(nine sampling campaigns) isolates, respectively, and highlighted the probable influence of contrasted environmental conditions on these populations structure. These two populations presented different seasonal dynamics, as the seawater temperature and the zooplankton abundance showed to be the main drivers for the 37°C population. The 22°C population seemed to be linked to the chlorophyll a concentration and zooplankton abundance. These data and the approach developed in this study could contribute to the development of tools for the monitoring of coastal environment and they give perspectives to better understand the ecology of the vibrios and the environmental factors driving their abundance and diversity.

Page generated in 0.0486 seconds