• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 154
  • 78
  • 23
  • Tagged with
  • 257
  • 105
  • 52
  • 32
  • 31
  • 31
  • 30
  • 29
  • 25
  • 25
  • 21
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Modèles hiérarchiques et processus ponctuels spatio-temporels - Applications en épidémiologie et en sismologie

Valmy, Larissa 05 November 2012 (has links) (PDF)
Les processus ponctuels sont souvent utilisés comme modèles de répartitions spatiales ou spatio-temporelles d'occurrences. Dans cette thèse, nous nous intéressons tout d'abord à des processus de Cox dirigés par un processus caché associé à un processus de Dirichlet. Ce modèle correspond à des occurrences cachées influençant l'intensité stochastique des occurrences observées. Nous généralisons la notion de " Shot noise Cox process " introduite par Moller et développons le traitement bayésien par un échantillonneur de Gibbs combiné à un algorithme de Metropolis-Hastings. Nous montrons que cette méthode MCMC est à sauts réversibles. Le modèle prend en compte, en effet, un nombre aléatoire de contributions cachées influençant l'intensité du processus ponctuel observé donc a un espace paramétrique de dimension variable. Nous focalisons l'inférence statistique sur l'estimation de la valeur espérée de chaque contribution cachée, le nombre espéré de contributions cachées, le degré d'influence spatiale de ces contributions et leur degré de corrélation. Le test d'égalité des contributions et celui de leur indépendance sont ainsi développés. L'utilité en épidémiologie et en écologie est alors démontrée à partir de données de Rubus fruticosa, Ibicella lutea et de mortalité dans les cantons de Georgia, USA. En termes de données observées, deux situations sont considérées: premièrement, les positions spatiales des occurrences sont observées entre plusieurs paires de dates consécutives; deuxièmement, des comptages sont effectués, au cours d'une période fixée, dans des unités d'échantillonnage spatiales. D'autre part, nous nous intéressons aux processus ponctuels à mémoire introduits par Kagan, Ogata et Vere-Jones, précurseurs de la statistique sismologique. En effet, les processus ponctuels spatio-temporels ont une place importante dans l'étude des catalogues sismiques puisque ces derniers sont généralement constitués d'événements sismiques datés et géo-référencés. Nous avons étudié un modèle ETAS (Epidemic Type Aftershock Sequence) avec une intensité d'arrière-plan indépendante du temps et plusieurs fonctions déclenchantes permettant d'intégrer les événements antérieurs récents. Cette approche est utilisée pour étudier la sismicité de l'arc des Petites Antilles. Une étude comparative des modèles Gamma, Weibull, Log-Normal et loi d'Omori modifiée pour les fonctions déclenchantes est menée. Nous montrons que la loi d'Omori modifiée ne s'ajuste pas aux données sismiques des Petites Antilles et la fonction déclenchante la plus adaptée est le modèle de Weibull. Cela implique que le temps d'attente entre répliques dans la zone des Petites Antilles est plus faible que celui des régions à sismicité décrite par la loi d'Omori modifiée. Autrement dit, l'agrégation des répliques après un événement majeur est plus prononcée dans la zone des Petites Antilles. La possibilité d'inclure une intensité d'arrière-plan suivant un processus de Dirichlet centré sur un processus spatial log-gaussien est discutée.
212

Solutions algorithmiques pour des applications d'acquisition parcimonieuse en bio-imagerie optique

Le Montagner, Yoann 12 November 2013 (has links) (PDF)
Ces dernières années, la théorie mathématique de l'échantillonnage compressé (compressed sensing, CS) a émergé en tant que nouvel outil en traitement d'images, permettant notamment de dépasser certaines limites établies par la théorie de l'échantillonnage de Nyquist. En particulier, la théorie du CS établit qu'un signal (une image, une séquence vidéo, etc.) peut être reconstruit à partir d'un faible nombre de mesures linéaires non-adaptatives et aléatoires, pourvu qu'il présente une structure parcimonieuse. Dans la mesure où cette hypothèse se vérifie pour une large classe d'images naturelles, plusieurs applications d'imagerie ont d'ores-et-déjà bénéficié à des titres divers des résultats issus de cette théorie. Le but du travail doctoral présent est d'étudier comment la théorie du CS - et plus généralement les idées et méthodes en relation avec les problèmes de reconstruction de signaux parcimonieux (sparse) - peuvent être utilisés pour concevoir des dispositifs d'acquisition optiques à haute-résolution spatiale et temporelle pour des applications en imagerie biologique. Nous étudions tout d'abord quelques questions pratiques liées à l'étape de reconstruction nécessairement associée aux systèmes d'acquisition exploitant le CS, ainsi qu'à la sélection des paramètres d'échantillonnage. Nous examinons ensuite comment le CS peut être utilisé dans le cadre d'applications d'échantillonnage de signaux vidéo. Enfin, avec dans l'idée l'utilisation dans des problèmes de débruitage de méthodes inspirées du CS, nous abordons la question de l'estimation d'erreur dans les problèmes de débruitage d'images acquises en conditions de faible luminosité, notamment dans le cadre d'applications de microscopie.
213

Évaluation du POCIS (Polar Organic Chemical Integrative Sampler) : domaine de validité et performances pour 56 micropolluants organiques : application aux hormones, pharmaceutiques, alkyphénols, filtre UV et pesticides / POCIS evaluation : application fields and performances for 56 organic micropollutants : application for hormones, pharmaceuticals, alkylphenols, UV filter and pesticides

Morin, Nicolas 16 April 2013 (has links)
Le POCIS (Polar Organic Chemical Integrative Sampler) est un outil d'échantillonnage intégratif alternatif aux techniques d'échantillonnages classiques (ponctuelle ou automatisée) dédié à la mesure de micropolluants organiques relativement hydrophiles dans les eaux. Cet outil permet d'intégrer les concentrations dans le temps (CTWA, Time-Weighted Average Concentration) et, dans certains cas, d'abaisser les limites de quantification. Une revue bibliographique détaillée a montré la forte variabilité des données de performances du POCIS mesurées en laboratoire (notamment les taux d'échantillonnage ou Rs). Cette variabilité résulte en majeure partie de systèmes expérimentaux d'étalonnage différents selon les études et pas toujours renseignés. Dans la littérature, les CTWA obtenues in situ sont comparées aux concentrations obtenues après échantillonnage classique, tel que mis en œuvre actuellement dans les programmes de surveillance européens ; ces concentrations sont dans la plupart des cas du même ordre de grandeur, même si elles ne représentent pas tout à fait la même information. Avec comme objectif d'obtenir des CTWA les plus justes et robustes possibles, nous avons étudié le comportement du POCIS « pharmaceutique » en laboratoire vis-à-vis de 56 micropolluants (hormones, pharmaceutiques, alkylphénols, pesticides, filtre UV), dans un système expérimental d'étalonnage conçu spécifiquement pour contrôler l'ensemble des conditions expérimentales ayant une influence sur les Rs. Nous avons ainsi déterminé 43 Rs robustes et démontré que le POCIS est bien adapté à l'échantillonnage de la plupart des molécules étudiées. De plus, l'allure des cinétiques d'accumulation est expliquée à l'aide des propriétés physico-chimiques des molécules (log D , surface polaire). Cinq homologues deutérés ont été identifiés en tant que PRC (Performance Reference Compounds), c'est-à-dire qu'ils peuvent être utilisés pour corriger les différences de conditions entre le laboratoire et le terrain. Nous avons également comparé le POCIS au Chemcatcher « polaire » en laboratoire et montré qu'en terme de domaine d'application et de performances, le POCIS est mieux adapté pour les micropolluants étudiés. Enfin, nous avons testé la justesse et la robustesse du POCIS lors de deux essais inter-laboratoires (EIL). Le premier EIL, portant sur l'étalonnage de l'outil en laboratoire, a démontré la robustesse de ses performances pour 3 pesticides. Le deuxième EIL in situ a démontré la pertinence du POCIS pour échantillonner des hormones, des pharmaceutiques et des pesticides dans un effluent de station d'épuration. Cette thèse permet d'avancer dans le domaine des connaissances sur l'outil POCIS et de favoriser son application dans le cadre de la directive sur l'eau / The POCIS (Polar Organic Chemical Integrative Sampler) is an alternative integrative sampling tool to conventional sampling methods (grab or automated) for measuring hydrophilic organic micropollutants in water. This tool permits to supply time-weighted average concentrations (TWAC) and, sometimes, to decrease limits of quantification. A detailed bibliographic review showed the important variability of POCIS performance data measured in laboratory (notably the sampling rates or Rs). This variability is in majority due to different experimental calibration systems, not always well detailed, among studies. In the literature, in situ TWAC are compared to concentrations from conventional sampling, actually used in European monitoring programs ; these concentrations are generally of the same order of magnitude, even if they do not represent the same information. In order to obtain accurate and robust TWAC, we studied in laboratory the “pharmaceutical” POCIS behavior for 56 micropollutants (hormones, pharmaceuticals, alkylphenols, pesticides, UV filter), in a calibration system specifically made for controlling the whole experimental conditions having an influence on Rs. We determined 43 robust RS and demonstrated that POCIS is well adapted for sampling most of studied molecules. Moreover, the pattern of kinetic accumulations is explained using molecule physical-chemical properties (log D, polar surface). Five deuterated homologues were identified as PRCs, meaning that they can be used for correcting differences in conditions between the laboratory and the field. We also compared the POCIS with the “polar” Chemcatcher and we showed that in term of application field and performances, the POCIS is better adapted for studied micropollutants. At last, we tested the accuracy and the robustness of the POCIS during two inter-laboratory studies (ILSs). The first ILS, dealing with the laboratory calibration of the tool, demonstrated performance robustness for 3 pesticides. The second in situ ILS demonstrated the relevance of the POCIS for sampling hormones, pharmaceuticals and pesticides from a waste water treatment plant effluent. This thesis permits to improve knowledge on the POCIS and to promote its application for the water framework directive
214

Etude d'un système de conversion analogique-numérique rapide de grande résolution adapté aux nouvelles générations de capteurs d'images CMOS / Study of a high speed high resolution analog to digital conversion system adapted for new generations of CMOS image sensors.

Ben aziza, Sassi 03 May 2018 (has links)
Les technologies CMOS représentent aujourd’hui plus de 90% du marché des capteurs d’images : elles permettent d’intégrer des systèmes intelligents dans une seule puce (SoC = System-On-Chip) et ouvrent la voie à l’intégration d’algorithmes de plus en plus complexes dans les dernières générations de capteurs. Des techniques telles que la reconstruction grande dynamique nécessitent d’acquérir plusieurs images avec un même capteur et de les recombiner. Ces nouvelles contraintes nécessitent d’augmenter drastiquement le débit d’images pour des capteurs de tailles conséquentes (Jusqu'à 30 Mpixels), ainsi que d’augmenter la résolution du convertisseur analogique numérique (jusqu’à 14 bits). Cela crée une demande forte en techniques de conversion analogique-numérique. Ces techniques doivent obéir en même temps aux contraintes de performance notamment la vitesse, la résolution, le faible bruit, la faible consommation et l'intégrabilité mais aussi aux contraintes de qualité d'image impactées directement par la chaine de conversion analogique-numérique en plus de la technologie du pixel. D'ici découle une double problématique pour le sujet:- Etudier et déterminer les limites atteignables en termes de performance sur les différents axes précités.- Gestion du fonctionnement massivement parallèle lié à la structure inhérente des capteurs d'image en vue d'avoir une qualité d'image irréprochable. / CMOS technologies represent nowadays more than 90% of image sensors market given their features namely the possibility of integrating entire intelligent systems on the same chip (SoC = System-On-Chip). Thereby, allowing the implementation of more and more complex algorithms in the new generations of image sensors.New techniques have emerged like high dynamic range reconstruction which requires the acquisition of several images to build up one, thus multiplying the frame rate.These new constraints require a drastic increase of image rate for sensors ofconsiderable size (Up to 30 Mpix and more). At the same time, the ADCresolution has to be increased to be able to extract more details (until 14 bits).With all these demanding specifications, analog-to-digital conversion capabilities have to be boosted as far as possible.These capabilities can be distinguished into two main research axes representing the pillars of the PhD work, namely:+ The study of the reachable limits in terms of performance: Speed, Resolution,Low Noise, Low power consumption and small design pitch.+ The management of the highly parallel operation linked to the structure of animage sensor. Solutions have to be found so as to avoid image artefacts andpreserve the image quality.
215

Caractéristiques des corrections automatiques assurant la précision spatiale d’un mouvement d’atteinte manuelle

Brière, Julien 01 1900 (has links)
No description available.
216

Contributions to decision tree based learning / Contributions à l’apprentissage de l’arbre des décisions

Qureshi, Taimur 08 July 2010 (has links)
Advances in data collection methods, storage and processing technology are providing a unique challenge and opportunity for automated data learning techniques which aim at producing high-level information, or models, from data. A Typical knowledge discovery process consists of data selection, data preparation, data transformation, data mining and interpretation/validation of the results. Thus, we develop automatic learning techniques which contribute to the data preparation, transformation and mining tasks of knowledge discovery. In doing so, we try to improve the prediction accuracy of the overall learning process. Our work focuses on decision tree based learning and thus, we introduce various preprocessing and transformation techniques such as discretization, fuzzy partitioning and dimensionality reduction to improve this type of learning. However, these techniques can be used in other learning methods e.g. discretization can also be used for naive-bayes classifiers. The data preparation step represents almost 80 percent of the problem and is both time consuming and critical for the quality of modeling. Discretization of continuous features is an important problem that has effects on accuracy, complexity, variance and understandability of the induction models. In this thesis, we propose and develop resampling based aggregation techniques that improve the quality of discretization. Later, we validate by comparing with other discretization techniques and with an optimal partitioning method on 10 benchmark data sets.The second part of our thesis concerns with automatic fuzzy partitioning for soft decision tree induction. Soft or fuzzy decision tree is an extension of the classical crisp tree induction such that fuzzy logic is embedded into the induction process with the effect of more accurate models and reduced variance, but still interpretable and autonomous. We modify the above resampling based partitioning method to generate fuzzy partitions. In addition we propose, develop and validate another fuzzy partitioning method that improves the accuracy of the decision tree.Finally, we adopt a topological learning scheme and perform non-linear dimensionality reduction. We modify an existing manifold learning based technique and see whether it can enhance the predictive power and interpretability of classification. / La recherche avancée dans les méthodes d'acquisition de données ainsi que les méthodes de stockage et les technologies d'apprentissage, s'attaquent défi d'automatiser de manière systématique les techniques d'apprentissage de données en vue d'extraire des connaissances valides et utilisables.La procédure de découverte de connaissances s'effectue selon les étapes suivants: la sélection des données, la préparation de ces données, leurs transformation, le fouille de données et finalement l'interprétation et validation des résultats trouvés. Dans ce travail de thèse, nous avons développé des techniques qui contribuent à la préparation et la transformation des données ainsi qu'a des méthodes de fouille des données pour extraire les connaissances. A travers ces travaux, on a essayé d'améliorer l'exactitude de la prédiction durant tout le processus d'apprentissage. Les travaux de cette thèse se basent sur les arbres de décision. On a alors introduit plusieurs approches de prétraitement et des techniques de transformation; comme le discrétisation, le partitionnement flou et la réduction des dimensions afin d'améliorer les performances des arbres de décision. Cependant, ces techniques peuvent être utilisées dans d'autres méthodes d'apprentissage comme la discrétisation qui peut être utilisées pour la classification bayesienne.Dans le processus de fouille de données, la phase de préparation de données occupe généralement 80 percent du temps. En autre, elle est critique pour la qualité de la modélisation. La discrétisation des attributs continus demeure ainsi un problème très important qui affecte la précision, la complexité, la variance et la compréhension des modèles d'induction. Dans cette thèse, nous avons proposes et développé des techniques qui ce basent sur le ré-échantillonnage. Nous avons également étudié d'autres alternatives comme le partitionnement flou pour une induction floue des arbres de décision. Ainsi la logique floue est incorporée dans le processus d'induction pour augmenter la précision des modèles et réduire la variance, en maintenant l'interprétabilité.Finalement, nous adoptons un schéma d'apprentissage topologique qui vise à effectuer une réduction de dimensions non-linéaire. Nous modifions une technique d'apprentissage à base de variété topologiques `manifolds' pour savoir si on peut augmenter la précision et l'interprétabilité de la classification.
217

Développement de capteurs électrochimiques basés sur de la voltammétrie par échantillonnage de courant sur réseau d'électrodes / Designed of electrochemical sensor based on sampled-current voltammetry performed on an electrode array

Mazerie, Isabelle 09 December 2016 (has links)
Comme dans beaucoup de domaines, la sécurité dépend du développement de méthodes analytiques très sensibles et fiables pour pouvoir détecter des molécules dangereuses. C'est pourquoi il est important de développer des méthodes simples afin de diagnostiquer rapidement un composé dangereux dans notre environnement. Dans ce contexte, les techniques électrochimiques offrent une alternative intéressante puisqu'elles permettent d'atteindre de grandes sensibilités et une bonne sélectivité, elles sont peu coûteuses et facilement adaptables pour la création de dispositifs portables. Récemment, notre équipe a développé un nouveau concept basé sur de la voltammétrie par échantillonnage de courant sur un réseau d'électrodes (EASCV), lequel est compatible avec la miniaturisation. Ce système permet de renouveler la surface et la solution au voisinage de l'électrode pendant l'analyse. Le projet de cette thèse a été d'étendre l'application de cette technique à des méthodes électrochimiques utilisant une étape de préconcentration. Une première étude, appliquée à la détection du phénol, a permis de montrer que l'EASCV offre une solution intéressante pour diminuer les phénomènes de passivation ayant lieu pendant l'analyse. En effet, une étude expérimentale associée à une étude théorique a montré que si un temps d'échantillonnage court était appliqué, le phénomène de passivation pouvait être évité. Enfin, pour la première fois, il a été possible de coupler la voltammétrie par échantillonnage de courant à la redissolution anodique. Cette étude, appliquée à la détection du plomb, a permis de mettre en place une courbe d'étalonnage et d'obtenir une intensité élevée de courant, 300 fois plus importante qu'avec les techniques classiques de redissolution anodique. Les premiers essais pour adapter ce nouveau concept aux méthodes pulsés se sont également montrés très encourageants. Afin d'améliorer la sensibilité et la sélectivité du capteur, le réseau d'électrodes a été fonctionnalisé. La modification dépend de la nature de l'espèce cible. Ainsi des polymères à empreintes moléculaires (pour des molécules comme la mélamine) ou des ligands (pour des ions comme le plomb) ont été testés. Dans les deux cas, une méthode d'électrogreffage a été mise au point pour fonctionnaliser la surface. Les premiers résultats obtenus sont encourageants puisqu'une courbe courant-potentiel a pu être tracée montrant une sensibilité 10 fois plus grande pour le plomb que celle obtenue avec une préconcentration par électrodépôt. / As in many fields, safety is primarily based on the development of reliable and highly sensitive analytical methods to detect hazardous molecules. Therefore there is a need for developing simple methods for the diagnosis of harmful molecules in our environment. In this context, electrochemical detection systems seems very promising because they are highly sensitive, require short analysis time, are easy to implement and economic to fabricate. Moreover, our team has recently developed a new concept of device based on sampled-current voltammetry performed on an electrode array (EASCV) which is compatible with miniaturization and portability. The system allows the renewal of the electrode surface and of the analytical solution during the analysis. The present project addresses these issues and aims to extend it to methods involving a preconcentration step. A first study, for the detection of phenol, showed that EASCV offers a versatile solution to decrease fouling effect during the analysis. Indeed experimental and theoretical studies show that the renewable of electrode surface and of the solution in the vicinity of the electrode associated with the use of a short sampled time can avoid electrode fouling. For the first time, it was possible to combine sampled-current voltammetry with anodic stripping voltammetry. In this study, we were able to create a calibration curve, for the detection of lead, and we obtained current intensities 300 times higher than with usual linear stripping voltammetry.First attempts to adapt this new concept to pulse methods were promising.. To increase the sensitivity and selectivity of the sensor, the electrode array is chemically modified. The nature of this modification depends on the nature of the analyte. Thus, molecular imprinted polymer (for molecules) or macrocyclic ligands (for ions) are tested In both cases, an electrografting method is achieved to functionalize the surface. The first results are promising since a current-potential curve is obtained with a sensibility ten times higher than with a preconcentration by electrodeposition.
218

The equation of state of the Hydrogen-Helium mixture with application to the Sun / Equation d’état du mélange hydrogen-helium à basse densité et application au Soleil

Wendland, David 30 October 2015 (has links)
L’étude des propriétés d’équilibre d’un système Coulombien quantique à plusieurs composantes présente un intérêt théorique fondamental, au-delà de ses nombreuses applications. Le mélange hydrogène-hélium est omniprésent dans la nébuleuse interstellaire ou les planètes géantes, et c’est aussi le constituant majoritaire du Soleil, où les interactions entre électrons et noyaux sont purement électrostatiques en première approximation.Ce travail est dévolu à l’équation d’état de ce mélange vu comme un plasma quantique constitué de protons, de noyaux d’Hélium et d’électrons. Dans ce cadre, nous développons des méthodes numériques pour estimer des intégrales de chemin représentant des ingrédients essentiels. En outre, nous construisons une nouvelle version de la diagrammatique à la Mayer resommée bien adaptée à nos objectifs.Tout d’abord, nous améliorons le double développement basse température et basse densité, dit SLT, pour l’hydrogène pur, grâce à de meilleures estimations des termes à trois corps, les résultats étant par ailleurs comparés à la fameuse équation d’état OPAL. Les densités plus élevées sont atteintes de manière non-perturbative, en utilisant des fonctions de partition d’entités recombinées suffisamment précises. Ainsi l’ionisation par pression est décrite sur une base théorique robuste. Nous étudions également d’autres quantités d’équilibre, comme l’énergie interne et la vitesse du son. Dans la dernière partie, nous calculons l’équation d’état du mélange hydrogène-hélium en incluant les effets d’écran associés aux ions He+, ainsi que des corrections à la Debye déterminées de manière auto-cohérente. Nos résultats nous permettent de comprendre le contenu physique d’approches ad-hoc et de déterminer leurs régimes de validité. Nous obtenons aussi une description plus fiable du mélange, qui devrait être précise le long de l'adiabate du Soleil. / The study of the thermodynamic properties of a multi-component quantum Coulomb system is of fundamental theoretical interest and has, beyond that, a wide range of applications. The Hydrogen-Helium mixture can be found in the interstellar nebulae and giant planets, however the most prominent example is the Sun. Here the interaction between the electrons and the nuclei is almost purely electrostatic.In this work we study the equation of state of the Hydrogen-Helium mixture starting from first principles, meaning the fundamental Coulomb interaction of its constituting particles. In this context we develop numerical methods to study the few-particle clusters appearing in the theory by using the path integral language. To capture the effects of the long-range Coulomb interaction between the fundamental particles, we construct a new version of Mayer-diagrammatic, which is appropriate for our purposes. In a first step, we ameliorate the scaled-low-temperature (SLT) equation of state, valid in the limit of low density and low temperature, by taking three-body terms into account and we compare the predictions to the well-established OPAL equation of state. Higher densities are accessed by direct inversion of the density equations and by the use of cluster functions that include screening effects. These cluster functions put the influence of screening on the ionization, unto now treated ad-hoc, on a theoretically well-grounded basis. We also inspect other equilibrium quantities such as the speed of sound and the inner energy. In the last part we calculate the equation of state of the Hydrogen-Helium mixture including the charged He+ ions in the screening process. Our work gives insights in the physical content of previous phenomenological descriptions and helps to better determine their range of validity. The equation of state derived in this thesis is expected to be very precise as well as reliable for conditions found in the Sun.
219

Développement de méthodes d'échantillonnage rapides et d'analyses différées au laboratoire : détermination de l'évolution temporelle des concentrations des COVs et COSVs et compréhension des processus physico-chimiques en air intérieur / Development of rapid air sampling methods followed by analyses in laboratory : determination of temporal variations of volatile organic compounds and semi-volatile organic compounds concentrations to highlight indoor physico-chemical processes

Liaud, Céline 20 November 2014 (has links)
Cette thèse se consacre à la mise au point de techniques d’échantillonnage suivies d’analyses réalisées au laboratoire pour mettre en évidence les espèces majoritaires en air intérieur et caractériser leurs variations temporelles. Le développement analytique a été effectué pour 52 COVs et pour 16 HAPs associés à la phase particulaire de l’air. Les prélèvements des COVs ont été réalisés au moyen d’un préleveur automatique permettant d’échantillonner l’air sur des tubes extraits par désorption thermique et analysés par chromatographie gazeuse couplée à la détection FID. Pour la quantification des HAPs, le prélèvement des particules est effectué par un impacteur à cascade à trois étages permettant de fractionner l’aérosol en fonction de leur diamètre aérodynamique. Les HAPs sont quantifiés par chromatographie liquide haute performance couplée à la détection par fluorescence. Ces deux techniques ont été mises en application dans le cadre de la 1ère campagne intensive du projet MERMAID. / This work aims at developing rapid and simple air sampling techniques followed by laboratory analyses to highlight the occurrence of the main species in indoor air and to describe their temporal variations. The analytical development was focused on 52 VOCs belonging to a wide variety of chemical families to determine their concentrations. The sampling step was performed using an automatic sampler allowing the sampling of air on adsorbent tubes. These tubes were then thermally desorbed and analyzed by gas chromatography coupled to FID. Another analytical development was conducted to determine the particle bound PAHs concentrations. The sampling of particles was realized by the mean of a 3-stages cascade impactor allowing an aerosol fractionation depending on their aerodynamic diameter. Finally, quantification of PAHs was realized by liquid chromatography coupled to fluorescence detection. These two techniques were applied in a field campaign in the frame of the MERMAID program.
220

Identification, écologie et utilisation des diptères hématophages (glossine, stomoxe et tabanide) comme moyen d'échantillonnage non-invasif de la faune sauvage dans quatre parcs du Gabon / Identification, ecology and use blood meals from hematophagous Diptera (Glossinidae, Stomoxys and Tabanidae) for noninvasive sampling of wildlife in four national parks of Gabon

Bitome Essono, Paul Yannick 10 December 2015 (has links)
Avec la mise en place des politiques de conservation des espèces sauvages, l'extension de l'urbanisation et l'accroissement des populations humaines, le contact homme-faune a considérablement augmenté au cours de ces dernières décennies. Par conséquent, le nombre de maladies d'origines zoonotiques a explosé avec six apparitions d'agents infectieux par an, dont 75% sont susceptibles d’être transmises par un vecteur. La plupart de ces maladies n'ayant pas encore de vaccins, les principales méthodes d'évitement sont basées sur les stratégies de lutte anti-vectorielle adaptées à l'écologie et au comportement alimentaire des vecteurs. Au Gabon, particulièrement dans les parcs nationaux, nous avons identifié six espèces de glossines (Glossina palpalis palpalis, G. fuscipes fuscipes, G. fusca congolense, G. pallicera newsteadi, G. caliginea et G tabaniformis) vivant principalement en milieux forestiers, six espèces de stomoxes (Stomoxys calcitrans, S. inornatus, S. niger niger, S. niger bilineatus, S. omega omega et S. transvittatus) inféodées aux milieux ouverts types forêt secondaire, savane et villages. Nous avons également identifié six espèces de tabanides (Ancala sp., Atylotus sp., Chrysops sp., Haematopota sp., Tabanus par et T. taeniola), mais leur distribution n'était pas claire dans les milieux prospectés. Par ailleurs, nous constatons que ces mouches hématophages ont un régime alimentaire très diversifié, comprenant les mammifères terrestres et aquatiques, les reptiles et les oiseaux. Elles se nourrissent à 86% sur la faune, contre seulement 14% sur l'homme. Cependant, dans les milieux anthropisés les repas sanguins d'origine humaine sont très importants, notamment dans les villages (100%) et autour des camps de recherche implantés dans les parcs (24%). Ainsi en l'absence de faune dans le milieu, ces mouches hématophages se nourrissent sur l'homme. Comme 75% des maladies émergentes chez l'homme proviennent de la faune sauvage et que près de ¾ d'entre elles circulent via le sang, elles sont donc susceptibles d’être détectées dans les repas sanguins de mouches hématophages. Cette technique d'échantillonnage non-invasif de la faune sauvage semble être un bon moyen d'identifier les agents infectieux à ADN (plasmodiums et trypanosomes), mais reste encore imprécise pour les agents infectieux à ARN (arbovirus). / The contact between human and wild fauna has considerably increased during these last decades due to the increase of human population size but also to conservation policies. As a consequence, the number of zoonotic diseases soared with a mean of six new infectious diseases per year, 75% of whom being vectorially transmitted. The way to avoid the human contamination by these emergent diseases is based on the efficient vector control resulting from a deep knowledge of the ecology and the feeding behavior of the different vector species. During our work, we have identified and characterized the ecology of 6 tsetse species (Glossina palpalis palpalis, G. fuscipes fuscipes, G. fusca congolense, G. pallicera newsteadi, G. caliginea and G. tabaniformis) that live in forests and 6 stomoxe species (Stomoxys calcitrans, S. inornatus, S. niger niger, S. niger bilineatus, S. omega omega and S. transvittatus) that live in and around (anthropized places) conservation areas. We have also identified 6 tabanid species (Ancala sp., Atylotus sp., Chrysops sp., Haematopota sp., Tabanus par and T. taeniola). The feeding ecology of the tsetse species have been studied through the determination of host extracted from blood meals in the insect caught with molecular techniques. These hematophagous insects had a diversified diet that was constituted of diverse mammal species but also reptiles and birds. The food intake results mostly from wild fauna (86%) and more rarely from humans (14%). However, in anthropised habitats (villages and research’s camps within the parks), the blood intakes from human origin were important, in particular in the villages (100%), suggesting that without wild fauna the flies shift on human host. In the last part of our work, we tried to identify pathogens in the blood samples extracted from the tsetse species in order to test whether these species could be used as living sampling syringe of the wild fauna. This new proposed non-invasive sampling techniques allowed to detect the DNA of various infectious agents (plasmodiums and trypanosomes), but failed to detect the RNA of viruses (arbovirus) suggesting that this approach could be useful but need to be improved.

Page generated in 0.063 seconds