• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 154
  • 78
  • 21
  • Tagged with
  • 255
  • 105
  • 52
  • 32
  • 31
  • 31
  • 30
  • 29
  • 25
  • 25
  • 21
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Le maintien des espèces cavicoles dans les paysages aménagés en forêt boréale mixte de l'est du Canada

Ouellet-Lapointe, Ugo 12 1900 (has links) (PDF)
L'aménagement forestier entraîne vraisemblablement une dégradation de l'habitat pour plusieurs espèces associées aux forêts matures. Ces dernières sont soumises à des pressions qui peuvent entraîner des baisses de population et mener à des disparitions locales. Les espèces qui dépendent des cavités arboricoles pour accomplir leur cycle de vie (espèces cavicoles) figurent parmi ces espèces vulnérables. Ce groupe représente une large proportion de la diversité spécifique vertébrée en forêt boréale. Il est crucial de déterminer si l'aménagement des forêts tel qu'il est pratiqué de nos jours permet de maintenir des habitats de nidification pour les espèces cavicoles notamment, pour les picidés qui excavent la majorité des cavités disponibles pour les autres espèces cavicoles en forêt boréale. Le premier chapitre de ce mémoire porte sur le rôle des habitats résiduels pour le maintien des picidés en forêt boréale mixte aménagée. Dans cet écosystème, l'aménagement des paysages forestiers entraîne une raréfaction des arbres qui offrent un potentiel pour la nidification. Ils sont concentrés dans les forêts résiduelles linéaires (séparateurs de coupe et bandes riveraines). Nous avons effectué une recherche de cavités actives dans des habitats résiduels 10 à 20 ans après la coupe. Nos résultats indiquent que l'ouverture du paysage par la coupe engendre une concentration des activités de nidification dans les habitats résiduels linéaires. Par ailleurs, le suivi des nids de picidés indique que le succès de nidification est équivalent dans les habitats résiduels et les forêts témoins. Malgré une réduction substantielle de la quantité de forêts dans les paysages aménagés, les habitats résiduels linéaires apparaissent être des habitats de nidification de qualité pour les picidés. Le second chapitre vise à comparer des techniques d'échantillonnage utilisées lors d'études portant sur la faune cavicole. L'évaluation de la disponibilité des cavités est cruciale pour identifier et maintenir des habitats propices à la nidification en forêt aménagée. La détection de cavités en vérifiant les arbres à partir du sol est rapide et peu couteuse toutefois, cette technique est vraisemblablement biaisée puisqu'une proportion élevée de trous détectés ne sont pas complétés par une chambre utilisable par la faune. L'inspection directe de l'intérieur des cavités à l'aide d'une caméra fixée sur une perche est probablement plus précise, mais nécessite davantage d'effort. Il existe toutefois peu d'information sur l'apport de cette technique comparativement au suivi à partir du sol. Cette étude a pour objectifs; 1) d'estimer la proportion de trous détectés visuellement à partir du sol qui sont des cavités (qui ont une chambre propice à la nidification), et 2) de déterminer la proportion de cavités occupées qui peuvent être détectées à partir du sol. Nos résultats montrent que seulement 36% des trous détectés à partir du sol contiennent une chambre permettant la nidification. Par ailleurs, les excavateurs primaires étaient généralement détectés à partir du sol alors que seulement 48% des utilisateurs secondaires ont été détectés de cette manière. Nous concluons que l'inspection directe des trous est indispensable pour recueillir des données précises sur la disponibilité des cavités et sur leur taux d'occupation par des utilisateurs secondaires. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Picidés, habitat résiduel, aménagement forestier, succès de nidification, productivité des nids, excavateur primaire de cavités, inspection des cavités, densité de cavités, faune cavicole, utilisateur secondaire de cavités.
102

Analyse spectrale à haute résolution de signaux irrégulièrement échantillonnés : application à l'Astrophysique.

Bourguignon, Sébastien 14 December 2006 (has links) (PDF)
L'étude de nombreux phénomènes astronomiques repose sur la recherche de périodicités dans des séries temporelles (courbes de lumière ou de vitesse radiale). En raison des contraintes observationnelles, la couverture temporelle des données résultantes est souvent incomplète, présentant des trous périodiques ainsi qu'un échantillonnage irrégulier. L'analyse du contenu fréquentiel de telles séries basée sur le spectre de Fourier s'avère alors inefficace et les méthodes heuristiques de déconvolution de type CLEAN, couramment utilisées en astronomie, ne donnent pas entière satisfaction. Cette thèse s'inscrit dans le formalisme fréquemment rencontré depuis les années 1990 abordant l'analyse spectrale sous la forme d'un problème inverse, le spectre étant discrétisé sur une grille fréquentielle arbitrairement fine. Sa régularisation est alors envisagée en traduisant la nature a priori parcimonieuse de l'objet à reconstruire: nous nous intéressons ici à la recherche de raies spectrales. <br />Une première approche envisagée a trait au domaine de l'optimisation et consiste à minimiser un critère de type moindres carrés, pénalisé par une fonction favorisant les solutions parcimonieuses. La pénalisation par la norme l1 est en particulier étudiée en extension à des variables complexes et s'avère satisfaisante en termes de modélisation. Nous proposons des solutions algorithmiques particulièrement performantes permettant d'envisager une analyse à très haute résolution fréquentielle. <br />Nous étudions ensuite la modélisation probabiliste des amplitudes spectrales sous la forme d'un processus Bernoulli-Gaussien, dont les paramètres sont estimés au sens de la moyenne a posteriori à partir de techniques d'échantillonnage stochastique, permettant d'envisager une estimation totalement non supervisée. L'interprétation probabiliste du résultat ainsi que l'obtention conjointe des variances associées, sont alors d'un intérêt astrophysique majeur, s'interprétant en termes de niveaux de confiance sur les composantes spectrales détectées. Nous proposons dans un premier temps des améliorations de l'algorithme échantillonneur de Gibbs permettant d'accélérer l'exploration de la loi échantillonnée. Ensuite, nous introduisons des variables de décalage fréquentiel à valeur continue, permettant d'augmenter la précision de l'estimation sans trop pénaliser le coût calculatoire associé. <br />Pour chaque méthode proposée, nous illustrons sur des simulations la qualité de l'estimation ainsi que les performances des algorithmes développés. Leur application à un jeu de données issu d'observations astrophysiques est enfin présentée, mettant en évidence l'apport d'une telle méthodologie par rapport aux méthodes d'analyse spectrale habituellement utilisées.
103

Classification de flux applicatifs et détection d'intrusion dans le trafic Internet

Korczynski, Maciej 26 November 2012 (has links) (PDF)
Le sujet de la classification de trafic r'eseau est d'une grande importance pourla planification de r'eseau efficace, la gestion de trafic 'a base de r'egles, la gestionde priorit'e d'applications et le contrˆole de s'ecurit'e. Bien qu'il ait re¸cu une atten-tion consid'erable dans le milieu de la recherche, ce th'eme laisse encore de nom-breuses questions en suspens comme, par exemple, les m'ethodes de classificationdes flux de trafics chiffr'es. Cette th'ese est compos'ee de quatre parties. La premi'erepr'esente quelques aspects th'eoriques li'es 'a la classification de trafic et 'a la d'etec-tion d'intrusion. Les trois parties suivantes traitent des probl'emes sp'ecifiques declassification et proposent des solutions pr'ecises.Dans la deuxi'eme partie, nous proposons une m'ethode d''echantillonnage pr'ecisepour d'etecter les attaques de type "SYN flooding"et "portscan". Le syst'eme examineles segments TCP pour trouver au moins un des multiples segments ACK provenantdu serveur. La m'ethode est simple et 'evolutive, car elle permet d'obtenir unebonne d'etection avec un taux de faux positif proche de z'ero, mˆeme pour des tauxd''echantillonnage tr'es faibles. Nos simulations bas'ees sur des traces montrent quel'efficacit'e du syst'eme propos'e repose uniquement sur le taux d''echantillonnage,ind'ependamment de la m'ethode d''echantillonnage.Dans la troisi'eme partie, nous consid'erons le probl'eme de la d'etection et de laclassification du trafic de Skype et de ses flux de services tels que les appels vocaux,SkypeOut, les vid'eo-conf'erences, les messages instantan'es ou le t'el'echargement defichiers. Nous proposons une m'ethode de classification pour le trafic Skype chiffr'ebas'e sur le protocole d'identification statistique (SPID) qui analyse les valeurs statis-tiques de certains attributs du trafic r'eseau. Nous avons 'evalu'e notre m'ethode surun ensemble de donn'ees montrant d'excellentes performances en termes de pr'eci-sion et de rappel. La derni'ere partie d'efinit un cadre fond'e sur deux m'ethodescompl'ementaires pour la classification des flux applicatifs chiffr'es avec TLS/SSL.La premi'ere mod'elise des 'etats de session TLS/SSL par une chaˆıne de Markov ho-mog'ene d'ordre 1. Les param'etres du mod'ele de Markov pour chaque applicationconsid'er'ee diff'erent beaucoup, ce qui est le fondement de la discrimination entreles applications. La seconde m'ethode de classification estime l''ecart d'horodatagedu message Server Hello du protocole TLS/SSL et l'instant d'arriv'ee du paquet.Elle am'eliore la pr'ecision de classification des applications et permet l'identificationviiefficace des flux Skype. Nous combinons les m'ethodes en utilisant une ClassificationNaive Bay'esienne (NBC). Nous validons la proposition avec des exp'erimentationssur trois s'eries de donn'ees r'ecentes. Nous appliquons nos m'ethodes 'a la classificationde sept applications populaires utilisant TLS/SSL pour la s'ecurit'e. Les r'esultatsmontrent une tr'es bonne performance.
104

Mise au point d'un nouvel échantillonneur intégratif à base de solide naturel poreux

Ansanay-Alex, Salomé 19 December 2013 (has links) (PDF)
L'échantillonnage passif est une alternative prometteuse à l'échantillonnage ponctuel. Cette technique permet d'accumuler les contaminants présents dans l'eau directement in-situ, intégrant ainsi les variations de concentrations temporelles qui ne sont pas détectables avec l'échantillonnage ponctuel. Cependant la plupart des échantillonneurs commercialisés actuellement utilisent des phases complexes et coûteuses. Ces travaux de thèse ont pour objectif de mettre au point un nouvel échantillonneur intégratif plus robuste et moins coûteux, capable d'échantillonner autant les contaminants métalliques que les composés organiques. Pour cela, l'idée était d'utiliser comme phase adsorbante un minéral naturel poreux doté de fortes capacités d'adsorption ; des zéolithes et une sépiolite naturelle ont été envisagées. Le développement d'un tel dispositif est un processus complexe qui passe tout d'abord par l'étude des capacités d'adsorption des différents solides pour les contaminants métalliques ainsi que pour les composés organiques. La comparaison des capacités d'adsorption des différents solides démontre que la sépiolite est la plus efficace pour la rétention de la majorité des contaminants étudiés. Sur la base de ces résultats la sépiolite est sélectionnée comme phase réceptrice du nouvel échantillonneur. Le déploiement de ces nouveaux dispositifs dans un milieu semi-contrôlé soumis à différents scénarios de contamination met en lumière une importante capacité d'échantillonnage tant pour les métaux que pour les contaminants organiques hydrophiles. Enfin, dans une dernière étape.
105

Tomographie cardiaque en angiographie rotationnelle

Mory, Cyril 26 February 2014 (has links) (PDF)
Un C-arm est un appareil d'imagerie médicale par rayons X utilisé en radiologie interventionnelle. La plupart des C-arms modernes sont capables de tourner autour du patient tout en acquérant des images radiographiques, à partir desquelles une reconstruction 3D peut être effectuée. Cette technique est appelée angiographie rotationnelle et est déjà utilisée dans certains centres hospitaliers pour l'imagerie des organes statiques. Cependant son extension à l'imagerie du cœur ou du thorax en respiration libre demeure un défi pour la recherche. Cette thèse a pour objet l'angiographie rotationnelle pour l'analyse du myocarde chez l'homme. Plusieurs méthodes nouvelles y sont proposées et comparées à l'état de l'art, sur des données synthétiques et des données réelles. La première de ces méthodes, la déconvolution par FDK itérative synchronisée à l'ECG, consiste à effacer les artéfacts de stries dans une reconstruction FDK synchronisée à l'ECG par déconvolution. Elle permet d'obtenir de meilleurs résultats que les méthodes existantes basées sur la déconvolution, mais reste insuffisante pour l'angiographie rotationnelle cardiaque chez l'homme. Deux méthodes de reconstruction 3D basées sur l'échantillonnage compressé sont proposées : la reconstruction 3D régularisée par variation totale, et la reconstruction 3D régularisée par ondelettes. Elles sont comparées à la méthode qui constitue l'état de l'art actuel, appelé " Prior Image Constrained Compressed Sensing " (PICCS). Elles permettent d'obtenir des résultats similaires à ceux de PICCS. Enfin, deux méthodes de reconstruction 3D+temps sont présentées. Leurs formulations mathématiques sont légèrement différentes l'une de l'autre, mais elles s'appuient sur les mêmes principes : utiliser un masque pour restreindre le mouvement à la région contenant le cœur et l'aorte, et imposer une solution régulière dans l'espace et dans le temps. L'une de ces méthodes génère des résultats meilleurs, c'est-à-dire à la fois plus nets et plus cohérents dans le temps, que ceux de PICCS
106

The European wildcat as a model for the study of wildlife : focus on hybridization and the circulation of viruses / Le Chat sauvage européen comme modèle d'étude de la faune sauvage : focus sur les problématiques d'hybridation et de circulation des virus

Beugin, Marie-Pauline 15 December 2017 (has links)
L'hybridation et les maladies infectieuses sont deux problématiques majeures pour la conservation de la faune sauvage à travers le monde. Le Chat sauvage européen Felis silvestris silvestris, à travers ses interactions avec son proche apparenté le Chat domestique Felis silvestris catus, représente un modèle intéressant pour l'étude de ces deux problématiques et de leurs interactions. Le fait que le Chat sauvage soit touché par ces deux phénomènes, combiné à la variabilité des habitats dans lesquels il vit en Europe, permet de conduire des études comparées et de comprendre quels déterminants environnementaux influencent les flux de gènes et de pathogènes. Ici, nous proposons deux nouvelles approches méthodologiques basées sur l'analyse de marqueurs génétiques, pour une meilleure comparabilité entre études et une détection rapide des hybrides respectivement. Nous avons recherché les hybrides et regardé la distribution spatiale des individus apparentés dans deux populations locales divergeant principalement sur le niveau de fragmentation de l'environnement. Dans l'une de ces populations, nous avons également conduit une étude sérologique pour déterminer si les chats sauvages et domestiques échangeaient certains des virus communs du Chat domestique (PVF, HVF, CVF, VIF). Nous avons observé un taux d'hybridation plus élevé dans l'environnement le plus fragmenté. Malgré la ceinture de chats domestiques infectés à haute prévalence autour d'elle, la population de chats sauvages de ce même environnement n'était infectée par aucun des virus. La présence de barrières génétiques et/ou comportementales expliquerait ce résultat dans un environnement fragmenté permettant par ailleurs le maintien de souches généralistes. L'échantillonnage local présenté ici nous a permis de comprendre les mécanismes à la base de l'hybridation et de la circulation des virus. Présentement, le Chat sauvage européen ne semble pas menacé par le Chat domestique. Toutefois, des mesures préventives devraient être adoptées pour éviter que cela ne devienne le cas / Hybridization and infectious diseases are two major issues for wildlife conservation worldwide. The European wildcat Felis silvestris silvestris, through its interactions with its close relative the domestic cat Felis silvestris catus, represents a valuable model for the study of these two issues and their interactions. The European wildcat is both threatened by hybridization and infectious diseases. This, combined with the high diversity of environments where it lives throughout Europe, allows to lead comparative studies and to understand which environmental determinants impact gene and pathogen flows. Here we propose two new methodological developments for the detection of hybrids based on genetic markers allowing for a better comparability between studies and leading to a fast detection of hybrids respectively. Hybrid detection and assessment of spatial relatedness pattern were carried out in two local populations of European wildcats differing mostly on the level of fragmentation of their environment. On one of this population, we led a serological survey to investigate whether domestic cats and wildcats exchange some of the most common viruses of the domestic cat (FPV, FHV, FCV, FIV). We found a higher rate of hybridization in the most fragmented environment. There, the wildcat population, in spite of the domestic cats surrounding it that were infected at high prevalence with the viruses, was not infected by any of the viruses. The presence of genetic or behavioral barriers may explain this result in an environment that is not incompatible with the persistence of generalist strains. The local sampling achieved in this work allowed us to investigate mechanisms behind hybridization and viruses’ circulation. At the time, the European wildcat does not seem threatened by domestic cats. However, preventive measures should be taken to prevent a future increase in frequency of the phenomenon both for the control of gene and virus flows
107

Nouvelles méthodes d'inférence de l'histoire démographique à partir de données génétiques / New methods for inference on demographic history from genetic data

Merle, Coralie 12 December 2016 (has links)
Cette thèse consiste à améliorer les outils statistiques adaptés à des modèles stochastiques de génétiques des populations et de développer des méthodes statistiques adaptées à des données génétiques de nouvelle génération. Pour un modèle paramétrique basé sur le coalescent, la vraisemblance en un point de l'espace des paramètres s'écrit comme la somme des probabilités de toutes les histoires (généalogies munies de mutations) possibles de l'échantillon observé. À l'heure actuelle, les meilleures méthodes d'inférence des paramètres de ce type de modèles sont les méthodes bayésiennes approchées et l'approximation de la fonction de vraisemblance.L'algorithme d'échantillonnage préférentiel séquentiel (SIS) estime la vraisemblance, en parcourant de manière efficace l'espace latent de ces histoires. Dans ce schéma, la distribution d'importance propose les histoires de l'échantillon observé les plus probables possibles. Cette technique est lourde en temps de calcul mais fournit des estimations par maximum de vraisemblance d'une grande précision.Les modèles que nous souhaitons inférer incluent des variations de la taille de la population. Les méthodes d'IS ne sont pas efficaces pour des modèles en déséquilibre car les distributions d'importance ont été développées pour une population de taille constante au cours du temps. Le temps de calcul augmente fortement pour la même précision de l'estimation de la vraisemblance. La première contribution de cette thèse a consisté à explorer l'algorithme SIS avec ré-échantillonnage (SISR). L'idée est de ré-échantillonner de façon à apprendre quelles sont les histoires proposées par la distribution d'importance qui seront les plus probables avant d'avoir terminé leur simulation et diminuer le temps de calcul. Par ailleurs, nous avons proposé une nouvelle distribution de ré-échantillonnage, tirant profit de l'information contenue dans la vraisemblance composite par paire de l'échantillon.Le développement récent des technologies de séquençage à haut débit a révolutionné la génération de données de polymorphisme chez de nombreux organismes. Les méthodes d'inférence classiques de maximum de vraisemblance ou basées sur le Sites Frequency Spectrum, adaptées à des jeux de données de polymorphisme génétique de quelques loci, supposent l'indépendance des généalogies des loci. Pour tirer parti de données beaucoup plus denses sur le génome, nous considérons la dépendance des généalogies sur des positions voisines du génome et modéliser la recombinaison génétique. Alors, la vraisemblance prend la forme d'une intégrale sur tous les graphes de recombinaison ancestraux possibles pour les séquences échantillonnées, un espace de bien plus grande dimension que l'espace des généalogies. Les méthodes d'inférence basées sur la vraisemblance ne peuvent plus être utilisées sans plus d'approximations. De nombreuses méthodes infèrent les changements historiques de la taille de la population mais ne considèrent pas la complexité du modèle ajusté. Même si certaines proposent un contrôle d'un potentiel sur-ajustement du modèle, à notre connaissance, aucune procédure de choix de modèle entre des modèles démographiques de complexité différente n'a été proposée à partir de longueurs de segments identiques. Nous nous concentrons sur un modèle de taille de population constante et un modèle de population ayant subit un unique changement de taille dans le passé. Puisque ces modèles sont emboîtés, la deuxième contribution de cette thèse a consisté à développer un critère de choix de modèle pénalisé basé sur la comparaison d'homozygotie haplotypique observée et théorique. Notre pénalisation, reposant sur des indices de sensibilité de Sobol, est liée à la complexité du modèle. Ce critère pénalisé de choix de modèle nous a permis de choisir entre un modèle de taille de population constante ou présentant un changement passé de la taille de la population sur des jeux de données simulés et sur un jeux de données de vaches. / This thesis aims to improve statistical methods suitable for stochastic models of population genetics and to develop statistical methods adapted to next generation sequencing data.Sequential importance sampling algorithms have been defined to estimate likelihoods in models of ancestral population processes. However, these algorithms are based on features of the models with constant population size, and become inefficient when the population size varies in time, making likelihood-based inferences difficult in many demographic situations. In the first contribution of this thesis, we modify a previous sequential importance sampling algorithm to improve the efficiency of the likelihood estimation. Our procedure is still based on features of the model with constant size, but uses a resampling technique with a new resampling probability distribution depending on the pairwise composite likelihood. We tested our algorithm, called sequential importance sampling with resampling (SISR) on simulated data sets under different demographic cases. In most cases, we divided the computational cost by two for the same accuracy of inference, in some cases even by one hundred. This work provides the first assessment of the impact of such resampling techniques on parameter inference using sequential importance sampling, and extends the range of situations where likelihood inferences can be easily performed.The recent development of high-throughput sequencing technologies has revolutionized the generation of genetic data for many organisms : genome wide sequence data are now available. Classical inference methods (maximum likelihood methods (MCMC, IS), methods based on the Sites Frequency Spectrum (SFS)) suitable for polymorphism data sets of some loci assume that the genealogies of the loci are independent. To take advantage of genome wide sequence data with known genome, we need to consider the dependency of genealogies of adjacent positions in the genome. Thus, when we model recombination, the likelihood takes the form of an integral over all possible ancestral recombination graph for the sampled sequences. This space is of much larger dimension than the genealogies space, to the extent that we cannot handle likelihood-based inference while modeling recombination without further approximations.Several methods infer the historical changes in the effective population size but do not consider the complexity of the demographic model fitted.Even if some of them propose a control for potential over-fitting, to the best of our knowledge, no model choice procedure between demographic models of different complexity have been proposed based on IBS segment lengths. The aim of the second contribution of this thesis is to overcome this lack by proposing a model choice procedure between demographic models of different complexity. We focus on a simple model of constant population size and a slightly more complex model with a single past change in the population size.Since these models are embedded, we developed a penalized model choice criterion based on the comparison of observed and predicted haplotype homozygosity.Our penalization relies on Sobol's sensitivity indices and is a form of penalty related to the complexity of the model.This penalized model choice criterion allowed us to choose between a population of constant size and a population size with a past change on simulated data sets and also on a cattle data set.
108

Développement de matériaux innovants à base d’élastomère de silicone pour l’échantillonnage passif de pesticides dans les eaux de surface et de subsurface / Development of innovative silicone rubber based materials for passive sampling of pesticides in surface and subsurface waters

Martin, Alexis 05 December 2016 (has links)
L'échantillonnage passif intégratif est de plus en plus reconnu comme une alternative à l'échantillonnage ponctuel pour la mesure des concentrations de micropolluants organiques dans les milieux aquatiques. Cette technique combine l'étape d'échantillonnage et de préconcentration in situ pour délivrer une concentration intégrée sur la durée d'exposition de l'échantillonneur passif (EP). Une des limitations principales de l'échantillonnage passif est la sélectivité imposée par la phase réceptrice pour une classe de contaminants restreinte (hydrophobes ou polaires). Ainsi, il est à l'heure actuelle nécessaire d'employer plusieurs EP pour mesurer des concentrations en pesticides caractérisés par une large gamme de polarité. L'objectif principal de cette thèse s'inscrit dans une démarche de développement de phases réceptrices pour l'échantillonnage passif de pesticides dans les milieux aquatiques. Afin de répondre à ce défi, nous avons sélectionné et formulé des matériaux pour la sorption de 28 pesticides aux propriétés physico-chimiques variées par le biais de tests en laboratoire. Nous avons d'une part sélectionné un élastomère de silicone de la marque Goodfellow® parmi 7 autres élastomères de silicone à partir de tests en laboratoire sur des critères de sorption. Nous avons démontré que les élastomères de silicone ont une forte affinité pour les pesticides plutôt hydrophobes, tout en accumulant également des pesticides polaires. Des propriétés de sorption différentes ont été identifiées selon leur formulation et un mécanisme d'adsorption est suspecté pour certains pesticides. D'autre part, nous avons formulé et testé plusieurs matériaux composites innovants dont le plus performant, renommé PACSiR, combine les propriétés de sorption d'un élastomère de silicone et d'un copolymère poreux (Oasis ® HLB). Nous avons mis en évidence que le PACSiR a des propriétés mécaniques adaptées pour une exposition directe dans le milieu aquatique et permet de capter une gamme de pesticides élargie vers les pesticides plus polaires par rapport à un élastomère de silicone. Ces deux matériaux ont été calibrés en laboratoire en tant qu'EP (TS à base de silicone et TSP à base de PACSiR), sous forme de tiges de petite dimension, afin de déterminer les constantes cinétiques d'accumulation et d'étudier l'impact de la vitesse de courant. Enfin, nous avons appliqué les TS et TSP dans des eaux de surface et de subsurface afin d'en évaluer et comparer les performances dans des situations contrastées d'exposition. La gamme d'utilisation de chaque EP en termes de polarité des pesticides a pu être définie (TS : 3 < log Kow < 5,5 et TSP : 2 < log Kow < 5,5.). Les concentrations en pesticides intégrées sur la durée d'exposition sont équivalentes à un échantillonnage d'eau moyenné au temps et les incertitudes sont du même ordre de grandeur sur les concentrations calculées. Ces EP ont permis de détecter des insecticides organophosphorés faiblement quantifiés par d'autres techniques de prélèvement d'eau. Nous avons démontré leur capacité à intégrer des pics de contamination fugaces en pesticides dans des contextes agricoles variés / Time integrative passive sampling is more and more accepted as an alternative to grab sampling for measurement of organic micropollutants concentrations in aquatic environment. This technique offers the advantage to provide a concentration integrated over the deployment period of the passive sampler and to reduce limit of quantification by combining sampling and in situ pre-concentration steps. The main limitation of passive sampling is the selectivity of the receiving phase for a restricted class of contaminants (hydrophobic or hydrophilic). In this way, we need to deploy several passive samplers for sampling of pesticides covering a wide range of polarities. The aim of this thesis was to develop a receiving phase for passive sampling of pesticides in a single step in aquatic environment.We selected and developed materials for sorption of 28 pesticides with varied physicochemical properties by laboratory tests. The two selected and studied materials were a silicone rubber and a porous copolymer (Oasis ® HLB). Indeed, we shown that silicone rubber have strong affinity for hydrophobic pesticides but they also accumulate polar pesticides. We identified different sorption properties of silicone rubbers owing to their formulation and a possible adsorption mechanism for some pesticides. The composite material developed had mechanical properties adapted for a direct exposition in the aquatic environment and accumulates a range of pesticides expanded for more polar pesticides. These two materials were then shaped as rods for a simple in situ deployment and recovery of pesticides in laboratory. They have been calibrated as passive samplers by studying the impact of flow velocity on uptake kinetic parameters. In situ applications of passive samplers in surface and subsurface waters made it possible to calculate time integrated concentrations of pesticides over a duration exposure of one week. Moreover, we detected organosphorous insecticides underquantified by other techniques of water sampling. They also showed a capacity to integrate short peak contamination of pesticides in various agricultural contexts
109

Mise au point d'un nouvel échantillonneur intégratif à base de solide naturel poreux / Development of a new passive sampler using a natural porous material

Ansanay-Alex, Salomé 19 December 2013 (has links)
L’échantillonnage passif est une alternative prometteuse à l’échantillonnage ponctuel. Cette technique permet d’accumuler les contaminants présents dans l’eau directement in-situ, intégrant ainsi les variations de concentrations temporelles qui ne sont pas détectables avec l’échantillonnage ponctuel. Cependant la plupart des échantillonneurs commercialisés actuellement utilisent des phases complexes et coûteuses. Ces travaux de thèse ont pour objectif de mettre au point un nouvel échantillonneur intégratif plus robuste et moins coûteux, capable d’échantillonner autant les contaminants métalliques que les composés organiques. Pour cela, l’idée était d’utiliser comme phase adsorbante un minéral naturel poreux doté de fortes capacités d’adsorption ; des zéolithes et une sépiolite naturelle ont été envisagées. Le développement d’un tel dispositif est un processus complexe qui passe tout d’abord par l’étude des capacités d’adsorption des différents solides pour les contaminants métalliques ainsi que pour les composés organiques. La comparaison des capacités d’adsorption des différents solides démontre que la sépiolite est la plus efficace pour la rétention de la majorité des contaminants étudiés. Sur la base de ces résultats la sépiolite est sélectionnée comme phase réceptrice du nouvel échantillonneur. Le déploiement de ces nouveaux dispositifs dans un milieu semi-contrôlé soumis à différents scénarios de contamination met en lumière une importante capacité d’échantillonnage tant pour les métaux que pour les contaminants organiques hydrophiles. Enfin, dans une dernière étape. / Passive sampling is a promising alternative to grab sampling. This approach consists in accumulating contaminants from water directly in-situ. Contrary to conventional grab sampling, this method allows integrating the temporal variations of the concentration. However most commercial samplers use complex and expensive adsorbent phases. In this work, we aimed to develop a new integrative sampler, more robust and less expensive than the commercial ones, able to sample both metals and organic compounds. For this the use of porous natural minerals with high adsorption capacities was investigated. Zeolites and natural sepiolite were considered. The development of this kind of device is a complex process involving a double approach laboratory/field. The first step consists in studying the adsorption capacity of different solids towards metals and organic compounds. The comparison of adsorption efficiency of different solids shows that sepiolite is the most efficient for the retention of most of the studied contaminants. Based on these results, it was selected as receiving phase of the new sampler. Deployment of these new devices in a semi-controlled environment with various scenarios of contamination was tested. This experiment highlighted that sepiolite has an important sampling ability both for metals and for hydrophilic organic contaminants. Finally, the last step of this process consisted in a validation of these samplers in a natural environment and in industrial effluent.
110

Model adaptation techniques in machine translation / Techniques d'adaptation en traduction automatique

Shah, Kashif 29 June 2012 (has links)
L’approche statistique pour la traduction automatique semble être aujourd’hui l’approche la plusprometteuse. Cette approche permet de développer rapidement un système de traduction pour unenouvelle paire de langue lorsque les données d'apprentissage disponibles sont suffisammentconséquentes.Les systèmes de traduction automatique statistique (Statistical Machine Translation (SMT)) utilisentdes textes parallèles, aussi appelés les bitextes, comme support d'apprentissage pour créer lesmodèles de traduction. Ils utilisent également des corpus monolingues afin de modéliser la langueciblée.Les performances d'un système de traduction automatique statistique dépendent essentiellement dela qualité et de la quantité des données disponibles. Pour l'apprentissage d'un modèle de traduction,les textes parallèles sont collectés depuis différentes sources, dans différents domaines. Ces corpussont habituellement concaténés et les phrases sont extraites suite à un processus d'alignement desmots.Néanmoins, les données parallèles sont assez hétérogènes et les performances des systèmes detraduction automatique dépendent généralement du contexte applicatif. Les performances varient laplupart du temps en fonction de la source de données d’apprentissage, de la qualité de l'alignementet de la cohérence des données avec la tâche. Les traductions, sélectionnées parmi différenteshypothèses, sont directement influencées par le domaine duquel sont récupérées les donnéesd'apprentissage. C'est en contradiction avec l'apprentissage des modèles de langage pour lesquelsdes techniques bien connues sont utilisées pour pondérer les différentes sources de données. Ilapparaît donc essentiel de pondérer les corpus d’apprentissage en fonction de leur importance dansle domaine de la tâche de traduction.Nous avons proposé de nouvelles méthodes permettant de pondérer automatiquement les donnéeshétérogènes afin d'adapter le modèle de traduction.Dans une première approche, cette pondération automatique est réalisée à l'aide d'une technique deré-échantillonnage. Un poids est assigné à chaque bitextes en fonction de la proportion de donnéesdu corpus. Les alignements de chaque bitextes sont par la suite ré-échantillonnés en fonction de cespoids. Le poids attribué aux corpus est optimisé sur les données de développement en utilisant uneméthode numérique. De plus, un score d'alignement relatif à chaque paire de phrase alignée estutilisé comme mesure de confiance.Dans un travail approfondi, nous pondérons en ré-échantillonnant des alignements, en utilisant despoids qui diminuent en fonction de la distance temporelle entre les bitextes et les données de test.Nous pouvons, de cette manière, utiliser tous les bitextes disponibles tout en mettant l'accent sur leplus récent.L'idée principale de notre approche est d'utiliser une forme paramétrique, ou des méta-poids, pourpondérer les différentes parties des bitextes. De cette manière, seuls quelques paramètres doiventêtre optimisés.Nous avons également proposé un cadre de travail générique qui, lors du calcul de la table detraduction, ne prend en compte que les corpus et les phrases réalisant les meilleurs scores. Cetteapproche permet une meilleure distribution des masses de probabilités sur les paires de phrasesindividuelles.Nous avons présenté les résultats de nos expériences dans différentes campagnes d'évaluationinternationales, telles que IWSLT, NIST, OpenMT et WMT, sur les paires de langues Anglais/Arabeet Fançais/Arabe. Nous avons ainsi montré une amélioration significative de la qualité destraductions proposées. / Nowadays several indicators suggest that the statistical approach to machinetranslation is the most promising. It allows fast development of systems for anylanguage pair provided that sufficient training data is available.Statistical Machine Translation (SMT) systems use parallel texts ‐ also called bitexts ‐ astraining material for creation of the translation model and monolingual corpora fortarget language modeling.The performance of an SMT system heavily depends upon the quality and quantity ofavailable data. In order to train the translation model, the parallel texts is collected fromvarious sources and domains. These corpora are usually concatenated, word alignmentsare calculated and phrases are extracted.However, parallel data is quite inhomogeneous in many practical applications withrespect to several factors like data source, alignment quality, appropriateness to thetask, etc. This means that the corpora are not weighted according to their importance tothe domain of the translation task. Therefore, it is the domain of the training resourcesthat influences the translations that are selected among several choices. This is incontrast to the training of the language model for which well‐known techniques areused to weight the various sources of texts.We have proposed novel methods to automatically weight the heterogeneous data toadapt the translation model.In a first approach, this is achieved with a resampling technique. A weight to eachbitexts is assigned to select the proportion of data from that corpus. The alignmentscoming from each bitexts are resampled based on these weights. The weights of thecorpora are directly optimized on the development data using a numerical method.Moreover, an alignment score of each aligned sentence pair is used as confidencemeasurement.In an extended work, we obtain such a weighting by resampling alignments usingweights that decrease with the temporal distance of bitexts to the test set. By thesemeans, we can use all the available bitexts and still put an emphasis on the most recentone. The main idea of our approach is to use a parametric form or meta‐weights for theweighting of the different parts of the bitexts. This ensures that our approach has onlyfew parameters to optimize.In another work, we have proposed a generic framework which takes into account thecorpus and sentence level "goodness scores" during the calculation of the phrase‐tablewhich results into better distribution of probability mass of the individual phrase pairs.

Page generated in 0.0845 seconds