• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 35
  • 24
  • 5
  • Tagged with
  • 66
  • 38
  • 13
  • 8
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Optimisation des méthodes algorithmiques en inférence bayésienne. Modélisation dynamique de la transmission d'une infection au sein d'une population hétérogène.

Gajda, Dorota 13 October 2011 (has links) (PDF)
Ce travail se décompose en deux grandes parties, "Estimations répétées dans le cadre de la modélisation bayésienne" et "Modélisation de la transmission de maladies infectieuses dans une population. Estimation des paramètres.". Les techniques développées dans la première partie sont utilisées en fin de la seconde partie. La première partie est consacrée à des optimisations d'algorithmes stochastiques très souvent utilisés, notamment dans le contexte des modélisations Bayésiennes. Cette optimisation est particulièrement faite lors de l'étude empirique d'estimateurs des paramètres d'un modèle où les qualités des estimateurs sont évaluées sur un grand nombre de jeux de données simulées. Quand les lois a posteriori ne sont pas explicites, le recours à des algorithmes stochastiques itératifs (de la famille des algorithmes dits de Monte Carlo par Chaîne de Makov) pour approcher les lois a posteriori est alors très couteux en temps car doit être fait pour chaque jeu de données. Dans ce contexte, ce travail consiste en l'étude de solutions évitant un trop grand nombre d'appels à ces algorithmes mais permettant bien-sûr d'obtenir malgré tout des résultats précis. La principale technique étudiée dans cette partie est celle de l'échantillonnage préférentiel. La seconde partie est consacrée aux études de modèles épidémiques, en particulier le modèle compartimental dit SIS (Susceptible-Infecté-Susceptible) dans sa version stochastique. L'approche stochastique permet de prendre en compte l'hétérogénéité de l'évolution de la maladie dans la population. les approches par des processus Markoviens sont étudiés où la forme des probabilités de passage entre les états est non linéaire. La solution de l'équation différentielle en probabilité n'est alors en général pas explicite. Les principales techniques utilisées dans cette partie sont celles dites de développement de l'équation maîtresse ("master equation") appliquées au modèle SIS avec une taille de population constante. Les propriétés des estimateurs des paramètres sont étudiées dans le cadre fréquentiste et bayésien. Concernant l'approche Bayésienne, les solutions d'optimisation algorithmique de la première partie sont appliquées.
42

Spectrométrie de masse FT-ICR bidimensionnelle, développements et applications / Two-dimensional FT-ICR mass spectrometry, developments and applications

Bouclon, Julien 26 January 2018 (has links)
La spectrométrie de masse fournit deux types d’informations : la masse moléculaire des molécules présentes dans un mélange, en une première expérience (MS), puis leurs structures après isolation suivie de fragmentation, obtenues une à une (MS/MS). La spectrométrie de masse FT-ICR bidimensionnelle permet d’obtenir toutes ces informations en une seule expérience, sans isolation, quelle que soit la complexité de l’échantillon. Le prix à payer est une faible résolution dans la dimension indirecte, pouvant être améliorée par une augmentation du temps d’analyse, mais qui semblait limiter cette technique à une simple curiosité scientifique.Le premier objectif est d’implémenter l’échantillonnage non uniforme (NUS) en FT-ICR MS 2D. Cette technique consiste en l’acquisition aléatoire du même nombre de points dans la dimension indirecte que lors d’une acquisition uniforme, mais sur une plage de t1max plus grande. Les points manquants sont ensuite reconstruits par des algorithmes, entrainant une augmentation significative de la résolution du signal sans perte de temps sur le spectromètre. La première étape est de créer un algorithme générant un échantillonnage aléatoire de distribution uniforme pour une couverture optimale de la plage de t1max. Les algorithmes de reconstruction ayant des difficultés à reconstituer des signaux de faible intensité quand le nombre de points non échantillonnés augmente, la deuxième étape est de déterminer le facteur de sous-échantillonnage optimal afin d’obtenir le bon compromis entre résolution et signal-sur-bruit. La troisième étape est de réaliser des spectres MS/MS ayant des massifs isotopiques corrects pour des fragments produits à partir des isotopes les plus lourds.Le deuxième objectif est de décrire le comportement des ions dans la cellule ICR en fonction des impulsions RF utilisées à partir des équations de Lorentz. Dans une première partie, le but est d’établir les équations qui régissent le mouvement des ions précurseurs jusqu’à leur détection. Ensuite, il s’agit d’introduire la fragmentation et de déterminer les solutions analytiques décrivant le mouvement des fragments. La dernière étape est de simuler le comportement des ions précurseurs tout au long de la séquence d’impulsions ainsi que celui des nuages de fragments, de leur formation à leur détection. / Mass spectrometry provides two kinds of information: the molecular mass of molecules present in a mixture, obtained all at once (MS), and structure through isolation and fragmentation, obtained one by one (MS/MS). Two-dimensional FT-ICR MS allows simultaneous parallel acquisition of structural information without isolation, regardless of the number of molecules. Nevertheless, the low resolution in the indirect dimension, which could be improved by increasing the acquisition time, seemed to limit this method to a simple curiosity. The first objective is to implement non-uniform-sampling (NUS) in 2D FT-ICR MS. This method consist in the random acquisition of the same number of points in the indirect dimension as in uniform acquisition, but over a wider t1max range. Processing algorithms then reconstruct skipped points, and the result is an increase of signal resolution without wasting analysis time. The first step is to create an algorithm that can generate random sampling with a uniform distribution for an optimal coverage of the t1max range. Processing algorithms may have trouble to reconstruct small peaks when the number of skipped points increases. The second step is to choose the under-sampling ratio for the best compromise between the gain in resolution and the signal-to-noise ratio. The third and last step is to obtain MS/MS spectra with corrects isotopic patterns for fragments produced from heavy isotopes. The second objective is to improve the understanding of ion motions in ICR cells depending on the RF pulses by using Lorentz equations. The first goal is to determine the equations governing precursors motions until their detection. Then the fragmentation will be introduced and analytical solutions describing fragments motions will be established. The last step is to simulate the trajectories of precursors throughout the entire pulse sequence as well as the behavior of fragments clouds, from their formation to detection.
43

Feasibility of a Direct Sampling Dual-Frequency SDR Galileo Receiver for Civil Aviation / Faisabilité d’un récepteur Galileo SDR bi-fréquence à échantillonnage direct pour l’Aviation Civile

Blais, Antoine 25 September 2014 (has links)
Cette thèse étudie l'intérêt des architectures SDR à échantillonnage direct pour des récepteurs Galileo dans le contexte particulier de l'Aviation Civile, caractérisé notamment par une exigence de robustesse à des interférences bien spécifiées, principalement les interférences causées par les signaux DME ou CW. Le concept de Software Defined Radio traduit la migration toujours plus grande, au sein des récepteurs, des procédés de démodulation d'une technologie analogique à du traitement numérique, donc de façon logicielle. La quasi généralisation de ce choix de conception dans les architectures nouvelles nous a conduit à le considérer comme acquis dans notre travail. La méthode d'échantillonnage direct, ou Direct Sampling, quant à elle consiste à numériser les signaux le plus près possible de l'antenne, typiquement derrière le LNA et les filtres RF associés. Cette technique s'affranchit donc de toute conversion en fréquence intermédiaire, utilisant autant que possible le principe de l'échantillonnage passe-bande afin de minimiser la fréquence d'échantillonnage et en conséquence les coûts calculatoires ultérieurs. De plus cette thèse s'est proposée de pousser jusqu'au bout la simplification analogique en renonçant également à l'utilisation de l'AGC analogique qui équipe les récepteurs de conception traditionnelle. Seuls des amplificateurs à gain fixe précéderont l'ADC. Ce mémoire rend compte des travaux menés pour déterminer si ces choix peuvent s'appliquer aux récepteurs Galileo multifréquences (signaux E5a et E1) destinés à l'Aviation Civile. La structure du document reflète la démarche qui a été la notre durant cette thèse et qui a consisté à partir de l'antenne pour, d'étape en étape, aboutir au signal numérique traité par la partie SDR. Après une introduction détaillant le problème posé et le contexte dans lequel il s'inscrit, le deuxième chapitre étudie les exigences de robustesse aux interférences auquel doit se soumettre un récepteur de navigation par satellites destiné à l'Aviation Civile. Il s'agit de la base qui conditionne toute la démarche à suivre. Le troisième chapitre est consacré au calcul des fréquences d'échantillonnage. Deux architectures d'échantillonnage sont proposées. La première met en oeuvre un échantillonnage cohérent des deux bandes E5a et E1 tandis que la seconde implémente un échantillonnage séparé. Dans les deux cas, la nécessité de filtres RF supplémentaires précédant l'échantillonnage est mise en évidence. L'atténuation minimale que doivent apporter ces filtres est spécifiée. Ces spécifications sont suffisamment dures pour qu'il ait été jugé indispensable d'effectuer une étude de faisabilité. C'est l'objet du chapitre quatre où une approche expérimentale à base d'un composant disponible sur étagère a été menée. La problématique de la gigue de l'horloge d'échantillonnage, incontournable ici eu égard à la haute fréquence des signaux à numériser, est étudiée dans le chapitre cinq. Des résultats de simulation sont présentés et un dimensionnement de la qualité de l'horloge d'échantillonnage est proposé. Dans le chapitre six, la quantification, second volet de la numérisation, est détaillée. Il s'agit très précisément du calcul du nombre minimum de bits de quantification que doit exhiber l'ADC pour représenter toute la dynamique, non seulement du signal utile mais aussi des interférences potentielles. Au vu des débits de données conséquents mis en évidence dans les chapitres trois et six, le chapitre sept évalue la possibilité de réduire la dynamique de codage du signal à l'aide de fonctions de compression. Le dernier chapitre est focalisé sur la séparation numérique des bandes E5a et E1 dans l'architecture à échantillonnage cohérent introduite au chapitre deux. Ici aussi l'atténuation minimale que doivent apporter les filtres requis est spécifiée. / This thesis studies the relevance of DS SDR architectures applied to Galileo receivers in the specific context of Civil Aviation, characterized in particular by strict requirements of robustness to interference, in particular, interference caused by DME or CW signals. The Software Defined Radio concept renders the major tendency, inside the receiver, to move the demodulation part from an analog technology to digital signal processing, that is software. The choice of this kind of design is nearly generalized in new receiver architectures so it was considered the case in this work. The Direct Sampling method consists in digitizing the signal as close as possible to the antenna, typically after the LNA and the associated RF bandpass filter. So this technique does not use any conversion to an intermediate frequency, using as much as possible the bandpass sampling principle in order to minimize the sampling frequency and consequently the downstream computational costs. What is more, this thesis aiming at the greatest simplification of the analog part of the receiver, the decision was made to suppress the analog AGC which equips the receivers of classical architecture. Only fixed gained amplifiers should precede the ADC. This document exposes the work done to determine if these choices can apply to a multifrequency (E5a and E1 signals) Galileo receiver intended for a Civil Aviation use. The structure of the document reflects the approach used during this thesis. It progresses step by step from the antenna down to the digital signal, to be processed then by the SDR part. After an introduction detailing the problem to study and its context, the second chapter investigates the Civil Aviation requirements of robustness to interference a satellite navigation receiver must comply with. It is the basis which completely conditions the design process. The third chapter is devoted to the determination of the sampling frequency. Two sampling architectures are proposed: the first implements coherent sampling of the two E5a and E1 bands while the second uses separate sampling. In both cases the necessity to use extra RF filters is shown. The minimum attenuation to be provided by these filters is also specified. These requirements are strong enough to justify a feasibility investigation. It is the subject of chapter four where an experimental study, based on a SAW filter chip available on the shelf, is related. The issue of the sampling clock jitter, of concern with the Direct Sampling technique because of the high frequency of the signal to digitize, is investigated in chapter five. Some simulation results are presented and a dimensioning of the quality of the sampling clock is proposed. In chapter six, quantization, a byproduct of digitization, is detailed. Precisely it is the calculation of the number of bits the ADC must have to digitally represent the whole dynamic of, not only the useful signal, but also of the potential interference. Considering the high binary throughput highlighted in chapters three and six, chapter seven evaluates the possibility to reduce the coding dynamic of the digital signal at the output of the ADC by means of compression functions. The last chapter is focused on the digital separation of the two E5a and E1 bands in the coherent sampling architecture presented in chapter two. Here also specifications of minimum attenuation are given. Lastly the conclusions synthesize the contributions of this thesis and proposes ideas for future work to enrich them and more generally the subject of DS-SDR Galileo receivers for Civil Aviation.
44

Investigation on uncertainty and sensitivity analysis of complex systems / Enquête sur l'incertitude et l'analyse de sensibilité des systèmes complexes

Zhu, Yueying 23 October 2017 (has links)
Par un développement en série de Taylor, une relation analytique générale est établie pour calculer l’incertitude de la réponse du modèle, en assumant l'indépendance des entrées. En utilisant des relations de puissances et exponentielles, il est démontré que l’approximation souvent utilisée permet d’évaluer de manière satisfaisante l’incertitude sur la réponse du modèle pourvu que l’incertitude d’entrée soit négligeable ou que le modèle soit presque linéaire. La méthode est appliquée à l’étude d’un réseau de distribution électrique et à un modèle d’ordre économique.La méthode est étendue aux cas où les variables d’entrée sont corrélées. Avec la méthode généralisée, on peux déterminer si les corrélations d'entrée doivent ou non être considérées pour des applications pratiques. Des exemples numériques montrent l'efficacité et la validation de notre méthode dans l'analyse des modèles tant généraux que spécifiques tels que le modèle déterministe du VIH. La méthode est ensuite comparée à celle de Sobol. Les résultats montrent que la méthode de Sobol peut surévaluer l’incidence des divers facteurs, mais sous-estimer ceux de leurs interactions dans le cas d’interactions non linéaires entre les paramètres d’entrée. Une modification est alors introduite, aidant à comprendre la différence entre notre méthode et celle de Sobol. Enfin, un modèle numérique est établi dans le cas d’un jeu virtuel prenant en compte la formation de la dynamique de l'opinion publique. L’analyse théorique à l’aide de la méthode de modification d'un paramètre à la fois. La méthode basée sur l'échantillonnage fournit une analyse globale de l'incertitude et de la sensibilité des observations. / By means of taylor series expansion, a general analytic formula is derived to characterise the uncertaintypropagation from input variables to the model response,in assuming input independence. By using power-lawand exponential functions, it is shown that the widelyused approximation considering only the first ordercontribution of input uncertainty is sufficiently good onlywhen the input uncertainty is negligible or the underlyingmodel is almost linear. This method is then applied to apower grid system and the eoq model.The method is also extended to correlated case. Withthe extended method, it is straightforward to identify theimportance of input correlations in the model response.This allows one to determine whether or not the inputcorrelations should be considered in practicalapplications. Numerical examples suggest theeffectiveness and validation of our method for generalmodels, as well as specific ones such as thedeterministic hiv model.The method is then compared to Sobol’s one which isimplemented with sampling based strategy. Resultsshow that, compared to our method, it may overvaluethe roles of individual input factors but underestimatethose of their interaction effects when there arenonlinear coupling terms of input factors. A modificationis then introduced, helping understand the differencebetween our method and Sobol’s one.Finally, a numerical model is designed based on avirtual gambling mechanism, regarding the formation ofopinion dynamics. Theoretical analysis is proposed bythe use of one-at-a-time method. Sampling-basedmethod provides a global analysis of output uncertaintyand sensitivity.
45

Environmental and socio-economic determinants, their impacts on trace metals and pharmaceuticals in watercourses : a comparison on two watersheds of France and Ukraine / Déterminants environnementaux et socio-économiques, leur influence sur les métaux traces et les produits pharmaceutiques dans les cours d’eau

Vystavna, Yuliya 09 March 2012 (has links)
Les objectifs de cette étude comparative de deux bassins versants en France et en Ukraine» sont de trois ordres : i) déterminer l’occurrence des micropolluants émergents (métaux traces et molécules pharmaceutiques) dans les eaux de surface, ii) permettre leur évaluation qualitative et quantitative et enfin iii) estimer leur distribution en fonction du contexte socio-économique. Cette recherche porte sur l'analyse de l'origine, sur les propriétés physico-chimiques et sur le comportement des micropolluants (métaux traces et molécules pharmaceutiques) dans les eaux de surface des rivières Jalle (Bordeaux, France) et Udy & Lopan (Kharkiv, Ukraine). Un suivi des métaux traces et des produits pharmaceutiques dans les eaux naturelles de surface dans différents contextes et conditions climatiques a été réalisé. La description et l'analyse des facteurs environnementaux et socio-économiques influençant l’hydrochimie locale en vue de conclure sur l’opportunité et l'intérêt des micropolluants émergents comme indicateurs anthropiques du contexte socio-économique et environnemental d‘un bassin versant ont été mis en œuvre. L’étude a combiné des techniques de prélèvements d’échantillons d’eau classiques et par capteurs passifs in situ. L’analyse semi quantitative des micropolluants émergents a porté sur les métaux traces (sonde DGT) et les produits pharmaceutiques (POCIS). L’usage de ces capteurs a permis d’évaluer les différentes formes d'éléments, les sources, les variations saisonnières et spatiales, l'accumulation et les risques environnementaux. A partir des données environnementales collectées, acquises, actualisées et validées il a été possible de modéliser la consommation régionale de médicaments dans le cas de (1) la région de Kharkiv, en Ukraine, sur les rivières Lopan et Udy du bassin Seversky Donets et (2) la région de Bordeaux, en France, sur la rivière Jalle, du bassin de la Garonne. Les sites ont été sélectionnés pour représenter une diversité tant du point de vue de l'état de pollution des eaux (nature et flux) que de celui du paysage socio-économique (contexte urbain, social et indicateurs économiques). Les résultats majeurs de cette étude sont : (i) méthodologique pour le développement et la validation de protocoles d’échantillonnage classique et passif (intérêt, limites, recommandations), ii) analytique quant à la mesure des éléments traces des eaux de surface naturelles dans des conditions extrêmes, iii) scientifique par l’obtention d’un jeu de données sur l’hydrochimie des éléments traces ( présence, accumulation, origine et variabilité spatiale et temporelle et iv) prospectif quant à l’usage des métaux traces et de produits pharmaceutiques comme traceurs anthropiques de l’état des eaux naturelles de surfaces et reflet du contexte socio-économique. La modélisation socio-économique (statistique) et environnementale (balance de masse) aide à comprendre l’évolution de la qualité des eaux de surface dans leur contexte régional et permet d’identifier certains contaminants comme des indicateurs des activités anthropiques d’un bassin versant et permet de définir une typologie. L’ensemble des résultats de la thèse sont présentés sous la forme d'articles publiés ou soumis dans des revues scientifiques internationales. / The PhD study focuses on the understanding of processes of the impact of environmental and socio-economic determinants on the occurrence, accumulation and distribution of trace metals and pharmaceuticals in urban watercourses. The research has been based on the analysis of the origin; physico-chemical properties and behavior of trace pollutants. The study was performed in two general steps: (i) monitoring of trace metals and pharmaceuticals in natural waters; (ii) description and analysis of environmental and socio-economic determinants that influence the water chemistry and (iii) evaluation of trace pollutants as environmental and socio-economic indicators. The monitoring of trace metals in natural water was proceed using the combination of passive and grab water sampling techniques, in order to evaluate various forms of elements, sources, seasonal and spatial variations, accumulation and environmental risks associated with the presence of contaminants in the study areas. The monitoring of pharmaceuticals was done using passive sensors to determine their capacity to register chemicals variation in time and adequation to use environmental data for the regional medicament consumption modeling. Monitoring data were also investigated in term of potential applications of trace metals and pharmaceuticals as environmental and socio-economic indicators. Two study sites were chosen: (1) the Kharkiv region in Ukraine where research was focused on the Lopan and Udy rivers of the Seversky Donets water basin and (2) the Bordeaux region in France where water monitoring was done in the Jalle River, Garonne water basin. Sites were mainly selected to represent the water pollution status in different socio-economic regions. General PhD results can be described as follows:1. The methodology for pilot and continuous monitoring of trace elements in the water with combination of traditional (grab) and innovative (passive) sampling procedures help to get data on trace elements presence, accumulation and sources, considering time variations.2. The analysis of trace metals and pharmaceuticals in two river basins of France and Ukraine and determination of environmental factors that impact on the occurrence, accumulation and distribution of these chemicals.3. The establishment of links between regional socio-economic issues and water quality data. The socio-economic and environmental modeling helps us to understand the water pollution process in regional context and give the opportunity to propose contaminants as tracers of anthropogenic activities and water quality assessment.Results of the PhD study are presented in the form of published or submitted peer-reviewed articles. / Диссертация «Экологические и социально-экономические факторы распространения металлов и фармацевтических веществ в природных водах: на примере рек Харькова, Украина и Бордо, Франция» на соискание степени Доктора Философии (Environmental Science) подготовлена в рамках договора о научном сотрудничестве и совместном руководстве между Университетом Бордо, Франция и Харьковской национальной академией городского хозяйства, Украина.Актуальность работы связана с сушествующими проблемами мониторинга природных вод, недостатком исследований микро-загрязнителей водотоков как во Франции, так и в Украине, существующим экологическим риском, который возникает при поступлении и накоплении металов и фармацевтических веществ в урбанизированных водотоках, а также возможностью использования химических веществ в качестве экологических и социально – экономических индикаторов. Целью диссертационной работы стало усовершенствование методов мониторинга микро-загрязнителей в природных водах и оценка возможности использования отдельных микро-загрязнителей в качестве экологических и социально-экономических показателей. Предметом исследования являются экологические и социально-экономические факторы, влияющие на распространение металлов и фармацевтических веществ в природных водах. Объектом исследования стали реки Уды и Лопань, Харьковская область, Украина и река Жаль, регион Бордо, Франция.Основные задачи: (1) провести мониторинг рек на различные формы металлов и фармацевтические вещества с применением стандартных и инновационных (пассивных) методов отбора проб; (2) опеределить экологические и социально- экономические факторы, которые влияют на распространение микрозагрязнителей в природных водах; (3) изучить возможность использования металлов и фармацевтических веществ в качестве индикаторов антропогенного загрязнения природных вод.В результате проведенных исследований был: Впервые: (а) осуществлен мониторинг лабильных форм металлов в реках бассейна Северского Донца, в результате которого определены концентрации токсичных металлов в водотоках, источники и количество их поступления; (б) проведен мониторинг фармацевтических веществ в природных водах Украины, (в) определены концентрации и основные источники поступления фармацевтических препаратов и удельные показатели потребления различных медикаментов в Харьковском регионе; Усовершенствованы: (а) методика проведения мониторинга воды за счет применения стандартных и инновационных пассивных методов отбора проб воды в контрастных климатических и гидрологических условиях с целью исследования различных форм загрязнителей и их временных вариаций; (б) балансово-статистическая модель, которая позволяет использовать данные мониторинга природных вод для социально-экономической характеристики регионов – водопользователей; Предложены:(а) система определения геохимического фона рек на основании торий – нормализованных концентраций металлов в донных отложениях; (б) метод использование металлов и фармацевтических веществ в качестве индикаторов поступления сточных вод для идентификации несанкционированных сбросов.Основу диссертационного исследования составили натурные данные полевых исследований рек Харькова и Бордо, которые были организованы и проведены с непосредственным участием автора в 2008 – 2011 гг. Большинство лабораторных анализов было лично проведено автором в сертифицированных лабораториях Университета Бордо и Университета Орлеан, Франция.Диссертация имеет теоретическое и практическое значение для дальнейшего развития мониторинга природных вод, а также повышения уровня экологической и социальной безопасности в регионах. По теме опубликовано 4 статьи в международных журналах с высоким ИМПАКТ фактором, а также 5 статей в изданиях, реглиментированных ВАК Украины и России.
46

Développements méthodologiques pour l’échantillonnage et l’analyse des hydrocarbures dans les systèmes aquatiques : application dans des expérimentations en conditions semi-contrôlées et dans le milieu environnemental

Abou Mrad, Ninette 15 December 2011 (has links)
Ce travail de thèse a pour premier objectif le développement de méthodologies d’extraction (HS-SPME) et d’analyse (GC-MS, GC-MS-MS) des hydrocarbures pétroliers volatils (aromatiques et aliphatiques) dans la phase dissoute et la phase sédimentaire. Le deuxième objectif concerne le développement d’un nouvel outil d’échantillonnage passif des HAP dissous (POCIS-« like »). Les méthodologies développées ont été par la suite appliquées pour la caractérisation des hydrocarbures dans les effluents industriels pétroliers au cours d'expérimentations en conditions semi-contrôlées dans le cadre de deux projets de recherche (TOTAL, EMESTOX). Enfin un couplage de l’échantillonnage passif/ponctuel et biologique a été mis en oeuvre pour le suivi des HAP dans deux écosystèmes aquatiques français : le bassin d’Arcachon et l’estuaire de la Gironde. / Hydrocarbons originating from telluric discharges and accidental spills constitute a major source of pollution in the aquatic systems. These compounds are present at trace levels in the dissolved phase due to their hydrophobicity and/or their volatility, and are characterized by variable concentrations in the water body depending on discontinuous inputs, dilution phenomena, tidal cycles…Therefore, in order to raise the analytical and environmental challenges generated by the hydrocarbons in the aquatic systems, the present phD work focused on: i) methodological developments for the extraction and analysis of volatile petroleum hydrocarbons (aromatics and aliphatics) for both the dissolved and the sedimentary phases, in order to characterize the presence and fate of a petroleum contamination in these media, and ii) developments of new passive sampling tools for the sampling of polycyclic aromatic hydrocarbons (PAHs) which have proved their toxic character, while integrating the variability in the contaminant concentrations in the dissolved phase.
47

Contributions aux méthodes de Monte Carlo et leur application au filtrage statistique / Contributions to Monte Carlo methods and their application to statistical filtering

Lamberti, Roland 22 November 2018 (has links)
Cette thèse s’intéresse au problème de l’inférence bayésienne dans les modèles probabilistes dynamiques. Plus précisément nous nous focalisons sur les méthodes de Monte Carlo pour l’intégration. Nous revisitons tout d’abord le mécanisme d’échantillonnage d’importance avec rééchantillonnage, puis son extension au cadre dynamique connue sous le nom de filtrage particulaire, pour enfin conclure nos travaux par une application à la poursuite multi-cibles.En premier lieu nous partons du problème de l’estimation d’un moment suivant une loi de probabilité, connue à une constante près, par une méthode de Monte Carlo. Tout d’abord,nous proposons un nouvel estimateur apparenté à l’estimateur d’échantillonnage d’importance normalisé mais utilisant deux lois de proposition différentes au lieu d’une seule. Ensuite,nous revisitons le mécanisme d’échantillonnage d’importance avec rééchantillonnage dans son ensemble afin de produire des tirages Monte Carlo indépendants, contrairement au mécanisme usuel, et nous construisons ainsi deux nouveaux estimateurs.Dans un second temps nous nous intéressons à l’aspect dynamique lié au problème d’inférence bayésienne séquentielle. Nous adaptons alors dans ce contexte notre nouvelle technique de rééchantillonnage indépendant développée précédemment dans un cadre statique.Ceci produit le mécanisme de filtrage particulaire avec rééchantillonnage indépendant, que nous interprétons comme cas particulier de filtrage particulaire auxiliaire. En raison du coût supplémentaire en tirages requis par cette technique, nous proposons ensuite une procédure de rééchantillonnage semi-indépendant permettant de le contrôler.En dernier lieu, nous considérons une application de poursuite multi-cibles dans un réseau de capteurs utilisant un nouveau modèle bayésien, et analysons empiriquement les résultats donnés dans cette application par notre nouvel algorithme de filtrage particulaire ainsi qu’un algorithme de Monte Carlo par Chaînes de Markov séquentiel / This thesis deals with integration calculus in the context of Bayesian inference and Bayesian statistical filtering. More precisely, we focus on Monte Carlo integration methods. We first revisit the importance sampling with resampling mechanism, then its extension to the dynamic setting known as particle filtering, and finally conclude our work with a multi-target tracking application. Firstly, we consider the problem of estimating some moment of a probability density, known up to a constant, via Monte Carlo methodology. We start by proposing a new estimator affiliated with the normalized importance sampling estimator but using two proposition densities rather than a single one. We then revisit the importance sampling with resampling mechanism as a whole in order to produce Monte Carlo samples that are independent, contrary to the classical mechanism, which enables us to develop two new estimators. Secondly, we consider the dynamic aspect in the framework of sequential Bayesian inference. We thus adapt to this framework our new independent resampling technique, previously developed in a static setting. This yields the particle filtering with independent resampling mechanism, which we reinterpret as a special case of auxiliary particle filtering. Because of the increased cost required by this technique, we next propose a semi independent resampling procedure which enables to control this additional cost. Lastly, we consider an application of multi-target tracking within a sensor network using a new Bayesian model, and empirically analyze the results from our new particle filtering algorithm as well as a sequential Markov Chain Monte Carlo algorithm
48

Nouveau récepteur radio numérique pour les observations astrophysiques spatiales dans la bande de fréquence 1 kHz à 50 MHz / New digital radio receiver for space astrophysical observations in the frequency range 1 kHz to 50 MHz

Gargouri, Yosra 21 November 2017 (has links)
Plusieurs phénomènes astronomiques émettent des ondes radios basses fréquences tels que les éruptions solaires, les magnétosphères, les pulsars . . . Certains de ces ondes sont mal captées par les observatoires terrestres à cause, principalement, de la coupure ionosphérique. Il devient indispensable d’envoyer des récepteurs radio dans l’espace pour les acquérir. Cependant, ces récepteurs sont consommation d’énergie et le taux de transmission. Un paradigme récent pour l’acquisition et la reconstruction des signaux, appelé l’échantillonnage comprimé (Compressive sampling, Compressed Sensing, CS) pourra être une réponse adéquate à ces problématiques en limitant, dès l’acquisition, la quantité de données numérisés : En effet, le CS a permis l’émergence d’un nouveau type de Convertisseur Analogique-Numérique (ADC) appelé Convertisseur Analogique-Information (AIC) qui permet d’échantillonner à une fréquence potentiellement inférieure à celle prescrite par Nyquist-Shannon, en exploitant le caractère parcimonieux des signaux. Nous proposons dans le cadre de cette thèse d’étudier l’application de l’échantillonnage comprimé pour l’acquisition des signaux astrophysiques spatiaux dans la bande de fréquence [1kHz à 50 MHz]. Nous nous focalisons sur des signaux émis par les deux sources radio les plus brillantes dans le ciel telles que vues de la Terre, à savoir le Soleil et Jupiter. En se basant sur les propriétés caractéristiques de nos signaux d’intérêt, nous avons construit progressivement et méthodologiquement notre schéma d’acquisition : En commençant par l’étude de compressibilité des signaux, puis l’identification de l’architecture du Convertisseur Analogique-Information (AIC) appropriée et enfin le choix de l’algorithme de reconstruction du signal. Nous avons également proposé une nouvelle implémentation flexible et programmable de l’AIC retenu, qui permet l’acquisition de différents types de signal ayant le même domaine de compressibilité avec différents facteurs de compression. En utilisant une technologie CMOS 65 nm, nous avons évalué le gain en quantité de données acquise et en consommation de puissance de cette architecture par rapport au convertisseur analogique-numérique traditionnel. / Several astronomical phenomena emit low-frequency radio waves such as solar flares, magnetospheres, pulsars ... Some of these emissions are poorly captured by ground-based observatories mainly because of the Earth’s ionospheric cutoff frequency. It becomes necessary to send radio receivers in space to acquire them. However, these receivers are faced with strong restrictions on storage capacity, energy consumption and transmission rate.To overcome these challenges, sampling architectures should be reviewed and improved. A recent paradigm for signal acquisition and reconstruction, known as compressive sampling hat require a limited number of measurements and leads to the development of a new type of converter : the Analog to Information Converter (AIC). Unlike standard Analog to Digital converters (ADC), AIC can sample at a lower rate than that prescribed by Nyquist Shannon, exploiting the sparsity of signals.The main goal of this thesis is to study the application of compressed sampling for the acquisition of spatial astrophysical signals in the frequency band [1 kHz to 50 MHz]. We focus on signals emitted by the two brightest radio sources in the sky as seen from the Earth, namely the Sun and Jupiter. Based on the characteristic properties of our signals of interest, we progressively and methodologically constructed our acquisition scheme : From the study of signals compressibility, to the choice of the AIC architecture and the signal reconstruction algorithm. We also proposed a new, flexible and programmable implementation of the selected AIC which allows the acquisition of different types of signal having the same compressibility domain and with different compression factors. Using a 65-nm CMOS technology, we evaluated the gain in terms of the amount of data acquired and power consumed of this architecture compared to the traditional analog-to-digital converter.
49

Développements d’échantillonneurs passifs pour l’étude de la contamination des eaux par les micropolluants organiques / Development of passive sampling tools to monitor organic micropollutants in water

Wund, Perrine 09 December 2013 (has links)
Préserver les ressources en eau est l’une des problématiques environnementales majeures du 21è siècle. Pour faire face à cette nécessité, il est essentiel de mettre en place une surveillance réglementée de la qualité des eaux et des rejets se déversant dans le milieu aquatique et de développer de nouveaux outils d’échantillonnage. L’échantillonnage ponctuel est la technique la plus facile à mettre en œuvre. Toutefois, elle n’est pas toujours représentative d’un milieu hétérogène parfois soumis à des variabilités spatiales et temporelles importantes. L’échantillonnage passif, notamment avec l’outil POCIS (Polar Organic Chemical Integrative Sampler), est une approche complémentaire aux techniques traditionnelles, qui permet de concentrer des molécules organiques semi-polaires directement sur site. La pertinence du résultat obtenu (la concentration moyennée sur la durée d’exposition), couplée à la simplicité de sa mise en œuvre en font a priori un outil de choix pour suivre des hydrosystèmes complexes.Dans ce contexte, des familles des composés diversifiées ont été sélectionnées : pesticides, composés pharmaceutiques, hormones stéroïdiennes et composés perfluorés. Au sein de chaque famille, plusieurs composés traceurs, présents dans l’environnement, comportant des propriétés physico-chimiques variées et aux statuts règlementaires différents (Directive Cadre sur l’Eau notamment), ont été choisis.Des essais d’optimisation de design du POCIS (quantité et nature de phase réceptrice, nature de la membrane) ont été conduits, menant à la validation de la configuration classique dans le cas général. L’influence de différents paramètres environnementaux pertinents : débit, température, matrice, présence de biofilm et dispositif de déploiement a été évaluée lors de calibrations de l’outil réalisées dans des systèmes de complexité croissante : au laboratoire, sur pilote et sur site.Les différents déploiements sur site (effluent de STEP et rivière) ont permis de valider l’utilisation de cet outil de prélèvement passif dans le cadre d’un suivi environnemental. Le potentiel du POCIS a été pleinement confirmé, tant en termes de logistique que de résultats (justesse par rapport aux concentrations mesurées par des techniques classiques, intégration d’événements ponctuels, limite de quantification…). / The protection of water resources is one of the major environmental stakes of 21st century. Regulation concerning water quality and effluents is therefore definitely needed, as well as new approaches regarding water sampling. Spot sampling is the easiest strategy. However, it may not be representative of a heterogeneous matrix, with sometimes important spatial and temporal variability. Passive sampling, including POCIS (Polar Organic Chemical Integrative Sampler) is a complementary approach, which enables an on-site pre-concentration of semi-polar organic compounds. The relevance of the result (time-weighted average concentrations) and the ease to implement POCIS make it an appropriate tool to monitor complex hydrosystems.Within this work, various compound classes were selected: pesticides, pharmaceuticals, steroid hormones and perfluorinated compounds. Among each family, several tracer molecules, widely encountered in the environment, with different physic-chemical properties and regulatory status (particularly in the Water Framework Directive), were chosen.POCIS design optimization (amount and nature of sorbent, nature of membrane) was carried out, leading to the validation of the standard configuration for general purposes. The impact of different relevant environmental parameters (flow-rate, temperature, matrix, biofouling and deployment device), was assessed during calibrations of POCIS conducted in systems of increasing complexity: in the laboratory, at pilot-scale and on-site.All on-site deployments (WWTP effluent and river) enabled to validate the use of this passive sampling tool in the framework of an environmental monitoring. The potential of this tool was fully confirmed, both logistically and in terms of results (trueness compared to concentrations measured with traditional techniques, integration of punctual events, quantification limit…).
50

Interopérabilité des systèmes distribués produisant des flux de données sémantiques au profit de l'aide à la prise de décision / Interoperability of distributed systems producing semantic data stream for decision-making

Belghaouti, Fethi 26 January 2017 (has links)
Internet est une source infinie de données émanant de sources telles que les réseaux sociaux ou les capteurs (domotique, ville intelligente, véhicule autonome, etc.). Ces données hétérogènes et de plus en plus volumineuses, peuvent être gérées grâce au web sémantique, qui propose de les homogénéiser et de les lier et de raisonner dessus, et aux systèmes de gestion de flux de données, qui abordent essentiellement les problèmes liés au volume, à la volatilité et à l’interrogation continue. L’alliance de ces deux disciplines a vu l’essor des systèmes de gestion de flux de données sémantiques RSP (RDF Stream Processing systems). L’objectif de cette thèse est de permettre à ces systèmes, via de nouvelles approches et algorithmes à faible coût, de rester opérationnels, voire plus performants, même en cas de gros volumes de données en entrée et/ou de ressources système limitées.Pour atteindre cet objectif, notre thèse s’articule principalement autour de la problématique du : "Traitement de flux de données sémantiques dans un contexte de systèmes informatiques à ressources limitées". Elle adresse les questions de recherche suivantes : (i) Comment représenter un flux de données sémantiques ? Et (ii) Comment traiter les flux de données sémantiques entrants, lorsque leurs débits et/ou volumes dépassent les capacités du système cible ?Nous proposons comme première contribution une analyse des données circulant dans les flux de données sémantiques pour considérer non pas une succession de triplets indépendants mais plutôt une succession de graphes en étoiles, préservant ainsi les liens entre les triplets. En utilisant cette approche, nous avons amélioré significativement la qualité des réponses de quelques algorithmes d’échantillonnage bien connus dans la littérature pour le délestage des flux. L’analyse de la requête continue permet d’optimiser cette solution en repèrant les données non pertinentes pour être délestées les premières. Dans la deuxième contribution, nous proposons un algorithme de détection de motifs fréquents de graphes RDF dans les flux de données RDF, appelé FreGraPaD (Frequent RDF Graph Patterns Detection). C’est un algorithme en une passe, orienté mémoire et peu coûteux. Il utilise deux structures de données principales un vecteur de bits pour construire et identifier le motif de graphe RDF assurant une optimisation de l’espace mémoire et une table de hachage pour le stockage de ces derniers. La troisième contribution de notre thèse consiste en une solution déterministe de réduction de charge des systèmes RSP appelée POL (Pattern Oriented Load-shedding for RDF Stream Processing systems). Elle utilise des opérateurs booléens très peu coûteux, qu’elle applique aux deux motifs binaires construits de la donnée et de la requête continue pour déterminer et éjecter celle qui est non-pertinente. Elle garantit un rappel de 100%, réduit la charge du système et améliore son temps de réponse. Enfin, notre quatrième contribution est un outil de compression en ligne de flux RDF, appelé Patorc (Pattern Oriented Compression for RSP systems). Il se base sur les motifs fréquents présents dans les flux qu’il factorise. C’est une solution de compression sans perte de données dont l’interrogation sans décompression est très envisageable. Les solutions apportées par cette thèse permettent l’extension des systèmes RSP existants en leur permettant le passage à l’échelle dans un contexte de Bigdata. Elles leur permettent ainsi de manipuler un ou plusieurs flux arrivant à différentes vitesses, sans perdre de leur qualité de réponse et tout en garantissant leur disponibilité au-delà même de leurs limites physiques. Les résultats des expérimentations menées montrent que l’extension des systèmes existants par nos solutions améliore leurs performances. Elles illustrent la diminution considérable de leur temps de réponse, l’augmentation de leur seuil de débit de traitement en entrée tout en optimisant l’utilisation de leurs ressources systèmes / Internet is an infinite source of data coming from sources such as social networks or sensors (home automation, smart city, autonomous vehicle, etc.). These heterogeneous and increasingly large data can be managed through semantic web technologies, which propose to homogenize, link these data and reason above them, and data flow management systems, which mainly address the problems related to volume, volatility and continuous querying. The alliance of these two disciplines has seen the growth of semantic data stream management systems also called RSP (RDF Stream Processing Systems). The objective of this thesis is to allow these systems, via new approaches and "low cost" algorithms, to remain operational, even more efficient, even for large input data volumes and/or with limited system resources.To reach this goal, our thesis is mainly focused on the issue of "Processing semantic data streamsin a context of computer systems with limited resources". It directly contributes to answer the following research questions : (i) How to represent semantic data stream ? And (ii) How to deal with input semantic data when their rates and/or volumes exceed the capabilities of the target system ?As first contribution, we propose an analysis of the data in the semantic data streams in order to consider a succession of star graphs instead of just a success of andependent triples, thus preserving the links between the triples. By using this approach, we significantly impoved the quality of responses of some well known sampling algoithms for load-shedding. The analysis of the continuous query allows the optimisation of this solution by selection the irrelevant data to be load-shedded first. In the second contribution, we propose an algorithm for detecting frequent RDF graph patterns in semantic data streams.We called it FreGraPaD for Frequent RDF Graph Patterns Detection. It is a one pass algorithm, memory oriented and "low-cost". It uses two main data structures : A bit-vector to build and identify the RDF graph pattern, providing thus memory space optimization ; and a hash-table for storing the patterns.The third contribution of our thesis consists of a deterministic load-shedding solution for RSP systems, called POL (Pattern Oriented Load-shedding for RDF Stream Processing systems). It uses very low-cost boolean operators, that we apply on the built binary patterns of the data and the continuous query inorder to determine which data is not relevant to be ejected upstream of the system. It guarantees a recall of 100%, reduces the system load and improves response time. Finally, in the fourth contribution, we propose Patorc (Pattern Oriented Compression for RSP systems). Patorc is an online compression toolfor RDF streams. It is based on the frequent patterns present in RDF data streams that factorizes. It is a data lossless compression solution whith very possible querying without any need to decompression.This thesis provides solutions that allow the extension of existing RSP systems and makes them able to scale in a bigdata context. Thus, these solutions allow the RSP systems to deal with one or more semantic data streams arriving at different speeds, without loosing their response quality while ensuring their availability, even beyond their physical limitations. The conducted experiments, supported by the obtained results show that the extension of existing systems with the new solutions improves their performance. They illustrate the considerable decrease in their engine’s response time, increasing their processing rate threshold while optimizing the use of their system resources

Page generated in 0.0877 seconds