Spelling suggestions: "subject:"échantillonnage"" "subject:"echantillonnage""
161 |
Agile bandpass sampling RF receivers for low power applicationsLolis, Luis 11 March 2011 (has links)
Les nouveaux besoins en communications sans fil pussent le développement de systèmes de transmission RF en termes the reconfigurabilité, multistandard et à basse consommation. Ces travaux de thèse font l’objet de la proposition d’une nouvelle architecture de réception capable d’adresser ces aspects dans le contexte des réseaux WPAN. La technique de sous échantillonnage (BPS-Bandpass Sampling) est appliquée et permet d’exploiter et certain nombre d’avantages liées au traitement du signal à Temps Discret (DT-Discrete Time signal processing), notamment le filtrage et la décimation. Si comparées à la Radio Logicielle, ces techniques permettent de relâcher les contraintes liées aux ADCs en maintenant des caractéristiques multistandard et de reconfigurabilité. Un simulateur dans le domaine fréquentiel large bande a été développé sous MATLAB pour répondre à des limitations au niveau système comme par exemple le repliement spectral et le produit gain bande. En addition avec une nouvelle méthode de conception système, cet outil permet de séparer les différentes contraintes des blocs pour la définition d’un plan de fréquence et the filtrage optimaux. La séparation des différentes contributions dans la dégradation du SNDR (notamment le bruit thermique, bruit de phase, non linéarité et le repliement), permet de relâcher de spécifications critiques liées à la consommation de puissance. L’architecture à sous échantillonnage proposée dans la thèse est résultat d’une comparaison quantitative des différentes architectures à sous échantillonnage, tout en appliquant la méthode et l’outil de conception système développés. Des aspects comme l’optimisation du filtrage entre les techniques à temps continu et temps discret et le plan de fréquence associé, permettent de trouve l’architecture qui représente le meilleur compromis entre la consommation électrique et l’agilité, dans le contexte voulu. Le bloc de filtrage à temps discret est identifié comme étant critique, et une étude sur les limitations d’implémentation circuit est menée. Des effets come les capacités parasites, l’imparité entre les capacités, le bruit du commutateur, la non linéarité, le gain finit de Ampli OP, sont évalués à travers d’une simulation comportementale en VHDL-AMS. On observe la robustesse des circuits orientés temps discret par rapport les contraintes des nouvelles technologies intégrés. Finalement, le système est spécifié en termes de bruit de phase, qui peuvent représenter jusqu’à 30% de la consommation en puissance. Dans ce but, une nouvelle méthode numérique est proposée pour être capable d’évaluer le rapport signal sur distorsion due au jitter SDjR dans le processus de sous échantillonnage. En plus, une conclusion non intuitive est survenue de cette étude, où on que réduire la fréquence d’échantillonnage n’augmente pas les contraintes en termes de jitter pour le système. L’architecture proposée issue de cette étude est sujet d’un développement circuit pour la validation du concept. / New needs on wireless communications pushes the development in terms reconfigurable, multistandards and low power radio systems. The objective of this work is to propose and design new receiver architecture capable of addressing these aspects in the context of the WPAN networks. The technique of Bandpass Sampling (BPS) is applied and permits to exploit a certain number of advantages linked to the discrete time (DT) signal processing, notably filtering and decimation. Compared to the Software-defined Radio (SDR), these techniques permit to relax the ADC constraints while keeping the multi standard and reconfigurable features. A wide band system level simulation tool is developed using MATLAB platform to overcome system level limitations such spectral aliasing and gain bandwidth product. In addition to a new system design method, the tool helps separating the blocks constraints and defining the optimum frequency plan and filtering. Separating the different contributions on the SNDR degradation (noise, phase noise, non linearity, and aliasing), critical specifications for power consumption can be relaxed. The proposed BPS architecture on the thesis is a result of a quantitative comparison of different BPS architectures, applying the system design method and tool. Aspects such filtering optimization between continuous and discrete time filtering and the associated frequency plan permitted to find the architecture which represents the best trade-off between power consumption and agility on the aimed context. The DT filtering block is therefore identified as critical block, which a study on the circuit implementation limitations is carried out. Effects such parasitic capacitances and capacitance mismatch, switch noise, non linear distortion, finite gain OTA, are evaluated through VHDL-AMS modelling. It is observed the robustness of discrete time oriented circuits. Finally, phase noise specifications are given considering that frequency synthesis circuits may represent up to 30% of the power consumption. For that goal, a new numerical method is proposed, capable of evaluating the signal to jitter distortion ratio SDjR on the BPS process. Moreover, a non intuitive conclusion is given, where reducing the sampling frequency does not increase the constraints in terms of jitter. The proposed architecture issue from this study is in stage of circuit level design in the project team of LETI for final proof of concept.
|
162 |
Sondages pour données fonctionnelles : construction de bandes de confiance asymptotiques et prise en compte d'information auxiliaire / Survey sampling for functionnal data : building asymptotic confidence bands and considering auxiliary informationJosserand, Etienne 12 October 2011 (has links)
Lorsque des bases de données fonctionnelles sont trop grandes pour être observées de manière exhaustive, les techniques d’échantillonnage fournissent une solution efficace pour estimer des quantités globales simples, telles que la courbe moyenne, sans être obligé de stocker toutes les données. Dans cette thèse, nous proposons un estimateur d’Horvitz-Thompson de la courbe moyenne, et grâce à des hypothèses asymptotiques sur le plan de sondage nous avons établi un Théorème Central Limite Fonctionnel dans le cadre des fonctions continues afin d’obtenir des bandes de confiance asymptotiques. Pour un plan d’échantillonnage à taille fixe, nous montrons que le sondage stratifié peut grandement améliorer l’estimation comparativement au sondage aléatoire simple. De plus, nous étendons la règle d’allocation optimale de Neyman dans le contexte fonctionnel. La prise en compte d’information auxiliaire a été développée grâce à des estimateurs par modèle assisté, mais aussi en utilisant directement cette information dans les poids d’échantillonnage avec le sondage à probabilités inégales proportionnelles à la taille. Le cas des courbes bruitées est également étudié avec la mise en place d’un lissage par polynômes locaux. Pour sélectionner la largeur de la fenêtre de lissage, nous proposons une méthode de validation croisée qui tient compte des poids de sondage. Les propriétés de consistance de nos estimateurs sont établies, ainsi que la normalité asymptotique des estimateurs de la courbe moyenne. Deux méthodes de constructions des bandes de confiance sont proposées. La première utilise la normalité asymptotique de nos estimateurs en simulant un processus Gaussien conditionnellement à sa fonction de covariance afin d’en estimer la loi du sup. La seconde utilise des techniques de bootstrap en population finie qui ne nécessitent pas l’estimation de la fonction de covariance. / When collections of functional data are too large to be exhaustively observed, survey sampling techniques provide an effective way to estimate global quantities such as the population mean function, without being obligated to store all the data. In this thesis, we propose a Horvitz–Thompson estimator of the mean trajectory, and with additional assumptions on the sampling design, we state a functional Central Limit Theorem and deduce asymptotic confidence bands. For a fixed sample size, we show that stratified sampling can greatly improve the estimation compared to simple random sampling. In addition, we extend Neyman’s rule of optimal allocation to the functional context. Taking into account auxiliary information has been developed with model-assisted estimators and weighted estimators with unequal probability sampling proportional to size. The case of noisy curves is also studied with the help local polynomial smoothers. To select the bandwidth, we propose a cross-validation criterion that takes into account the sampling weights. The consistency properties of our estimators are established, as well as asymptotic normality of the estimators of the mean curve. Two methods to build confidence bands are proposed. The first uses the asymptotic normality of our estimators by simulating a Gaussian process given estimated the covariance function in order to estimate the law of supremum. The second uses bootstrap techniques in a finite population that does not require to estimate the covariance function.
|
163 |
Placement automatique de sondes d’irradiancePolard-Perron, Joël 05 1900 (has links)
Nous proposons une méthode pour placer automatiquement des sondes dans une scène par minimisation d’une fonction d’erreur. Nous guidons les sondes vers les sites d’échantillonnage optimaux en appliquant la descente de gradient à une fonction d’erreur qui représente la similarité entre la structure en construction et un ensemble de référence. En utilisant la pondération inverse à la distance comme fonction interpolante, nous avons construit avec fiabilité des ensembles de sondes dans trois scènes. En comparant nos résultats avec ceux produits par un ensemble de sondes de référence placées sur une grille régulière, nous atteignons théoriquement notre objectif dans une des trois scènes, où nous obtenons des valeurs d’erreur inférieures à la référence avec beaucoup moins de sondes. Nous avons eu des succès partiels dans les autres scènes, selon le nombre d’échantillons utilisés. / Diffuse global illumination within a 3D scene can be approximated in real time using irradiance probes. Probe placement typically relies on significant human input, and final quality of the approximation is often left to the subjectivity of a lighting artist. As demand for realism in rendering increases, the need to enhance the quality of such approximations is greater. We propose a method to automatically place probes in a scene by minimizing an error function. We guide probes to optimal sampling locations by applying gradient descent to an error function that represents similarity between our interpolated results and reference irradiance values. Using weighted nearest neighbour interpolation, we were able to reliably construct probe sets with minimal input in three scenes. Comparing our results to those produced by a set of probes placed on a 3D grid, we were theoretically successful in one scene, in which we could obtain lower error values with fewer probes. We obtained partial success in the other scenes, depending on the number of samples used.
|
164 |
Développement d’une vanne d’injection de liquide pour l’analyse en ligne par chromatographie en phase gazeuse et ses applications dans le domaine du raffinage : étude du comportement et apport des colonnes monolithiques courtes pour la chromatographie en phase gazeuse haute pression / Development of a liquid injection system dedicated to on-line analysis by gas chromatography and its refining applications : study of the behavior and contribution of short monolithic columns in high pressure gas chromatographyManiquet, Adrien 14 December 2016 (has links)
En milieu industriel, si l'analyse en ligne d'effluents gazeux à l'aide de la chromatographie en phase gazeuse est actuellement réalisée sans difficultés majeure, l'analyse des liquides reste une des principales problématiques à résoudre. En effet, comparée à une analyse réalisée au laboratoire, l'analyse en ligne d'un échantillon liquide permettrait de s'affranchir de l'étape de prélèvement et de préparation avant injection ainsi que des problèmes de contamination et de représentativité de l'échantillon. Des systèmes d'injection de liquide en ligne sont actuellement disponibles, cependant, des difficultés d'injection liées à la discrimination des analytes sont rencontrées. C'est dans ce contexte qu'une vanne dédiée à l'injection des liquides en ligne a été développée, puis validée en laboratoire, et enfin mise en œuvre sur des applications industrielles pétrolières. Un tout autre enjeu, lié entre autres à la réduction des coûts de maintenance et d'installation, ainsi qu'à la compatibilité de systèmes analytiques destinés à l'industrie et aux micro-pilotes, a orienté des développements instrumentaux vers la miniaturisation des systèmes. Un assemblage de différentes briques technologiques a ensuite été réalisé afin d'évaluer la faisabilité d'un système miniaturisé incorporant la technologie d'injection des liquides en ligne. Finalement et toujours dans ce contexte de miniaturisation, des colonnes monolithiques courtes ont été mises en œuvre en chromatographie en phase gazeuse à haute pression, au laboratoire pour commencer, puis sur des effluents industriels gazeux. Elles ont permis de réaliser des analyses très rapides avec une grande efficacité par unité de longueur tout en pouvant agir sur la sélectivité des colonnes grâce à un contrôle de leurs propriétés de surface / In industry, although on-line analysis of gaseous effluents using gas chromatography is carried out without major difficulty, the analysis of liquids remains problematic and is one of the main issues to be solved. Indeed, compared to an analysis carried out in a laboratory, the on-line analysis of a liquid sample would bypass the steps of sampling and preparation prior to injection and would avoid problems of contamination and representativeness of the sample. Systems for injecting liquids on-line are currently available; however, difficulties are encountered, due to the discrimination of analytes. It is in this context that a valve dedicated to the on-line injection of liquids was developed, validated under laboratory conditions and finally implemented in the oil industry. Another issue, related, amongst other things, to the reduction of maintenance and installation costs, as well as to the compatibility of analytical systems for industry and for micro-pilots, steered instrumental developments towards the miniaturization of systems. Different technological bricks were therefore brought together to assess the feasibility of a miniaturized system involving the technology for on-line injection of liquid. Finally, and still in the context of miniaturization, short monolithic columns were implemented in gaseous phase chromatography at high pressure, first in the laboratory and then on industrial gas effluents. They allowed very fast analyses to be performed which had greater efficiency per unit of length while still being able to act on the selectivity of the columns thanks to the control of their surface properties
|
165 |
Échantillonnage et inférence dans réseaux complexes / Sampling and inference in complex networksKazhuthuveettil Sreedharan, Jithin 02 December 2016 (has links)
L’émergence récente de grands réseaux, surtout réseaux sociaux en ligne (OSN), a révélé la difficulté de crawler le réseau complet et a déclenché le développement de nouvelles techniques distribuées. Dans cette thèse, nous concevons et analysons des algorithmes basés sur les marches aléatoires et la diffusion pour l'échantillonnage, l'estimation et l'inférence des fonctions des réseaux. La thèse commence par le problème classique de trouver les valeurs propres dominants et leurs vecteurs propres de matrices de graphe symétriques, comme la matrice Laplacienne de graphes non orientés. En utilisant le fait que le spectre est associé à une équation de type différentiel Schrödinger, nous développons des techniques évolutives à l’aide de la diffusion sur le graphe. Ensuite, nous considérons l’échantillonnage des fonctions de réseau (comme somme et moyenne) en utilisant les marches aléatoires sur le graphe. Afin d'éviter le temps «burn-in» de marche aléatoire, avec l'idée de régénération à un nœud fixe, nous développons un estimateur de la fonction de somme qui est non asymptotiquement non-biaisé et dérivons une approximation à la postérieure Bayésienne. La dernière partie de la thèse étudie l'application de la théorie des valeurs extrêmes pour faire une inférence sur les événements extrêmes à partir des échantillons stationnaires des différentes marches aléatoires pour l’échantillonnage de réseau / The recent emergence of large networks, mainly due to the rise of online social networks, brought out the difficulty to gather a complete picture of a network and it prompted the development of new distributed techniques. In this thesis, we design and analyze algorithms based on random walks and diffusion for sampling, estimation and inference of the network functions, and for approximating the spectrum of graph matrices. The thesis starts with the classical problem of finding the dominant eigenvalues and the eigenvectors of symmetric graph matrices like Laplacian of undirected graphs. Using the fact that the eigenspectrum is associated with a Schrödinger-type differential equation, we develop scalable techniques with diffusion over the graph and with gossiping algorithms. They are also adaptable to a simple algorithm based on quantum computing. Next, we consider sampling and estimation of network functions (sum and average) using random walks on graph. In order to avoid the burn-in time of random walks, with the idea of regeneration at its revisits to a fixed node, we develop an estimator for the aggregate function which is non-asymptotically unbiased and derive an approximation to its Bayesian posterior. An estimator based on reinforcement learning is also developed making use of regeneration. The final part of the thesis deals with the use of extreme value theory to make inference from the stationary samples of the random walks. Extremal events such as first hitting time of a large degree node, order statistics and mean cluster size are well captured in the parameter “extremal index”. We theoretically study and estimate extremal index of different random walk sampling techniques
|
166 |
L’analyse spectrale des graphes aléatoires et son application au groupement et l’échantillonnage / Spectral analysis of random graphs with application to clustering and samplingKadavankandy, Arun 18 July 2017 (has links)
Dans cette thèse, nous étudions les graphes aléatoires en utilisant des outils de la théorie des matrices aléatoires et l’analyse probabilistique afin de résoudre des problèmes clefs dans le domaine des réseaux complexes et Big Data. Le premier problème qu’on considère est de détecter un sous graphe Erdős–Rényi G(m,p) plante dans un graphe Erdős–Rényi G(n,q). Nous dérivons les distributions d’une statistique basée sur les propriétés spectrales d’une matrice définie du graphe. Ensuite, nous considérons le problème de la récupération des sommets du sous graphe en présence de l’information supplémentaire. Pour cela nous utilisons l’algorithme «Belief Propagation». Le BP sans informations supplémentaires ne réussit à la récupération qu’avec un SNR effectif lambda au-delà d’un seuil. Nous prouvons qu’en présence des informations supplémentaires, ce seuil disparaît et le BP réussi pour n’importe quel lambda. Finalement, nous dérivons des expressions asymptotiques pour PageRank sur une classe de graphes aléatoires non dirigés appelés « fast expanders », en utilisant des techniques théoriques à la matrice aléatoire. Nous montrons que PageRank peut être approché pour les grandes tailles du graphe comme une combinaison convexe du vecteur de dégré normalisé et le vecteur de personnalisation du PageRank, lorsque le vecteur de personnalisation est suffisamment délocalisé. Par la suite, nous caractérisons les formes asymptotiques de PageRank sur le Stochastic Block Model (SBM) et montrons qu’il contient un terme de correction qui est fonction de la structure de la communauté. / In this thesis, we study random graphs using tools from Random Matrix Theory and probability to tackle key problems in complex networks and Big Data. First we study graph anomaly detection. Consider an Erdős-Rényi (ER) graph with edge probability q and size n containing a planted subgraph of size m and probability p. We derive a statistical test based on the eigenvalue and eigenvector properties of a suitably defined matrix to detect the planted subgraph. We analyze the distribution of the derived test statistic using Random Matrix Theoretic techniques. Next, we consider subgraph recovery in this model in the presence of side-information. We analyse the effect of side-information on the detectability threshold of Belief Propagation (BP) applied to the above problem. We show that BP correctly recovers the subgraph even with noisy side-information for any positive value of an effective SNR parameter. This is in contrast to BP without side-information which requires the SNR to be above a certain threshold. Finally, we study the asymptotic behaviour of PageRank on a class of undirected random graphs called fast expanders, using Random Matrix Theoretic techniques. We show that PageRank can be approximated for large graph sizes as a convex combination of the normalized degree vector and the personalization vector of the PageRank, when the personalization vector is sufficiently delocalized. Subsequently, we characterize asymptotic PageRank on Stochastic Block Model (SBM) graphs, and show that it contains a correction term that is a function of the community structure.
|
167 |
Vectorisation compacte d’images par approches stochastiques / Compact image vectorization by stochastic approachesFavreau, Jean-Dominique 15 March 2018 (has links)
Les artistes apprécient les images vectorielles car elles sont compactes et facilement manipulables. Cependant, beaucoup d’artistes expriment leur créativité en dessinant, en peignant ou encore en prenant des photographies. Digitaliser ces contenus produit des images rasterisées. L’objectif de cette thèse est de convertir des images rasterisées en images vectorielles qui sont facilement manipulables. Nous avons formulé le problème de vectorisation comme un problème de minimisation d’énergie que nous avons défini par deux termes. Le premier terme, plutôt classique, mesure la fidélité de l’image vectorielle générée avec l’image rasterisée d’origine. La nouveauté principale est le second terme qui mesure la simplicité de l’image vectorielle générée. Le terme de simplicité est global et contient des variables discrètes, ce qui rend sa minimisation difficile. Nous avons proposé deux algorithmes de vectorisation : un pour la vectorisation de croquis et un autre pour la vectorisation multicouches d’images couleurs. Ces deux algorithmes commencent par extraire des primitives géométriques (un squelette pour les croquis et une segmentation pour les images couleurs) qu’ils assemblent ensuite pour former l’image vectorielle. Dans la dernière partie de la thèse, nous proposons un nouvel algorithme qui est capable de vectoriser des croquis sans étapes préliminaires : on extrait et assemble les primitives simultanément. Nous montrons le potentiel de ce nouvel algorithme pour une variété de problèmes de vision par ordinateur comme l’extraction de réseaux linéiques, l’extraction d’objets et la compression d’images. / Artists appreciate vector graphics for their compactness and editability. However many artists express their creativity by sketching, painting or taking photographs. Digitizing these images produces raster graphics. The goal of this thesis is to convert raster graphics into vector graphics that are easy to edit. We cast image vectorization as an energy minimization problem. Our energy is a combination of two terms. The first term measures the fidelity of the vector graphics to the input raster graphics. This term is a standard term for image reconstruction problems. The main novelty is the second term which measures the simplicity of the vector graphics. The simplicity term is global and involves discrete unknowns which makes its minimization challenging. We propose two stochastic optimizations for this formulation: one for the line drawing vectorization problem and another one for the color image vectorization problem. These optimizations start by extracting geometric primitives (skeleton for sketches and segmentation for color images) and then assembling these primitives together to form the vector graphics. In the last chapter we propose a generic optimization method for the problem of geometric shape extraction. This new algorithm does not require any preprocessing step. We show its efficiency in a variety of vision problems including line network extraction, object contouring and image compression.
|
168 |
Profil temporel de l’efficacité du traitement visuel en reconnaissance d’objets et de visagesFerrandez, Roxanne 08 1900 (has links)
Les variations d’efficacité du traitement visuel dans le temps ont été étudiées par échantillonnage temporel aléatoire. Vingt-quatre adultes ont identifié des stimuli composés de bruit blanc visuel et d’images d’objets familiers (expérience 1) ou de visages célèbres (expérience 2). Le ratio signal-bruit variait à travers le temps selon des fonctions d’échantillonnage générées par l’intégration d’ondes sinusoïdales de différentes fréquences (5 à 55 Hz) et de phases et amplitudes aléatoires. Des vecteurs de classification (VC) temporels ont été calculés en soustrayant la somme pondérée des ratios signal-bruit associés aux mauvaises réponses de celle associée aux bonnes réponses. Des images de classification (IC) temps-fréquence ont été obtenues en appliquant la même procédure aux résultats d’analyses temps-fréquence réalisées sur la fonction d’échantillonnage de chaque essai. Les VC temporels des deux expériences sont très variables entre les participants. Par contre, les IC temps-fréquence sont remarquablement similaires à travers les participants (cohérence inter-sujets de .93 et .57 pour l’expérience 1 et 2 respectivement). Des comparaisons par test t nous indiquent de nombreuses différences entre les IC temps-fréquence des objets et visages familiers, mais aussi des objets non familiers et des mots analysés dans des études précédentes. Ainsi, ces IC sont sensibles à la classe de stimuli présentés, mais aussi à la familiarité de ces derniers. Les résultats témoignent d’une variation rapide dans l’efficacité de l’encodage visuel durant les 200 premières millisecondes d’exposition au stimulus et suggèrent que les IC du domaine temps-fréquence reflètent un aspect hautement fondamental du traitement visuel, hypothétiquement rattaché aux oscillations cérébrales. / Variations in visual processing effectiveness through time were investigated using random temporal stimulus sampling. Twenty-four adults named photographs of either familiar objects (experiment 1) or famous faces (experiment 2). Stimuli were made by a linear combination of the target image and high density white visual noise. Signal-to-noise ratio varied throughout the 200 ms stimulus duration. A new temporal sampling function was generated on each trial by the integration of random amplitude and phase sinusoidal waves of frequency between 5 and 55 Hz (in 5 Hz steps). Temporal classification vectors (CV) were calculated by subtracting the weighted sum of the signal-to-noise ratio associated to errors from that associated to correct responses. Time-frequency classification images (CI) were obtained by applying the same procedure on the outcome of time-frequency analyses applied to the sampling functions of each trial. In both experiments, the temporal CVs were highly variable across participants, but the time-frequency CIs were remarkably similar across participants (inter-subject coherence of .93 and .57 for experiments 1 and 2 respectively). T-tests revealed multiple differences between the time-frequency CIs obtained with familiar objects and faces, but also with non-familiar objects and words analyzed in previous studies. Therefore, theses CIs are sensitive to stimulus type, but also to stimulus familiarity. The present results indicate rapid variations of visual encoding effectiveness in the initial 200 ms of stimulus exposure and suggests that the time-frequency CIs tap a highly fundamental aspect of visual processing, hypothetically linked to brain oscillations.
|
169 |
Utilisation de l’estimateur d’Agresti-Coull dans la construction d’intervalles de confiance bootstrap pour une proportionPilotte, Mikaël 10 1900 (has links)
Pour construire des intervalles de confiance, nous pouvons utiliser diverses approches bootstrap. Nous avons un problème pour le contexte spécifique d’un paramètre de proportion lorsque l’estimateur usuel, la proportion de succès dans l’échantillon ˆp, est nul. Dans un contexte classique d’observations indépendantes et identiquement distribuées (i.i.d.) de la distribution Bernoulli, les échantillons bootstrap générés ne contiennent que des échecs avec probabilité 1 et les intervalles de confiance bootstrap deviennent dégénérés en un seul point, soit le point 0. En contexte de population finie, nous sommes confrontés aux mêmes problèmes lorsqu’on applique une méthode bootstrap à un échantillon de la population ne contenant que des échecs. Une solution possible s’inspire de l’estimateur utilisé dans les méthodes de [Wilson, 1927] et [Agresti et Coull, 1998] où ceux-ci considèrent ˜p l’estimateur qui prend la proportion de succès d’un échantillon augmenté auquel on a ajouté deux succès et deux échecs. La solution que nous introduisons consiste à effectuer le bootstrap de la distribution de ˆp mais en appliquant les méthodes bootstrap à l’échantillon augmenté de deux succès et deux échecs, tant en statistique classique que pour une population finie. Les résultats ont démontré qu’une version de la méthode percentile est la méthode bootstrap la plus efficace afin d’estimer par intervalle de confiance un paramètre de proportion autant dans un contexte i.i.d. que dans un contexte d’échantillonnage avec le plan aléatoire simple sans remise. Nos simulations ont également démontré que cette méthode percentile pouvait compétitionner avantageusement avec les meilleures méthodes traditionnelles. / A few bootstrap approaches exist to create confidence intervals. Some difficulties appear for the specific case of a proportion when the usual estimator, the proportion of success in a sample, is 0. In the classical case where the observations are independently and identically distributed (i.i.d.) from a Bernoulli distribution, the bootstrap samples only contain zeros with probability 1 and the resulting bootstrap confidence intervals are degenerate at the value 0. We are facing the same problem in the survey sampling case when we apply the bootstrap method to a sample with all observations equal to 0. A possible solution is suggested by the estimator found in the confidence intervals of [Wilson, 1927] and [Agresti et Coull, 1998] where they use ˜p the proportion of success in a augmented sample consisting of adding two successes and two failures to the original sample. The proposed solution is to use the bootstrap method on ˆp but where the bootstrap is based on the augmented sample with two additional successes and failures, whether the sample comes from i.i.d. Bernoulli variables or from a simple random sample. Results show that a version of the percentile method is the most efficient bootstrap method to construct confidence intervals for a proportion both in the classical setting or in the case of a simple random sample. Our results also show that this percentile interval can compete with the best traditional methods.
|
170 |
Developing new adsorbents for the passive sampling of organic pollutants in the atmosphere : comparison with existing systems / Développement de nouveaux adsorbants pour l'échantillonnage passifs de polluants organiques dans l'atmosphère : comparaison avec des systèmes existantsLevy, Marine 21 October 2016 (has links)
Les matériaux actuellement utilisés comme capteurs passifs de polluants atmosphériques, la mousse de polyuréthane et la résine XAD®-2, ne sont optimisés ni pour l'adsorption de composés polaires ni pour le captage de particules. Pour remédier à ces limitations, la mousse de carbure de silicium (SiC) est proposée comme alternative. Plusieurs campagnes de mesures ont été mises en place pour comparer SiC et XAD®-2. Les composés recherchés étaient des HAP, des PCB et des pesticides.Une méthode d'analyse combinant ASE, SPE et SPME a été développée et optimisée pour ces polluants. Celle-ci permet d'atteindre de faibles limites de détection et quantification pour les composés recherchés.Les campagnes réalisées montrent que la mousse de SiC est toujours plus efficace que la résine XAD®-2 pour le piégeage de composés particulaires et polaires. De plus, la SiC peut être greffée avec du carbone ou des nanotubes de carbone pour augmenter sa surface spécifique, ce qui la rend également plus performante pour l'adsorption de composés volatils. Les débits d'échantillonnage moyens de la mousse ont été calculés et sont comparable aux valeurs rapportées dans la littérature pour la résine XAD®-2. / Materials currently used as passive samplers for atmospheric pollutants, polyurethane foam and XAD®-2 resin, are not suited ta trapping polar compounds nor particles. Ta overcome these limitations, silicon carbide (SiC) foam is presented as an alternative. Several sampling campaigns monitoring PAH, PCB and pesticides were done ta compare SiC and XAD®-2. An analytical method coupling ASE, SPE and SPME was developed and optimised for these pollutants. lt allowed low limits of detection and quantification ta be reached for all compounds of interest.Sampling campaigns showed that SiC foam is consistently more efficient than XAD®-2 resin at trapping particulate and polar compounds. Moreover, SiC foam can be grafted with carbon or carbon nanotubes ta increase its specific surface area, which also makes it better at adsorbing volatile compounds. Average sampling rates were calculated for SiC foam and they are comparable ta the values reported in the literature for XAD®-2 resin.
|
Page generated in 0.0548 seconds