Spelling suggestions: "subject:"échantillonnage"" "subject:"echantillonnage""
1 |
Méthodes d'estimation et d'estimation de variance pour une enquête longitudinale : application aux données de l'Etude Longitudinale Française depuis l'Enfance (Elfe) / Methods of estimation and variance estimation for a longitudinal survey : Application of the ELFE surveyJuillard, Hélène 28 November 2016 (has links)
Dans ce document, on suppose que l’aléa provient du tirage de l’échantillon (inférence basée sur le plan de sondage). Chaque échantillonnage conduit à une variance dite d’échantillonnage. Après déroulement d’une enquête, l’estimation de cette variance va servir de mesure de précision (ou d’incertitude) pour les estimateurs des paramètres étudiés. La cohorte Elfe, démarrée en 2011, comprend plus de 18 000 enfants dont les parents ont donné leur consentement à l’inclusion. Dans chacune des maternités sélectionnées, les nourrissons de la population d’inférence nés durant quatre périodes spécifiques représentant chacune des quatre saisons de l’année 2011 ont été sélectionnés. Elfe est la première étude longitudinale de ce type en France, suivant les enfants de leur naissance à l’âge adulte. Elle aborde les multiples aspects de la vie de l’enfant sous l’angle des sciences sociales, de la santé et de la santé-environnement. La cohorte Elfe a été sélectionnée selon un plan de sondage non standard appelé échantillonnage produit, avec les sélections indépendantes d’un échantillon de maternités et d’un échantillon de jours. Le suivi de l’enfant commence dès ses premiers jours, à la maternité. Ensuite, lorsque les enfants fêtent leurs deux mois, les parents sont contactés pour un premier entretien téléphonique, puis au premier anniversaire des enfants, à leurs deux ans, 3 ans et demi et cinq ans et demi. L’enquête est longitudinale. Le premier chapitre de cette thèse introduit des notions relatives à la théorie des sondages et présente l’enquête Elfe (Etude Longitudinale Française depuis l’Enfance) ; ses données serviront d’illustration aux résultats théoriques issus de cette thèse. Le deuxième chapitre porte sur le plan produit et propose dans un cadre théorique général des estimateurs sans biais et des estimateurs simplifiés de variance pour traiter ce plan. Il est aussi montré que ce plan est en général moins efficace que celui classique à deux degrés d’échantillonnage. Le chapitre trois est en continuité avec le précédent : pour le plan produit, cinq estimateurs sans biais de type Yates-Grundy sont proposés à partir de cinq différentes décompositions possibles de la variance. Le chapitre quatre est un article permettant au lecteur de différencier le plan produit du plan à deux degrés, et de mettre en pratique les étapes d’échantillonnage et d’estimation sous les logiciels R, SAS et Stata. Le chapitre cinq est lui, consacré à la variance et l’estimation de la variance pour une enquête de type cohorte avec processus de non-réponse monotone. Le chapitre six est un rapport méthodologique pour les utilisateurs où l’estimation de la variance appropriée au plan Elfe est expliquée et mise en œuvre avec les logiciels R, SAS et Stata. Tous les résultats des études par simulation présentés dans ce document sont reproductibles, les codes étant proposés en annexe. / In this document, we are interested in estimation under a design-based framework, where the randomness arises from the sample selection. Each sampling leads to a sampling variance. After the survey, the estimation of this variance will serve as a measure of precision (or uncertainty) for the estimators of the parameters under study. The 2011 ELFE cohort comprises more than 18,000 children whose parents consented to their inclusion. In each of the selected maternity units, targeted babies born during four specific periods representing each of the four seasons in 2011 were selected. ELFE is the first longitudinal study of its kind in France, tracking children from birth to adulthood. It will examine every aspect of these children’s lives from the perspectives of health, social sciences and environmental health. The ELFE cohort was selected through a non-standard sampling design that is called cross-classified sampling, with independent selections of the sample of maternity units and of the sample of days. In this work, we propose unbiased variance estimators to handle this type of sampling designs, and we derive specific variance estimators adapted to the ELFE case. Tracking of the babies starts when they are just a few days old and still at the maternity unit. When the children reach the age of two months, the parents are contacted for the first telephone interview. When the children are one year old, and again when they reach the ages of two, three and a half years and five and a half years, their parents will once more be contacted by telephone. The survey is longitudinal.The first chapter of this thesis introduces concepts related to the theory of survey design and presents the survey ELFE (French Longitudinal Study from Childhood); its data will be used as illustration for the theoretical results derived in this thesis. The second chapter focuses on the cross-classified design and provides unbiased estimators and simplified variance estimators to treat this design in a general theoretical framework. It is also shown that this design is generally less efficient than the conventional two-stage sampling design. Chapter three is in continuity with the previous one : for the cross-classified sampling design, five unbiased Yates-Grundy like variance estimators are available from five different possible decomposition of the variance. Chapter four is an article allowing the reader to make the difference between the cross-classified sampling design and the two-stage sampling design, and to implement the steps of sampling and estimation under the softwares R, SAS and Stata. Chapter five is devoted to variance computation and variance estimation for a cohort survey with monotone non-response. Chapter six is a methodological report to users in which the appropriate variance estimation for the ELFE design is explained and implemented with softwares R, SAS and Stata. All the results of simulation studies presented in this document are reproducible, the codes being proposed in the annex.
|
2 |
Influences interpersonnelles : comment les contextes structurent les opinions et les votes / Interpersonal Influences : How Contexts Shape Opinions and VotesAudemard, Julien 04 December 2013 (has links)
« Les gens qui parlent ensemble votent ensemble ». En écrivant ces quelques mots, le sociologue britannique William Miller résumait, à la fin des années 1970, une tradition de recherche déjà ancienne : le vote, en tant qu‟expérience de groupe, se joue d‟abord dans les rapports que les citoyens ordinaires entretiennent avec ceux avec qui ils vivent quotidiennement. La recherche présentée dans cette thèse propose de réinterroger cette hypothèse par l‟intermédiaire d‟une enquête visant à saisir comment le contexte social d‟appartenance – entendu comme l‟entourage relationnel d‟un individu - structure la pratique des échanges politiques, et en quoi cette pratique peut-elle impacter les comportements électoraux individuels. L‟enquête en question a donc consisté à adapter la technique de l‟échantillonnage en boule-de-neige à la passation de questionnaires de personne à personne. Partant d‟un échantillon de base de dix personnes mobilisées à trois reprises – en 2009, 2010 et 2012 – il m‟a ainsi été possible d‟identifier des chaînes de relations grâce à la circulation de questionnaires au sein des cercles d‟interconnaissance des participants. En plus de données statistiques, l‟enquête s‟appuie sur une analyse ethnographique de la phase de construction des différents échantillons. Ce travail repose sur le postulat selon lequel les questionnaires élaborés constituent des "objets politiques", avec pour conséquence que les échanges de questionnaires au sein des populations étudiées instaurent de fait un cadre d'interactions présentant une dimension "politique". L‟étude ethnographique de la mise en oeuvre de cette passation offre ainsi l‟occasion de porter un regard original sur les moyens par lesquels des citoyens ordinaires organisent des échanges à dimension politique au sein de leurs réseaux d‟appartenance. Les résultats de cette analyse, confrontés à celle des échanges politiques plus ordinaires pratiqués au sein des contextes identifiés au cours de l‟enquête, montrent que le politique, loin d‟obéir à des logiques autonomes, prend sa source et prolonge les normes et les identités sociales produites par les groupes. La structure sociale du contexte – notamment son degré de cohésion – et sa composition en termes de ressources économiques, culturelles et politiques, déterminent le déroulement des échanges politiques et leur capacité à créer de la mobilisation et à faire en sorte que les identités collectives se traduisent en choix électoraux. / “People who talk together vote together”. By writing these few words, the British sociologist William Miller resumed, at the end of the 1970‟s, an old research tradition : voting, as a group experience, depends on the contacts that ordinary citizens maintain with those they live with everyday. The research presented in this thesis dissertation suggests questioning again this hypothesis by the mean of a survey that aims to understand how the social context of belonging – i.e. the relational surrounding of a person – shapes the practice of political exchange, and how this practice can affect individual electoral behavior. This survey consisted in an adaptation of the snowball sampling technique around the person-to-person transfer of questionnaires. Starting with a first sample of 10 people called up three times – in 2009, 2010, and 2012 – I could identify many chains of contacts by following the flow of questionnaires within circles of acquaintances of participants. Additionally with statistical data, the survey is based on an ethnographic analysis of the sampling procedure. This work is founded on the assumption that questionnaires elaborated for the survey constitute "political objects", with the consequence that the exchanges of questionnaires within the populations studied establish a setting of interactions with a political dimension. The ethnographic analysis of the elaboration of the transfer allows having an original look on the means by which ordinary citizens organize some political exchanges within the social networks they belong to. The results of this analysis, compared to the one of more ordinary exchanges practiced within social contexts identified during the survey, show that politics, far to respond to independent logics, take their origins in social norms and identities produced by groups. The social structure of context – mainly its cohesion degree – and its composition in terms of economic, cultural and political resources, determine the flow of political exchanges and their ability to create mobilization and to make possible the translation of collective identities into electoral choices.
|
3 |
Utilisation d'information auxiliaire en théorie des sondages à l'étape de l'échantillonnage et à l'étape de l'estimation / Use of auxiliary information in survey sampling at the sampling stage and the estimation stageLesage, Éric 31 October 2013 (has links)
Cette thèse est consacrée à l'utilisation d'information auxiliaire en théorie des sondages à l'étape de l'échantillonnage et à l'étape de l'estimation. Dans le chapitre 2, on donne une présentation des principales notions de la théorie des sondages. Au chapitre 3, on propose une extension de la famille des estimateurs par calage reposant sur l'emploi de paramètres de calage complexes. Au chapitre 4 et 5, on s'intéresse à la correction simultanée des erreurs d'échantillonnage et de non-réponse au moyen d'un calage unique. On montre qu'en dépit du fait que le calage n'utilise pas explicitement les probabilités de réponse, il est nécessaire d'écrire le modèle de réponse afin de choisir correctement la fonction de calage. A défaut, on s'expose à des estimateurs biaisés dont le biais peut dépasser le biais de l'estimateur non-ajusté. En particulier, dans le cas du calage généralisé, la variance et le biais sont amplifiés pour des variables de calage faiblement corrélées aux variables instrumentales. Au chapitre 6, on montre qu'une approche conditionnelle, par rapport au plan de sondage, permet de construire des estimateurs plus robustes aux valeurs extrêmes et aux "sauteurs de strates". Au chapitre 7, on met en évidence que la méthode du tirage réjectif de Fuller conduit un estimateur par la régression qui peut être biaisé lorsque la variable d'intérêt ne suit pas un modèle de régression linéaire en fonction des variables d'équilibrage. / This thesis is devoted to the use of auxiliary information in sampling theory at the sampling stage and estimation stage. In Chapter 2, we give an overview of the key concepts of sampling theory. In Chapter 3, we propose an extension of the family of calibration estimators based on the use of complex parameters. In Chapter 4 and 5, we are interested in the simultaneous correction of sampling errors and nonresponse using a single calibration. It shows that despite the fact that the calibration does not explicitly use the response probabilities, it is necessary to write the response model to correctly select the calibration function. Otherwise, we run the risk of biased estimators whose bias can exceed the bias of the unadjusted estimator. In particular, in the case of generalized calibration, the variance and bias are amplified for calibration variables weakly correlated with the instrumental variables. In Chapter 6, we show that a conditional approach, based on the design, leads to estimators more robust to outliers and "jumpers strata. In Chapter 7, we highlight that the Fuller rejective sampling yield to a regression estimator which can be biased when the variable of interest does not follow a linear regression with the balancing variables.
|
4 |
Résumé de flux de données ditribuésChiky, Raja 23 January 2009 (has links) (PDF)
Ces dernières années, sont apparues de nombreuses applications, utilisant des données en nombre potentiellement illimité, provenant de façon continue de capteurs distribués afin d'alimenter un serveur central. Les données sont utilisées à des fins de surveillance, de supervision, de déclenchement d'alarmes en temps réel, ou plus généralement à la production de synthèses d'aide à la décision à partir de plusieurs flux. Le volume des données collectées est généralement trop grand pour être entièrement stocké. Les systèmes de gestion de flux de données (SGFD) permettent de gérer facilement, et de façon générique les flux de données : les données sont traitées au fil de l'eau sans les archiver. Toutefois, dans certaines applications, on ne souhaite pas perdre complètement l'ensemble des flux de données afin de pouvoir analyser les données du passé et du présent. Il faut donc prévoir un stockage de l'historique du flux. Nous considérons dans cette thèse, un environnement distribué décrit par une collection de plusieurs capteurs distants qui envoient des flux de données numériques et unidimensionnelles à un serveur central unique. Ce dernier a un espace de stockage limité mais doit calculer des agrégats, comme des sommes ou des moyennes, à partir des données de tout sous-ensemble de capteurs et sur un large horizon temporel. Deux approches sont étudiées pour construire l'historique des flux de données :(1) Echantillonnage spatial en ne considérant qu'un échantillon aléatoire des sources qu'on observe dans le temps ; (2) Echantillonnage temporel en considérant toutes les sources mais en échantillonnant les instants observés de chaque capteur. Nous proposons une méthode générique et optimisée de construction de résumés à partir de flux de données distribués : A partir des flux de données observés à une période de temps t -1, nous déterminons un modèle de collecte de données à appliquer aux capteurs de la période t. Le calcul des agrégats se base sur l'inférence tatistique dans le cas de l'échantillonnage spatial et sur l'interpolation dans le cas de l'échantillonnage temporel. A notre connaissance, il n'existe pas de méthodes d'interpolation qui estiment les erreurs à tout instant et qui prennent en compte le flux de données ou courbe à interpoler et son intégrale. Nous proposons donc deux approches : la première se base sur le passé des courbes pour l'interpolation (approche naive) ; et la seconde utilise à un processus stochastique pour modéliser l'évolution des courbes (approche stochastique).
|
5 |
Block-constrained compressed sensing / Echantillonnage compressé avec acquisition structurée par blocsBoyer, Claire 23 June 2015 (has links)
Dans cette thèse, nous visons à combiner les théories d'échantillonnage compressé (CS) avec une structure d'acquisition par blocs de mesures. D'une part, nous obtenons des résultats théoriques de CS avec contraintes d'acquisition par blocs, pour la reconstruction de tout vecteur s-parcimonieux et pour la reconstruction d'un vecteur x de support S fixé. Nous montrons que l'acquisition structurée peut donner de bons résultats de reconstruction théoriques, à condition que le signal à reconstruire présente une structure de parcimonie, adaptée aux contraintes d'échantillonnage. D'autre part, nous proposons des méthodes numériques pour générer des schémas d'échantillonnage efficaces reposant sur des blocs de mesures. Ces méthodes s'appuient sur des techniques de projection de mesure de probabilité. / This PhD. thesis is dedicated to combine compressed sensing with block structured acquisition. In the first part of this work, theoretical CS results are derived with blocks acquisition constraints, for the recovery of any s-sparse signal and for the recovery of a vector with a given support S.We show that structured acquisition can be successfully used in a CS framework, provided that the signal to reconstruct presents an additional structure in its sparsity, adapted to the sampling constraints.In the second part of this work, we propose numerical methods to generate efficient block sampling schemes. This approach relies on the measure projection on admissible measures.
|
6 |
Molecular conformations and game theory / Conformations moléculaires et théorie des jeuxHéliou, Amélie 31 August 2017 (has links)
Les protéines et acides ribonucléiques sont les principaux acteurs de nombreux processus cellulaires.Comprendre leurs fonctions, structures et interactions est un challenge important.Les méthodes expérimentales fournissent des informations sur la structure et la dynamique des molécules.Cependant les méthodes expérimentales sont limitées par le nombre de molécules qu'elles peuvent observer et les moyens qu'elles requièrent.Les méthodes de prédiction permettent d'obtenir des informations structurelles de façon quasi-automatique.Pour s'assurer de leur fiabilité, elles sont testées sur des données expérimentales.Nous présentons une procédure basée sur la cinétique inverse pour trouver une transition entre deux conformations d'un ARN tout en conservant sa structure secondaire.Nous obtenons des résultats comparables à l'état de l'art, ce qui montre que notre sélection des degrés de liberté est pertinente.De plus, nous utilisons des données partielles, ce qui permet d'utiliser différents types de résultats expérimentaux.Nous abordons aussi le problème du repliement protéique par une approche de théorie des jeux.Nous représentons une protéine par un jeu où les joueurs sont les acides aminés et les stratégies, les angles dièdres.La prédiction de structure peut alors être vue comme la recherche d'un équilibre dans un jeu multi-joueur où les fonctions d'utilité correspondent à la qualité du repliement.Nous montrons que l'algorithme de non-regret, appelé Hedge, garantit l'élimination des stratégies dominées et la convergence locale vers un équilibre de Nash.Puis, en limitant notre analyse aux jeux de potentiel, nous montrons qu'une classe plus large d'algorithmes, les algorithmes de régularisation, convergent vers un équilibre de Nash presque surement. / Proteins and Ribonucleic Acids are the workhorses of many cellular processes.Understanding their functions, structures and interactions is an important challenge.Experimental methods provide actual information on structure and dynamics of molecules.However they have limitations : they cannot be applied to all molecules, and they need a lot of resources.Prediction methods are almost automatic ways of obtaining structural information.They are tested on experimental data to attest their reliability.We present, here, approaches tackling different problems.We develop a kinematics-based procedure to morph a RNA molecule between conformations while preserving its secondary structure.We obtain results comparable to state of the art methods showing that our selection of degrees of freedom is efficient.Furthermore we only use sparse information allowing for various kinds of experimental inputs.We also look at the protein structure prediction problem from a game theory angle.We represent the protein dynamics as a game, in which players are amino acids and strategies are dihedrals angles.The structure prediction can thus be seen as finding equilibrium in a multi-players game where all players have utility functions corresponding to the quality of the protein structure.We showed that a well-known no-regret algorithm, called Hedge, guarantees dominated strategies to vanish and a local convergence toward Nash equilibria.Furthermore restricting our analysis to potential games we showed that dual-averaging regularized learning algorithms converge toward a Nash equilibrium almost surely.
|
7 |
Contribution à la commande robuste des systèmes à échantillonnage variable ou contrôléFiter, Christophe 25 September 2012 (has links) (PDF)
Cette thèse est dédiée à l'analyse de stabilité des systèmes à pas d'échantillonnage variable et à la commande dynamique de l'échantillonnage. L'objectif est de concevoir des lois d'échantillonnage permettant de réduire la fréquence d'actualisation de la commande par retour d'état, tout en garantissant la stabilité du système.Tout d'abord, un aperçu des récents défis et axes de recherche sur les systèmes échantillonnés est présenté. Ensuite, une nouvelle approche de contrôle dynamique de l'échantillonnage, "échantillonnage dépendant de l'état", est proposée. Elle permet de concevoir hors-ligne un échantillonnage maximal dépendant de l'état défini sur des régions coniques de l'espace d'état, grâce à des LMIs.Plusieurs types de systèmes sont étudiés. Tout d'abord, le cas de système LTI idéal est considéré. La fonction d'échantillonnage est construite au moyen de polytopes convexes et de conditions de stabilité exponentielle de type Lyapunov-Razumikhin. Ensuite, la robustesse vis-à-vis des perturbations est incluse. Plusieurs applications sont proposées: analyse de stabilité robuste vis-à-vis des variations du pas d'échantillonnage, contrôles event-triggered et self-triggered, et échantillonnage dépendant de l'état. Enfin, le cas de système LTI perturbé à retard est traité. La construction de la fonction d'échantillonnage est basée sur des conditions de stabilité L2 et sur un nouveau type de fonctionnelles de Lyapunov-Krasovskii avec des matrices dépendant de l'état. Pour finir, le problème de stabilisation est traité, avec un nouveau contrôleur dont les gains commutent en fonction de l'état du système. Un co-design contrôleur/fonction d'échantillonnage est alors proposé
|
8 |
MISE EN ŒUVRE ET OPTIMISATION DES PLANS DE CONTRÔLE DYNAMIQUE DANS LA FABRICATION DES SEMI-CONDUCTEURS / IMPLEMENTING AND OPTIMIZING DYNAMIC CONTROL PLANS IN SEMICONDUCTOR MANUFACTURINGNduhura Munga, Justin 09 October 2012 (has links)
Dans cette thèse, nous avons travaillé sur le problème de la mise œuvre des plans de contrôle dynamique au sein d'un environnement semi-conducteur multi-produits. Nous nous sommes focalisés sur le compromis entre le rendement et le temps de cycle, la réduction du nombre de contrôles sans valeur ajoutée, et l'optimisation de l'utilisation de la capacité de contrôle. Nous avons commencé par formaliser et généraliser le problème au travers d'une revue de la littérature. Ensuite, nous avons proposé trois principales solutions pour supporter l'implémentation industrielle des plans de contrôle dynamique. La première solution que nous avons proposée est basée sur un indicateur qui permet le traitement d'un très grand volume de données et l'évaluation de plusieurs types de risques avec une très faible consommation des ressources informatiques. La deuxième solution est basée sur des algorithmes d'échantillonnage intelligents que nous avons développés pour permettre le choix en dynamique des meilleurs produits ou lots à contrôler. Et la troisième solution est un programme linéaire mixte en nombres entiers que nous avons développé pour optimiser les paramètres clés qui sont utilisés dans les algorithmes d'échantillonnage dynamique.L'originalité des travaux de cette thèse se trouve dans l'industrialisation des différentes solutions que nous avons proposées. Toutes les solutions ont été validées industriellement et certaines solutions ont été étendues à d'autres sites de la compagnie. Plusieurs perspectives ont été identifiées et offrent ainsi de nombreuses pistes de recherche. / In this thesis, we have worked on the problem of implementing dynamic control plans in a high-mix semiconductor environment. We focused on the trade-off between yield and cycle time, the minimization of the number of controls without added value, and the optimization of the use of inspection capacity. We started our works by formalizing and generalizing the problem through a literature review. Then, we proposed three main solutions to industrially implement dynamic control plan policies. The first solution we proposed is based on an indicator that enables a very large amount of data to be handled and several risk types assessed with little CPU. The second solution is based on smart sampling algorithms we developed to enable the dynamic selection of the best products or lots to control in real time. And the third solution is a mixed-integer linear programming model we developed to optimize the key parameters that are used in the smart sampling algorithms.The originality of this thesis lies in the industrial implementation of the general solutions we proposed. All solutions have been industrially validated and some of the solutions have been extended to other sites of the company. Several perspectives have been highlighted and offer numerous avenues for further works.
|
9 |
Contribution à l'étude de l'échantillonnage non uniforme dans le domaine de la radio intelligente. / Non Uniform sampling contributions in the context of Cognitive RadioTraore, Samba 09 December 2015 (has links)
Nous proposons un nouveau schéma d’échantillonnage non uniforme périodique appelé Système d’Échantillonnage Non Uniforme en Radio Intelligente (SENURI). Notre schéma détecte la localisation spectrale des bandes actives dans la bande totale échantillonnée afin de réduire la fréquence moyenne d’échantillonnage, le nombre d’échantillons prélevé et par conséquent la consommation d’énergie au niveau du traitement numérique. La fréquence moyenne d’échantillonnage du SENURI dépend uniquement du nombre de bandes contenues dans le signal d’entrée x(t). Il est nettement plus performant, en termes d’erreur quadratique, qu’une architecture classique d’échantillonnage non uniforme périodique constituée de p branches, lorsque le spectre de x(t) change dynamiquement. / In this work we consider the problem of designing an effective sampling scheme for sparse multi-band signals. Based on previous results on periodic non-uniform sampling (Multi-Coset) and using the well known Non-Uniform Fourier Transform through Bartlett’s method for Power Spectral Density estimation, we propose a new sampling scheme named the Dynamic Single Branch Non-uniform Sampler (DSB-NUS). The idea of the proposed scheme is to reduce the average sampling frequency, the number of samples collected, and consequently the power consumption of the Analog to Digital Converter (ADC). In addition to that our proposed method detects the location of the bands in order to adapt the sampling rate. In this thesis, we show through simulation results that compared to existing multi-coset based samplers, our proposed sampler provides superior performance, both in terms of sampling rate and energy consumption. It is notconstrained by the inflexibility of hardware circuitry and is easily reconfigurable. We also show the effect of the false detection of active bands on the average sampling rate of our new adaptive non-uniform sub-Nyquist sampler scheme.
|
10 |
Anti-Aliased Low Discrepancy Samplers for Monte Carlo Estimators in Physically Based Rendering / Échantillonneurs basse discrepance anti aliassés pour du rendu réaliste avec estimateurs de Monte CarloPerrier, Hélène 07 March 2018 (has links)
Lorsque l'on affiche un objet 3D sur un écran d'ordinateur, on transforme cet objet en une image, c.a.d en un ensemble de pixels colorés. On appelle Rendu la discipline qui consiste à trouver la couleur à associer à ces pixels. Calculer la couleur d'un pixel revient à intégrer la quantité de lumière arrivant de toutes les directions que la surface renvoie dans la direction du plan image, le tout pondéré par une fonction binaire déterminant si un point est visible ou non. Malheureusement, l'ordinateur ne sait pas calculer des intégrales on a donc deux méthodes possibles : Trouver une expression analytique qui permet de supprimer l'intégrale de l'équation (approche basée statistique). Approximer numériquement l'équation en tirant des échantillons aléatoires dans le domaine d'intégration et en en déduisant la valeur de l'intégrale via des méthodes dites de Monte Carlo. Nous nous sommes ici intéressés à l'intégration numérique et à la théorie de l'échantillonnage. L'échantillonnage est au cœur des problématiques d'intégration numérique. En informatique graphique, il est capital qu'un échantillonneur génère des points uniformément dans le domaine d’échantillonnage pour garantir que l'intégration ne sera pas biaisée. Il faut également que le groupe de points généré ne présente aucune régularité structurelle visible, au risque de voir apparaître des artefacts dit d'aliassage dans l'image résultante. De plus, les groupes de points générés doivent minimiser la variance lors de l'intégration pour converger au plus vite vers le résultat. Il existe de nombreux types d'échantillonneurs que nous classeront ici grossièrement en 2 grandes familles : Les échantillonneurs bruit bleu, qui ont une faible la variance lors de l'intégration tout en générant de groupes de points non structurés. Le défaut de ces échantillonneurs est qu'ils sont extrêmement lents pour générer les points. Les échantillonneurs basse discrépance, qui minimisent la variance lors de l'intégration, génèrent des points extrêmement vite, mais qui présentent une forte structure, générant énormément d'aliassage. Notre travail a été de développer des échantillonneurs hybrides, combinant à la fois bruit bleu et basse discrépance / When you display a 3D object on a computer screen, we transform this 3D scene into a 2D image, which is a set of organized colored pixels. We call Rendering all the process that aims at finding the correct color to give those pixels. This is done by integrating all the light rays coming for every directions that the object's surface reflects back to the pixel, the whole being ponderated by a visibility function. Unfortunately, a computer can not compute an integrand. We therefore have two possibilities to solve this issue: We find an analytical expression to remove the integrand (statistic based strategy). Numerically approximate the equation by taking random samples in the integration domain and approximating the integrand value using Monte Carlo methods. Here we focused on numerical integration and sampling theory. Sampling is a fundamental part of numerical integration. A good sampler should generate points that cover the domain uniformly to prevent bias in the integration and, when used in Computer Graphics, the point set should not present any visible structure, otherwise this structure will appear as artifacts in the resulting image. Furthermore, a stochastic sampler should minimize the variance in integration to converge to a correct approximation using as few samples as possible. There exists many different samplers that we will regroup into two families: Blue Noise samplers, that have a low integration variance while generating unstructured point sets. The issue with those samplers is that they are often slow to generate a pointset. Low Discrepancy samplers, that minimize the variance in integration and are able to generate and enrich a point set very quickly. However, they present a lot of structural artifacts when used in Rendering. Our work aimed at developing hybriod samplers, that are both Blue Noise and Low Discrepancy
|
Page generated in 0.0713 seconds