221 |
Contributions aux méthodes de branchement multi-niveaux pour les évènements rares, et applications au trafic aérien / Contributions to multilevel splitting for rare events, and applications to air trafficJacquemart, Damien 08 December 2014 (has links)
La thèse porte sur la conception et l'analyse mathématique de méthodes de Monte Carlo fiables et précises pour l'estimation de la (très petite) probabilité qu'un processus de Markov atteigne une région critique de l'espace d'état avant un instant final déterministe. L'idée sous-jacente aux méthodes de branchement multi-niveaux étudiées ici est de mettre en place une suite emboitée de régions intermédiaires de plus en plus critiques, de telle sorte qu'atteindre une région intermédiaire donnée sachant que la région intermédiaire précédente a déjà été atteinte, n'est pas si rare. En pratique, les trajectoires sont propagées, sélectionnées et répliquées dès que la région intermédiaire suivante est atteinte, et il est facile d'estimer avec précision la probabilité de transition entre deux régions intermédiaires successives. Le biais dû à la discrétisation temporelle des trajectoires du processus de Markov est corrigé en utilisant des régions intermédiaires perturbées, comme proposé par Gobet et Menozzi. Une version adaptative consiste à définir automatiquement les régions intermédiaires, à l’aide de quantiles empiriques. Néanmoins, une fois que le seuil a été fixé, il est souvent difficile voire impossible de se rappeler où (dans quel état) et quand (à quel instant) les trajectoires ont dépassé ce seuil pour la première fois, le cas échéant. La contribution de la thèse consiste à utiliser une première population de trajectoires pilotes pour définir le prochain seuil, à utiliser une deuxième population de trajectoires pour estimer la probabilité de dépassement du seuil ainsi fixé, et à itérer ces deux étapes (définition du prochain seuil, et évaluation de la probabilité de transition) jusqu'à ce que la région critique soit finalement atteinte. La convergence de cet algorithme adaptatif à deux étapes est analysée dans le cadre asymptotique d'un grand nombre de trajectoires. Idéalement, les régions intermédiaires doivent êtres définies en terme des variables spatiale et temporelle conjointement (par exemple, comme l'ensemble des états et des temps pour lesquels une fonction scalaire de l’état dépasse un niveau intermédiaire dépendant du temps). Le point de vue alternatif proposé dans la thèse est de conserver des régions intermédiaires simples, définies en terme de la variable spatiale seulement, et de faire en sorte que les trajectoires qui dépassent un seuil précocement sont davantage répliquées que les trajectoires qui dépassent ce même seuil plus tardivement. L'algorithme résultant combine les points de vue de l'échantillonnage pondéré et du branchement multi-niveaux. Sa performance est évaluée dans le cadre asymptotique d'un grand nombre de trajectoires, et en particulier un théorème central limite est obtenu pour l'erreur d'approximation relative. / The thesis deals with the design and mathematical analysis of reliable and accurate Monte Carlo methods in order to estimate the (very small) probability that a Markov process reaches a critical region of the state space before a deterministic final time. The underlying idea behind the multilevel splitting methods studied here is to design an embedded sequence of intermediate more and more critical regions, in such a way that reaching an intermediate region, given that the previous intermediate region has already been reached, is not so rare. In practice, trajectories are propagated, selected and replicated as soon as the next intermediate region is reached, and it is easy to accurately estimate the transition probability between two successive intermediate regions. The bias due to time discretization of the Markov process trajectories is corrected using perturbed intermediate regions as proposed by Gobet and Menozzi. An adaptive version would consist in the automatic design of the intermediate regions, using empirical quantiles. However, it is often difficult if not impossible to remember where (in which state) and when (at which time instant) did each successful trajectory reach the empirically defined intermediate region. The contribution of the thesis consists in using a first population of pilot trajectories to define the next threshold, in using a second population of trajectories to estimate the probability of exceeding this empirically defined threshold, and in iterating these two steps (definition of the next threshold, and evaluation of the transition probability) until the critical region is reached. The convergence of this adaptive two-step algorithm is studied in the asymptotic framework of a large number of trajectories. Ideally, the intermediate regions should be defined in terms of the spatial and temporal variables jointly (for example, as the set of states and times for which a scalar function of the state exceeds a time-dependent threshold). The alternate point of view proposed in the thesis is to keep intermediate regions as simple as possible, defined in terms of the spatial variable only, and to make sure that trajectories that manage to exceed a threshold at an early time instant are more replicated than trajectories that exceed the same threshold at a later time instant. The resulting algorithm combines importance sampling and multilevel splitting. Its preformance is evaluated in the asymptotic framework of a large number of trajectories, and in particular a central limit theorem is obtained for the relative approximation error.
|
222 |
Rare event simulation for statistical model checking / Simulation d'événements rares pour le model checking statistiqueJegourel, Cyrille 19 November 2014 (has links)
Dans cette thèse, nous considérons deux problèmes auxquels le model checking statistique doit faire face. Le premier concerne les systèmes hétérogènes qui introduisent complexité et non-déterminisme dans l'analyse. Le second problème est celui des propriétés rares, difficiles à observer et donc à quantifier. Pour le premier point, nous présentons des contributions originales pour le formalisme des systèmes composites dans le langage BIP. Nous en proposons une extension stochastique, SBIP, qui permet le recours à l'abstraction stochastique de composants et d'éliminer le non-déterminisme. Ce double effet a pour avantage de réduire la taille du système initial en le remplaçant par un système dont la sémantique est purement stochastique sur lequel les algorithmes de model checking statistique sont définis. La deuxième partie de cette thèse est consacrée à la vérification de propriétés rares. Nous avons proposé le recours à un algorithme original d'échantillonnage préférentiel pour les modèles dont le comportement est décrit à travers un ensemble de commandes. Nous avons également introduit les méthodes multi-niveaux pour la vérification de propriétés rares et nous avons justifié et mis en place l'utilisation d'un algorithme multi-niveau optimal. Ces deux méthodes poursuivent le même objectif de réduire la variance de l'estimateur et le nombre de simulations. Néanmoins, elles sont fondamentalement différentes, la première attaquant le problème au travers du modèle et la seconde au travers des propriétés. / In this thesis, we consider two problems that statistical model checking must cope. The first problem concerns heterogeneous systems, that naturally introduce complexity and non-determinism into the analysis. The second problem concerns rare properties, difficult to observe, and so to quantify. About the first point, we present original contributions for the formalism of composite systems in BIP language. We propose SBIP, a stochastic extension and define its semantics. SBIP allows the recourse to the stochastic abstraction of components and eliminate the non-determinism. This double effect has the advantage of reducing the size of the initial system by replacing it by a system whose semantics is purely stochastic, a necessary requirement for standard statistical model checking algorithms to be applicable. The second part of this thesis is devoted to the verification of rare properties in statistical model checking. We present a state-of-the-art algorithm for models described by a set of guarded commands. Lastly, we motivate the use of importance splitting for statistical model checking and set up an optimal splitting algorithm. Both methods pursue a common goal to reduce the variance of the estimator and the number of simulations. Nevertheless, they are fundamentally different, the first tackling the problem through the model and the second through the properties.
|
223 |
Development of Overhauser-enhanced magnetic resonance imaging in vivo : application to molecular imaging of proteolysis. / Développement de l'imagerie par résonance magnétique rehaussée par l'effet Overhauser in vivo : application à l'imagerie moléculaire de la protéolyse.Koonjoo, Neha 08 October 2015 (has links)
Ce travail fait l’objet d’une avancée scientifique dans le développement de la technique d’IRM rehaussée par l’effet Overhauser dans la souris à 0,2 T. Cette dernière repose sur le transfert de polarisation des spins électroniques saturés d’un radical libre vers les spins des protons (généralement de l’eau) voisins pour rehausser le signal RMN du proton. Notre équipe a développé cette technique pour détecter une activité protéolytique au travers de deux stratégies. La première partie de la thèse a été de détecter pour la première fois une activité protéolytique in situ dans des souris saines et in vitro sur cellules vivantes. L’efficacité du rehaussement par effet Overhauser repose sur le temps de corrélation des spins des électrons non-appariés. Un radical nitroxyde greffé à l’élastine a été utilisé comme substrat. La protéolyse de ce dernier par des élastases pancréatiques a conduit l’observation en 3D d’un rehaussement du signal RMN de plus de 10 fois dans le tube digestif de souris vivantes. De plus, des développements méthodologiques, tels que l’implémentation de la séquence TrueFISP, le sous-échantillonnage par la méthode “Keyhole”, et la reconstruction des données en 3D ont été faits. La deuxième stratégie repose sur des molécules de nitroxyde ayant l’unique propriété de pouvoir décaler leurs pics de résonance après hydrolyse. Un nitroxyde phosphorylé en position Béta pouvant être détecté à deux fréquences spécifiques différentes avant et après hydrolyse d’un groupement chimique a été synthétisé par des chimistes à Marseille. L’hydrolyse de cette macromolécule a été observée in vivo dans l’estomac de souris saines avec des rehaussements de plus de 400% et imagée en 3D avec une bonne résolution spatio-temporelle. Ainsi, une prochaine étape serait de poursuivre ce travail sur un modèle pathologique et développer cette technique à un champ magnétique plus bas. / This work relates the continuity and advances in the implementation of the Overhauser-enhanced Magnetic Resonance Imaging technique on a 0.2 T scanner. Briefly, OMRI technique is based on polarization transfer of saturated electronic spins from free nitroxide radicals to proton spins of surrounding water molecules in the aim to drastically enhance proton NMR signal. To this technique, our research team has merged specific strategies for proteolytic activity detection. The first strategy relies on a 3D visualization of proteolytic activity happening in intact living cells or in vivo in healthy mice. With an Overhauser switch based upon changes in molecular tumbling time, high Overhauser enhancements of 10-fold were observed in the intestinal tract of mice after that elastolytic activity of our probe: the nitroxide-labeled elastin macromolecule took place. In addition, MRI developments - TrueFISP sequence implementation, undersampling Keyhole method and data reconstruction were carried out for imaging these rapid biological processes. A second exquisite strategy is also described using nitroxides with shifting resonant peaks. Here, a Beta-phosphorylated nitroxide molecule was specifically detected at two distinct frequencies: one for its substrate and the other for its product once hydrolysis took place. This hydrolysis was imaged in 3D in the stomach of living mice with Overhauser enhancements of more than 400% and with a good spatiotemporal resolution. The perspectives of this work lie on a future detection of a pathological proteolytic activity in vivo and eventually and development of very low magnetic field OMRI.
|
224 |
Estimation des émissions surfaciques du biogaz dans une installation de stockage des déchets non dangereux / Estimation of biogas surface emission in a landfill siteAllam, Nadine 30 January 2015 (has links)
Les ISDND produisent du biogaz par fermentation des déchets organiques. Le biogaz principalement composé de CH4 et CO2 représente un enjeu environnemental majeur. Cette étude propose un outil d’estimation des émissions surfaciques de biogaz d’une ISDND par modélisation de la dispersion atmosphérique d’un gaz traceur, en l’occurrence, le méthane. Les dynamiques spatiales et temporelles des concentrations en CH4 et en COV ont été suivies sur et dans l’entourage de l’ISDND d’étude (Séché Environnement) en fonction des conditions météorologiques. Les résultats montrent des faibles teneurs atmosphériques en COV et en CH4 sur le site d’étude validant une faible émission de ces espèces. Les COV mesurés sont émis par différentes sources dont la contribution est plus importante que celle de l’ISDND et aucun COV ne constitue un traceur de biogaz émis par le site. En revanche, l’ISDND apparait comme source principale du CH4 détecté. Deux méthodes sont proposées pour estimer les émissions surfaciques de méthane en utilisant un modèle de dispersion atmosphérique Gaussien ADMS, validé par comparaison des teneurs atmosphériques en méthane mesurées et modélisées et leur dynamique temporelle. La première méthode repose sur une approche inverse et la deuxième est une approche statistique par régression. Les émissions de CH4 sont estimées pour la période d’exposition de la diode laser aux émissions du site pour 4 scénarios météorologiques types identifiés par une classification hiérarchique. Les résultats valident l’influence des paramètres météorologiques, surtout de la stabilité de l’atmosphère, sur la dispersion atmosphérique et les émissions surfaciques en méthane. / Landfill sites produce biogas by degradation of biodegradable organic matter. Biogas mainly composed of CH4 and CO2 represents a major environmental challenge. This study propose a method to estimate biogas surface emissions in landfill sites using atmospheric dispersion modeling of a tracer gas, in this case, methane. The spatial and temporal dynamics of CH4 and VOC concentrations have been followed on the studied landfill site (Séché Environnement) for several weather conditions. Measurement results show low atmospheric VOC and CH4 concentrations on the studied landfill site which validates low emissions of these compounds. Detected VOC are emitted by different sources, excluding the landfill site. The contribution of these sources on VOC concentrations is more important than that of the landfill site and no VOC could be identified as tracer of biogas emitted by landfill site. However, CH4 is emitted by the landfill site, its principal source. Two methods are proposed to estimate methane surface emissions using a Gaussian atmospheric dispersion model ADMS. Gaussian model is validated by comparison of the temporal dynamics and atmospheric concentrations of methane measured on the site and those modeled. The first method is based on an inverse approach and the second one is a statistical regression approach. CH4 emissions are estimated for the exposure period of the laser diode to the site emissions and for 4 weather scenarios identified by a hierarchical classification. Results validate the influence of meteorological parameters, especially the stability of the atmosphere, on the atmospheric dispersion and methane surface emissions.
|
225 |
Évaluation des techniques de micro-extraction/préconcentration et d’échantillonnage passif comme outils de mesure de la contamination du milieu aquatique par des composés organo-halogénés hydrophobes émergents / Evaluation of micro-extraction/preconcentration and passive sampling technique as tools to measure the contamination of the aquatic environment by emergent hydrophobic organic halogenated compoundsGandolfi, Frédéric 20 December 2013 (has links)
La DCE a pour principale ambition d’harmoniser les politiques de l’eau sur un plan européen et d’atteindre le bon état des eaux d’ici 2015. L’évaluation de ce “bon état” implique en outre de dresser l’inventaire, dans les masses d’eau, des 33 substances prioritaires listées en annexe X de la DCE (annexe X, décision No 2455/2001/EC) et pour lesquelles des normes de qualité environnementales (NQE) ont été fixées (Directive 2013/39/EU). Parmi ces substances figurent les polychloroalcanes (SCCPs) et les polybromodiphényléthers (PBDEs) appartenant à la catégorie des micropolluants halogénés “émergents”. D’un point de vue analytique, leur détermination dans l’eau constitue actuellement un enjeu majeur, tant sur le plan de l’échantillonnage que de la sensibilité.Dans ce contexte, ce travail de thèse s’est attaché au développement d’une méthode d’analyse des SCCPs dans les eaux par SPME couplée à la GC/ECNI-MS. Les limites de quantification inférieures à 0,2 µg.L-1 et son degré d’automatisation font de cette méthode un outil de choix pour assurer le monitoring des milieux aquatiques tels que requis par la DCE. En complément de l’approche classique, un pilote de calibration en laboratoire pour l’étalonnage d’échantillonneurs passifs a pu être mis en place et validé pour la calibration des MESCO avec les HAPs. La participation à un essai interlaboratoire a permis de tester l’applicabilité des MESCO et des SR pour l’analyse des PBDEs en sortie de station d’épuration. Enfin la mise en application des LDPE, SR et MESCO sur l’étang de Berre a permis d’obtenir des résultats encourageants quant à l’applicabilité de ces échantillonneurs passifs pour l’analyse des SCCPs et PBDEs. / In order to achieve good water quality for 2015, the water framework directives (WFD 2000/60/EC and 2013/39/EU) force European countries to monitor the quality of their aquatic environment. For this purpose, all water bodies shall be monitored for all the 33 priority substances listed in annex X of WFD (annex X, decision No 2455/2001/EC) and for which environmental quality standards (EQS) were fixed (Directive 2013/39 / EU). Among these substances, we found the short chain chlorinated paraffins (SCCPs) and the polybrominated diphenyl ethers (PBDEs) belonging to the class of emergent halogenated micro-pollutants. From an analytical point of view, the analysis of SCCPs and PBDEs in water is still a major challenge, either in terms of sampling or sensitivity.In respect of WFD, this thesis work has, among other things, aimed to develop a method to analyze SCCPs in water by using SPME coupled with GC/ECNI-MS. The limit of quantification below 0.2 µg.L-1 and its degree of automation makes this method a tool of choice to ensure the monitoring of the aquatic environment as required by the WFD. In addition to the traditional approach, a laboratory system for passive sampler calibration was also developed and validated to calibrate MESCO for PAHs analysis. Moreover, our participation in an inter-laboratory study, has served to test the applicability of MESCO and SR for the analysis of PBDEs in a waste water treatment plant. Finally the deployment of LDPE, SR and MESCO in Berre lagoon has yielded some encouraging results about applicability of these passive samplers to analyze SCCPs and PBDE in water.
|
226 |
MR microscopy of neuronal tissue : acquisition acceleration, modelling and experimental validation of water diffusion / Microscopie du tissu neuronal par IRM : accélération des acquisitions, modélisation et validation expérimentale de la diffusion de l'eauNguyen, Van Khieu 10 April 2017 (has links)
La technique d’acquisition comprimée ou compressed sensing (CS) exploite la compressibilité de différents types d’images pour reconstruire des données sous-échantillonnées sans perte d’informations. Cette technique peut être appliquée à l’IRM pour réduire les temps d’acquisition. CS est basée sur trois composantes majeures : (1) la représentation parcimonieuse du signal dans un domaine de transformation, (2) des mesures incohérentes et (3) une méthode de reconstruction non-linéaire avec une contrainte de parcimonie. Dans la première résultats partie de cette thèse, nous proposons un nouveau modèle de sous-échantillonnage basé sur la théorie de l’agrégation limitée par la diffusion (DLA) et montrons qu’il est plus performant que la méthode de sous-échantillonnage aléatoire. Le modèle de sous-échantillonnage DLA a été utilisé pour implémenter la technique de CS pour l’imagerie haute résolution pondérée T2 et T1 sur un champ magnétique très intense (17.2T). Pour chacune des pondérations, le temps d’acquisition a été réduit de 50% tout en conservant la qualité des images en termes de résolution spatiale, rapport contraste sur bruit et quantification de l’intensité du signal. Les deux nouvelles séquences d’impulsions CS (csRARE et csFLASH) ont été implémentées sur le logiciel commercial ParaVision 5.1. La seconde résultats partie de la thèse est centrée sur l’étude de la dépendance en temps de la diffusivité dans le ganglion abdominal de l’Aplysia Californica. Le ganglion abdominal de l’aplysie a été choisi pour cette étude d’imagerie car l’IRM à haute résolution permet la description anatomique fine du réseau cellulaire (taille des neurones individuels et orientation des axones). Utiliser les tissus neuronaux de l’aplysie pour étudier la relation entre la structure cellulaire et le signal d’IRM de diffusion peut permettre de comprendre cette relation pour des organismes plus complexes. Le signal d’IRM de diffusion (IRMd) a été mesuré à différents temps de diffusion dans le ganglion abdominal et des simulations de la diffusion de l’eau dans des géométries obtenues à partir de la segmentation d’images haute résolution pondérées T2 et l’incorporation d’informations sur la structure cellulaire trouvées dans la littérature ont été réalisées. Pour comparer le signal d’IRMd dans des neurones composés d’une seule cellule avec le signal des simulations numériques, des cellules de grande taille ont été segmentées à partir d’images anatomiques pondérées T2. A l’intérieur des cellules, un noyau à forme irrégulière a été généré manuellement (environ 25-30% en fraction volumique). Les petites cellules ont été modélisées comme des petites sphères avec un petit noyau sphérique concentrique (environ 25% en fraction volumique). Le nerf a été modélisé en combinant des axones (cylindres) de différents diamètres en cohérence avec la littérature. Le signal numérique d’IRMd a été simulé en résolvant l’équation de Bloch-Torrey pour les domaines géométriques décris ci-dessus. En fittant le signal expérimental avec le signal simulé pour différents types de cellules comme les grandes cellules neuronales (diamètre entre 150 et 420 µm), des agrégats de petites cellules neuronales ayant la forme d’un sac (jusqu’à 400 cellule chez l’aplysie adulte dans chaque sac avec une taille cellulaire entre 40 et 100 µm de diamètre), des nerfs (groupes d’axones de forme cylindrique avec un diamètre de moins de 1 à 25 µm) pour une grande gamme de temps de diffusions, nous avons obtenu des estimations du coefficient de diffusion intrinsèque dans le noyau et le cytoplasme (pour les neurones) et le coefficient de diffusion intrinsèque dans les axones (pour les nerfs). Nous avons aussi évalué la pertinence d’utiliser une formule préexistante décrivant la dépendance en temps du coefficient de diffusion pour estimer la taille des cellules. / Compressed sensing (CS) exploits the compressibility of different types of images to reconstruct undersampled data without loss of information. The technique can be applied to MRI to reduce the acquisition times. The CS is based on three major components: (1) sparsity representation of the signal in some transform domain, (2) incoherent measurements, and (3) sparsity-constrained nonlinear reconstruction method. If the total number of points in the image is larger than four times the number of sparse coefficients, then the reconstruction of under sampled data is feasible. In the first results part of this thesis, we propose a new under sampling model based on the diffusion limited aggregation (DLA) theory and show that it performs better than the random variable under sampling method. The DLA under sampling model was used to implement the CS for T2-weighted and T1-weighted high resolution imaging at the ultra-high magnetic field (17.2T). In both cases, the acquisition time was reduced by 50% while maintaining the quality of the images in terms of spatial resolution, contrast to noise ratio, and signal intensity quantification. Both new CS pulse sequences (csRARE and csFLASH) were implemented in ParaVision 5.1 commercial software. The second results part of the thesis is focused on the study of the time-dependent diffusivity in the abdominal ganglion of Aplysia California. The Aplysia abdominal ganglion was chosen in this imaging study because high resolution MR imaging allows the fine anatomical description of the cellular network (size of individual neurons and orientation of axons). Using the Aplysia ganglia to study the relationship between the cellular structure and the diffusion MRI signal can shed light on this relationship for more complex organisms. We measured the dMRI signal at several diffusion times in the abdominal ganglion and performed simulations of water diffusion in geometries obtained after segmenting high resolution T2-weighted images and incorporating known information about the cellular structure from the literature. To match the dMRI signal in the single cell neurons with numerical simulations signal, the large cell outline was segmented from the anatomical T2 weighted image. Inside this cell shape, an irregularly shaped nucleus was manually generated (around 25-30% volume fraction). The small cells were modeled as small spheres with a smaller concentric spherical nucleus (around 25% volume fraction). The nerve was modeled by combining axons (cylinders) of different diameters consistent with the literature. The numerical dMRI signal can be simulated by solving Bloch-Torrey equation under the geometries domain described above. By fitting the experimental signal to the simulated signal for several types of cells such as: large cell neurons (diameter between 150 µm and 420 µm); cluster of small neuron cells gathered in the shape of a bag (up to 400 cells in adult Aplysia in each bag with cell size between 40 µm to 100 µm in diameter); and nerves (group of axons cylindrical shape diameter from less than 1 µm to 25 µm) at a wide range of diffusion times, we obtained estimates of the intrinsic diffusion coefficient in the nucleus and the cytoplasm (for cell neurons) and the intrinsic diffusion coefficient in the axons (for the nerves). We also evaluated the reliability of using an existing formula for the time-dependent diffusion coefficient to estimate cell size.
|
227 |
La reconnaissance visuelle à travers le temps : attentes, échantillonnage et traitementCaplette, Laurent 08 1900 (has links)
La reconnaissance visuelle est un processus temporel : d’abord, l’information visuelle est reçue sur notre rétine de manière continue à travers le temps; ensuite, le traitement de l’information visuelle par notre cerveau prend un certain temps à s’effectuer; finalement, notre perception est toujours fonction autant des expériences acquises dans le passé que de l’input sensoriel présent. Les interactions entre ces aspects temporels de la reconnaissance sont rarement abordées dans la littérature. Dans cette thèse, nous évaluons l’échantillonnage de l’information visuelle à travers le temps pendant une tâche de reconnaissance, comment il se traduit dans le cerveau et comment il est modulé par des attentes spécifiques.
Plusieurs études indiquent que nos attentes modulent notre perception. Comment l’attente d’un objet spécifique influence nos représentations internes demeure cependant largement inconnu. Dans le premier article de cette thèse, nous utilisons une variante de la technique Bubbles pour retrouver avec précision le décours temporel de l’utilisation d’information visuelle pendant la reconnaissance d’objets, lorsque les observateurs s’attendent à voir un objet spécifique ou non. Nous observons que les attentes affectent la représentation de différents attributs différemment et qu’elles ont un effet distinct à différents moments pendant la réception d’information visuelle. Dans le deuxième article, nous utilisons une technique similaire en conjonction avec l’électroencéphalographie (EEG) afin de révéler pour la première fois le traitement, à travers le temps, de l’information reçue à un moment spécifique pendant une fixation oculaire. Nous démontrons que l’information visuelle n’est pas traitée de la même manière selon le moment auquel elle est reçue sur la rétine, que ces différences ne sont pas explicables par l’adaptation ou l’amorçage, qu’elles sont d’origine au moins partiellement descendante et qu’elles corrèlent avec le comportement. Finalement, dans le troisième article, nous approfondissons cette investigation en utilisant la magnétoencéphalographie (MEG) et en examinant l’activité dans différentes régions cérébrales. Nous démontrons que l’échantillonnage de l’information visuelle est hautement variable selon le moment d’arrivée de l’information sur la rétine dans de larges parties des lobes occipitaux et pariétaux. De plus, nous démontrons que cet échantillonnage est rythmique, oscillant à diverses fréquences entre 7 et 30 Hz, et que ces oscillations varient en fréquences selon l’attribut échantillonné. / Visual recognition is a temporal process: first, visual information is continuously received through time on our retina; second, the processing of visual information by our brain takes time; third, our perception is function of both the present sensory input and our past experiences. Interactions between these temporal aspects have rarely been discussed in the literature. In this thesis, we assess the sampling of visual information through time during recognition tasks, how it is translated in the brain, and how it is modulated by expectations of specific objects.
Several studies report that expectations modulate perception. However, how the expectation of a specific object modulates our internal representations remains largely unknown. In the first article of this thesis, we use a variant of the Bubbles technique to uncover the precise time course of visual information use during object recognition when specific objects are expected or not. We show that expectations modulate the representations of different features differently, and that they have distinct effects at distinct moments throughout the reception of visual information. In the second article, we use a similar method in conjunction with electroencephalography (EEG) to reveal for the first time the processing, through time, of information received at a specific moment during an eye fixation. We show that visual information is not processed in the same way depending on the moment at which it is received on the retina, that these differences cannot be explained by simple adaptation or repetition priming, that they are of at least partly top- down origin, and that they correlate with behavior. Finally, in a third article, we push this investigation further by using magnetoencephalography (MEG) and examining brain activity in different brain regions. We show that the sampling of visual information is highly variable depending on the moment at which information arrives on the retina in large parts of the occipital and parietal lobes. Furthermore, we show that this sampling is rhythmic, oscillating at multiple frequencies between 7 and 30 Hz, and that these oscillations vary according to the sampled feature.
|
228 |
Estimateur bootstrap de la variance d'un estimateur de quantile en contexte de population finieMcNealis, Vanessa 12 1900 (has links)
Ce mémoire propose une adaptation lisse de méthodes bootstrap par pseudo-population aux fins d'estimation de la variance et de formation d'intervalles de confiance pour des quantiles de population finie. Dans le cas de données i.i.d., Hall et al. (1989) ont montré que l'ordre de convergence de l'erreur relative de l’estimateur bootstrap de la variance d’un quantile échantillonnal connaît un gain lorsque l'on rééchantillonne à partir d’une estimation lisse de la fonction de répartition plutôt que de la fonction de répartition expérimentale. Dans cet ouvrage, nous étendons le principe du bootstrap lisse au contexte de population finie en le mettant en œuvre au sein des méthodes bootstrap par pseudo-population. Étant donné un noyau et un paramètre de lissage, cela consiste à lisser la pseudo-population dont sont issus les échantillons bootstrap selon le plan de sondage initial. Deux plans sont abordés, soit l'échantillonnage aléatoire simple sans remise et l'échantillonnage de Poisson. Comme l'utilisation des algorithmes proposés nécessite la spécification du paramètre de lissage, nous décrivons une méthode de sélection par injection et des méthodes de sélection par la minimisation d'estimés bootstrap de critères d'ajustement sur une grille de valeurs du paramètre de lissage. Nous présentons des résultats d'une étude par simulation permettant de montrer empiriquement l'efficacité de l'approche lisse par rapport à l'approche standard pour ce qui est de l'estimation de la variance d'un estimateur de quantile et des résultats plus mitigés en ce qui concerne les intervalles de confiance. / This thesis introduces smoothed pseudo-population bootstrap methods for the purposes
of variance estimation and the construction of confidence intervals for finite population
quantiles. In an i.i.d. context, Hall et al. (1989) have shown that resampling from a smoothed
estimate of the distribution function instead of the usual empirical distribution function can
improve the convergence rate of the bootstrap variance estimator of a sample quantile. We
extend the smoothed bootstrap to the survey sampling framework by implementing it in
pseudo-population bootstrap methods. Given a kernel function and a bandwidth, it consists
of smoothing the pseudo-population from which bootstrap samples are drawn using the
original sampling design. Two designs are discussed, namely simple random sampling and
Poisson sampling. The implementation of the proposed algorithms requires the specification
of the bandwidth. To do so, we develop a plug-in selection method along with grid search
selection methods based on bootstrap estimates of two performance metrics. We present the
results of a simulation study which provide empirical evidence that the smoothed approach
is more efficient than the standard approach for estimating the variance of a quantile
estimator together with mixed results regarding confidence intervals.
|
229 |
Evaluation de la contamination des atmosphères intérieures et extérieures induite par les usages non agricoles de pesticides / Evaluation of indoor and outdoor air contamination resulting from non-agricultural uses of pesticidesRaeppel, Caroline 16 November 2012 (has links)
Dans le but d’évaluer la contamination des atmosphères intérieures et extérieures induite par les usages non agricoles de pesticides, deux approches complémentaires ont été mises en oeuvre : l’utilisation de capteurs passifs de type Tenax TA pour réaliser des prélèvements d’air, et l’utilisation de cheveux employés comme biomarqueurs d’exposition. Des campagnes de mesures ont été menées sur plusieurs sites à la suite de traitements de désherbage ou de désinsectisation ainsi quedans des logements. Les échantillons d’air et de cheveux ont été extraits respectivement par thermodésorption et par extraction solide-liquide, avant d’être analysés en chromatographie gazeuse couplée à la spectrométrie de masse (GC-MS). Une augmentation du niveau de contamination de l’air extérieur et intérieur et l’existence de transferts entre ces deux milieux ont pu être observées après l’application de pesticides. Dans les logements, des pesticides actuellement employés mais aussi des pesticides interdits et persistants ont été détectés. Plusieurs pesticides ont également été détectés dans les cheveux, mais l’exposition humaine à ces derniers n’a pas pu toujours être corrélée à une contamination de l’air. / In order to evaluate indoor and outdoor air contamination resulting from non-agricultural uses of pesticides, two complementary approaches were applied: passive samplers based on Tenax TA used for air sampling and hair used as biomarkers of exposure. Sampling campaigns were conducted on several sites after weeding and pest control treatments as well as in accommodations. Air samples and hair samples were respectively extracted by thermal desorption and solid-liquid extraction prior to their analysis by gas chromatography combined with mass spectrometry (GC-MS). An increase of the indoor and outdoor air contamination levels and the existence of transfers between these two environments could be observed after pesticides applications. In accommodations, pesticides currently used and banned but persistent ones were detected. Several pesticides were also detected in hair samples but human exposure to these pesticides cannot be correlated with air contamination in all cases.
|
230 |
Mécanismes visuels oscillatoires dans l’autismeEl Khalil, Lili 08 1900 (has links)
Cette étude compare les variations d’efficacité du traitement visuel dans le temps entre 16 autistes adultes ayant un retard initial du langage et 16 participants contrôles présentant un développement typique, en utilisant la technique d’échantillonnage temporel aléatoire. Les participants devaient nommer des objets familiers (expérience 1) ou des mots écrits (expérience 2) présentés sur un écran d’ordinateur pendant 200 ms et dont la visibilité (i.e. ratio signal/bruit) variait aléatoirement à travers le temps. Pour chacun des 32 participants, des images de classification (IC) temps-fréquence ont été obtenues en soustrayant la moyenne des fonctions d’échantillonnage (i.e. les ratio signal/bruit) ou leur recodage en temps-fréquence associées aux réponses erronées de celle associée aux réponses correctes. Les résultats démontrent que l’efficacité du traitement visuel chez les deux groupes de participants est modulée à travers le temps et est affectée par le contenu fréquentiel des oscillations du rapport signal-sur-bruit. Des différences inter-groupes importantes sont toutefois observées quant à la chronologie des mécanismes oscillatoires sont mis en branle pour la réalisation de la tâche de reconnaissance d’objets. Pour la tâche de reconnaissance de mots écrits, les différences entre les groupes ne sont que marginalement significatives. Il est proposé que la plus grande sensibilité de la tâche de reconnaissance d’objets puisse s’expliquer par 3 chose essentielles : 1. la plus grande complexité des mécanismes auxquels elle doit faire appel pour atteindre une bonne réponse. 2. Le surfonctionnement perceptif des autistes dans le traitement des informations locales ou de bas niveau. 3. Une variabilité de la localisation des activations qui soulève la possibilité que l'autisme implique une amélioration et/ou une altération des mécanismes de plasticité typiques. / Variations in visual processing efficiency over time were compared between 16 adult autistic participants with initial language delay and 16 typically developing control participants, using the random temporal sampling technique. Participants were asked to name familiar objects (experiment 1) or written words (experiment 2) presented on a computer screen for 200 ms and whose visibility (i.e., signal-to-noise ratio) varied randomly across time. For each of these 32 participants, time-frequency classification images (CI) were obtained by subtracting the average of the sampling functions (i.e., signal-to-noise ratio) or time-frequency recordings thereof associated with incorrect responses from that associated with correct responses. The efficiency of visual processing in the two groups of participants is modulated through the time and is affected by the frequency content of signal-to-noise ratio oscillations. Significant inter-group differences were observed in the timing of the oscillatory mechanisms for the object recognition task. For the written word recognition task, the differences between groups are only marginally significant. It is proposed that three essential things can explain the greater sensitivity of the object recognition task: 1. the greater complexity of the mechanisms it must call up to reach correct answer. 2. The perceptual over-functioning of autistic people, more evident in the detection, the categorization and the memory of perceptual information. 3. An increased variability in the localization of activations that raises the possibility that autism involves enhancement and/or alteration of typical plasticity mechanisms.
|
Page generated in 0.0897 seconds