• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 154
  • 78
  • 21
  • Tagged with
  • 255
  • 105
  • 52
  • 32
  • 31
  • 31
  • 30
  • 29
  • 25
  • 25
  • 21
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Estimation des émissions surfaciques du biogaz dans une installation de stockage des déchets non dangereux / Estimation of biogas surface emission in a landfill site

Allam, Nadine 30 January 2015 (has links)
Les ISDND produisent du biogaz par fermentation des déchets organiques. Le biogaz principalement composé de CH4 et CO2 représente un enjeu environnemental majeur. Cette étude propose un outil d’estimation des émissions surfaciques de biogaz d’une ISDND par modélisation de la dispersion atmosphérique d’un gaz traceur, en l’occurrence, le méthane. Les dynamiques spatiales et temporelles des concentrations en CH4 et en COV ont été suivies sur et dans l’entourage de l’ISDND d’étude (Séché Environnement) en fonction des conditions météorologiques. Les résultats montrent des faibles teneurs atmosphériques en COV et en CH4 sur le site d’étude validant une faible émission de ces espèces. Les COV mesurés sont émis par différentes sources dont la contribution est plus importante que celle de l’ISDND et aucun COV ne constitue un traceur de biogaz émis par le site. En revanche, l’ISDND apparait comme source principale du CH4 détecté. Deux méthodes sont proposées pour estimer les émissions surfaciques de méthane en utilisant un modèle de dispersion atmosphérique Gaussien ADMS, validé par comparaison des teneurs atmosphériques en méthane mesurées et modélisées et leur dynamique temporelle. La première méthode repose sur une approche inverse et la deuxième est une approche statistique par régression. Les émissions de CH4 sont estimées pour la période d’exposition de la diode laser aux émissions du site pour 4 scénarios météorologiques types identifiés par une classification hiérarchique. Les résultats valident l’influence des paramètres météorologiques, surtout de la stabilité de l’atmosphère, sur la dispersion atmosphérique et les émissions surfaciques en méthane. / Landfill sites produce biogas by degradation of biodegradable organic matter. Biogas mainly composed of CH4 and CO2 represents a major environmental challenge. This study propose a method to estimate biogas surface emissions in landfill sites using atmospheric dispersion modeling of a tracer gas, in this case, methane. The spatial and temporal dynamics of CH4 and VOC concentrations have been followed on the studied landfill site (Séché Environnement) for several weather conditions. Measurement results show low atmospheric VOC and CH4 concentrations on the studied landfill site which validates low emissions of these compounds. Detected VOC are emitted by different sources, excluding the landfill site. The contribution of these sources on VOC concentrations is more important than that of the landfill site and no VOC could be identified as tracer of biogas emitted by landfill site. However, CH4 is emitted by the landfill site, its principal source. Two methods are proposed to estimate methane surface emissions using a Gaussian atmospheric dispersion model ADMS. Gaussian model is validated by comparison of the temporal dynamics and atmospheric concentrations of methane measured on the site and those modeled. The first method is based on an inverse approach and the second one is a statistical regression approach. CH4 emissions are estimated for the exposure period of the laser diode to the site emissions and for 4 weather scenarios identified by a hierarchical classification. Results validate the influence of meteorological parameters, especially the stability of the atmosphere, on the atmospheric dispersion and methane surface emissions.
222

Évaluation des techniques de micro-extraction/préconcentration et d’échantillonnage passif comme outils de mesure de la contamination du milieu aquatique par des composés organo-halogénés hydrophobes émergents / Evaluation of micro-extraction/preconcentration and passive sampling technique as tools to measure the contamination of the aquatic environment by emergent hydrophobic organic halogenated compounds

Gandolfi, Frédéric 20 December 2013 (has links)
La DCE a pour principale ambition d’harmoniser les politiques de l’eau sur un plan européen et d’atteindre le bon état des eaux d’ici 2015. L’évaluation de ce “bon état” implique en outre de dresser l’inventaire, dans les masses d’eau, des 33 substances prioritaires listées en annexe X de la DCE (annexe X, décision No 2455/2001/EC) et pour lesquelles des normes de qualité environnementales (NQE) ont été fixées (Directive 2013/39/EU). Parmi ces substances figurent les polychloroalcanes (SCCPs) et les polybromodiphényléthers (PBDEs) appartenant à la catégorie des micropolluants halogénés “émergents”. D’un point de vue analytique, leur détermination dans l’eau constitue actuellement un enjeu majeur, tant sur le plan de l’échantillonnage que de la sensibilité.Dans ce contexte, ce travail de thèse s’est attaché au développement d’une méthode d’analyse des SCCPs dans les eaux par SPME couplée à la GC/ECNI-MS. Les limites de quantification inférieures à 0,2 µg.L-1 et son degré d’automatisation font de cette méthode un outil de choix pour assurer le monitoring des milieux aquatiques tels que requis par la DCE. En complément de l’approche classique, un pilote de calibration en laboratoire pour l’étalonnage d’échantillonneurs passifs a pu être mis en place et validé pour la calibration des MESCO avec les HAPs. La participation à un essai interlaboratoire a permis de tester l’applicabilité des MESCO et des SR pour l’analyse des PBDEs en sortie de station d’épuration. Enfin la mise en application des LDPE, SR et MESCO sur l’étang de Berre a permis d’obtenir des résultats encourageants quant à l’applicabilité de ces échantillonneurs passifs pour l’analyse des SCCPs et PBDEs. / In order to achieve good water quality for 2015, the water framework directives (WFD 2000/60/EC and 2013/39/EU) force European countries to monitor the quality of their aquatic environment. For this purpose, all water bodies shall be monitored for all the 33 priority substances listed in annex X of WFD (annex X, decision No 2455/2001/EC) and for which environmental quality standards (EQS) were fixed (Directive 2013/39 / EU). Among these substances, we found the short chain chlorinated paraffins (SCCPs) and the polybrominated diphenyl ethers (PBDEs) belonging to the class of emergent halogenated micro-pollutants. From an analytical point of view, the analysis of SCCPs and PBDEs in water is still a major challenge, either in terms of sampling or sensitivity.In respect of WFD, this thesis work has, among other things, aimed to develop a method to analyze SCCPs in water by using SPME coupled with GC/ECNI-MS. The limit of quantification below 0.2 µg.L-1 and its degree of automation makes this method a tool of choice to ensure the monitoring of the aquatic environment as required by the WFD. In addition to the traditional approach, a laboratory system for passive sampler calibration was also developed and validated to calibrate MESCO for PAHs analysis. Moreover, our participation in an inter-laboratory study, has served to test the applicability of MESCO and SR for the analysis of PBDEs in a waste water treatment plant. Finally the deployment of LDPE, SR and MESCO in Berre lagoon has yielded some encouraging results about applicability of these passive samplers to analyze SCCPs and PBDE in water.
223

MR microscopy of neuronal tissue : acquisition acceleration, modelling and experimental validation of water diffusion / Microscopie du tissu neuronal par IRM : accélération des acquisitions, modélisation et validation expérimentale de la diffusion de l'eau

Nguyen, Van Khieu 10 April 2017 (has links)
La technique d’acquisition comprimée ou compressed sensing (CS) exploite la compressibilité de différents types d’images pour reconstruire des données sous-échantillonnées sans perte d’informations. Cette technique peut être appliquée à l’IRM pour réduire les temps d’acquisition. CS est basée sur trois composantes majeures : (1) la représentation parcimonieuse du signal dans un domaine de transformation, (2) des mesures incohérentes et (3) une méthode de reconstruction non-linéaire avec une contrainte de parcimonie. Dans la première résultats partie de cette thèse, nous proposons un nouveau modèle de sous-échantillonnage basé sur la théorie de l’agrégation limitée par la diffusion (DLA) et montrons qu’il est plus performant que la méthode de sous-échantillonnage aléatoire. Le modèle de sous-échantillonnage DLA a été utilisé pour implémenter la technique de CS pour l’imagerie haute résolution pondérée T2 et T1 sur un champ magnétique très intense (17.2T). Pour chacune des pondérations, le temps d’acquisition a été réduit de 50% tout en conservant la qualité des images en termes de résolution spatiale, rapport contraste sur bruit et quantification de l’intensité du signal. Les deux nouvelles séquences d’impulsions CS (csRARE et csFLASH) ont été implémentées sur le logiciel commercial ParaVision 5.1. La seconde résultats partie de la thèse est centrée sur l’étude de la dépendance en temps de la diffusivité dans le ganglion abdominal de l’Aplysia Californica. Le ganglion abdominal de l’aplysie a été choisi pour cette étude d’imagerie car l’IRM à haute résolution permet la description anatomique fine du réseau cellulaire (taille des neurones individuels et orientation des axones). Utiliser les tissus neuronaux de l’aplysie pour étudier la relation entre la structure cellulaire et le signal d’IRM de diffusion peut permettre de comprendre cette relation pour des organismes plus complexes. Le signal d’IRM de diffusion (IRMd) a été mesuré à différents temps de diffusion dans le ganglion abdominal et des simulations de la diffusion de l’eau dans des géométries obtenues à partir de la segmentation d’images haute résolution pondérées T2 et l’incorporation d’informations sur la structure cellulaire trouvées dans la littérature ont été réalisées. Pour comparer le signal d’IRMd dans des neurones composés d’une seule cellule avec le signal des simulations numériques, des cellules de grande taille ont été segmentées à partir d’images anatomiques pondérées T2. A l’intérieur des cellules, un noyau à forme irrégulière a été généré manuellement (environ 25-30% en fraction volumique). Les petites cellules ont été modélisées comme des petites sphères avec un petit noyau sphérique concentrique (environ 25% en fraction volumique). Le nerf a été modélisé en combinant des axones (cylindres) de différents diamètres en cohérence avec la littérature. Le signal numérique d’IRMd a été simulé en résolvant l’équation de Bloch-Torrey pour les domaines géométriques décris ci-dessus. En fittant le signal expérimental avec le signal simulé pour différents types de cellules comme les grandes cellules neuronales (diamètre entre 150 et 420 µm), des agrégats de petites cellules neuronales ayant la forme d’un sac (jusqu’à 400 cellule chez l’aplysie adulte dans chaque sac avec une taille cellulaire entre 40 et 100 µm de diamètre), des nerfs (groupes d’axones de forme cylindrique avec un diamètre de moins de 1 à 25 µm) pour une grande gamme de temps de diffusions, nous avons obtenu des estimations du coefficient de diffusion intrinsèque dans le noyau et le cytoplasme (pour les neurones) et le coefficient de diffusion intrinsèque dans les axones (pour les nerfs). Nous avons aussi évalué la pertinence d’utiliser une formule préexistante décrivant la dépendance en temps du coefficient de diffusion pour estimer la taille des cellules. / Compressed sensing (CS) exploits the compressibility of different types of images to reconstruct undersampled data without loss of information. The technique can be applied to MRI to reduce the acquisition times. The CS is based on three major components: (1) sparsity representation of the signal in some transform domain, (2) incoherent measurements, and (3) sparsity-constrained nonlinear reconstruction method. If the total number of points in the image is larger than four times the number of sparse coefficients, then the reconstruction of under sampled data is feasible. In the first results part of this thesis, we propose a new under sampling model based on the diffusion limited aggregation (DLA) theory and show that it performs better than the random variable under sampling method. The DLA under sampling model was used to implement the CS for T2-weighted and T1-weighted high resolution imaging at the ultra-high magnetic field (17.2T). In both cases, the acquisition time was reduced by 50% while maintaining the quality of the images in terms of spatial resolution, contrast to noise ratio, and signal intensity quantification. Both new CS pulse sequences (csRARE and csFLASH) were implemented in ParaVision 5.1 commercial software. The second results part of the thesis is focused on the study of the time-dependent diffusivity in the abdominal ganglion of Aplysia California. The Aplysia abdominal ganglion was chosen in this imaging study because high resolution MR imaging allows the fine anatomical description of the cellular network (size of individual neurons and orientation of axons). Using the Aplysia ganglia to study the relationship between the cellular structure and the diffusion MRI signal can shed light on this relationship for more complex organisms. We measured the dMRI signal at several diffusion times in the abdominal ganglion and performed simulations of water diffusion in geometries obtained after segmenting high resolution T2-weighted images and incorporating known information about the cellular structure from the literature. To match the dMRI signal in the single cell neurons with numerical simulations signal, the large cell outline was segmented from the anatomical T2 weighted image. Inside this cell shape, an irregularly shaped nucleus was manually generated (around 25-30% volume fraction). The small cells were modeled as small spheres with a smaller concentric spherical nucleus (around 25% volume fraction). The nerve was modeled by combining axons (cylinders) of different diameters consistent with the literature. The numerical dMRI signal can be simulated by solving Bloch-Torrey equation under the geometries domain described above. By fitting the experimental signal to the simulated signal for several types of cells such as: large cell neurons (diameter between 150 µm and 420 µm); cluster of small neuron cells gathered in the shape of a bag (up to 400 cells in adult Aplysia in each bag with cell size between 40 µm to 100 µm in diameter); and nerves (group of axons cylindrical shape diameter from less than 1 µm to 25 µm) at a wide range of diffusion times, we obtained estimates of the intrinsic diffusion coefficient in the nucleus and the cytoplasm (for cell neurons) and the intrinsic diffusion coefficient in the axons (for the nerves). We also evaluated the reliability of using an existing formula for the time-dependent diffusion coefficient to estimate cell size.
224

La reconnaissance visuelle à travers le temps : attentes, échantillonnage et traitement

Caplette, Laurent 08 1900 (has links)
La reconnaissance visuelle est un processus temporel : d’abord, l’information visuelle est reçue sur notre rétine de manière continue à travers le temps; ensuite, le traitement de l’information visuelle par notre cerveau prend un certain temps à s’effectuer; finalement, notre perception est toujours fonction autant des expériences acquises dans le passé que de l’input sensoriel présent. Les interactions entre ces aspects temporels de la reconnaissance sont rarement abordées dans la littérature. Dans cette thèse, nous évaluons l’échantillonnage de l’information visuelle à travers le temps pendant une tâche de reconnaissance, comment il se traduit dans le cerveau et comment il est modulé par des attentes spécifiques. Plusieurs études indiquent que nos attentes modulent notre perception. Comment l’attente d’un objet spécifique influence nos représentations internes demeure cependant largement inconnu. Dans le premier article de cette thèse, nous utilisons une variante de la technique Bubbles pour retrouver avec précision le décours temporel de l’utilisation d’information visuelle pendant la reconnaissance d’objets, lorsque les observateurs s’attendent à voir un objet spécifique ou non. Nous observons que les attentes affectent la représentation de différents attributs différemment et qu’elles ont un effet distinct à différents moments pendant la réception d’information visuelle. Dans le deuxième article, nous utilisons une technique similaire en conjonction avec l’électroencéphalographie (EEG) afin de révéler pour la première fois le traitement, à travers le temps, de l’information reçue à un moment spécifique pendant une fixation oculaire. Nous démontrons que l’information visuelle n’est pas traitée de la même manière selon le moment auquel elle est reçue sur la rétine, que ces différences ne sont pas explicables par l’adaptation ou l’amorçage, qu’elles sont d’origine au moins partiellement descendante et qu’elles corrèlent avec le comportement. Finalement, dans le troisième article, nous approfondissons cette investigation en utilisant la magnétoencéphalographie (MEG) et en examinant l’activité dans différentes régions cérébrales. Nous démontrons que l’échantillonnage de l’information visuelle est hautement variable selon le moment d’arrivée de l’information sur la rétine dans de larges parties des lobes occipitaux et pariétaux. De plus, nous démontrons que cet échantillonnage est rythmique, oscillant à diverses fréquences entre 7 et 30 Hz, et que ces oscillations varient en fréquences selon l’attribut échantillonné. / Visual recognition is a temporal process: first, visual information is continuously received through time on our retina; second, the processing of visual information by our brain takes time; third, our perception is function of both the present sensory input and our past experiences. Interactions between these temporal aspects have rarely been discussed in the literature. In this thesis, we assess the sampling of visual information through time during recognition tasks, how it is translated in the brain, and how it is modulated by expectations of specific objects. Several studies report that expectations modulate perception. However, how the expectation of a specific object modulates our internal representations remains largely unknown. In the first article of this thesis, we use a variant of the Bubbles technique to uncover the precise time course of visual information use during object recognition when specific objects are expected or not. We show that expectations modulate the representations of different features differently, and that they have distinct effects at distinct moments throughout the reception of visual information. In the second article, we use a similar method in conjunction with electroencephalography (EEG) to reveal for the first time the processing, through time, of information received at a specific moment during an eye fixation. We show that visual information is not processed in the same way depending on the moment at which it is received on the retina, that these differences cannot be explained by simple adaptation or repetition priming, that they are of at least partly top- down origin, and that they correlate with behavior. Finally, in a third article, we push this investigation further by using magnetoencephalography (MEG) and examining brain activity in different brain regions. We show that the sampling of visual information is highly variable depending on the moment at which information arrives on the retina in large parts of the occipital and parietal lobes. Furthermore, we show that this sampling is rhythmic, oscillating at multiple frequencies between 7 and 30 Hz, and that these oscillations vary according to the sampled feature.
225

Estimateur bootstrap de la variance d'un estimateur de quantile en contexte de population finie

McNealis, Vanessa 12 1900 (has links)
Ce mémoire propose une adaptation lisse de méthodes bootstrap par pseudo-population aux fins d'estimation de la variance et de formation d'intervalles de confiance pour des quantiles de population finie. Dans le cas de données i.i.d., Hall et al. (1989) ont montré que l'ordre de convergence de l'erreur relative de l’estimateur bootstrap de la variance d’un quantile échantillonnal connaît un gain lorsque l'on rééchantillonne à partir d’une estimation lisse de la fonction de répartition plutôt que de la fonction de répartition expérimentale. Dans cet ouvrage, nous étendons le principe du bootstrap lisse au contexte de population finie en le mettant en œuvre au sein des méthodes bootstrap par pseudo-population. Étant donné un noyau et un paramètre de lissage, cela consiste à lisser la pseudo-population dont sont issus les échantillons bootstrap selon le plan de sondage initial. Deux plans sont abordés, soit l'échantillonnage aléatoire simple sans remise et l'échantillonnage de Poisson. Comme l'utilisation des algorithmes proposés nécessite la spécification du paramètre de lissage, nous décrivons une méthode de sélection par injection et des méthodes de sélection par la minimisation d'estimés bootstrap de critères d'ajustement sur une grille de valeurs du paramètre de lissage. Nous présentons des résultats d'une étude par simulation permettant de montrer empiriquement l'efficacité de l'approche lisse par rapport à l'approche standard pour ce qui est de l'estimation de la variance d'un estimateur de quantile et des résultats plus mitigés en ce qui concerne les intervalles de confiance. / This thesis introduces smoothed pseudo-population bootstrap methods for the purposes of variance estimation and the construction of confidence intervals for finite population quantiles. In an i.i.d. context, Hall et al. (1989) have shown that resampling from a smoothed estimate of the distribution function instead of the usual empirical distribution function can improve the convergence rate of the bootstrap variance estimator of a sample quantile. We extend the smoothed bootstrap to the survey sampling framework by implementing it in pseudo-population bootstrap methods. Given a kernel function and a bandwidth, it consists of smoothing the pseudo-population from which bootstrap samples are drawn using the original sampling design. Two designs are discussed, namely simple random sampling and Poisson sampling. The implementation of the proposed algorithms requires the specification of the bandwidth. To do so, we develop a plug-in selection method along with grid search selection methods based on bootstrap estimates of two performance metrics. We present the results of a simulation study which provide empirical evidence that the smoothed approach is more efficient than the standard approach for estimating the variance of a quantile estimator together with mixed results regarding confidence intervals.
226

Evaluation de la contamination des atmosphères intérieures et extérieures induite par les usages non agricoles de pesticides / Evaluation of indoor and outdoor air contamination resulting from non-agricultural uses of pesticides

Raeppel, Caroline 16 November 2012 (has links)
Dans le but d’évaluer la contamination des atmosphères intérieures et extérieures induite par les usages non agricoles de pesticides, deux approches complémentaires ont été mises en oeuvre : l’utilisation de capteurs passifs de type Tenax TA pour réaliser des prélèvements d’air, et l’utilisation de cheveux employés comme biomarqueurs d’exposition. Des campagnes de mesures ont été menées sur plusieurs sites à la suite de traitements de désherbage ou de désinsectisation ainsi quedans des logements. Les échantillons d’air et de cheveux ont été extraits respectivement par thermodésorption et par extraction solide-liquide, avant d’être analysés en chromatographie gazeuse couplée à la spectrométrie de masse (GC-MS). Une augmentation du niveau de contamination de l’air extérieur et intérieur et l’existence de transferts entre ces deux milieux ont pu être observées après l’application de pesticides. Dans les logements, des pesticides actuellement employés mais aussi des pesticides interdits et persistants ont été détectés. Plusieurs pesticides ont également été détectés dans les cheveux, mais l’exposition humaine à ces derniers n’a pas pu toujours être corrélée à une contamination de l’air. / In order to evaluate indoor and outdoor air contamination resulting from non-agricultural uses of pesticides, two complementary approaches were applied: passive samplers based on Tenax TA used for air sampling and hair used as biomarkers of exposure. Sampling campaigns were conducted on several sites after weeding and pest control treatments as well as in accommodations. Air samples and hair samples were respectively extracted by thermal desorption and solid-liquid extraction prior to their analysis by gas chromatography combined with mass spectrometry (GC-MS). An increase of the indoor and outdoor air contamination levels and the existence of transfers between these two environments could be observed after pesticides applications. In accommodations, pesticides currently used and banned but persistent ones were detected. Several pesticides were also detected in hair samples but human exposure to these pesticides cannot be correlated with air contamination in all cases.
227

Mécanismes visuels oscillatoires dans l’autisme

El Khalil, Lili 08 1900 (has links)
Cette étude compare les variations d’efficacité du traitement visuel dans le temps entre 16 autistes adultes ayant un retard initial du langage et 16 participants contrôles présentant un développement typique, en utilisant la technique d’échantillonnage temporel aléatoire. Les participants devaient nommer des objets familiers (expérience 1) ou des mots écrits (expérience 2) présentés sur un écran d’ordinateur pendant 200 ms et dont la visibilité (i.e. ratio signal/bruit) variait aléatoirement à travers le temps. Pour chacun des 32 participants, des images de classification (IC) temps-fréquence ont été obtenues en soustrayant la moyenne des fonctions d’échantillonnage (i.e. les ratio signal/bruit) ou leur recodage en temps-fréquence associées aux réponses erronées de celle associée aux réponses correctes. Les résultats démontrent que l’efficacité du traitement visuel chez les deux groupes de participants est modulée à travers le temps et est affectée par le contenu fréquentiel des oscillations du rapport signal-sur-bruit. Des différences inter-groupes importantes sont toutefois observées quant à la chronologie des mécanismes oscillatoires sont mis en branle pour la réalisation de la tâche de reconnaissance d’objets. Pour la tâche de reconnaissance de mots écrits, les différences entre les groupes ne sont que marginalement significatives. Il est proposé que la plus grande sensibilité de la tâche de reconnaissance d’objets puisse s’expliquer par 3 chose essentielles : 1. la plus grande complexité des mécanismes auxquels elle doit faire appel pour atteindre une bonne réponse. 2. Le surfonctionnement perceptif des autistes dans le traitement des informations locales ou de bas niveau. 3. Une variabilité de la localisation des activations qui soulève la possibilité que l'autisme implique une amélioration et/ou une altération des mécanismes de plasticité typiques. / Variations in visual processing efficiency over time were compared between 16 adult autistic participants with initial language delay and 16 typically developing control participants, using the random temporal sampling technique. Participants were asked to name familiar objects (experiment 1) or written words (experiment 2) presented on a computer screen for 200 ms and whose visibility (i.e., signal-to-noise ratio) varied randomly across time. For each of these 32 participants, time-frequency classification images (CI) were obtained by subtracting the average of the sampling functions (i.e., signal-to-noise ratio) or time-frequency recordings thereof associated with incorrect responses from that associated with correct responses. The efficiency of visual processing in the two groups of participants is modulated through the time and is affected by the frequency content of signal-to-noise ratio oscillations. Significant inter-group differences were observed in the timing of the oscillatory mechanisms for the object recognition task. For the written word recognition task, the differences between groups are only marginally significant. It is proposed that three essential things can explain the greater sensitivity of the object recognition task: 1. the greater complexity of the mechanisms it must call up to reach correct answer. 2. The perceptual over-functioning of autistic people, more evident in the detection, the categorization and the memory of perceptual information. 3. An increased variability in the localization of activations that raises the possibility that autism involves enhancement and/or alteration of typical plasticity mechanisms.
228

Développement d'une méthodologie pour l'évaluation des impacts de la température des eaux pluviales sur les milieux récepteurs

Corrivault-Gascon, Juliette 09 June 2023 (has links)
Titre de l'écran-titre (visionné le 29 mai 2023) / Une méthodologie permettant de caractériser la température des eaux pluviales a été développée dans le cadre de cette étude et comprend le suivi de la température du ruissellement au milieu récepteur. Cette méthodologie nécessite des thermographes déployés dans l'air (au soleil et à l'ombre) et dans l'eau (au niveau du ruissellement, des puisards, des regards pluviaux, et du cours d'eau récepteur). Une caractérisation de la pollution thermique induite par le ruissellement sur les surfaces imperméables a été effectuée sur le site Juste Plourde à Rivière-du-Loup. Les eaux de ruissellement ont atteint 27,8 ℃ et la différence entre la température maximale des eaux et la température de l'air moyenne journalière a atteint 7,0 ℃. Des augmentations significatives ont été observées dans le ruisseau recevant ces eaux pluviales pendant des évènements pluvieux allant jusqu'à 3,1 ℃. Plusieurs augmentations rapides de plus de 1 ℃ sur 5 min (quick surges) ont également été observées. La température dans le ruisseau en période de pluie a dépassé le seuil critique de stress thermique pour l'habitat du poisson (en particulier celui de l'omble de fontaine) de 20 ℃, jusqu'à 21,5 ℃. La sensibilité thermique du cours d'eau semble augmenter en temps de pluie. Une diminution significative de la température des eaux pluviales a été observée tout au long du parcours des eaux : du ruissellement aux conduites, des conduites au dernier regard pluvial et de l'émissaire au milieu récepteur. Plusieurs paramètres hydrométéorologiques ont été explorés dans le but de prédire la température de l'eau du ruisseau en période de pluie et la température des eaux de ruissellement. Une corrélation significative a pu être observée entre la température maximale de l'eau du ruisseau en temps de pluie et deux paramètres hydrométéorologiques : la température de l'air moyenne journalière et le débit de l'effluent pluvial. Une corrélation a pu être observée entre la température maximale des eaux de ruissellement et la température de l'air moyenne journalière. Des modèles additifs généralisés ont alors pu être élaborés. Un suivi de l'impact des eaux pluviales sur la qualité des eaux dans le milieu récepteur a également été effectué. L'impact des eaux pluviales sur la déposition de sédiments dans le ruisseau a été exploré. Aucun impact significatif n'a toutefois été détecté. Bien que non concluante, la performance thermique d'un bassin de rétention sec a également été explorée. Sa performance qualitative a été caractérisée en suivant la déposition des sédiments en amont et aval du bassin sec.
229

Advances in uncertainty modelling : from epistemic uncertainty estimation to generalized generative flow networks

Lahlou, Salem 08 1900 (has links)
Les problèmes de prise de décision se produisent souvent dans des situations d'incertitude, englobant à la fois l'incertitude aléatoire due à la présence de processus inhérents aléatoires et l'incertitude épistémique liée aux connaissances limitées. Cette thèse explore le concept d'incertitude, un aspect crucial de l'apprentissage automatique et un facteur clé pour que les agents rationnels puissent déterminer où allouer leurs ressources afin d'obtenir les meilleurs résultats. Traditionnellement, l'incertitude est encodée à travers une probabilité postérieure, obtenue par des techniques d'inférence Bayésienne approximatives. Le premier ensemble de contributions de cette thèse tourne autour des propriétés mathématiques des réseaux de flot génératifs, qui sont des modèles probabilistes de séquences discrètes et des échantillonneurs amortis de distributions de probabilités non normalisées. Les réseaux de flot génératifs trouvent des applications dans l'inférence Bayésienne et peuvent être utilisés pour l'estimation de l'incertitude. De plus, ils sont utiles pour les problèmes de recherche dans de vastes espaces compositionnels. Au-delà du renforcement du cadre mathématique sous-jacent, une étude comparative avec les méthodes variationnelles hiérarchiques est fournie, mettant en lumière les importants avantages des réseaux de flot génératifs, tant d'un point de vue théorique que par le biais d'expériences diverses. Ces contributions incluent une théorie étendant les réseaux de flot génératifs à des espaces continus ou plus généraux, ce qui permet de modéliser la probabilité postérieure et l'incertitude dans de nombreux contextes intéressants. La théorie est validée expérimentalement dans divers domaines. Le deuxième axe de travail de cette thèse concerne les mesures alternatives de l'incertitude épistémique au-delà de la modélisation de la probabilité postérieure. La méthode présentée, appelée Estimation Directe de l'Incertitude Épistémique (DEUP), surmonte une faiblesse majeure des techniques d'inférence Bayésienne approximatives due à la mauvaise spécification du modèle. DEUP repose sur le maintien d'un prédicteur secondaire des erreurs du prédicteur principal, à partir duquel des mesures d'incertitude épistémique peuvent être déduites. / Decision-making problems often occur under uncertainty, encompassing both aleatoric uncertainty arising from inherent randomness in processes and epistemic uncertainty due to limited knowledge. This thesis explores the concept of uncertainty, a crucial aspect of machine learning and a key factor for rational agents to determine where to allocate their resources for achieving the best possible results. Traditionally, uncertainty is encoded in a posterior distribution, obtained by approximate \textit{Bayesian} inference techniques. This thesis's first set of contributions revolves around the mathematical properties of generative flow networks, which are probabilistic models over discrete sequences and amortized samplers of unnormalized probability distributions. Generative flow networks find applications in Bayesian inference and can be used for uncertainty estimation. Additionally, they are helpful for search problems in large compositional spaces. Beyond deepening the mathematical framework underlying them, a comparative study with hierarchical variational methods is provided, shedding light on the significant advantages of generative flow networks, both from a theoretical point of view and via diverse experiments. These contributions include a theory extending generative flow networks to continuous or more general spaces, which allows modelling the Bayesian posterior and uncertainty in many interesting settings. The theory is experimentally validated in various domains. This thesis's second line of work is about alternative measures of epistemic uncertainty beyond posterior modelling. The presented method, called Direct Epistemic Uncertainty Estimation (DEUP), overcomes a major shortcoming of approximate Bayesian inference techniques caused by model misspecification. DEUP relies on maintaining a secondary predictor of the errors of the main predictor, from which measures of epistemic uncertainty can be deduced.
230

Fast high-dimensional posterior inference with deep generative models : application to CMB delensing

Sotoudeh, Mohammad-Hadi 08 1900 (has links)
Nous vivons à une époque marquée par une abondance de données cosmologiques de haute résolution. Cet afflux de données engendré par les missions d'observation de nouvelle génération au sol et dans l'espace porte le potentiel de remodeler fondamentalement notre compréhension de l'univers et de ses principes physiques sous-jacents. Cependant, la complexité grande des données observées pose des défis aux approches conventionnelles d'analyse de données, soit en raison de coûts de calcul irréalisables, soit en raison des hypothèses simplificatrices utilisées dans ces algorithmes qui deviennent inadéquates dans des contextes haute résolution à faible bruit, conduisant à des résultats sous-optimaux. En réponse, la communauté scientifique s'est tournée vers des méthodes innovantes d'analyse de données, notamment les techniques d'apprentissage automatique (ML). Les modèles de ML, lorsqu'ils sont bien entraînés, peuvent identifier de manière autonome des correlations significatives dans les données de manière plus efficace et sans hypothèses restrictives inutiles. Bien que les méthodes de ML aient montré des promesses en astrophysique, elles présentent également des problèmes tels que le manque d'interprétabilité, les biais cachés et les estimations d'incertitude non calibrées, ce qui, jusqu'a maintenant, a entrave leur application dans d'importantes découvertes scientifiques. Ce projet s'inscrit dans le cadre de la collaboration "Learning the Universe" (LtU), axée sur la reconstruction des conditions initiales de l'univers, en utilisant une approche de modélisation bayésienne et en exploitant la puissance du ML. L'objectif de ce projet est de développer un cadre pour mener une inférence bayésienne au niveau des pixels dans des problèmes multidimensionnels. Dans cette thèse, je présente le développement d'un cadre d'apprentissage profond pour un échantillonnage rapide des postérieurs en dimensions élevées. Ce cadre utilise l'architecture "Hierarchical Probabilistic U-Net", qui combine la puissance de l'architecture U-Net dans l'apprentissage de cartes multidimensionnelles avec le rigoureux cadre d'inférence des autoencodeurs variationnels conditionnels. Notre modèle peut quantifier les incertitudes dans ses données d'entraînement et générer des échantillons à partir de la distribution a posteriori des paramètres, pouvant être utilisés pour dériver des estimations d'incertitude pour les paramètres inférés. L'efficacité de notre cadre est démontrée en l'appliquant au problème de la reconstruction de cartes du fond diffus cosmologique (CMB) pour en retirer de l'effet de lentille gravitationnelle faible. Notre travail constitue un atout essentiel pour effectuer une inférence de vraisemblance implicite en dimensions élevées dans les domaines astrophysiques. Il permet d'exploiter pleinement le potentiel des missions d'observation de nouvelle génération pour améliorer notre compréhension de l'univers et de ses lois physiques fondamentales. / We live in an era marked by an abundance of high-resolution cosmological data. This influx of data brought about by next-generation observational missions on the ground and in space, bears the potential of fundamentally reshaping our understanding of the universe and its underlying physical principles. However, the elevated complexity of the observed data poses challenges to conventional data analysis approaches, either due to infeasible computational costs or the simplifying assumptions used in these algorithms that become inadequate in high-resolution, low-noise contexts, leading to suboptimal results. In response, the scientific community has turned to innovative data analysis methods, including machine learning (ML) techniques. ML models, when well-trained, can autonomously identify meaningful patterns in data more efficiently and without unnecessary restrictive assumptions. Although ML methods have shown promise in astrophysics, they also exhibit issues like lack of interpretability, hidden biases, and uncalibrated uncertainty estimates, which have hindered their application in significant scientific discoveries. This project is defined within the context of the Learning the Universe (LtU) collaboration, focused on reconstructing the initial conditions of the universe, utilizing a Bayesian forward modeling approach and harnessing the power of ML. The goal of this project is to develop a framework for conducting Bayesian inference at the pixel level in high-dimensional problems. In this thesis, I present the development of a deep learning framework for fast high-dimensional posterior sampling. This framework utilizes the Hierarchical Probabilistic U-Net architecture, which combines the power of the U-Net architecture in learning high-dimensional mappings with the rigorous inference framework of Conditional Variational Autoencoders. Our model can quantify uncertainties in its training data and generate samples from the posterior distribution of parameters, which can be used to derive uncertainty estimates for the inferred parameters. The effectiveness of our framework is demonstrated by applying it to the problem of removing the weak gravitational lensing effect from the CMB. Our work stands as an essential asset to performing high-dimensional implicit likelihood inference in astrophysical domains. It enables utilizing the full potential of next-generation observational missions to improve our understanding of the universe and its fundamental physical laws.

Page generated in 0.0988 seconds