• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 153
  • 78
  • 21
  • Tagged with
  • 254
  • 105
  • 52
  • 32
  • 31
  • 31
  • 30
  • 29
  • 25
  • 25
  • 21
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Identification des sources intérieures de composés organiques volatils et estimation de leur contribution aux teneurs observées dans les logements français / Identification of volatiles organics compounds indoor sources and their contributions at observed concentrations in French dwellings

Blondel, Alodie 14 December 2010 (has links)
Les atmosphères intérieures se révèlent très riches en composés organiques volatils (COV). Ces substances forment un « cocktail à risque » dont la composition et les effets sur la santé restent encore méconnu. Cette complexité rend difficile l’identification et la quantification des sources intérieures sur la qualité de l’air. Cette thèse a pour but d’établir des relations qualitatives et quantitatives entre les sources intérieures de COV et les teneurs observées dans des logements français. Le premier axe de travail porte sur le développement de la mesure passive pour déterminer les taux d’émission en formaldéhyde (FA) et en acétaldéhyde des matériaux. Ce préleveur a été validé en laboratoire, puis utilisé in-situ, dans une campagne de mesures réalisée dans des chambres étudiantes. Ce diagnostic sur site montre que le mobilier et les matériaux du bâti de la pièce contribuent à part égale à la concentration intérieure en FA. L’augmentation des émissions est clairement influencée par l’élévation de la température. Un modèle d’équilibre des masses basé sur les taux d’émission mesurés a conduit à une prédiction satisfaisante des concentrations en FA dans les 24 lieux échantillonnés. Le second axe porte sur l’analyse des profils chimiques de 60 logements. A partir d’un « screening » des COV ; des classes homogènes de profils chimiques associés aux logements ont pu être établies. Des hypothèses sur les sources potentielles de ces composés ont été formulées et examinées sur la base des données de la littérature, des questionnaires descriptifs des logements et des émissions de matériaux et produits présents en environnement intérieur. / Indoor atmospheres appear very rich in volatile organic compounds (VOC). These substances form a “dangerous mix” whose composition and effects on health remain still unknown. This complexity makes difficult the identification and the quantification of indoor sources on the indoor air quality. The purpose of this thesis is to establish qualitative and quantitative relationship between VOC indoor sources and the concentrations observed in French dwellings. The first axis of this work deals with the development of passive measurement to determine the formaldehyde (FA) and acetaldehyde emission rates of materials. This sampler was validated in laboratory, then used in-situ, in a batch of measurements carried out in student rooms. This diagnosis on site shows that the furniture and the building materials contribute equally to the indoor concentration in FA. The increase of the emissions is clearly influenced by the rise in the temperature. A balance mass model based on the measured emission rates led to a satisfying prediction of the FA concentrations in the 24 sampled rooms. The second axis deals with the analysis of the chemical profiles of 60 residences. From a “screening” of the VOC; homogeneous classes of chemical profiles associated with the dwellings could be established. Assumptions on the potential sources of these compounds were formulated and examined on the basis of the bibliography, the descriptive questionnaires of the dwellings and the emissions of materials and products present in indoor environment.
22

Aerovirology and the detection of airborne viruses

Verreault, Daniel 17 April 2018 (has links)
La grosseur des particules aéroportées contenant des virus varie entre la grosseur du virus et celle de la particule à laquelle il s'accroche. Le comportement aérodynamique des aérosols viraux peut donc varier significativement et influencer l'efficacité de l'échantillonnage avec les échantillonneurs conventionnels. De plus, les virus aéroportés sont exposés à des conditions sévères qui peuvent affecter leur intégrité à tout moment entre la nébulisation et le traitement de l'échantillon. Il n'existe présentement aucun protocole standardisé pour l'échantillonnage d'aérosols viraux. Néanmoins, des échantillonneurs d'air et des méthodes d'analyse ont été essayés en laboratoire et sur le terrain. Suite aux nébulisations contrôlées en laboratoire, il a été conclu que la méthode d'échantillonnage utilisée pouvait avoir une influence significative sur l'intégrité virale. L'analyse du contenu en acides nucléiques par des méthodes de biologie moléculaire est donc mieux adaptée que l'analyse par culture. Les échantillonnages de terrain ont été effectués dans des usines de fabrication de fromages pour la détection d'espèces de bactériophages indésirables et dans des porcheries pour la détection de circovirus porcin de type 2 (CVP2). De faibles concentrations de bactériophages ont été détectées dans l'air des usines de fromages nous conscientisant à la possibilité de contaminations des fermentations par des aérosols. Les échantillons d'air des porcheries ont révélés de fortes concentrations de CVP2 suggérant la possibilité de transmission aéroportée du virus. Les échantillonneurs qui ont permis de détecter des aérosols viraux n'étaient pas les mêmes dans les deux environnements étudiés. Les faibles concentrations de bactériophages aéroportés dans les usines de fromages ont nécessité l'échantillonnage d'importants volumes d'air, alors que les fortes concentrations de virus présents dans les porcheries pouvaient être détectées facilement avec des volumes d'air beaucoup plus petits. La conclusion générale de ce travail est qu'il n'y a pas d'échantillonneur parfait pour les aérosols viraux. Les stratégies d'échantillonnages doivent être adaptées à l'environnement échantillonné et à la méthode d'analyse utilisée. / Airborne viral-laden particles can range from the size of the actual virus to the size of any aerosolized particle. The aerodynamic behavior of the airborne particles can thus vary significantly and influence the efficiency of sampling with conventional aerosol samplers. Furthermore, airborne viruses are exposed to harsh conditions that can affect their integrity at any time between their nebulization and the treatment of the samples. There is no standardized method for the sampling of airborne viruses. Aerosol samplers and analysis methods were tested in the laboratory and in the field. After the controlled nebulizations in the laboratory, it was concluded that the sampling method used could have a significant influence on viral integrity, rendering molecular biological analysis better suited than culture analysis. Field samplings were performed in cheese factories for the detection of undesirable bacteriophages and in swine confinement buildings (SCB) for the detection of porcine circovirus type 2 (PCV2). Low concentrations of airborne bacteriophages were found in the cheese factories raising the awareness for the possibility of fermentation vat contamination through the airborne route. Air samples from the SCB revealed very high concentrations of PCV2 suggesting the possibility of aerosol transmission of this virus. The samplers allowing the detection of airborne viruses were not the same in both environments. The low concentrations of airborne bacteriophages in the cheese plant necessitated large volumes of air samples, while the higher concentrations of viruses found in the SCB could be detected well over the detection limit with smaller volumes. The general conclusion of this work is that there is no perfect viral aerosol sampler. Sampling strategies need to be adapted to the environment sampled and to the analysis method used.
23

Données probantes ou feuilles de thé ? : de l'importance du principe d'ignorabilité dans la correction du biais de sélection

Poirier, William 19 January 2024 (has links)
Titre de l'écran-titre (visionné le 16 janvier 2024) / Ce mémoire mobilise l'interdisciplinarité des sciences sociales computationnelles afin d'étudier les conséquences d'une approche non probabiliste aux sondages. Spécifiquement, il a pour objectif d'illustrer ce en quoi les sondages « opt-in » sont problématiques et à quel point il est possible de les corriger. Le chapitre 1 aborde les origines du débat concernant le biais de sélection, et établit les bases théoriques et statistiques requises à sa compréhension. Le chapitre 2 est le cœur du mémoire et applique concrètement le principe d'ignorabilité à l'aide de données simulées. On y apprend qu'il n'y a pas de limites théoriques à la capacité de correction de la pondération. Le chapitre 3 mobilise des données réelles afin d'explorer les limites rencontrées en pratiques. Ce dernier développe également le prototype d'une méthode d'analyse de sensibilité des quantités descriptives afin de tester la performance de la correction. / This Master's thesis mobilizes the interdisciplinarity of computational social science to study the consequences of a non-probabilistic approach to surveys. Specifically, it illustrates why opt-in surveys are problematic and how they can be corrected. Chapter 1 addresses the origins of the debate regarding selection bias, and establishes the theoretical and statistical understanding required. Chapter 2 is the heart of the thesis and concretely applies the ignorability principle using simulated data. We learn that there are no theoretical limits to the correction capacity of weighting techniques. Chapter 3 uses real data to explore the limits encountered in practice. The latter also develops a tentative method for sensibility analysis of descriptive quantities in order to test the performance of the correction.
24

La normalisation d'un test par échantillonnage combiné des items et des sujets : effets sur l'estimation des quatre premiers moments et sur la performance à certains items

Bédard, Roger 25 April 2018 (has links)
Québec Université Laval, Bibliothèque 2014
25

Apprentissage actif pour l'approximation de variétés

Gandar, Benoît 27 November 2012 (has links) (PDF)
L'apprentissage statistique cherche à modéliser un lien fonctionnel entre deux variables X et Y à partir d'un échantillon aléatoire de réalisations de (X,Y ). Lorsque la variable Y prend un nombre binaire de valeurs, l'apprentissage s'appelle la classification (ou discrimination en français) et apprendre le lien fonctionnel s'apparente à apprendre la frontière d'une variété dans l'espace de la variable X. Dans cette thèse, nous nous plaçons dans le contexte de l'apprentissage actif, i.e. nous supposons que l'échantillon d'apprentissage n'est plus aléatoire et que nous pouvons, par l'intermédiaire d'un oracle, générer les points sur lesquels l'apprentissage de la variété va s'effectuer. Dans le cas où la variable Y est continue (régression), des travaux précédents montrent que le critère de la faible discrépance pour générer les premiers points d'apprentissage est adéquat. Nous montrons, de manière surprenante, que ces résultats ne peuvent pas être transférés à la classification. Dans ce manuscrit, nous proposons alors le critère de la dispersion pour la classification. Ce critère étant difficile à mettre en pratique, nous proposons un nouvel algorithme pour générer un plan d'expérience à faible dispersion dans le carré unité. Après une première approximation de la variété, des approximations successives peuvent être réalisées afin d'affiner la connaissance de celle-ci. Deux méthodes d'échantillonnage sont alors envisageables : le " selective sampling " qui choisit les points à présenter à un oracle parmi un ensemble fini de candidats et l'" adaptative sampling " qui permet de choisir n'importe quels points de l'espace de la variable X. Le deuxième échantillonnage peut être vu comme un passage à la limite du premier. Néanmoins, en pratique, il n'est pas raisonnable d'utiliser cette méthode. Nous proposons alors un nouvel algorithme basé sur le critère de dispersion, menant de front exploitation et exploration, pour approximer une variété.
26

Apprentissage actif pour l'approximation de variétés / Active learning for variety approximation

Gandar, Benoît 27 November 2012 (has links)
L’apprentissage statistique cherche à modéliser un lien fonctionnel entre deux variables X et Y à partir d’un échantillon aléatoire de réalisations de (X,Y ). Lorsque la variable Y prend un nombre binaire de valeurs, l’apprentissage s’appelle la classification (ou discrimination en français) et apprendre le lien fonctionnel s’apparente à apprendre la frontière d’une variété dans l’espace de la variable X. Dans cette thèse, nous nous plaçons dans le contexte de l’apprentissage actif, i.e. nous supposons que l’échantillon d’apprentissage n’est plus aléatoire et que nous pouvons, par l’intermédiaire d’un oracle, générer les points sur lesquels l’apprentissage de la variété va s’effectuer. Dans le cas où la variable Y est continue (régression), des travaux précédents montrent que le critère de la faible discrépance pour générer les premiers points d’apprentissage est adéquat. Nous montrons, de manière surprenante, que ces résultats ne peuvent pas être transférés à la classification. Dans ce manuscrit, nous proposons alors le critère de la dispersion pour la classification. Ce critère étant difficile à mettre en pratique, nous proposons un nouvel algorithme pour générer un plan d’expérience à faible dispersion dans le carré unité. Après une première approximation de la variété, des approximations successives peuvent être réalisées afin d’affiner la connaissance de celle-ci. Deux méthodes d’échantillonnage sont alors envisageables : le « selective sampling » qui choisit les points à présenter à un oracle parmi un ensemble fini de candidats et l’« adaptative sampling » qui permet de choisir n’importe quels points de l’espace de la variable X. Le deuxième échantillonnage peut être vu comme un passage à la limite du premier. Néanmoins, en pratique, il n’est pas raisonnable d’utiliser cette méthode. Nous proposons alors un nouvel algorithme basé sur le critère de dispersion, menant de front exploitation et exploration, pour approximer une variété. / Statistical learning aims to modelize a functional link between two variables X and Y thanks to a random sample of realizations of the couple (X,Y ). When the variable Y takes a binary number of values, learning is named classification and learn the functional link is equivalent to learn the boundary of a manifold in the feature space of the variable X. In this PhD thesis, we are placed in the context of active learning, i.e. we suppose that learning sample is not random and that we can, thanks to an oracle, generate points for learning the manifold. In the case where the variable Y is continue (regression), previous works show that criterion of low discrepacy to generate learning points is adequat. We show that, surprisingly, this result cannot be transfered to classification talks. In this PhD thesis, we propose the criterion of dispersion for classification problems. This criterion being difficult to realize, we propose a new algorithm to generate low dispersion samples in the unit cube. After a first approximation of the manifold, successive approximations can be realized in order to refine its knowledge. Two methods of sampling are possible : the « selective sampling » which selects points to present to the oracle in a finite set of candidate points, and the « adaptative sampling » which allows to select any point in the feature space of the variable X. The second sampling can be viewed as the infinite limit of the first. Nevertheless, in practice, it is not reasonable to use this method. Then, we propose a new algorithm, based on dispersion criterion, leading both exploration and exploitation to approximate a manifold.
27

Développement d'un banc de mesure de la forme d'onde de signaux dynamiques complexes par échantillonnage électro-optique

Tian, Wei 21 January 2013 (has links) (PDF)
Nous proposons une méthode et nous réalisons l'expérience pour la caractérisation de la forme d'onde jusqu'à 100 GHz, par échantillonnage électro-optique. L'échantillonnage électro-optique permet de déterminer l'impulsion ultra rapide générée par une photodiode dans une ligne coplanaire. Dans notre système, l'impulsion électrique est échantillonnée par un train d'impulsions laser ultra-courtes par effet électro-optique. Le faisceau du laser est sépare en deux parties. Une partie du laser excite la photodiode qui génère les impulsions électriques se propageant sur une ligne coplanaire fabriquée sur un substrat en verre. L'autre partie du laser subit un délai optique variable et traverse un matériau électro-optique placé sur la ligne coplanaire. Le champ électrique entre les conducteurs de la ligne coplanaire, modifie la polarisation du laser par l'effet électro-optique. Le changement de polarisation peut être converti en une variation d'amplitude qui peut être mesurée. Pour un retard fixe, les impulsions d'échantillonnage interceptent de manière répétitive une petite portion de la forme d'onde de l'impulsion électrique. Le retard est varié pour enregistrer l'évolution temporelle de la forme d'onde de l'impulsion électrique. Nous utilisons un logiciel de simulation électromagnétique 3D pour optimiser la structure électro-optique constituée d'une ligne coplanaire sur laquelle est posée une lame électro-optique. Nous réalisons 144 lignes coplanaires sur un substrat de verre ainsi qu'un kit d'étalonnage pour étalonner l'analyseur de réseau vectoriel utilisé pour trouver la structure optimale en conditions réelles. Nous utilisons ensuite cette structure pour reconstruire la forme d'onde de l'impulsion électrique générée par la photodiode.
28

Développement d'un modèle numérique thermo-hydrique advectif pour l'optimisation de la technique d'échantillonnage des sables pulvérulents par gel thermo-fluidifiant (EGT)

St-Laurent, Jean-François 12 April 2018 (has links)
La méthode d'échantillonnage par gel thermo-fluidifiant (EGT), élaborée par Robichaud (2004), permet d'obtenir en laboratoire des échantillons de sables pulvérulents exempts de remaniement mécanique. Afin d'approfondir et d'optimiser cette nouvelle méthode d'échantillonnage, des travaux de laboratoire et un modèle numérique ont été réalisés et développés. Ces travaux ont permis d'étudier le comportement de la solution de gélatine lors de son injection, de son écoulement et de sa gélification. Les injections réalisées au laboratoire ont montré une gélification de la gélatine à une température de 25 °C et ont validé le modèle numérique. Une étude paramétrique a permis de démontrer l'implantation possible du processus EGT sur le terrain.
29

Conception d'un récupérateur de chaleur visant l'augmentation de l'efficacité énergétique d'un procédé de gazéification des résidus solides urbains

Drolet, Guillaume January 2008 (has links)
La gazéification des résidus solides urbains (RSU) est une technologie qui permet de produire de l'électricité, de la chaleur, du gaz de synthèse ou des biocarburants à partir de déchets qui seraient autrement enfouis. Elle aborde donc simultanément les problématiques environnementales de la gestion des matières résiduelles et de la production d'énergie renouvelable. Enerkem est une entreprise sherbrookoise qui se spécialise dans la gazéification de résidus de toutes sortes, dont les RSU. L'efficacité énergétique de son procédé pourrait augmentée de 5,6 à 11,2% par l'ajout d'un récupérateur de chaleur. Pour qu'il fonctionne correctement, celui-ci doit être installé avant le système de lavage, à une étape où le syngaz contient encore plusieurs contaminants. Ces contaminants sont déterminants dans la conception du récupérateur de chaleur puisqu'il est nécessaire de minimiser l'entartrage des surfaces d'échange pour en assurer la fiabilité à long terme. Ce projet de maîtrise vise à concevoir un récupérateur de chaleur pour augmenter l'efficacité énergétique du procédé d'Enerkem lors de la gazéification des RSU. Pour y arriver, les contaminants dans le syngaz issu de la gazéification des RSU ont été échantillonnés à l'usine pilote d'Enerkem. La caractérisation de ces contaminants a permis de trouver la concentration et la composition des goudrons ainsi que la concentration et la taille des particules contenus dans le syngaz. L'élaboration d'un modèle de calcul du point de rosée a ensuite permis de déterminer la température minimale du syngaz pour éviter la condensation des goudrons. Des gammes de vitesses de syngaz sont également identifiées en fonction des caractéristiques des particules. Une géométrie souhaitable pour le récupérateur de chaleur est ensuite identifiée à l'aide de références bibliographiques. À partir de cette configuration, des calculs de transfert de chaleur ont permis d'étudier le dimensionnement ainsi que les risques d'entartrage du récupérateur de chaleur en fonction de la variation de plusieurs conditions d'opération. Les paramètres variés sont les températures d'entrée et de sortie du syngaz, la vitesse d'écoulement ainsi que la pression du syngaz et du fluide d'échange, et finalement le diamètre des tubes dans le récupérateur. Ces calculs sont effectués pour quatre fluides d'échange différents, soit l'eau, l'air, la vapeur et l'huile thermique. Les fluides d'échange appropriés pour le récupérateur de chaleur sont identifiés. La dernière partie du projet consiste au dimensionnement d'un récupérateur de chaleur adapté à l'usine pilote d'Enerkem. Un fluide d'échange est choisi, de même qu'un matériau de fabrication résistant bien à la corrosion en milieu réducteur. Les dimensions du récupérateur sont calculées en fonction du débit nominal de syngaz de l'usine pilote ainsi qu'en considérant les limites d'espace du bâtiment. L'effet de l'entartrage du récupérateur est quantifié.
30

Développement d’un outil d’évaluation de la pertinence écologique et statistique d’indicateurs de suivi de l’intégrité écologique dans les parcs nationaux du Québec

Trottier, Simon January 2014 (has links)
En date d’avril 2014, il existe au Québec 25 parcs nationaux dédiés à la conservation. La gestion de 23 de ces parcs, situés au sud du 50e parallèle, est assurée par la Société des établissements de plein air du Québec (Sépaq). En 2004, les gestionnaires de la Sépaq ont mis en place le Programme de suivi de l'intégrité écologique (PSIE) dans 22 des parcs nationaux afin de les aider dans leur mission de protection et de conservation des parcs. Ce projet de recherche s’inscrit dans la démarche des gestionnaires de la Sépaq d’améliorer certains aspects du PSIE. L’objectif principal est de développer un outil géomatique permettant d’évaluer la pertinence écologique et statistique des indicateurs d’intégrité écologique du PSIE. L’outil développé porte le nom de Bilan des indicateurs pour l’optimisation du PSIE (BIOPSIE). Dans le cadre du projet, le BIOPSIE a été testé sur les parcs nationaux de Frontenac, de la Jacques-Cartier et du Bic. La méthodologie se divise en trois axes dont les résultats s’analysent en parallèle : l’élaboration d’une cartographie des écosystèmes de parc ainsi que l’évaluation écologique et statistique des indicateurs utilisés. Le BIOPSIE utilise des notions de modèles conceptuels d’écosystèmes, d’échantillonnage par tessellation et de calculs de puissance statistique. Les résultats des calculs de puissance statistique réalisés pour 29 indicateurs, qui réfèrent à la probabilité qu’un changement réel soit décelé dans les données, varient en fonction des paramètres de période de suivi, de changement à déceler et de degré de signification (α) utilisés lors de la simulation. En situation contraignante d’échantillonnage (10 ans, - 2 %, α = 0,1), la puissance des indicateurs étudiés est élevée (supérieure à 80 %) pour quatre d’entre eux, moyenne (entre 50 % et 80 %) pour deux et faible (inférieure à 50 %) pour les 23 autres. En situation plus permissive (20 ans, - 5 %, α = 0,2), la puissance des indicateurs étudiés est élevée pour 23 d’entre eux, moyenne pour quatre et faible pour les deux autres. Le développement du BIOPSIE permet de doter les gestionnaires de la Sépaq d’un outil d’évaluation des indicateurs du PSIE balisé et reproductible. À court terme, la méthodologie développée sera appliquée à l’ensemble des parcs du réseau de la Sépaq. Les résultats obtenus permettront aux gestionnaires de la Sépaq d’améliorer la portée scientifique du PSIE et d’en apprécier les résultats avec plus de réalisme.

Page generated in 0.0445 seconds