• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 154
  • 78
  • 21
  • Tagged with
  • 255
  • 105
  • 52
  • 32
  • 31
  • 31
  • 30
  • 29
  • 25
  • 25
  • 21
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Comparaison de modèles de régression logistique utilisés pour l'analyse de données recueillies dans le cadre d'études de type cas-témoins appariés sur le déplacement animal

Beauregard, Benjamin 19 April 2018 (has links)
L’étude de la sélection des ressources en fonction du déplacement des animaux est un sujet qui intéresse plusieurs chercheurs en écologie, qui cherchent à prédire comment les ressources disponibles influencent le déplacement des animaux dans un environnement hétérogène. Pour ce faire, une stratégie souvent utilisée consiste à comparer les caractéristiques des lieux visités à celles des lieux disponibles mais non visités à différents instants. Comme l’étendue du territoire des lieux disponibles est généralement imposant, un échantillonnage aléatoire des lieux non-visités devient pratiquement inévitable. Toutefois, une méthode d’échantillonnage non adéquate peut induire un biais dans les inférences. L’échantillonnage des lieux non-visités peut se faire selon une étude longitudinale cas-témoins appariée dont la variable réponse prend la valeur 1 dans le cas d’une ressource sélectionnée et la valeur 0 dans le cas contraire. Un modèle de régression logistique peut donc être ajusté aux données. L’objectif de ce mémoire est d’étudier les avantages et les limites de divers modèles de régression logistique, tout particulièrement le modèle à effets mixtes, dans le cadre d’études cas-témoins appariées. Une étude de simulation ainsi que l’analyse de données réelles nous a permis de comparer les inférences obtenues par le modèle mixte à ceux d’un modèle à effets fixes. Les conclusions observables indiquent que les modèles mixtes sont plus performants que les modèles fixes lorsque le type d’environnement est "homogène" et "très homogène" avec une faible force de sélection, mais rarement dans d’autres situations.
72

Hip-hop sampling and twentieth century African-American music : an analysis of Nas' "Get Down" (2003)

Kistner, Gavin 11 April 2018 (has links)
This project presents research based on sampling in hip-hop music, particularly how samples create meaning in the music, especially in the context of twentieth century African-American music. The central thesis is that sampling generates meaning in hiphop music by creating semantic and aesthetic relationships between songs that sample and the songs they have sampled. Furthermore, this method of creating meaning is endemic in other African-American genres of music such as jazz and dub, and is thus integral to understanding the relationships between these genres. This contention is supported primarily by an analysis (including partial transcription) of Nas' song "Get Down" (2003) and its relationship with the song it samples, James Brown's "The Boss" (1973), all of which is found in Chapter 3. This chapter, divided into two sections labelled the Semantic Approach and the Aesthetic Approach, examines certain interpretive theories such as intertextuality, Gates' (1988) theory of the Signifyin(g) Monkey, and coding/decoding. Chapter 3 also looks closely at a common sample source, James Brown's song "Funky Drummer" (1970). Additionally there is a history of sampling in hip-hop music—Chapter 1—that features a special focus on sampling technology, and aims to illustrate the commensurate intertextual qualities found in various African-American musical genres. Both the analysis and history are supported by the technical information in Chapter 2 on sampling. / Ce projet présente les résultats d'une recherche sur l'échantillonnage (sampling) dans la musique hip-hop. Plus spécifiquement, l'objectif est de mieux comprendre la signification de la pratique de l'échantillonnage musical dans le contexte de la musique afro-américaine du XXe siècle. La thèse centrale est que l'échantillonnage produit du sens dans la musique hip-hop en créant des rapports sémantiques et esthétiques entre les chansons qui échantillonnent et celles qui sont échantillonnées. En outre, cette manière de créer du sens est caractéristique d'autres genres musicaux afro-américains, tels que le jazz et le dub, et est ainsi essentielle pour bien saisir les rapports entretenus par ces genres. Cette hypothèse est soutenue principalement par une analyse (incluant une transcription partielle) de la chanson « Get Down » (2003) de Nas et de son rapport avec la chanson « The Boss » (1973) de James Brown, qui constitue la source des échantillons (chapitre 3). Ce chapitre, divisé en deux sections (« Semantic Approach » et « Aesthetic Approach »), s'inspire de certaines théories interprétatives, telles que l'intertextualité, la théorie du « Signifyin(g) Monkey » de Gates (1988), de même que l'encodage/décodage. Le chapitre 3 étudie également une source commune d'échantillonnage, soit « Funky Drummer» (1970) de James Brown. Le mémoire comporte aussi une histoire de l'échantillonnage dans la musique hip-hop (chapitre 1) qui se concentre principalement sur la technologie de l'échantillonnage, et qui vise à illustrer les qualités intertextuelles correspondantes trouvées dans divers genres musicaux afro-américains. L'analyse et l'histoire sont soutenues par une synthèse des informations techniques liées à la pratique de l'échantillonnage (chapitre 2).
73

Optimisation spatiotemporelle de la surveillance de la dégradation de la qualité de l'eau potable dans les réseaux de distribution

Ardila Jimenez, Andres Felipe 10 May 2024 (has links)
La surveillance de la qualité de l'eau dans les réseaux de distribution est essentielle pour assurer la conformité réglementaire, identifier les problèmes liés à sa dégradation excessive et proposer des approches visant à limiter la présence de contaminants susceptibles d'affecter la santé des citoyens. Cependant, en raison de contraintes budgétaires, technologiques, et de gestion, les responsables de l'eau potable des municipalités ne sont pas en mesure de surveiller l'ensemble du réseau et doivent choisir des points et des moments de surveillance représentatifs pour déterminer la qualité de l'eau. Bien qu'il s'agisse d'un besoin évident et crucial, il n'existe aucune démarche réglementaire appuyée par la science permettant aux responsables de sélectionner des points optimaux de surveillance. La dégradation de la qualité de l'eau varie dans l'espace et dans le temps le long du réseau de distribution en raison de facteurs spécifiques au système, tels que le temps de séjour de l'eau (TDS), le matériau et le diamètre des conduites, les caractéristiques physicochimiques de l'eau, l'utilisation de désinfectants secondaires, etc. Il est donc difficile pour les opérateurs de déterminer où et quand effectuer des contrôles de la qualité de l'eau. L'objectif principal de cette thèse de doctorat est de proposer une nouvelle démarche méthodologique pour optimiser la localisation des points et la fréquence de surveillance dans le réseau de distribution qui tienne compte de la variabilité spatio-temporelle des indicateurs de qualité de l'eau. Cette nouvelle démarche vise à répondre aux besoins méthodologiques identifiés à travers une revue chronologique et critique de la littérature, qui comprend l'identification des concepts fondamentaux, des techniques d'optimisation, ainsi que des avantages et des limites des méthodologies spécifiquement axées sur l'optimisation de la dégradation de la qualité de l'eau dans les réseaux de distribution présentées précédemment par la communauté scientifique. Cette thèse présente une approche innovante basée sur la variabilité spatio-temporelle de la qualité de l'eau, applicable à une échelle réelle par les responsables des municipalités. La méthodologie propose l'identification d'une zone géographique qui peut être représentée par la qualité de l'eau mesurée dans un point de surveillance sélectionné. La démarche fait appel à la connaissance des caractéristiques hydrauliques du réseau (débits et sens d'écoulement) ainsi qu'à celles des conditions associées à une forte variabilité spatiale des indicateurs entre les points qui partagent une connexion hydraulique. Compte tenu de l'utilisation du modèle hydraulique, les nœuds du modèle sont considérés comme des points de surveillance potentiels dans le réseau de distribution, ce qui permet de parler de nœuds de surveillance et nœuds de surveillance optimaux. Ensuite, la population représentée par chaque nœud du réseau est estimée et utilisée dans l'optimisation de la sélection des points de surveillance. Une évaluation est effectuée sur la base du nombre d'individus que chaque nœud peut représenter et le nœud ayant la plus grande capacité de représentation est choisi. Lorsqu'un nœud est choisi, la population représentée par ce nœud est considérée comme surveillée et le meilleur nœud suivant est sélectionné. Cette procédure est répétée jusqu'à ce que l'ensemble de la population cible soit considérée comme surveillée. La démarche proposée est appliquée au réseau de distribution de la Ville de Québec (Québec, Canada) afin d'optimiser la surveillance de quatre indicateurs de la qualité de l'eau: le chlore libre résiduel (CLR), les bactéries hétérotrophes totales aérobies et anaérobies (BHAA), les trihalométhanes (THM) et les acides haloacétiques (AHA). Deux objectifs d'optimisation sont pris en compte: l'optimisation de la représentativité de la population globale et la surveillance de la population à risque en raison d'une forte dégradation de la qualité de l'eau. Les résultats montrent que la variabilité spatiale de l'indicateur de la qualité de l'eau a une forte influence sur la représentativité des nœuds, ce qui fait que les indicateurs à forte variabilité spatiale, tels que le CLR, nécessitent un grand nombre de points de surveillance pour représenter l'ensemble de la population cible. Malgré cela, la méthodologie permet d'identifier les nœuds ayant une forte capacité de représentativité. Ces nœuds devraient être priorisés parce qu'ils maximisent la population représentée en minimisant les points de surveillance sélectionnés. De même, les résultats montrent que la surveillance de tous les indicateurs dans le même point n'est pas pertinente, car les conditions de variabilité spatiale sont propres à chaque indicateur. Ces conditions déterminent le nombre et la localisation optimaux des points de surveillance pour chaque indicateur individuellement. L'impact du comportement hydraulique et de l'incertitude liée à la modélisation a été analysé en appliquant la démarche proposée pour différents scénarios. Pour ce faire, des scénarios temporels de surveillance intra-journalière, journalière et saisonnière ont été étudiés et comparés. Les résultats obtenus pour l'étude de cas considérée montrent qu'à l'échelle intra-journalière, la localisation des points de surveillance ne varie pas de manière significative étant donné que le comportement hydraulique global du réseau n'est pas affecté. Le même effet peut être observé en comparant un jour de forte demande en eau (débit journalier maximum) à un jour de consommation moyenne (débit journalier moyen). Cependant, l'échelle de temps saisonnière joue un rôle dans la détermination des points de surveillance optimaux. En effet, en raison de la plus faible variabilité spatiale des indicateurs de la qualité de l'eau en hiver, moins de mesures sont nécessaires pour surveiller la même proportion de la population qu'en été. En revanche, la localisation spatiale des nœuds ayant une capacité de représentativité plus élevée ne semble pas changer d'une saison à l'autre, ce qui permet d'identifier des points de surveillance optimaux tout au long de l'année. La démarche proposée est un outil innovant d'aide à la décision pour la sélection optimale des points de surveillance de la qualité de l'eau des réseaux de distribution. Cette méthodologie est originale par la prise en compte de la variabilité spatio-temporelle de la qualité de l'eau, ainsi que par son adaptabilité pour l'optimisation de la surveillance de tout type d'indicateur pour lequel des conditions de forte variabilité spatiale peuvent être définies. / Monitoring water quality in distribution networks is essential to ensure regulatory compliance, identify problems associated with excessive degradation, and propose approaches to limit the presence of contaminants that could jeopardize citizens' health. However, due to budgetary, technological and management constraints, municipal drinking water authorities are unable to monitor the entire network, and must select representative monitoring points and times to determine water quality levels. Although this is an obvious and crucial need, there is no science-based regulatory approach to enable managers to select appropriate monitoring points. Furthermore, water quality degradation varies spatially and temporally along the distribution network, due to system-specific factors such as water residence time (WRT), pipe material and diameter, physicochemical characteristics of the water, use of secondary disinfectants, etc. This makes it all the more difficult for operators to determine where and when to carry out water quality checks. The main objective of this PhD thesis is to propose a new methodological approach for optimizing the location of monitoring points and the frequency of monitoring in the distribution network, taking into account the spatio-temporal variability of water quality indicators. This new approach aims to meet the methodological needs identified through a chronological and critical review of the literature, which includes the identification of fundamental concepts, optimization techniques, as well as the advantages and limitations of methodologies previously presented by the scientific community. This thesis presents an innovative approach based on the spatio-temporal variability of water quality, which can be applied on a real scale by municipal managers. The methodology proposes the identification of a geographical area that can be represented by the measured water quality of a selected monitoring point. The approach calls on knowledge of the network's hydraulic characteristics (flow rates and direction of flow), as well as of the conditions associated with high spatial variability of indicators between points sharing a hydraulic connection. Given the use of the hydraulic model, the nodes in the model are considered as potential monitoring points in the distribution network, hence the term monitoring nodes and optimal monitoring nodes. Next, the population represented by each network node is estimated and used to optimize the selection of monitoring points. An evaluation is made based on the number of individuals each node can represent, and the node with the greatest representation capacity is chosen. Once a node has been chosen, the population represented by that node is considered as monitored, and the next best node is selected. This procedure is repeated until the entire target population is considered monitored. The proposed approach is applied to the distribution network of Quebec City (Quebec, Canada) to optimize the monitoring of four water quality indicators: free chlorine residual (FRC), heterotrophic plate counts (HPC), trithalomethanes (THM) and haloacetic acids (HAA). Two distinct optimization objectives are taken into account: optimizing the global representativeness of the population and monitoring the population at risk due to high water quality degradation. The results show that the specific spatial variability of the water quality indicator has a strong influence on the representativeness of the nodes, meaning that indicators with high spatial variability, such as FRC, require a large number of monitoring points to represent the entire target population. Despite this, the methodology enables us to identify nodes with a high representativeness capacity. These nodes should be prioritized as they maximize the population represented reducing the monitoring points needed. Similarly, the results show that monitoring all indicators as a whole at the same point is not relevant, as the conditions of spatial variability are specific to each indicator; these conditions determine the optimal number and location of monitoring points for each indicator individually. The impact of hydraulic behavior and modeling uncertainty was analyzed by applying the proposed approach to different temporal scenarios. Intraday, daily and seasonal monitoring scenarios were studied and compared. The results obtained for the case study under consideration show that on an intraday scale, the location of monitoring points does not vary significantly, as the overall hydraulic behavior of the network is not affected. The same effect can be observed when comparing a day of high water demand (maximum daily flow) with a day of average consumption (average daily flow). Finally, the seasonal timescale plays an important role in determining optimum monitoring points. Indeed, due to the lower spatial variability of water quality indicators in winter, fewer measurements are required to monitor the same proportion of the population as in summer. On the other hand, the spatial location of nodes with a higher representativeness capacity does not appear to change from one season to the next, enabling optimal monitoring points to be identified throughout the year. Finally, the proposed approach will serve as an innovative decision-making tool for the optimal selection of water quality monitoring points in distribution networks. The methodology is original in that it takes into account the spatio-temporal variability of water quality, and is adaptable to optimize the monitoring of any type of inditor for which conditions of high spatial variability can be defined.
74

Comparaison de différentes méthodes d'estimation de la charge pour les sédiments et l'azote à l'exutoire d'un petit bassin versant

Zamyadi, Arash 11 April 2018 (has links)
La charge en nutriments à l'exutoire d'un bassin versant est un élément-clé pour la gestion de la qualité de l'eau. Toutefois, à cause du peu de mesures de concentration, un estimé précis de la charge n'est pas possible. Cette étude a été effectuée pour déterminer la qualité d'estimation de la charge pour une combinaison de six fréquences d'échantillonnage (jour à mois), deux schémas (fixe et aléatoire) et sept méthodes de calcul (moyenne, rapport d'estimation, interpolation) pour les sédiments et trois composantes de l'azote pour un bassin versant du Québec. Des valeurs horaires de débit, azote total, nitrate, ammonium et sédiment ont été générées pour une période de deux ans avec le programme HSPF calibré pour ce bassin versant de 5.3 km2 . Il a été assumé que les estimés de charge basés sur l'accumulation massique des valeurs horaires représentent les valeurs réelles auxquelles les valeurs estimées par les autres méthodes peuvent être comparées en utilisant le biais, l'écart type et la racine carrée de l'erreur moyenne au carré (RMSE). Pour tous les paramètres de qualité de l'eau, RMSE augmente avec la diminution de la fréquence d'échantillonnage. L'échantillonnage fixe résulte toujours en un RMSE plus faible que pour l'échantillonnage aléatoire; ce qui peut être attribué à l'autocorrellation temporelle. L'autocorrellogramme des sédiments en suspension montre une périodicité de 24 heures, expliquée par la fonte nivale printanière et par les précipitations plus fréquentes durant la soirée et la nuit. Les évaluations de la charge ont presque toujours résulté en une sous-estimation, probablement dû aux crues de courte durée caractérisant ce bassin versant. Des sept méthodes de calcul étudiées, l'interpolation linéaire a systématiquement donné des RMSE plus faibles. Toutefois, les méthodes du rapport d'estimation (incluant la méthode de Beale) n'ont pas bien performé, avec la cinquième et sixième place. / The knowledge of nutrient mass load at the outlet of watersheds is a key tool in water quality management projects. However, because of the lack of frequent concentration measurements, a precise estimation of mass load is not possible. This study was conducted to determine the quality of mass load estimation for a combination of six sampling frequencies (daily to monthly), two sampling schemes (fixed and random), and seven calculation methods (averaging, ratio estimator, and interpolation) for sediment and three nitrogen components at the outlet of an agricultural watershed in the province of Québec. Hourly values of flow, total nitrogen, nitrate, ammonium and sediment were generated for a two-year period by the HSPF model calibrated for the 5.3 km2 watershed. Load estimates based on the mass accumulation of hourly values were assumed to represent the true loads to which loads estimated by other methods were compared using bias, standard deviation, and root mean square error (RMSE). For ail water quality parameters, the RMSE increased with the decrease of sampling frequency. Fixed sampling schemes always resulted in RMSE values lower than those of random schemes. This better performance of the fixed sampling scheme is attributed to the autocorrélation in time for ail water quality parameters. The sediment autocorrellogram showed a 24-hour periodicity that is explained by snowmelt and more frequent evening and night rainfalls. Ail load evaluations generally resulted in an underestimation of the true load, most likely due to the flashy hydrological response of the small watershed studied. Of the seven load calculation methods studied, linear interpolation, which is used to obtain an estimate of concentration for each available hourly flow value, systematically yielded the lowest RMSE value. However, ratio estimator methods did not fare well, ranking only 5 and 6 out of the 7 methods tested.
75

Évaluation et amélioration de l'échantillonnage par lot pour l'assurance de la qualité (LQAS) pour le suivi de programmes d'aide humanitaire

Diop, Awa 14 August 2018 (has links)
Introduit par Dodge and Romig [1959] et rendu populaire par Valadez [1991]), le Lot Quality Assurance Sampling (LQAS) est une méthode beaucoup utilisée par les organismes dans le suivi de leurs activités (Robertson and Valadez [2006]). Le LQAS est utilisé dans le contexte comme une approche simple et peu coûteuse pour prendre rapidement des décisions par rapport à l’allocation des ressources. L’approche proposée par Valadez consiste à réaliser le test usuel de la binomiale exacte sur une proportion où on contrôle à la fois les erreurs a et b pour choisir une taille n et un seuil critique c. Pour rendre accessible son utilisation, Valadez et al. [2002] ont développé un manuel des praticiens qui présente une méthodologie d’utilisation du LQAS plus complexe que l’approche proposée par Valadez. Plusieurs problèmes liés à l’utilisation du LQAS en pratique sont identifiés et nous avons évalué leurs impact sur les erreurs de type I et II. Nous avons proposé d’autres solutions comme le test exact de Fisher, le test exact de Barnard, un test basé sur l’approximation par la loi normale avec et sans transformation arcsin( p x) en contrôlant pour chacun de ces tests a et b. Nous avons aussi soulevé le problème de la comparaison multiple et nous avons proposé une correction, celle de Bonferroni. Au terme de l’étude, nous avons développé une application Shiny sur R (https://lqasdesign. shinyapps.io/app1/) pour faciliter la conception et l’analyse selon le LQAS. / Introduced by Dodge and Romig [1959] and popularized by Valadez [1991], Lot Quality Assurance Sampling (LQAS) is a method widely used by tremendous organizations to tracking their activities (Robertson and Valadez [2006]). It is a simple and economical approach which allow them to make quick decisions about resource allocation. The approach proposed by Valadez consists in carrying out the usual exact binomial test on a proportion where we control both the a and b errors to choose a n size and a critical c threshold. In this study, several issues related to the use of LQAS in practice have been identified and we assessed their impact on Type I and Type II errors. Then, we proposed several solutions such as Fisher’s exact test, Barnard’s exact test, as well as a test based on the normal approximation with and without transformation arcsin( p x) by checking for each of them a and b. We also raised the problem of multiple comparison and proposed a correction using the Bonferroni framework. Finally, we developed a Shiny application on R (https://lqasdesign.shinyapps.io/app1/) to facilitate the practical implementation of each these methods.
76

Métallogénie du gîte à PB-ZN-AG de Nicholas-Denys, Nouveau-Brunswick

Deakin, Michelle Kyle 18 April 2018 (has links)
Le gîte à Pb–Zn–Ag de Nicholas-Denys, dans le camp minier de Bathurst (Nouveau-Brunswick), est constitué de plusieurs lentilles à pyrrhotite–sphalérite–galène, encaissées par le mudstone de la Formation de Millstream du Groupe de Fournier, déposé dans un bassin d’arrière-arc ordovicien. Les lentilles de sulfures sont concordantes avec la foliation régional S1, et sont boudinées parallèlement à la faille de Rocky-Brook Millstream, indiquant que les sulfures prédatent la déformation décrochante dévonienne. Le soufre provient de la réduction bactérienne de l’eau de mer ordovicienne dans un système ouvert aux sulphates, dans une colonne d’eau dysoxique à anoxique, avec mélange de soufre magmatique lessivé des roches mafiques sous-jacentes. Le plomb a été lessivé des sédiments du mudstone de la Formation de Millstream du bassin d’arrière-arc ainsi que des gabbros sous-jacents. Le fluide minéralisateur était réduit et acide, favorable à une minéralisation riche en pyrrhotite. Le gîte Nicholas-Denys se compare bien aux gîtes de type SEDEX. / The Nicholas-Denys Pb¬¬¬–Zn–Ag deposit, located in the Bathurst Mining Camp (New Brunswick), consists of several pyrrhotite–sphalerite–galena sulphide lenses hosted by black mudstone of the Millstream Formation of the Fournier Group, deposited in an Ordovician backarc basin. The Nicholas-Denys sulphide lenses are conformable to the bedding-parallel S1 regional foliation, and are sheared parallel to the Rocky Brook-Millstream shear zone, indicating a pre-Devonian deformation timing for mineralization. Reduced sulphur for Nicholas-Denys sulphides comes from bacterial reduction of Ordovician seawater sulphates in a system open to sulphates under dysoxic to anoxic bottomwater conditions, with addition of magmatic sulphur from underlying mafic volcanic rocks. Lead was leached from the backarc basin sediments of the Millstream Formation mudstone and from underlying synvolcanic gabbros. The mineralizing fluid for Nicholas-Denys sulphides was reduced and acidic, favourable for precipitation of a pyrrhotite-rich mineralization. Characteristics of the Nicholas-Denys deposit are compatible with a SEDEX-type classification.
77

Amélioration d'un échantillonneur à flux passif pour la mesure de l'oxyde nitreux (N₂O)

Palacios Rios, Joahnn Hernando 17 April 2018 (has links)
L'oxyde nitreux (N₂O) est l'un des gaz à effet de serre (GES) parmi les plus puissants et il joue un rôle important dans le réchauffement global. Pour mesurer les sources à faibles émissions de N₂O, les approches conventionnelles sont souvent sophistiquées et coûteuses et l'approche par échantillonnage à flux passif montre un intérêt. Le but de la présente recherche est d'optimiser la performance de l'échantillonneur à flux passif de Godbout et al. (2006) et Gaudet (2005) dans les différentes étapes de son utilisation : le conditionnement de l'appareil, l'adsorption et la désorption du N₂O. L'échantillonneur de Godbout et al. (2006) et Gaudet (2005) utilise une couche de 2 mm de zéolite pour adsorber le N₂O. Lorsque l'air passe à travers l'échantillonneur à une vitesse proportionnelle à la vitesse de l'air à l'extérieur, la zéolite adsorbe le N₂O. Par la suite, le N₂O contenu dans l'adsorbant est désorbé thermiquement. La concentration de gaz est déterminée à l'aide d'un chromatographic à gaz et ensuite, la masse désorbée est calculée afin d'obtenir la valeur de l'émission de N₂O. Dans le cadre de cette étude, l'échantillonneur a été étanchéifié et modifié pour en faciliter l'assemblage. L'épaisseur de l'adsorbant a été augmentée à 4, 6 et 8 mm, ce qui a permis d'augmenter sa capacité d'adsorption de 96, 187 et 275 % respectivement. Les résultats de l'évaluation de la performance de l'échantillonneur modifié montrent une augmentation de l'efficacité d'adsorption de 91 % (Gaudet 2005) à 96,5, 98,3, 98,3 et 98,4 % et une augmentation de l'efficacité de désorption de 68 % à 83 %, de 57 % à 75 %, de 45 % à 82 % et de 30 % à 74 % pour les échantillonnées pourvus de couches de 2, 4, 6 et 8 mm respectivement. Également, la conception des montages et des modes opératoires ont permis à l'échantillonneur d'obtenir des mesures avec une exactitude moyenne de 77,3 % et une variabilité moyenne de 13,6 %. Suite aux résultats, il est possible d'affirmer que les modifications apportées à l'échantillonneur et aux procédures d'analyse ont permis d'améliorer ses performances et de faire progresser son développement.
78

Échantillonnage de Gibbs avec augmentation de données et imputation multiple

Vidal, Vincent 11 April 2018 (has links)
L'objectif de ce mémoire est de comparer la méthode d'échantillonnage de Gibbs avec augmentation de données, telle que présentée par Paquet (2002) et Bernier-Martel (2005), avec celle de l'imputation multiple telle que présentée par Grégoire (2004). Le critère de comparaison sera le signe des coefficients estimés. Nous travaillerons dans le contexte de bases de données indépendantes et d'un modèle linéaire à choix discret. Le modèle sera exprimé en tenant compte du choix des modes de transport des ménages de la communauté urbaine de Toronto. Pour réaliser ce projet, nous utiliserons la base de données du TTS (Transportation Tomorrow Survey) de 1986 et de 1996. Les résultats n'ont pas tous été estimés par un signe cohérent à nos attentes. Toutefois, nous pouvons conclure que l'échantillonnage de Gibbs avec augmentation de données est une approche plus intéressante que l'imputation multiple, puisqu'elle a estimé un nombre plus élevé de bons signes.
79

Built-In Self-Test of Flexible RF Transmitters Using Nonuniform Undersampling / Application de la technique de sous-échantillonnage non-uniforme au test intégré des émetteurs RF flexibles

Dogaru, Emanuel 06 March 2015 (has links)
Le secteur de communications sécurisés et portables connait une véritable révolution avec l’apparition des plateformes dites radios logiciels (Software Defined Radios, SDRs). Les performances exceptionnelles de ces systèmes sont les résultats d’une interaction assez complexe et souvent peu évidente entre le logiciel embarqué, le circuit de traitement numérique et les blocs mixtes analogiques/RF. Cette complexité limite la testabilité du produit fini. La méthodologie de test utilisée actuellement a atteint ses limites dues au cout élevé, le long temps de test et le bas degré de généralisation. De plus, les plateformes SDRs peuvent évoluer sur le terrain et elles vont supporter des standards et des scénarios qui n’ont pas été considérés pendant le la phase de conception. Donc, une stratégie de test sur le terrain (en ligne) n’est plus une caractéristique optionnelle mais une nécessité. Dans ce contexte, le but de notre recherche est d’inventer et développer une méthodologie de test capable de garantir le bon fonctionnement d’une plateforme SDR après la production et pendant sa vie. Notre objectif final est de réduire le coût du test en profitant de la reconfigurabilité de la plateforme. Pour les radios tactiques qui doivent être mises à jour sur le terrain sans équipement spécial, les stratégies Built-In Self-Test (BIST) sont, sans doute, la seule moyenne de garantir la conformité aux spécifications. Dans cette mémoire, nous introduisons une nouvelle architecture de test RF BIST qui utilise la technique de de sous-échantillonnage nonuniform à la sortie de l’émetteur (TX) d’une SDR afin d’évaluer la conformité de la masque spectrale. Notre solution s’appuie sur une implémentation autonome, est modulable et peut être appliquée pour le test sur le terrain avec des modifications minimes. Par rapport aux autres techniques de test analogiques/RF, cet approche ne dépends pas de la architecture du TX, ni d’un modèle ad-hoc, ce qui est idéale pour le test des SDRs. / The advent of increasingly powerful Integrated Circuits (IC) has led to the emergence of the Software Defined Radio (SDR) concept, which brought the sector of secured mobile communications into a new era. The outstanding performance of these systems results from optimal trade-offs among advanced analog/Radio Frequency (RF) circuitry, high-speed reconfigurable digital hardware and sophisticated real-time software. The inherent sophistication of such platforms poses a challenging problem for product testing. Currently deployed industrial test strategies face rising obstacles due to the costlier RF test equipment, longer test time and lack of flexibility. Moreover, an SDR platform is field-upgradeable, which means it will support standards and scenarii not considered during the design phase. Therefore, an in-field test strategy is not anymore 'a nice to have' feature but a mandatory requirement. In this context, our research aims to invent and develop a new test methodology able to guarantee the correct functioning of the SDR platform post-fabrication and over its operational lifetime. The overall aim of our efforts is to reduce post-manufacture test cost of SDR transceivers by leveraging the reconfigurability of the platform.For tactical radio units that must be field-upgradeable without specialized equipment, Built-in Self-Test (BIST) schemes are arguably the only way to ensure continued compliance to specifications. In this study we introduce a novel RF BIST architecture which uses Periodically Nonuniform Sampling (PNS2) of the transmitter (TX) output to evaluate compliance to spectral mask specifications. Our solution supports a stand-alone implementation, is scalable across a wide set of complex specifications and can be easily applied for in-field testing with small added hardware. Compared to existing analog/RF test techniques, this approach is not limited to a given TX architecture and does not rely on an ad-hoc TX model, which makes it ideal for SDR testing.
80

Built-In Self-Test of Flexible RF Transmitters Using Nonuniform Undersampling / Application de la technique de sous-échantillonnage non-uniforme au test intégré des émetteurs RF flexibles

Dogaru, Emanuel 06 March 2015 (has links)
Le secteur de communications sécurisés et portables connait une véritable révolution avec l’apparition des plateformes dites radios logiciels (Software Defined Radios, SDRs). Les performances exceptionnelles de ces systèmes sont les résultats d’une interaction assez complexe et souvent peu évidente entre le logiciel embarqué, le circuit de traitement numérique et les blocs mixtes analogiques/RF. Cette complexité limite la testabilité du produit fini. La méthodologie de test utilisée actuellement a atteint ses limites dues au cout élevé, le long temps de test et le bas degré de généralisation. De plus, les plateformes SDRs peuvent évoluer sur le terrain et elles vont supporter des standards et des scénarios qui n’ont pas été considérés pendant le la phase de conception. Donc, une stratégie de test sur le terrain (en ligne) n’est plus une caractéristique optionnelle mais une nécessité. Dans ce contexte, le but de notre recherche est d’inventer et développer une méthodologie de test capable de garantir le bon fonctionnement d’une plateforme SDR après la production et pendant sa vie. Notre objectif final est de réduire le coût du test en profitant de la reconfigurabilité de la plateforme. Pour les radios tactiques qui doivent être mises à jour sur le terrain sans équipement spécial, les stratégies Built-In Self-Test (BIST) sont, sans doute, la seule moyenne de garantir la conformité aux spécifications. Dans cette mémoire, nous introduisons une nouvelle architecture de test RF BIST qui utilise la technique de de sous-échantillonnage nonuniform à la sortie de l’émetteur (TX) d’une SDR afin d’évaluer la conformité de la masque spectrale. Notre solution s’appuie sur une implémentation autonome, est modulable et peut être appliquée pour le test sur le terrain avec des modifications minimes. Par rapport aux autres techniques de test analogiques/RF, cet approche ne dépends pas de la architecture du TX, ni d’un modèle ad-hoc, ce qui est idéale pour le test des SDRs. / The advent of increasingly powerful Integrated Circuits (IC) has led to the emergence of the Software Defined Radio (SDR) concept, which brought the sector of secured mobile communications into a new era. The outstanding performance of these systems results from optimal trade-offs among advanced analog/Radio Frequency (RF) circuitry, high-speed reconfigurable digital hardware and sophisticated real-time software. The inherent sophistication of such platforms poses a challenging problem for product testing. Currently deployed industrial test strategies face rising obstacles due to the costlier RF test equipment, longer test time and lack of flexibility. Moreover, an SDR platform is field-upgradeable, which means it will support standards and scenarii not considered during the design phase. Therefore, an in-field test strategy is not anymore 'a nice to have' feature but a mandatory requirement. In this context, our research aims to invent and develop a new test methodology able to guarantee the correct functioning of the SDR platform post-fabrication and over its operational lifetime. The overall aim of our efforts is to reduce post-manufacture test cost of SDR transceivers by leveraging the reconfigurability of the platform.For tactical radio units that must be field-upgradeable without specialized equipment, Built-in Self-Test (BIST) schemes are arguably the only way to ensure continued compliance to specifications. In this study we introduce a novel RF BIST architecture which uses Periodically Nonuniform Sampling (PNS2) of the transmitter (TX) output to evaluate compliance to spectral mask specifications. Our solution supports a stand-alone implementation, is scalable across a wide set of complex specifications and can be easily applied for in-field testing with small added hardware. Compared to existing analog/RF test techniques, this approach is not limited to a given TX architecture and does not rely on an ad-hoc TX model, which makes it ideal for SDR testing.

Page generated in 0.0859 seconds