61 |
Fiabilisation de la quantification des éléments traces cationiques et anioniques par la technique d'échantillonnage DGT en milieu aquatique naturel / Increasing the reliability of the DGT technique for quantifying cationic and anionic trace elements in natural waterDevillers, Delphine 23 October 2017 (has links)
La technique d’échantillonnage passif DGT (« Diffusive Gradients in Thin Films ») possède de nombreux avantages (intégration des variations temporelles, abaissement des limites de quantification) qui font d’elle une méthode prometteuse pour une utilisation en réseaux de mesure pour quantifier les éléments traces dans les eaux naturelles. Cependant, il existe encore des zones d’ombre qui constituent des freins à son utilisation dans un contexte réglementaire. Ce travail a donc pour objectif d’identifier des biais potentiels et ainsi contribuer à fiabiliser la méthode. Cette étude montre que l’obtention d’un résultat avec une incertitude minimisée doit passer par la détermination expérimentale des facteurs d’élution ; cependant, l’utilisation d’une valeur standard de 0,8 pour le Cr(III) et de 0,85 pour Al(III), Cd(II), Co(II), Cu(II), Ni(II), Pb(II) et Zn(II) est proposée afin d’alléger les manipulations tout en conservant une incertitude raisonnable (<10%). L’étude de l’influence de l’encrassement des dispositifs DGT a montré que la sorption des cations Cd(II), Cu(II) et Pb(II) sur les filtres encrassés affectent respectivement peu, modérément et fortement leur accumulation dans les échantillonneurs et donc leur quantification. Des durées d’exposition de moins d’une semaine sont alors préconisées pour ces éléments. En revanche, l’encrassement a eu un impact négligeable sur le Ni(II) et sur les oxyanions As(V), Cr(VI), Sb(V) et Se(VI). Enfin, une méthode de quantification simultanée du Cr(III), essentiel à la vie, et du Cr(VI), toxique, a été développée en vue d’améliorer l’évaluation de la toxicité d’une eau. Un unique échantillonneur DGT fixe les deux formes tandis qu’elles sont ensuite sélectivement séparées par une étape d’élution. Cette méthode est robuste sur une large gamme de forces ioniques et de concentrations en sulfate mais sur une gamme de pH plus restreinte ne couvrant pas toutes les eaux naturelles (4 à 6). / The passive sampling DGT technique (Diffusive Gradients in Thin Films) has a lot of benefits (time-weighted average concentrations, low limits of quantification) and would therefore be a useful tool for monitoring studies to quantify trace elements in natural water. However, there are still some limitations and grey areas that put the brakes on the development of the method for regulatory applications. The aim of this work is to identify potential biases and contribute to increase the method reliability. This study shows that a minimized uncertainty on results can be obtained only if elution factors are experimentally determined; however, standard values of 0.8 for Cr(III) and 0.85 for Al(III), Cd(II), Co(II), Cu(II), Ni(II), Pb(II) and Zn(II) are suggested to reduce manipulations while keeping reasonable uncertainty (<10%). Studying the influence of fouling developed on DGT devices showed that the sorption of cations Cd(II), Cu(II) and Pb(II) had, respectively, a slight, moderate and strong impact on their accumulation in DGT samplers and therefore on their quantification. Samplers should then be deployed for less than one week. In contrast, fouling had a negligible impact on oxyanions As(V), Cr(VI), Sb(V) and Se(VI). Finally, a method was developed to simultaneously quantify both Cr oxidation states naturally occurring in natural waters, which are Cr(III), essential to life, and Cr(VI), toxic. Both forms are accumulated in a single DGT sampler before being selectively separated during an elution step. This method is robust for wide ranges of ionic strengths and sulfate concentrations but for a narrower range of pH (4 to 6).
|
62 |
Échantillonnage des gisements kimberlitiques à partir des microdiamants : Application à l'estimation des ressources récupérables / Sampling and estimation of diamond content in kimberlite based on microdiamondsFerreira, Johannes 12 December 2013 (has links)
La prédiction des ressources récupérables d'un gisement kimberlitique passe par l'estimation de la loi en taille des diamants commercialisables qu'il contient. Cette estimation repose traditionnellement sur les pierres de plus de 0,5mm, sans tenir compte des petites pierres qui sont de loin les plus abondantes mais sans valeur économique. Le problème soulevé par cette approche est la taille des échantillons: ils doivent être d'autant plus volumineux que les grandes pierres sont rares. Une façon de réduire la taille des échantillons est d'abaisser le seuil de récupération à des pierres non commercialisables. A cette fin, des techniques spécifiques ont été développées (dissolution de la kimberlite à l'acide) pour récupérer toutes les pierres de plus de 75 microns (0,0000018carat). Une procédure itérative a été aussi mise au point pour estimer la loi des pierres commercialisables à partir des petites pierres. La solution proposée repose sur une hypothèse de lognormalité de la taille des pierres, hypothèse pertinente dans la totalité des gisements primaires de diamants étudiés. L'estimation des paramètres lognormaux tient compte du nombre limité des données et de leur biais, dû à la perte inévitable des pierres les plus petites au cours du traitement des échantillons. Elle permet la prise en compte simultanée de différents jeux de données prélevés à différents seuils de récupération correspondant à differents modes d'échantillonnage. Cette procédure met en jeu une représentation graphique comparée des lois expérimentale et simulée, mettant ainsi en évidence la quantité de pierres perdues. / Predicting the recoverable resources in kimberlite requires estimating the size distribution of its valuable stones. This estimation is usually based on stones of size exceeding 0.5mm. More abundant but without commercial value, the other stones are not involved in the estimation process. Such an approach raises a sampling problem. The rarer the large stones, the more bulky the samples. One way to reduce the sample size is to reduce the processing cut-off to recover non-valuable stones. To do this, specific techniques (acid dissolution of kimberlite) have been set up to retrieve all stones above 75 microns (0.0000018 carat). An iterative procedure has also been designed to estimate the size distribution of the valuable stones starting from the small ones. The proposed solution rests on the assumption, found valid in all studied primary deposits, that stone sizes are lognormally distributed. The procedure to estimate the lognormal parameters takes into account the limited number of stones and their lack of representivity owing to an unavoidable loss of the smallest stones during the sample processing. It can be applied to a mixture of several populations of stones recovered at different cut-offs corresponding to different processing techniques. This procedure involves a graphical representation that compares the actual and simulated size distributions, and makes it possible to estimate the quantity of stones lost during the recovery process.
|
63 |
Une approche basée graphes pour la modélisation et le traitement de nuages de points massifs issus d’acquisitions de LiDARs terrestres / A graph-based for modeling and processing gigantic point clouds from terrestrial LiDARs acquisitionsBletterer, Arnaud 10 December 2018 (has links)
Avec l'évolution des dispositifs d'acquisition 3D, les nuages de points sont maintenant devenus une représentation essentielle des scènes numérisées. Les systèmes récents sont capables de capturer plusieurs centaines de millions de points en une seule acquisition. Comme plusieurs acquisitions sont nécessaires pour capturer la géométrie de scènes de grande taille, un site historique par exemple, nous obtenons des nuages de points massifs, i.e., composés de plusieurs milliards de points. Dans cette thèse, nous nous intéressons à la structuration et à la manipulation de nuages de points issus d'acquisitions générées à partir de LiDARs terrestres. A partir de la structure de chaque acquisition, des graphes, représentant chacun la connectivité locale de la surface numérisée, sont construits. Les graphes créés sont ensuite liés entre eux afin d'obtenir une représentation globale de la surface capturée. Nous montrons que cette structure est particulièrement adaptée à la manipulation de la surface sous-jacente aux nuages de points massifs, même sur des ordinateurs ayant une mémoire limitée. Notamment, nous montrons que cette structure permet de traiter deux problèmes spécifiques à ce type de données. Un premier lié au ré-échantillonnage de nuages de points, en générant des distributions de bonne qualité en termes de bruit bleu grâce à un algorithme d'échantillonnage en disques de Poisson. Un autre lié à la construction de diagrammes de Voronoï centroïdaux, permettant l'amélioration de la qualité des distributions générées, ainsi que la reconstruction de maillages triangulaires. / With the evolution of 3D acquisition devices, point clouds have now become an essential representation of digitized scenes. Recent systems are able to capture several hundreds of millions of points in a single acquisition. As multiple acquisitions are necessary to capture the geometry of large-scale scenes, a historical site for example, we obtain massive point clouds, i.e., composed of billions of points. In this thesis, we are interested in the structuration and manipulation of point clouds from acquisitions generated by terrestrial LiDARs. From the structure of each acquisition, graphs, each representing the local connectivity of the digitized surface, are constructed. Created graphs are then linked together to obtain a global representation of the captured surface. We show that this structure is particularly adapted to the manipulation of the underlying surface of massive point clouds, even on computers with limited memory. Especially, we show that this structure allow to deal with two problems specific to that kind of data. A first one linked to the resampling of point clouds, by generating distributions of good quality in terms of blue noise thanks to a Poisson disk sampling algorithm. Another one connected to the construction of centroidal Voronoi tessellations, allowing to enhance the quality of generated distributions and to reconstruct triangular meshes.
|
64 |
Airline network revenue management : integrated optimization of hub location and capacity allocation / Gestion des revenus dans un réseau de compagnies aériennes : optimisation intégrée de la localisation de plateforme et du dimensionnement de capacitéHou, Yanting 22 November 2019 (has links)
La gestion des revenus d’un réseau de compagnies aériennes, un des problèmes le plus critiques dans le secteur du transport aérien, a reçu une attention significative depuis ces dernière décennies. Cependant, de nombreuses problématiques doivent encore être traitées. Cette thèse étudie quatre nouveaux problèmes de la gestion des revenus dans un réseau de compagnies aériennes. D'abord, un problème de dimensionnement de capacité du réseau avec alliances concurrentes est étudié. Dans ce problème, les concurrences horizontales et verticales sont considérées et la demande est supposée déterministe. L’objectif est de maximiser les revenus globaux de l’alliance en déterminant la capacité (en nombre de places) dans les vols pour chaque classe tarifaire de chaque compagnie. Le problème est formulé en programmation linéaire en nombres entiers et résolu à l’aide du solveur CPLEX. Deuxièmement, un problème intégrant la localisation de p-hub médian et le dimensionnement des capacités (places) est étudié pour maximiser une combinaison du bénéfice moyen et du bénéfice au pire cas. Pour ce problème, un seul hub à capacité illimitée est considéré. De plus, les incertitudes sur la demande sont représentées à l’aide d’un ensemble fini des scénarios. Le problème est formulé en programmation stochastique à deux étapes. Ensuite, un algorithme génétique (GA) est proposé pour résoudre le problème pour chaque scénario. Les résultats numériques montrent que la méthode est meilleure que celles dans la littérature qui considèrent uniquement le bénéfice moyen. Le troisième problème étudié est une extension naturelle du deuxième dans lequel la capacité de hub à localiser est limitée et les perturbations qui peuvent impacter la capacité du hub, telles que des conditions météorologiques, sont prises en compte. Deux formulations du problème sont proposées : (1) une programmation stochastique à deux étapes sur la base des scénarios, et (2) optimisation hybride de programmation stochastique à deux étapes à l’aide de pondération. Ensuite, l’approximation moyenne par échantillonnage (SAA) et le GA sont appliqués pour résoudre le problème, respectivement. Les résultats numériques montrent que la SAA est plus performante que le GA. Le quatrième problème est aussi une extension du deuxième problème où la compagnie aérienne doit respecter le niveau d'émissions de CO2 imposé. Le problème est modélisé en programmation stochastique à deux étapes sur la base des scénarios. De plus, une méthode SAA est proposée pour sa résolution. / As one of critical problems in aviation industry, airline network revenue management has received significant attention in recent decades. However, many issues still need to be addressed. This thesis investigates four new airline network revenue management problems. Firstly, a network capacity allocation problem with competitive alliances is studied. In this problem, horizontal and vertical competitions and deterministic demand are considered. The aim is to maximize the global alliance revenue by determining the (seat) capacities in flights for each fare class of each airline. The problem is formulated into a mixed integer programming and is solved by a commercial solver CPLEX. Secondly, an integrated p-hub median location and (seat) capacity allocation problem is investigated to maximize the combined average-case and worst-case profits of an airline. For this problem, an uncapacitated hub is considered and uncertain demand is represented by a finite set of scenarios. The studied problem is formulated based on a two-stage stochastic programming framework. Then a Genetic Algorithm (GA) is proposed to solve the problem for each scenario. Computational results show that the proposed method outperforms those in the literature only considering average-case profit. The third studied problem is a generalization of the second one in which the capacity of hub to be located is limited and disruptions which can impact airline hub capacity, such as adverse weather, are considered. Two formulations of the problem are proposed based on : (1) a scenario-based two-stage stochastic programming, and (2) a weight-based hybrid two-stage stochastic programming-robust optimization framework. Then a Sample Average Approximation (SAA) method and a GA are applied to solve them, respectively. Computational results show that the SAA is more effective than the GA. The fourth problem is also an extension of the second one where an airline is subjected to a CO2 emission limit. The problem is modeled into a scenario-based two-stage stochastic programming. And a SAA method is proposed to solve it.
|
65 |
Création d'un outil d'évaluation des coûts des infrastructures municipales souterraines selon différents facteurs d'influencesFréchette, Richard January 2018 (has links) (PDF)
No description available.
|
66 |
Asymptotic approaches in financial risk management / Approches asymptotiques en gestion des risques financiersGenin, Adrien 21 September 2018 (has links)
Cette thèse se propose de traiter de trois problèmes de gestion des risques financiers en utilisant différentes approches asymptotiques. La première partie présente un algorithme Monte Carlo d’échantillonnage d’importance pour la valorisation d’options asiatiques dans des modèles exponentiels de Lévy. La mesure optimale d’échantillonnage d’importance est obtenue grâce à la théorie des grandes déviations. La seconde partie présente l’étude du comportement asymptotique de la somme de n variables aléatoires positives et dépendantes dont la distribution est un mélange log-normal ainsi que des applications en gestion des risque de portefeuille d’actifs. Enfin, la dernière partie, présente une application de la notion de variations régulières pour l’analyse du comportement des queues de distribution d’un vecteur aléatoire dont les composantes suivent des distributions à queues épaisses et dont la structure de dépendance est modélisée par une copule Gaussienne. Ces résultats sont ensuite appliqués au comportement asymptotique d’un portefeuille d’options dans le modèle de Black-Scholes / This thesis focuses on three problems from the area of financial risk management, using various asymptotic approaches. The first part presents an importance sampling algorithm for Monte Carlo pricing of exotic options in exponential Lévy models. The optimal importance sampling measure is computed using techniques from the theory of large deviations. The second part uses the Laplace method to study the tail behavior of the sum of n dependent positive random variables, following a log-normal mixture distribution, with applications to portfolio risk management. Finally, the last part employs the notion of multivariate regular variation to analyze the tail behavior of a random vector with heavy-tailed components, whose dependence structure is modeled by a Gaussian copula. As application, we consider the tail behavior of a portfolio of options in the Black-Scholes model
|
67 |
Proposition d'architectures radio logicielles fpga pour démoduler simultanément et intégralement les bandes radios commerciales, en vue d'une indexation audio / Proposal of fpga - based software radio architectures for simultaneously and fully demodulating the commercial radio bands, with the aim of doing audio indexingHappi Tietche, Brunel 11 March 2014 (has links)
L'expansion de la radio et le développement de nouveaux standards enrichissent la diversité et la quantité de données contenues sur les ondes de radiodiffusion. Il devient alors judicieux de développer un moteur de recherches qui aurait la capacité de rendre toutes ces données accessibles comme le font les moteurs de recherche sur internet à l'image de Google. Les possibilités offertes par un tel moteur s'il existe sont nombreuses. Ainsi, le projet SurfOnHertz, qui a été lancé en 2010 et s'est terminé en 2013, avait pour but de mettre au point un navigateur qui serait capable d'indexer les flux audios de toutes les stations radios. Cette indexation se traduirait, entre autres, par de la détection de mots clés dans les flux audios, la détection de publicités, la classification de genres musicaux. Le navigateur une fois mis au point deviendrait le premier moteur de recherches de genre à traiter les contenus radiodiffusés. Relever un tel challenge nécessite d'avoir un dispositif pour capter toutes les stations en cours de diffusion dans la zone géographique concernée, les démoduler et transmettre les contenus audios à un moteur d'indexation. Ainsi, les travaux de cette thèse visent à proposer des architectures numériques portées sur une plateforme SDR pour extraire, démoduler, et mettre à disposition le contenu audio de chacune des stations diffusées dans la zone géographique du récepteur. Vu le grand nombre de standards radio existants aujourd'hui, la thèse porte principalement les standards FM et DRM30. Cependant les méthodologies proposées sont extensibles à d'autres standards.C'est à base d'un FPGA que la majeure partie des travaux a été menée. Le choix de ce type de comcomposant est justifié de par les grandes possibilités qu’il offre en termes de parallélisme de traitements, de maitrise de ressources disponibles, et d’embarquabilité. Le développement des algorithmes a été fait dans un souci de minimisation de la quantité de blocs de calculs utilisés. D’ailleurs, bon nombre d’implémentations ont été réalisées sur un Stratix II, technologie aux ressources limitées par rapport aux FPGAs d’aujourd’hui disponibles sur le marché. Cela atteste la viabilité des algorithmes présentés. Les algorithmes proposés opèrent ainsi l’extraction simultanée de tous les canaux radios lorsque les stations ne peuvent occuper que des emplacements uniformément espacés comme la FM en Europe occidentale, et aussi, pour des standards dont la répartition des stations dans le spectre semble plutôt aléatoire comme le DRM30. Une autre partie des discussions porte sur le moyen de les démoduler simultanément. / The expansion of the radio and the development of new standards enrich the diversity and the amount of data carried by the broadcast radio waves. It becomes wise to develop a search engine that has the capacity to make these accessible as do the search engines on the internet like Google. Such an engine can offer many possibilities. In that vein, the SurfOnHertz project, which was launched in 2010 and ended in 2013, aimed to develop a browser that is capable of indexing audio streams of all radio stations. This indexing would result, among others, in the detection of keywords in the audio streams, the detection of commercials, the classification of musical genres. The browser once developed would become the first search engine of its kind to address the broadcast content. Taking up such a challenge requires to have a device to capture all the stations being broadcasted in the geographical area concerned, demodulate them and transmit the audio contents to the indexing engine. Thus, the work of this thesis aim to provide digital architectures carried on a SDR platform for extracting, demodulating, and making available the audio content of each broadcast stations in the geographic area of the receiver. Before the large number of radio standards which exist today, the thesis focuses FM and DRM30 standards. However the proposed methodologies are extensible to other standards. The bulk of the work is FPGA-based. The choice of this type of component is justified by the great opportunities it offers in terms of parallelism of treatments, mastery of available resources, and embeddability. The development of algorithms was done for the sake of minimizing the amount of the used calculations blocks. Moreover, many implementations have been performed on a Stratix II technology which has limited resources compared to those of the FPGAs available today on the market. This attests to the viability of the presented algorithms. The proposed algorithms thus operate simultaneous extraction of all radio channels when the stations can only occupy uniformly spaced locations like FM in Western Europe, and also for standards of which the distribution of stations in the spectrum seems rather random as the DRM30. Another part of the discussion focuses on the means of simultaneously demodulating it.
|
68 |
Modélisation et commande de l'anesthésie en milieu clinique / On the modelling and control of anesthsia in clinical settingsZabi, Saïd 01 December 2016 (has links)
Cette thèse traite de la modélisation et la commande de l'anesthésie sous un angle théorique et formel. L'anesthésie générale d'un patient au cours d'une opération consiste pour le médecin anesthésiste à contrôler l'état d'endormissement et d'analgésie du patient (éviter un sur ou un sous dosage) en ajustant la perfusion des substances analgésiques et/ou hypnotiques en fonction d'indicateurs cliniques tels que le BIS pour l'hypnose ou la variation de la surface pupillaire pour l'analgésie. Ce manuscrit se compose de trois parties. La première définit les concepts et mots clés utilisés dans le domaine de l'anesthésie, présente une introduction à la modélisation et la commande de l'anesthésie d'un point de vue de l'ingénierie des systèmes, rappelle les caractéristiques et contraintes de la commande des systèmes d'anesthésie et établit un état de l'art des travaux de la littérature. La seconde partie concerne la commande de l'hypnose qui est effectuée en deux phases : induction puis maintenance. Dans la première phase (induction) une commande en temps minimal est calculée pour ramener le patient de son état de réveil vers le voisinage d'un point cible correspondant à un objectif du BIS. Une fois l'état du patient proche de l'état cible, la deuxième phase (maintenance) consiste à garantir que l'état du patient reste dans un ensemble où le BIS est garanti entre 40 et 60 et, éventuellement, suit des références constantes. Dans cette phase, la synthèse des lois de commandes (de type retour d'état et retour de sortie dynamique) prend en compte la saturation de la commande, la positivité du système, la variabilité des patients, ... Dans la troisième partie, on commence par la proposition d'un nouvel indicateur pour la profondeur de l'analgésie et d'une modélisation de la variation de la surface pupillaire. Compte tenu de la quantification de la mesure de cet indicateur, on propose la synthèse d'un retour de sortie dynamique. Ensuite, on fait une analyse de stabilité prenant en compte l'échantillonnage de la mesure. / This thesis deals with the modelling and control of anesthesia from a theoretical and formal angle. The general anesthesia of a patient during an operation consists for the anesthesiologist in checking the hypnotic and analgesic state of the patient (avoid over or under dosage) by adjusting the perfusion of analgesic and/or hypnotics substances based on clinical indicators such as BIS for hypnosis or pupillary surface variation for analgesia. This manuscript consists of three parts. The first defines the concepts and key words used in the field of anesthesia, presents an introduction to the modelling and control of anesthesia from the viewpoint of a control systems engineering, recalls the characteristics and constraints of control of the anesthesia systems and establishes a state of the art of works of the literature. The second part concerns the control of hypnosis which is performed in two phases : induction and maintenance. In the first phase (induction), a minimal time control is calculated to bring the patient from his awakening state to the neighbourhood of a target equilibrium corresponding to an objective of the BIS. Once the patient state is close to the target state, the second phase (maintenance) consists in ensuring that the patient state remains in an invariant set where the BIS is guaranteed between 40 and 60 and possibly follows constant references . In this phase, the synthesis of the control laws (state feedback and dynamic output feedback) takes into account the saturation of the control, the positivity of the system, the variability of the patients, ... In the third part, we begin by proposing a novel indicator for the depth of analgesia and modelling the variation of the pupillary surface. Taking into account the quantification of the measures of this indicator, we propose the synthesis of a dynamic output feedback control. Then, a stability analysis is carried out taking into account the sampling of the measures.
|
69 |
Hip-hop sampling and twentieth century African-American music : an analysis of Nas' "Get Down" (2003)Kistner, Gavin 11 April 2018 (has links)
This project presents research based on sampling in hip-hop music, particularly how samples create meaning in the music, especially in the context of twentieth century African-American music. The central thesis is that sampling generates meaning in hiphop music by creating semantic and aesthetic relationships between songs that sample and the songs they have sampled. Furthermore, this method of creating meaning is endemic in other African-American genres of music such as jazz and dub, and is thus integral to understanding the relationships between these genres. This contention is supported primarily by an analysis (including partial transcription) of Nas' song "Get Down" (2003) and its relationship with the song it samples, James Brown's "The Boss" (1973), all of which is found in Chapter 3. This chapter, divided into two sections labelled the Semantic Approach and the Aesthetic Approach, examines certain interpretive theories such as intertextuality, Gates' (1988) theory of the Signifyin(g) Monkey, and coding/decoding. Chapter 3 also looks closely at a common sample source, James Brown's song "Funky Drummer" (1970). Additionally there is a history of sampling in hip-hop music—Chapter 1—that features a special focus on sampling technology, and aims to illustrate the commensurate intertextual qualities found in various African-American musical genres. Both the analysis and history are supported by the technical information in Chapter 2 on sampling. / Ce projet présente les résultats d'une recherche sur l'échantillonnage (sampling) dans la musique hip-hop. Plus spécifiquement, l'objectif est de mieux comprendre la signification de la pratique de l'échantillonnage musical dans le contexte de la musique afro-américaine du XXe siècle. La thèse centrale est que l'échantillonnage produit du sens dans la musique hip-hop en créant des rapports sémantiques et esthétiques entre les chansons qui échantillonnent et celles qui sont échantillonnées. En outre, cette manière de créer du sens est caractéristique d'autres genres musicaux afro-américains, tels que le jazz et le dub, et est ainsi essentielle pour bien saisir les rapports entretenus par ces genres. Cette hypothèse est soutenue principalement par une analyse (incluant une transcription partielle) de la chanson « Get Down » (2003) de Nas et de son rapport avec la chanson « The Boss » (1973) de James Brown, qui constitue la source des échantillons (chapitre 3). Ce chapitre, divisé en deux sections (« Semantic Approach » et « Aesthetic Approach »), s'inspire de certaines théories interprétatives, telles que l'intertextualité, la théorie du « Signifyin(g) Monkey » de Gates (1988), de même que l'encodage/décodage. Le chapitre 3 étudie également une source commune d'échantillonnage, soit « Funky Drummer» (1970) de James Brown. Le mémoire comporte aussi une histoire de l'échantillonnage dans la musique hip-hop (chapitre 1) qui se concentre principalement sur la technologie de l'échantillonnage, et qui vise à illustrer les qualités intertextuelles correspondantes trouvées dans divers genres musicaux afro-américains. L'analyse et l'histoire sont soutenues par une synthèse des informations techniques liées à la pratique de l'échantillonnage (chapitre 2).
|
70 |
Amélioration d'un échantillonneur à flux passif pour la mesure de l'oxyde nitreux (N₂O)Palacios Rios, Joahnn Hernando 17 April 2018 (has links)
L'oxyde nitreux (N₂O) est l'un des gaz à effet de serre (GES) parmi les plus puissants et il joue un rôle important dans le réchauffement global. Pour mesurer les sources à faibles émissions de N₂O, les approches conventionnelles sont souvent sophistiquées et coûteuses et l'approche par échantillonnage à flux passif montre un intérêt. Le but de la présente recherche est d'optimiser la performance de l'échantillonneur à flux passif de Godbout et al. (2006) et Gaudet (2005) dans les différentes étapes de son utilisation : le conditionnement de l'appareil, l'adsorption et la désorption du N₂O. L'échantillonneur de Godbout et al. (2006) et Gaudet (2005) utilise une couche de 2 mm de zéolite pour adsorber le N₂O. Lorsque l'air passe à travers l'échantillonneur à une vitesse proportionnelle à la vitesse de l'air à l'extérieur, la zéolite adsorbe le N₂O. Par la suite, le N₂O contenu dans l'adsorbant est désorbé thermiquement. La concentration de gaz est déterminée à l'aide d'un chromatographic à gaz et ensuite, la masse désorbée est calculée afin d'obtenir la valeur de l'émission de N₂O. Dans le cadre de cette étude, l'échantillonneur a été étanchéifié et modifié pour en faciliter l'assemblage. L'épaisseur de l'adsorbant a été augmentée à 4, 6 et 8 mm, ce qui a permis d'augmenter sa capacité d'adsorption de 96, 187 et 275 % respectivement. Les résultats de l'évaluation de la performance de l'échantillonneur modifié montrent une augmentation de l'efficacité d'adsorption de 91 % (Gaudet 2005) à 96,5, 98,3, 98,3 et 98,4 % et une augmentation de l'efficacité de désorption de 68 % à 83 %, de 57 % à 75 %, de 45 % à 82 % et de 30 % à 74 % pour les échantillonnées pourvus de couches de 2, 4, 6 et 8 mm respectivement. Également, la conception des montages et des modes opératoires ont permis à l'échantillonneur d'obtenir des mesures avec une exactitude moyenne de 77,3 % et une variabilité moyenne de 13,6 %. Suite aux résultats, il est possible d'affirmer que les modifications apportées à l'échantillonneur et aux procédures d'analyse ont permis d'améliorer ses performances et de faire progresser son développement.
|
Page generated in 0.0858 seconds