351 |
Adaptation de maillages en parallèleTye Gingras, Christian 20 April 2018 (has links)
L’adaptation de maillages anisotrope permet d’améliorer grandement la précision de méthodes numériques telles que la méthode des éléments finis. L’adaptation peut être très coûteuse en temps de calcul, mais montre un grand potentiel de parallélisation. Ce projet consiste à développer une implémentation parallèle de l’adaptation de maillages anisotrope basée sur des estimateurs métrique et hiérarchique. On introduit les notions de base de l’adaptation et de la programmation parallèle. On développe une stratégie de parallélisation applicable à la fois en deux dimensions et en trois dimensions. Enfin, on applique cette stratégie dans le cadre de la méthode des éléments finis dans le but d’en évaluer l’efficacité et la rapidité.
|
352 |
Développement de particules de lactosérum aux propriétés contrôlées par injection de vapeurEmond, Charles 20 April 2018 (has links)
Le rendement fromager a toujours été un enjeu majeur pour les fromagers industriels. En valorisant le lactosérum, principal coproduit de la production fromagère, les fromagers réussissent à augmenter ces rendements et diminuer les effluents de production. Cependant, ces opérations pourraient être optimisées. En étudiant un procédé d’injection directe de vapeur (DSI), ce projet visait à optimiser la transformation de concentrés protéiques de lactosérum en ingrédient laitier destiné à l’augmentation des rendements fromagers. La DSI n’ayant pas été utilisée dans ce contexte particulier, le procédé fût modélisé pour décrire son rendement et prédire les propriétés fonctionnelles des agrégats obtenus. Les modèles créés ont permis de décrire des mécanismes de dénaturation et d’agrégation qui n’avaient pas été observées auparavant. Ils ont également permis d’établir que la température et le pH étaient les meilleurs outils pour obtenir les propriétés fonctionnelles idéales pour la réincorporation fromagère. / Cheese yield has always been a major concern for industrial cheese makers. By valorising whey, the main coproduct of the cheese making process, cheese makers can achieve a higher yield and a lower waste output. However, these operations could be optimized. By studying a direct steam injection (DSI) process, this project aimed to optimize the transformation of whey protein concentrates into a dairy ingredient oriented towards the increase in cheese yields. Since DSI has not been used before in this particular context, the process was modelled to describe its yield and predict the functional properties of the aggregates produced. The models created allowed the description of denaturation and aggregation mechanisms that had not been observed before. They have also allowed identifying temperature and pH as the best parameters of the process to achieve the ideal functional properties for cheese reincorporation.
|
353 |
Processus aléatoires sur des arbresPelletier, Laurent 20 April 2018 (has links)
En développant des outils pour étudier les chaînes de Markov réversibles ainsi qu’une classification des arbres par leur constante de branchement, on pourra traiter du problème du retour à l’origine d’une marche aléatoire sur un arbre. Ces mêmes outils nous permettront d’étudier la percolation sur les arbres. En particulier, il sera possible de relier explicitement la constante de branchement d’un arbre à la valeur critique pour la marche aléatoire biaisée et à la valeur critique de percolation. Par la suite, on détaille comment en arriver à des bornes intéressantes pour deux valeurs critiques du processus de contact sur l’arbre homogène, un résultat de Pemantle. On généralise aussi un résultat de Schinazi qui nous permet de trouver une borne inférieure pour la valeur critique de survie du processus de contact sur le recouvrement universel d’un graphe fini.
|
354 |
Personalized large scale classification of public tenders on hadoopDumoulin, Mathieu 20 April 2018 (has links)
Ce projet a été réalisé dans le cadre d’un partenariat entre Fujitsu Canada et Université Laval. Les besoins du projets ont été centrés sur une problématique d’affaire définie conjointement avec Fujitsu. Le projet consistait à classifier un corpus d’appels d’offres électroniques avec une approche orienté big data. L’objectif était d’identifier avec un très fort rappel les offres pertinentes au domaine d’affaire de l’entreprise. Après une séries d’expérimentations à petite échelle qui nous ont permise d’illustrer empiriquement (93% de rappel) l’efficacité de notre approche basé sur l’algorithme BNS (Bi-Normal Separation), nous avons implanté un système complet qui exploite l’infrastructure technologique big data Hadoop. Nos expérimentations sur le système complet démontrent qu’il est possible d’obtenir une performance de classification tout aussi efficace à grande échelle (91% de rappel) tout en exploitant les gains de performance rendus possible par l’architecture distribuée de Hadoop. / This project was completed as part of an innovation partnership with Fujitsu Canada and Université Laval. The needs and objectives of the project were centered on a business problem defined jointly with Fujitsu. Our project aimed to classify a corpus of electronic public tenders based on state of the art Hadoop big data technology. The objective was to identify with high recall public tenders relevant to the IT services business of Fujitsu Canada. A small scale prototype based on the BNS algorithm (Bi-Normal Separation) was empirically shown to classify with high recall (93%) the public tender corpus. The prototype was then re-implemented on a full scale Hadoop cluster using Apache Pig for the data preparation pipeline and using Apache Mahout for classification. Our experimentation show that the large scale system not only maintains high recall (91%) on the classification task, but can readily take advantage of the massive scalability gains made possible by Hadoop’s distributed architecture.
|
355 |
Application of tomography techniques to plastic scintillation dosimetryGoulet, Mathieu 20 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2013-2014. / Cette thèse porte sur le développement d’outils de contrôle de qualité pour les traitements de radiothérapie externe. Le but principal vise à incorporer les principes de tomographie à la dosimétrie par scintillateurs plastiques pour concevoir des appareils de haute résolution spatiale et faciles d’utilisation, tout en étant justes et précis. Dans un premier temps, la réponse de longues fibres scintillantes placées dans un champ de radiation est étudiée, et un détecteur de fluence est développé pour la validation en temps réel des traitements de radiothérapie. En utilisant l’information des deux extrémités de chaque fibre simultanément, la position de l’interaction du champ ainsi que l’intégrale de la fluence traversant la fibre peuvent être mesurées, permettant la détection d’erreurs de lames d’au moins 2 mm à l’isocentre. Le modèle théorique de réponse précédemment développé est ensuite appliqué à la reconstruction tomographique d’une distribution de dose mesurée à l’aide d’une matrice rotative de longues fibres scintillantes parallèles. Le dosimètre 2D obtenu parvient à reconstruire la dose calculée par le système de planification de traitement avec un écart maximal de 2% dans les régions de bas gradient de dose. Le concept de dosimétrie tomographique, ou tomodosimétrie, est ensuite appliqué à la mesure de dose en trois dimensions en utilisant des plans de fibres cylindriques et concentriques. En simulant la rotation de ces plans autour de leur axe central et en interpolant en trois dimensions les doses 2D obtenues, le dosimètre 3D parvient à reconstruire la dose de départ à un écart d’au plus 1% en dehors des zones de haut gradient de dose. Finalement, les principes de reconstruction itérative démontrés pour les longues fibres scintillantes sont appliqués à un volume de scintillateurs imagé à l’aide d’une caméra plénoptique. En re-projetant les projections acquises par les pixels de la caméra dans le volume de scintillateurs, le dosimètre 3D parvient à reconstruire en temps réel la dose à un écart d’au plus 3% dans les régions de faible gradient de dose. Cette étude conclut que le mariage de la tomographie et de la dosimétrie permet l’apparition d’une nouvelle génération d’appareils de contrôle de qualité alliant à la fois résolution spatiale et facilité d’utilisation. / This thesis deals with the development of tools for the quality assurance of external beam radiotherapy. The main goal is to incorporate tomography processes to plastic scintillator dosimetry in order to conceive high resolution, precise, accurate and easy-to-use quality assurance devices. First, a long scintillating fiber response to an incoming radiation field is studied, and a fluence monitoring device is developed for the real-time validation of radiotherapy treatments. Using the light signal emitted from both sides of each fiber, both the interaction position of the incoming field and the fluence integral across the fiber can be measured, allowing for the detection of leaf errors of at least 2 mm at isocentre. The theoretical response model previously developed is then applied to the tomographic reconstruction of dose distributions measured using a rotating matrix of long scintillating fibers. The dose reconstructed using this 2D dosimeter is in agreement with the calculations from the treatment planning software up to a maximum difference of 2% in the low dose gradient regions. The concept of tomographic dosimetry, or tomodosimetry, is then applied to 3D dose measurements using concentric, cylindrical planes of fibers. By simulating the rotation of these planes around the dosimeter central axis and by interpolating in three dimensions the obtained 2D doses, the 3D dosimeter is able to reconstruct the initial input dose with a deviation of maximum 1% outside of high dose gradient regions. Finally, the iterative reconstruction principles demonstrated for long scintillating fibers are applied to a scintillator volume imaged using a plenoptic camera. By re-projecting the projections acquired by the camera sensor pixels inside the scintillator volume, the 3D dosimeter is able to reconstruct the dose in real time with a maximal deviation of 3% in the low dose gradient regions. This study concludes that the union of tomography and dosimetry enables the development of a new generation of quality assurance devices, combining both spatial resolution and user-friendliness.
|
356 |
Combinaison d'approche statique et dynamique pour l'application de politiques de sécuritéGodonou, Théophane Gloria 20 April 2018 (has links)
Ce mémoire présente une approche d'application de politiques de sécurité qui utilise une analyse de types basée sur un système de types multi-valeurs. Cette analyse est suivie d'une instrumentation lorsque nécessaire. Le langage cible est un langage impératif. Notre approche vise à réduire les faux-positifs générés par une analyse statique, et à réduire la surcharge d'exécution en n'instrumentant que lorsque nécessaire. Les faux-positifs surviennent dans l'analyse de systèmes informatiques lorsqu'une information est manquante durant la compilation, par exemple le nom d'un fichier, et par conséquent, son niveau de sécurité. L'idée principale de notre approche est de distinguer les réponses négatives des réponses incertaines. Au lieu de rejeter les commandes potentiellement non sécuritaires, elles sont identifiées et étiquetées pour la seconde phase de l'analyse. Les réponses négatives et positives sont traitées comme cela se fait d'habitude. Ce travail est une approche hybride d'application de politique de sécurité : les points potentiellement sécuritaires du programme détectés par notre analyse par typage sont instrumentés par la suite avec des tests dynamiques. Le système de typage sur lequel se base le nôtre a été présenté par Desharnais et al. [12]. Notre approche a été acceptée pour publication [7]. Dans ce travail nous présentons les modifications apportées au précédent travail et la phase d'instrumentation qui la complète. La nouveauté de notre approche est de rajouter un niveau de sécurité aux trois du travail précédent. Nous traitons les canaux et les variables de façon spéciale. Les programmes interagissent par le biais de canaux de communication. Des niveaux de confidentialité sont associés aux canaux plutôt qu'aux variables dont le niveau de sécurité est fonction de l'information qu'elles stockent. Notre analyse est sensible au flot. / In this Master thesis, we present an approach to enforce information flow policies using a multi-valued type-based analysis followed by an instrumentation when needed. The target is a core imperative language. Our approach aims at reducing false positives generated by static analysis, and at reducing execution overhead by instrumenting only when needed. False positives arise in the analysis of real computing systems when some information is missing at compile time, for example the name of a file, and consequently, its security level. The key idea of our approach is to distinguish between negative and may responses. Instead of rejecting the possibly faulty commands, they are identified and annotated for the second step of the analysis; the positive and negative responses are treated as is usually done. This work is a hybrid security enforcement mechanism: the maybe-secure points of the program detected by our type based analysis are instrumented with dynamic tests. The basic type based analysis has been reported by Desharnais et al. [12], this work deals with the modification of the type system and the instrumentation step. It has been accepted for publication [7]. The novelty of our approach is the handling of four security types, but we also treat variables and channels in a special way. Programs interact via communication channels. Secrecy levels are associated to channels rather than to variables whose security levels change according to the information they store. Thus the analysis is flow-sensitive.
|
357 |
Analyse multi-échelle de l'émission de la poussière dans le plan de la GalaxieRobitaille, Jean-François 20 April 2018 (has links)
Le milieu interstellaire (MIS) est constamment transformé par plusieurs mécanismes physiques se produisant à de multiples échelles spatiales. Afin d’étudier ces processus, j’ai développé deux outils basés sur une analyse multi-échelle de l’émission thermique des grains de poussière observée par l’Observatoire spatial Herschel dans le cadre du projet « Herschel infrared Galactic Plane Survey » (Hi-GAL), de l’émission de l’hydrogène neutre à 21 cm (H I) observée par le « Very Large Array Galactic Plane Survey » (VGPS) ainsi que de l’émission du 12CO et du 13CO observée par le « Five College Radio Astronomical Observatory » (FCRAO). Le premier outil d’analyse multi-échelle est destiné à la séparation des fluctuations Gaussiennes et non-Gaussiennes de l’émission thermique de la poussière. Basée sur les propriétés des transformées en ondelettes complexes, cette technique permet de séparer deux comportements statistiquement différents sur une image et d’en analyser le spectre de puissance. Le spectre de puissance du milieu diffus, relié à la partie Gaussienne de l’émission de la poussière, possède une loi de puissance plus pentue et ses fluctuations sont présentes à toutes les échelles spatiales. La partie non-Gaussienne est limitée aux échelles plus petites que ∿ 0:15 arcmin-1 et est corrélée à l’émission moléculaire du 13CO. Nous démontrons aussi que la loi de puissance plus petite de la partie non-Gaussienne ne peut être reproduite par une simple simulation fractale aléatoire. Le second outil, également basé sur les transformées en ondelettes complexes, analyse la cohérence entre la distribution des gros grains de poussière et les composantes gazeuses neutres du MIS. Contrairement à une étude de corrélation classique, l’étude de la cohérence à l’aide d’ondelettes complexes permet de discerner les variations spatiales d’une corrélation entre deux images. Cette première étude à l’aide de cet outil a été réalisée en modélisant l’émission de la poussière par trois composantes distinctes : une carte intégrée de l’émission 12CO, des structures HI vues en auto-absorption et une carte intégrée de l’émission HI . Nous démontrons qu’il est possible d’extraire les composantes de la poussière cohérentes à ces composantes gazeuses et de calculer leurs propriétés individuelles en fonction de la position sur la carte. / The interstellar medium (ISM) is continually transformed by several physical mechanisms that occur at multiple spatial scales. To study those mechanisms, I developed two multiscale analysis tools applied to the thermal dust emission observed by the Herschel Space Observatory for the Herschel infrared Galactic Plane Survey (Hi-GAL), to the emission of neutral hydrogen at 21 cm (H I) observed by the Very Large Array Galactic Plane Survey (VGPS) and to the emission of 12CO and 13CO observed by the Five College Radio Astronomical Observatory (FCRAO). The first multiscale analysis tool is developed to separate Gaussian and non-Gaussian fluctuations of thermal dust emission. Based on properties of complex wavelet transforms, this technique allows us to separate two components with different statistical behaviours in an image to analyse their power spectrum. The power spectrum of the diffuse medium, associated with the Gaussian part of the dust emission, has a steeper power law and presents fluctuations at every spatial scales. The non-Gaussian part is limited to scales smaller than ∿ 0:15 arcmin-1 and is correlated with the 13CO emission. Furthermore, we demonstrate that a random fractal simulation cannot reproduce the flatter power law of the non-Gaussian component observed in the thermal dust emission. The second analysis tool, also based on complex wavelet transforms, analyses the coherence between the dust distribution and neutral gaseous components in the ISM. Contrary to the classical correlation analysis, the coherence analysis using complex wavelets allows us to detect spatial variations of the correlation between two images. The first application of this tool has been realised with a simple three-component model of the thermal dust emission: an integrated map of 12CO emission, HI structures seen in self-absorption, and an integrated map of HI emission. We demonstrate that we can extract coherent dust components with gaseous components and calculate their individual properties as a function of the position in the map.
|
358 |
Genetics of gene expression in conifersVerta, Jukka-Pekka 20 April 2018 (has links)
Décrire les bases génétiques de la variation phénotypique est un but important en biologie; c’est aussi nécessaire pour comprendre l’évolution et développer des outils utilisables en amélioration et conservation. L’expression des gènes, mesurée par le niveau de transcrits produits, reflète l’activité des gènes et la variation de cette expression influence les phénotypes moléculaire et physiologiques en aval. Cette thèse présente deux expériences visant à développer une approche complémentaire aux méthodes traditionnelles souvent inapplicables chez les conifères afin d'étudier les bases génétiques de la variation d’expression génique chez l’épinette blanche (Picea glauca, Moench. Voss). Analyses des tissus haploïde et diploïde de semences à l’aide de biopuces d'expression et de RNA-seq ont permis de décrire la variation d’expression selon la complexité des bases génétiques, la fonction biologique des gènes impliqués, la liaison génétique entre les effets et les gènes influencés, la spécificité des effets génétiques aux allèles, et l’additivité des effets génétiques chez des individus hétérozygotes. Les effets ayant des bases génétiques relativement simples étaient majoritairement uniques à chaque individu et surreprésentés au sein des gènes impliqués dans la réponse au stress et les gènes dupliqués, suggérant un rôle adaptif. Les effets liés aux variations génétiques situées au sein du gène peuvent être particulièrement importants pour l’adaptation en raison de leur plus grande additivité et spécificité allélique. Une minorité des effets locaux étaient non-spécifiques aux allèles, en accord avec une action de facteurs de régulations indépendants mais étroitement liés au gène ou une auto-régulation de la transcription par le gène lui-même. Une grande partie de la variation d'expression locale montrait des signes de compensation entre des effets spécifiques et non-spécifiques aux allèles, possiblement en raison d'une sélection qui favoriserait un lien étroit entre les effets agissant sur le même gène. Les effets non-liés, non-spécifiques aux allèles, étaient transmis de façon cohérente avec la théorie physiologique de Wright sur la dominance, suggérant qu'ils modulent l'expression en interaction avec d'autres facteurs. L’approche développée dans cette thèse peut potentiellement être appliquée à la large gamme des conifères, avec le possibilité d’étudier le rôle de l'expression dans la divergence entre les populations et les espèces. / Dissecting the genetic bases of phenotypic variation is a major goal in biology and underlies basic understanding of evolution as well as development of practical applications in breeding and conservation. Gene expression (transcript accumulation) reflects gene activity and variation therein translates to variation in other molecular and physiological phenotypes. The goal of my thesis was to establish a novel system for the genetic dissection of expression variation in white spruce (Picea glauca, Moench. Voss) because conventional approaches are mostly unfeasible in conifers. The approach that was used in developing this system is based on analyzing gene expression in the haploid and diploid meiotic seed tissues. Expression analysis using both microarray and RNA-seq techniques revealed a complex and diverse genetic basis for expression variation, which was dissected according to the complexity of genetic bases, focal gene function, effect linkage, effect allele-specificity and additivity of expression variation in heterozygous individuals. Expression variation with simple genetic bases was largely unique to each of two studied individuals and was biased towards genes involved in stress-response and duplicated genes, indicating that it may have adaptive value. Genetic variation in linkage with the expressed gene may be particularly important in adaptive evolution because of their additive effects, associated with their allele-specificity. A minority of local effects was non-specific to alleles, consistent with the action of closely linked but independent regulatory factors or self-regulation of transcription. Much of local expression variation showed evidence of compensation by allele-specific and non-specific effects, suggesting that selection has favored close linkage between certain effets acting on the same gene. Unlinked effects, always non-specific to alleles, exhibited inheritance consistent with Wright’s physiological theory of dominance suggesting that they influence expression in interaction with other partners. Furthermore, widespread dominance/recessivity in expression variation may explain the observation of highly pleiotropic effects influencing key cellular processes and suggests that recessive expression variation may contribute to inbreeding depression. The approach developed in this thesis can potentially be applied to other conifers because of their shared reproductive biology, and can be used to address the role of expression variation in the divergence of populations and species.
|
359 |
Design, synthèse et caractérisation de nouvelles nanostructures peptidiques pour la détection protéiqueRacine-Berthiaume, Charles 20 April 2018 (has links)
Le présent mémoire expose nos efforts dans le design, la synthèse ainsi que la caractérisation de nouvelles nanostructures peptidiques hélicoïdales pour la détection protéique. Le sujet sera divisé en deux volets. Premièrement, nous présenterons la synthèse de nanotransducteurs peptidiques pour la fonctionnalisation de pointes AFM pour la mesure de force de reconnaissance monomoléculaire. Deuxièmement, nous rapporterons la synthèse canaux ioniques artificiels peptidiques pour la détection de protéines par des essais de fluorescence. Une attention particulière sera portée aux efforts de synthèse ayant permis la fonctionnalisation terminale de peptides avec des espèces glycosidiques servant d’élément de reconnaissance de protéines via une stratégie de couplage de modules par cyclisation azoture-alcyne catalysée au cuivre. / This manuscript reports our results in the design, synthesis and characterization of novel helical peptide nanostructures to be used for the detection of proteins. The work is divided in two parts. The first part deals with the synthesis of peptide-based nanotransducers used for the functionalization AFM tips to perform single molecule recognition force spectroscopy. The second part reports the synthesis of peptide-based artificiel ion channels to be used as sensing elements in fluorescence protein detection assays. A special emphasis is put on our synthetic efforts leading to the terminal functionalization of peptides with glycosidic species for use as a protein recognition elements using a copper catalysed azide-alkyne cycloaddition coupling.
|
360 |
Effet de la photo-isomérisation sur la cristallisation de copolymères polyéthersulfone-azobenzèneProvencher, Simon 20 April 2018 (has links)
La cristallinité d’un matériau peut largement influencer les propriétés de ce dernier, notamment la résistance mécanique, chimique et thermique. Au cours des dernières années, le groupe de recherche de Josée Brisson a étudié les processus de cristallisation avec un système de copolymères rigides-flexibles. Cette approche a pour but d’induire à la fois une flexibilité dans la chaîne pour faciliter le repliement à des endroits précis et une rigidité pour favoriser les interactions favorables à la cristallisation. Cette approche a permis notamment d’étudier les processus de cristallisation et de faire cristalliser un dérivé du poly(éthersulfone) (PES) qui nécessite généralement des conditions rigoureuses. Le présent projet portera sur l’utilisation d’un comonomère azobenzène pouvant se photo-isomériser sous irradiation lumineuse pour induire une flexion dans la chaîne et étudier si le changement de conformation peut influencer la cristallisation du polymère.
|
Page generated in 0.1268 seconds