• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 582
  • 413
  • 156
  • 72
  • 47
  • 39
  • 35
  • 31
  • 13
  • 7
  • 7
  • 7
  • 7
  • 7
  • 3
  • Tagged with
  • 1630
  • 655
  • 461
  • 152
  • 146
  • 122
  • 114
  • 97
  • 92
  • 87
  • 81
  • 76
  • 69
  • 65
  • 65
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Développement de modèles standardisés pour l'étude des aérosols viraux

Marcoux-Voiselle, Mélissa 20 April 2018 (has links)
La dispersion des virus dans l'air est un phénomène encore mal compris. La transmission par contact direct avec une personne infectée ou indirecte via des surfaces contaminées a été largement documentée, mais la littérature sur les aérosols viraux reste pauvre. L’aérosolisation de virus pathogènes requérant d’importantes mesures de biosécurité, des modèles de virus non pathogènes constitueraient des outils précieux dans l’étude des aérosols viraux. Ce projet vise le développement de modèles standardisés pour l’étude des aérosols viraux. Ainsi, des phages ont été testés comme modèles de virus eucaryotes. Pour évaluer leur résistance aux stress environnementaux et aux différents temps d’exposition, ces phages ont été aérosolisés dans une chambre rotative où ils ont été exposés à diverses conditions environnementales (humidité relative [HR], température, UV) et temps. Les résultats obtenus suggèrent que les phages choisis pourraient être de bons modèles pour l’étude du comportement des virus dans l’air. / The spread of virus in the air is a poorly understood phenomenon. Transmission by direct contact with an infected person or by indirect contact via contaminated surfaces has been widely documented, but the literature on viral aerosols remains poor. Because the aerosolization of pathogenic viruses requiring significant biosecurity measures, the availability of non-pathogenic viral models would be a valuable tool in the study of viral aerosols. The aim of this project is to develop standardized models for the study of viral aerosols. Consequently, phages were tested as models for eukaryotic viruses. To evaluate their resistance to environmental stresses and to different exposure times, these phages were aerosolized in a rotating chamber where they were exposed to various environmental conditions (relative humidity [RH], temperature, UV) and time. The results suggest that the selected phages could be good models for studying the behavior of the virus in the air.
112

Mécanismes d’induction de chiralité en catalyse hétérogène

Lemay, Jean-Christian 24 April 2018 (has links)
Ce mémoire porte sur la catalyse asymétrique hétérogène impliquant la création de sites chiraux actifs par la chimisorption d’un modificateur chiral sur une surface de métal. La fonction du modificateur est d’impartir une chiralité à un substrat pro-chiral tout en préservant, ou même en augmentant, l’activité catalytique du métal. Il est généralement accepté que des liaisons intermoléculaires non-covalentes entre le modificateur et le substrat permettent ce transfert. Il est également à considérer que ces mêmes interactions modifient l’activité catalytique. Ainsi le modificateur chiral pourrait à la fois influencer la stéréosélectivié et l’activité catalytique. Cependant, le phénomène d’induction chirale sous-jacent demeure foncièrement mal compris. Il découle de cette complexité que l’étude de la catalyse hétérogène asymétrique est un terrain fertile pour décortiquer les forces intermoléculaires à l’oeuvre et ainsi mieux comprendre la chimie de surface. Il est désormais possible d’étudier des processus catalytiques à l’échelle moléculaire par microscopie à effet tunnel (STM). En parallèle, les progrès en théorie de la fonctionnelle de la densité (DFT) permettent maintenant de mieux décrire les interactions de chimisorption et les interactions de van der Waals. Ainsi, en couplant des études STM et DFT, il est possible d’étudier spécifiquement la chimie des différents sites catalytiques. Une telle étude est ici présentée pour différentes paires de modificateurs chiraux et de substrats pro-chiraux. / Chemisorption of a chiral modifier creates active chiral sites on catalytic surfaces. This central concept of asymmetric heterogenous catalysis is at the heart of this thesis. The chiral modifier forces a chirality on the pro-chiral substrate, and in doing so, preserves or enhances the catalytic activity of the catalytic metal surface. Non-covalent intramolecular interactions provide the stereodirecting force needed to steer the reaction towards an enantiomer, and affect the catalytic activity. Such interactions on surfaces are still difficult to rationalize. Thus, surface-science studies of asymmetric heterogenous catalysis offer insight into the fundamental intermolecular forces at play, and foster a better understanding of surface chemistry. Scanning tunneling microscopy (STM) allows one to study surface catalytic processes at the molecular scale. In parallel, recent progress in density functional theory (DFT) give a more accurate description of chemisorption and van derWaals interactions. Combining these two approaches makes possible single-site studies of catalytic processes. Different pairs of chiral modifiers and pro-chiral substrates are studied here along these lines.
113

Analyse de l'erreur dans la vérification probabiliste

Muhimpundu, Joël 20 April 2018 (has links)
Nous nous intéressons aux erreurs qui apparaissent lors de la vérification de systèmes probabilistes en utilisant la technique d’évaluation de modèle avec l’outil PRISM. L’évaluation de modèle probabiliste est une technique de vérification qui consiste à déterminer si un modèle probabiliste M vérifie une propriété donnée. Les modèles sont décrits par des systèmes de transitions tandis que la logique temporelle est utilisée comme langage de spécification des propriétés. L’algorithme d’évaluation de modèle qui est appliqué consiste essentiellement à résoudre un système d’équations linéaires Ax = b. Nous montrons à quelles étapes du processus d’évaluation de modèle les erreurs apparaissent. Nous distinguons essentiellement deux types d’erreurs à savoir les erreurs d’arrondi (arithmétique à point flottant, model-checking symbolique), et les erreurs de troncature qui proviennent du fait qu’on a remplacé une méthode de calcul direct par des opérations mettant en jeu un nombre fini d’étapes. Nous utilisons la notion de bisimulation approchée pour comparer le modèle M à l’étude et celui réellement encodé par PRISM. Nous faisons aussi une analyse numérique de l’écart entre la solution x du système linéaire Ax = b et celle calculée par PRISM suite aux effets de l’erreur d’arrondi. / We are interested in errors that occur during the verification of probabilistic systems using the technique of model-checking with PRISM tool. Probabilistic model-checking is a technique for verification that aims at determining whether a probabilistic model satisfies a given property. The models are described by transition systems while temporal logic is used as specification language for properties. The model-checking algorithm under study essentially involves solving a system of linear equations Ax = b.We show at what stages of the model-checking process the errors appear. We basically distinguish two types of errors, namely rounding errors (floatingpoint arithmetic, symbolic model checking), and truncation errors, which arise because a direct method of calculation is replaced by operations involving a finite number of steps. We use a notion of approximate bisimulation to compare the model under study and the one actually encoded by PRISM. We also carry a numerical analysis of the difference between the solution of the linear system Ax = b and the one calculated by PRISM, due to the effects of rounding errors.
114

Étude fondamentale du processus de mise en place en béton projeté

Ginouse, Nicolas 20 April 2018 (has links)
Parmi les phénomènes complexes entourant la mise en place du béton projeté, les pertes par rebond du matériau restent au centre des préoccupations. Malgré des améliorations en matière de composition des mélanges et de formation des lanciers, aucune étude ne permet d’évaluer réellement l’effet du type d’équipement et de procédé utilisé sur la qualité du matériau et sur le rebond. À ce jour, la compréhension des mécanismes de rebond repose sur un seul modèle valide uniquement à l’échelle locale d’un granulat. Dans ce contexte, le présent projet s’est attardé à caractériser et étudier davantage les phénomènes contrôlant la mise en place du matériau à l’échelle du jet. Le projet s’est articulé autour de deux axes de recherche visant à caractériser les phénomènes de projection du matériau à la sortie de la lance, pour ensuite s’intéresser aux phénomènes intervenant lors de l’impact du matériau. À l’échelle de la particule, un modèle 1D basé sur la seconde loi de Newton a été développé et a permis d’identifier clairement les paramètres contrôlant l’accélération des particules dans un jet d’air comprimé. L’utilisation d’un système d’imagerie haute vitesse a permis de caractériser pour la première fois le champ des vitesses d’impact produit par 3 types de lances industrielles, et d’en établir l’expression analytique. Pour compléter l’étude des phénomènes de projection, de nouveaux dispositifs expérimentaux ont permis de révéler la distribution spatiale du débit de matériau dans le jet et sur la paroi. L’accumulation en temps réel du matériau et sa consolidation lors de son impact ont également été caractérisées en utilisant un dispositif d’imagerie haute vitesse. Au final, l’étude démontre clairement que les conditions de sortie du matériau au niveau de la lance contrôlent de manière importante l’uniformité des conditions d’impact (vitesse, énergie) et influencent par conséquent celle de la mise en place et de la compaction du matériau sur la paroi. En plus de fournir un nombre important d’outils expérimentaux et d’analyse, cette étude propose une approche novatrice de l’étude du procédé et offre de multiples perspectives de recherche pour des projets futurs. / Among the complex phenomena involved in the placement of shotcrete, material losses through rebound remains an important preoccupation. Despite efforts in mixture design improvements and nozzleman training, there are no studies available that truly evaluate the effect of equipment and placement process on the in-place shotcrete quality and the associated rebound. To this day, our understanding of rebound mechanisms is based on a single model validated only at the aggregate scale. In this context, the present study is aimed at further characterizing and studying the phenomena controlling shotcrete placement at the spray scale. The study is organized around two main aspects: characterising the spraying phenomena at the exit of the nozzle and studying the impact of material on the receiving surface. At the particle scale, a 1D model based on Newton's second law has been developed and has made it possible to clearly identify the parameters controlling the acceleration of particles in a compressed air stream. The use of a high-speed imaging system characterized, for the first time, the velocity fields generated by three different nozzles and proposed the relevant analytical expressions. To complete the study on the spraying phenomena, innovative experimental setups have helped reveal the spatial distribution of the material in the spray and on the receiving surface. The accumulation and consolidation of material on impact has also been illustrated using the high-speed imaging system. In conclusion, the study demonstrates clearly that the conditions prevailing at the exit of the nozzle have a significant effect on the uniformity of the impact conditions (velocities, energy) and will consequently influence those of placement and consolidation of the material on the receiving surface. As well as offering a number of important experimental and analytical tools, this study proposes an innovative approach for the study of the shotcrete process and offers multiple future research perspectives.
115

Fabrication, caractérisation et optimisation de films cellulaires piézoélectriques en polypropylène

Gilbert-Tremblay, Hugues 20 April 2018 (has links)
Les films cellulaires piézoélectriques en polypropylène ont connu une belle effervescence durant la dernière décennie grâce à leurs multiples avantages, dont les plus notoires sont l’effet piézoélectrique comparable aux matériaux piézoélectriques traditionnels, le faible coût de production et la malléabilité. La méthode la plus commune pour fabriquer ces films est l’extrusion de feuilles de polypropylène chargées de particules minérales qui sont ensuite étirées bi-axialement pour former la structure cellulaire. Malgré la simplicité relative de ces étapes, la littérature libre ne contient pas beaucoup de détails à propos des paramètres optimaux de mise en forme mécanique (configuration et température d’extrusion, calandrage, pressage, étirage mécanique) ni à propos des effets de ceux-ci sur la structure cellulaire à la base de l’effet piézoélectrique. Les paramètres majeurs à optimiser lors de ces premières étapes sont le taux de cristallinité du polymère, la dispersion et distribution uniforme des charges minérales et la morphologie initiale des cellules du film, qui sont très influant sur l’effet final. Le premier article de ce travail s’attarde à détailler la mise en forme mécanique des films et à étudier l’effet des différents paramètres. Ensuite, les films subissent un traitement de pression pour optimiser leur structure cellulaire avant d’être chargé par un champ électrique externe. C’est cette dernière étape qui confère au film cellulaire son effet piézoélectrique. En deuxième partie de cet ouvrage, l’effet piézoélectrique est caractérisé par spectroscopie de résonance diélectrique afin de déterminer le ratio optimal des masses volumiques avant et après gonflement et pour comparer l’effet de différents paramètres sur la piézoélectricité des films; l’épaisseur et la densité finales des films ainsi que la distribution de la taille des cellules. Dans le cadre de ce projet, des films cellulaires piézoélectriques en polypropylène ont été fabriqués et optimisés en portant une attention particulière aux paramètres de mise en forme dans des conditions semblables à un milieu industriel. Avec une charge massique de 20% de particules de CaCO3 de grade industriel de taille moyenne de 12 µm suite à un refroidissement lent à 0,78°C/min lors du pressage, des coefficients piézoélectriques de l’ordre 216 pC/N ont été atteint avec un ratio de densité optimal de entre 0,70 et 0,75. / Cellular piezoelectric polypropylene films have received a lot of interest over the last ten years thanks to their multiple advantages, mainly their piezoelectric coefficient comparable to the ones of traditional piezoelectric materials, their low cost of production and their malleability. Such films are fabricated by biaxial stretching of polypropylene sheets loaded with mineral filler previously obtained by extrusion. Despite the relative simplicity of this process, few information is available in the open literature about the influence of the manufacturing parameters on the piezoelectric effect. During the first steps, care must be given to polymer crystallinity, distribution and dispersion of the minerals and initial cellular morphology. The first article of the present work details the fabrication process and the effect of its different parameters. Then the films are inflated by a pressure treatment to optimize the cellular structure. When the film structure is done, the cellular films are charged by an exterior electric field. The latter step renders the film piezoelectric. For the second part of this work, the piezoelectric effect is characterized by dielectric resonance spectroscopy to determine the optimal density ratio and to compare the effects on piezoelectricity of different film parameters such as film thickness, final density and cell heights distribution. For this project, cellular polypropylene piezoelectric films were produced in industrial-like conditions with focus on the manufacturing parameters. With a weight fraction of 20% of industrial grade 12 µm CaCO3 and a slow cool down at 0,78°C/min following pressing, piezoelectric coefficients reached 216 pC/N for an optimal density ratio between 0,70 and 0,75.
116

Contrôle de la croissance de la taille des individus en programmation génétique

Gardner, Marc-André 20 April 2018 (has links)
La programmation génétique (GP) est une hyperheuristique d’optimisation ayant été appliquée avec succès à un large éventail de problèmes. Cependant, son intérêt est souvent considérablement diminué du fait de son utilisation élevée en ressources de calcul et de sa convergence laborieuse. Ces problèmes sont causés par une croissance immodérée de la taille des solutions et par l’apparition de structures inutiles dans celles-ci. Dans ce mémoire, nous présentons HARM-GP, une nouvelle approche résolvant en grande partie ces problèmes en permettant une adaptation dynamique de la distribution des tailles des solutions, tout en minimisant l’effort de calcul requis. Les performances de HARM-GP ont été testées sur un ensemble de douze problèmes et comparées avec celles de neuf techniques issues de la littérature. Les résultats montrent que HARM-GP excelle au contrôle de la croissance des arbres et du surapprentissage, tout en maintenant de bonnes performances sur les autres aspects. / Genetic programming is a hyperheuristic optimization approach that has been applied to a wide range of problems involving symbolic representations or complex data structures. However, the method can be severely hindered by the increased computational resources required and premature convergence caused by uncontrolled code growth. We introduce HARM-GP, a novel operator equalization approach that adaptively shapes the genotype size distribution of individuals in order to effectively control code growth. Its probabilistic nature minimizes the overhead on the evolutionary process while its generic formulation allows this approach to remain independent of the problem and genetic operators used. Comparative results are provided over twelve problems with different dynamics, and over nine other algorithms taken from the literature. They show that HARM-GP is excellent at controlling code growth while maintaining good overall performances. Results also demonstrate the effectiveness of HARM-GP at limiting overtraining and overfitting in real-world supervised learning problems.
117

Problèmes d'homomorphisme à largeur de chemin bornée

Bédard, Catherine 20 April 2018 (has links)
Un homomorphisme est une fonction entre deux structures, par exemple des graphes, qui respecte certaines contraintes. Dans ce mémoire, on étudie la complexité des problèmes d'homomorphisme, c'est-à-dire des problèmes où l'on doit décider s'il existe une telle fonction entre deux structures. On présentera des propriétés sur ces structures qui permettent de déterminer cette complexité. On s'intéressera particulièrement aux problèmes d'homomorphisme qui appartiennent à la classe de complexité NL, une classe contenant des problèmes dont la résolution par un algorithme non déterministe nécéssite peu d'espace mémoire.
118

Analyse de l'erreur en vérification probabiliste

Kouko, Gildas Syla Déo 20 April 2018 (has links)
La vérification de systèmes est aujourd’hui un sujet de recherche récurrent et différentes techniques permettent de vérifier formellement des systèmes critiques dont il faut impérativement garantir la correction. Nous consacrons ce mémoire à l’une des techniques les plus utilisées et les plus efficaces, l’évaluation de modèle. Schématiquement, pour vérifier un système par évaluation de modèle, on abstrait d’abord son comportement sous la forme d’un système de transitions appelé modèle. Ensuite, on formule une propriété désirée du système dans une logique temporelle. Enfin, on utilise un outil logiciel appelé vérificateur pour vérifier automatiquement si le modèle satisfait la propriété. Dans ce mémoire, nous voulons vérifier des propriétés d’atteignabilité dans des modèles probabilistes appelés processus de Markov étiquetés (en anglais, LMP pour Labelled Markov processes) et qui ont possiblement un ensemble d’états non dénombrable. Malheureusement, le vérificateur CISMO dédié à une famille de LMP ne gère pas les propriétés d’atteignabilité et aucun autre outil ne peut vérifier les LMP. Pour améliorer CISMO et atteindre notre objectif, nous avons rendu d’abord plus expressive sa logique de spécification de propriétés pour qu’elle exprime les propriétés d’atteignabilité sur les LMP. Ces propriétés expriment le fait qu’un état souhaité dans un système peut être atteint avec une certaine probabilité. Ensuite, nous avons implémenté dans CISMO une nouvelle approche de vérification d’une famille de propriétés d’atteignabilité qui contribue à l’évolution de la vérification probabiliste. Nous utilisons le théorème de la moyenne pour prouver que, pour tout LMP acceptable par CISMO et toute propriété d’atteignabilité, il existe une chaîne de Markov à temps discret (en anglais, DTMC pour Discrete Time Markov Chains) équivalent au LMP de point de vue atteignabilité moyenne et auquel on peut appliquer les algorithmes connus pour les systèmes probabilistes finis. Le DTMC est construit de telle sorte que nous inférons que le LMP satisfait la propriété d’atteignabilité, si et seulement si le DTMC la satisfait. Théoriquement, notre approche donne un résultat ultime exact et nous l’avons prouvé. À l’implémentation, nous utilisons une méthode d’intégration numérique pour déterminer les probabilités de transition dans le DTMC. Malgré les imprécisions numériques qui peuvent nuire au résultat d’une vérification, nous avons prouvé que notre approche a du sens en quantifiant les erreurs. Nous avons démontré d’une part que les erreurs numériques sont toujours bornées supérieurement dans le DTMC et avons montré d’autre part, qu’il existe une relation de bisimulation entre le LMP et le DTMC. Notre méthode est originale et repousse les limites de l’évaluation de modèle, notamment l’explosion combinatoire de l’espace d’états ou de chemins dans la vérification de systèmes probabilistes infinis. / Systems verification is nowadays a major issue and various techniques verify formally critical systems for which correction must be ensured. The focus of this master’s thesis is on one of the most used and most effective systems verification techniques, modelchecking. Conceptually, to apply model-checking to a system, we first abstract its behavior in the form of a transitions system, the model. Then, we formulate a system property of interest in a temporal logic. Finally, a software called model-checker is used to verify automatically if the model satisfies the property. In this paper, we want to check reachability property in the probabilistic models called labelled Markov process (LMP) and which have possibly an uncountable set of states. Unfortunately, the model-checker CISMO dedicated to a family of LMP does not handle reachability properties and no other tool can verify LMP. To improve CISMO and achieve our goal, we first made more expressive its properties specification logic so that it can express reachability property on LMP. These properties express the fact that a desired state in a system can be reached with a certain probability. Secondly, we implemented in CISMO a new approach for the verification of a family of reachability properties. This is a contribution to the evolution of the probabilistic verification. We use the mean theorem to prove that, for any LMP acceptable by CISMO and for any reachability property, there is a discrete time process (DTMC) equivalent to the LMP according to the average reachability and on which we can apply known algorithms for probabilistic systems which have a countable set of states. The DTMC is constructed in such a way that we can infer the LMP satisfies the reachability property, if and only if the DTMC also satisfies it. Theoretically, our approach gives a precise final result and we prove it. At implementation, since the DTMC is subjected to numerical errors the result can be false, as expected. We use a numerical integration method to determine the transitions probabilities in the DTMC. Despite the errors that can affect the outcome of a verification, we have shown that our approach makes sense at implementation by quantifying the errors. We have shown on one hand that numerical errors are always bounded from above in the DTMC and we established, on the other hand, bisimulation relations between LMP, DTMC constructed theoretically, and DTMC generated algorithmically with errors. Our method is original and pushes the limits of model-checking, especially combinatorial explosion of the states space or paths in the verification of infinite probabilistic systems.
119

Modélisation des rendements financiers à l'aide de la distribution de Laplace asymétrique généralisée

Pelletier, François 20 April 2018 (has links)
Les modèles classiques en finance sont basés sur des hypothèses qui ne sont pas toujours vérifiables empiriquement. L’objectif de ce mémoire est de présenter l’utilisation de la distribution de Laplace asymétrique généralisée comme une alternative intéressante à ces derniers. Pour ce faire, on utilise ses différentes propriétés afin de développer des méthodes d’estimation paramétrique, d’approximation et de test, en plus d’élaborer quelques principes d’évaluation de produits dérivés. On présente enfin un exemple d’application numérique afin d’illustrer ces différents concepts. / Classical models in finance are based on a set of hypotheses that are not always empirically verifiable. The main objective behind this master’s thesis is to show that the generalized asymmetric Laplace distribution is an interesting alternative to those models. To support this idea, we focus on some of its properties to develop parametric estimation, approximation and testing methods, then we work out some principles of derivatives pricing. Finally, we have a numerical example to illustrate these concepts.
120

Nouvelle étude de nuages moléculaires à hautes latitudes galactiques

Fortier, Pierre 20 April 2018 (has links)
Bien cerner le rôle des processus liés à la formation et l’évolution des nuages moléculaires est essentiel à notre compréhension globale du milieu interstellaire (MIS) et de la formation stellaire. Les complexes gazeux à haute latitude galactique sont des laboratoires parfaits pour étudier la physique du MIS puisque n’entre en jeu que la turbulence, les champs magnétiques et le champ de radiation interstellaire. Utilisant des indices fournis par des raies d’absorption du H2 dans l’UV et la variation de couleur des grains de poussière, nous avons fait une recherche systématique de lieux de formation de molécules dans l’espoir de trouver des sites à différentes étapes d’évolution. / Understanding the processes related to the formation and evolution of molecular clouds is essential to our understanding of the interstellar medium (ISM) at large and of star formation. High galactic latitude clouds are ideal laboratories for studying the physics of the ISM as only turbulence, magnetic fields and the interstellar radiation come into play. Using clues from H2 absorption lines in UV and by comparing dust emissions to HI column density, we have probed the morphology and dynamics of many molecular clouds, in the hopes of identifying regions at different stages of evolution.

Page generated in 0.133 seconds