• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 590
  • 167
  • 48
  • 47
  • 39
  • 38
  • 22
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • Tagged with
  • 980
  • 672
  • 180
  • 173
  • 106
  • 100
  • 91
  • 86
  • 82
  • 77
  • 71
  • 66
  • 59
  • 58
  • 58
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

The Greystar prototype : designing a multidetector for automatic isotope identification

Wallace, Barton 24 April 2018 (has links)
L’utilisation de la spectroscopie nucléaire comme outil de détection est limitée par le ratio du signal sur bruit. Les méthodes traditionnelles qui permettent d’outrepasser cette difficulté sont d’augmenter l’intensité du signal ou de diminuer le bruit. Pour amplifier le signal, il existe deux méthodes : avoir un émetteur plus intense ou avoir un détecteur de meilleur rapport signal sur bruit . Les techniques typiques de réduction de bruit de fond sont : l’application de filtres numériques et l’ajout de systèmes, tels des circuits de coïncidence, pour favoriser l’étude du signal. Dans le cadre de notre recherche, nous cherchons à détecter des traces d’éléments en utilisant l’activation par neutron. Nous sommes donc limités à avoir des émetteurs d’intensité faible. Beaucoup de chercheurs se penchent déjà sur la création et l’amélioration de détecteurs ayant de meilleures résolutions en énergie. L’approche que nous proposons utilise des détecteurs typiques ayant des résolutions standards et aucun système de suppression de bruit de fond. Nous avons développé un montage expérimental astucieux qui se charge de récolter un maximum d’information. Nous le couplons par la suite à un système d’analyse statistique robuste basé sur l’estimation du maximum de vraisemblance d’un modèle de mixture pour extraire les paramètres d’intérêt. Cette méthode mène à une amélioration flagrante du pouvoir de détection d’un tel système. Les résultats de cette recherche sont par la suite très utiles à tous les systèmes de spectroscopie semblables. Les méthodes d’acquisition et d’analyse développées sont en parfaite synergie avec les travaux de recherche qui se font ailleurs sur des systèmes de détecteurs plus exotiques. / The use of nuclear spectroscopy as a detection tool is limited by signal to noise ratio. The most common ways of overcoming this difficulty are either boosting the signal or dampening the noise. Boosting the signal can either be done by having a more powerful emitter or by having a better signal to noise ratio. Applying digital filters and having special experimental setups are the typical ways of enhancing the signal. In our case, the detection of trace elements with neutron activation analysis, we are limited by the nature of the problem to having small emitter signals. A good amount of research is already being done to develop new and exotic detectors to improve their energy resolution. The approach we propose uses typical detectors with average resolution and no background suppression. We propose an intelligent experimental design intended to extract a maximum of information from the experiment and an analysis algorithm based on a rigorous statistical model using a maximum likelihood approach to solving a mixture model in order to drastically improve detection efficiency. This method can be combined with more complex setups that use higher resolution detectors. As such the results of this project synergize well with what is being done elsewhere in the fields of spectroscopy and detector physics.
72

Évaluation de l'impact de différents paramètres opératoires sur la performance de la membrane céramique à gradient de perméabilité pour la séparation des protéines sériques du lait par microfiltration

Tremblay-Marchand, Daniel 23 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2015-2016 / La microfiltration (MF) est un procédé membranaire permettant de séparer les micelles de caséines (CN) des protéines sériques (PS) du lait grâce à des pores ayant un diamètre de 0,1 μm. Le rétentat obtenu est enrichi en CN, tandis que le perméat contient des PS sous forme native. La membrane céramique à gradient de perméabilité (GP) a été développée récemment dans le but de réduire l’encrassement à long terme, ce qui permet des flux de perméation élevés et une meilleure séparation des protéines. À ce jour, les conditions opératoires les plus efficientes pour réaliser la MF du lait n’ont pas été déterminées pour ce type de membrane. L’objectif de cette étude était donc de caractériser l’effet de différentes pressions transmembranaires (PTM), différents facteurs de concentration volumique (FCV) et de la diafiltration (DF) sur l’efficience du procédé. Un bilan de matière a été réalisé à la suite du dosage des solides totaux, ainsi que de l’azote total, non caséique et non protéique. La consommation énergétique du système de MF a également été mesurée in situ. Les résultats obtenus démontrent qu’un FCV de 1,5X permet d’obtenir la meilleure séparation des protéines, tout en ayant un flux de perméation plus élevé et une plus faible consommation énergétique. Lorsque le FCV est plus élevé, les pertes totales de CN dans le perméat et la consommation énergétique deviennent plus importantes, ce qui réduit la rentabilité du procédé. Les étapes de DF réduisent l’efficience du procédé en augmentant la durée de filtration et la quantité de perméat généré de façon considérable, sans permettre d’obtenir une quantité satisfaisante de PS supplémentaires dans le perméat. Les résultats obtenus pourront bénéficier aux transformateurs laitiers lors de la prise de décision quant à la pertinence d’effectuer la MF du lait avec la membrane céramique GP. / Microfiltration (MF) is a membrane process used to separate casein (CN) micelles from serum proteins (SP) of milk using 0.1 μm pore diameter membranes. The resulting retentate is enriched in CN, while the permeate contains native SP. The graded permeability (GP) ceramic membrane has been recently developed to reduce long-term fouling, which improves permeation flux and protein separation. To date, the most efficient operating conditions to achieve MF of milk have not been determined for this type of membrane. The objective of this study was to characterize the effect of different transmembrane pressures (TMP), volumetric concentration factors (VCF) and diafiltration (DF) on the process efficiency. Mass balance measurements were carried out following the determination of total solids, total nitrogen, non-casein nitrogen and non-protein nitrogen. The in situ energy consumption of the MF system was also measured. Results obtained showed that a VCF of 1.5X provided the best separation of proteins, while allowing the highest permeation flux and the lowest energy consumption. When the VCF was higher, the total losses of CN in the permeate increased, as well as energy consumption, which reduces the process profitability. DF steps reduced the process efficiency by increasing the filtration time and the amount of permeate generated, without increasing significantly the transmission of additional SP in the permeate. Results will benefit dairy processors in decision making about the potential of MF of skim milk with GP membrane.
73

Nouveaux copolymères à base de thieno-pyrazine et thieno-thiadiazole pour l'électronique organique

Minguy Jean, Martin 24 April 2018 (has links)
Une partie appréciable de la recherche moderne dans le domaine du photovoltaïque est basée sur des systèmes organiques sur couches minces. Les photo-détecteurs organiques ne diffèrent des technologies photovoltaïques solaires que par leurs structures chimiques au sein de la couche active, ainsi que par certaines propriétés nécessaires à leurs viabilités. Afin d’obtenir un matériau photoactif dans le proche infrarouge, la structure chimique doit être choisie et conçue de façon à placer ses bandes d’absorptions aux bons endroits. Un contrôle précis de la bande interdite du polymère dictera à quel point ce matériau peut servir à des fins de photo-détections. Les unités thieno-pyrazine et thieno-thiadiazole sont reconnues comme ayant un fort caractère électronique et viennent aisément produire des polymères à faible bande interdite lorsqu’ elles y sont incorporées. Au sein d’un système à hétérojonction de type donneur / accepteur, la miscibilité entre ces deux est cruciale et viendra justifier les performances finales d’un dispositif. Cette miscibilité dictera la morphologie de la couche active, qui est trop souvent imprévisible lors de la conception des structures chimiques des composés. On peut par contre penser à baser une étude sur une morphologie déjà établie, en balisant la structure globale du polymère, tout en modifiant ses fonctionnalités pour avoir un contrôle sur les propriétés électroniques finales. Une structure de poly (4,4’’-didodecyl-2,2’:5’, 2’’-terthiophène) dont la morphologie est connue sera donc utilisée dans ce projet et une modification de son thiophène central viendra moduler son activité optique pour en faire un bon candidat en photo-détection infrarouge. Ces travaux ont permis de développer de nouveaux polymères conjugués et de vérifier leurs propriétés électro-optiques.
74

Divergence phénotypique et génomique des écotypes planctivore et piscivore chez le touladi (Salvelinus namaycush)

Bernatchez, Simon 23 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2015-2016 / Le touladi est une espèce de salmonidé exploitée de manière importante par la pêche sportive. Cette pêche est entre autres supportée par des populations d’écotypes planctivore et piscivore utilisant des niches écologiques différentes. Cependant, les connaissances concernant la divergence évolutive entre ces deux écotypes demeurent pour l’instant très limitées. Cette étude visait à investiguer les bases génomiques de la divergence adaptative entre ces écotypes à partir d’analyses morphologiques (géométrie morphométrique, mesures linéaires et morphométrie des branchiospines) et d’analyses génétiques (3925 marqueurs de type «polymorphisme nucléotidique simple») effectuées sur un total de 367 touladis provenant de 12 lacs. Les résultats ont démontré une divergence morphologique potentiellement reliée à l’exploitation de niches écologiques différentes, une forte divergence génomique neutre entre les différentes populations de touladi et une divergence génomique potentiellement adaptative entre les écotypes. Ces résultats pourront servir à améliorer les mesures de gestion du touladi actuellement en place. / Lake Trout is an important salmonid species exploited by sport fishing. This fishery is supported by planktivorous and piscivorous Lake Trout populations, that use different ecological niches. Nevertheless, knowledge about evolutionary divergence between these two ecotypes remains scarce. The goal of this study was to investigate the genomic basis of the adaptive divergence between these two Lake Trout ecotypes using morphological analyses (geometric morphometrics, linear measurements and gill rakers morphometry) and genetic analyses (3 925 single nucleotide polymorphism markers) performed on a total of 367 Lake Trout from 12 lakes. The results demonstrated a morphological divergence that is potentially related to the use of different ecologial niches, a strong neutral genomic divergence between populations and a potentially adaptive genomic divergence between ecotypes. The results of this study could be used to improve management policies for this species.
75

Concrete deterioration due to sulfide-bearing aggregates

De Almeida Rodrigues, Andreia 24 April 2018 (has links)
Dans la région de Trois-Rivières (Québec, Canada), plus de 1 000 bâtiments résidentiels et commerciaux montrent de graves problèmes de détérioration du béton. Les problèmes de détérioration sont liés à l'oxydation des sulfures de fer incorporés dans le granulat utilisé pour la confection du béton. Ce projet de doctorat vise à mieux comprendre les mécanismes responsables de la détérioration de béton incorporant des granulats contenant des sulfures de fer, et ce afin de développer une méthodologie pour évaluer efficacement la réactivité potentielle de ce type de granulats. Un examen pétrographique détaillé de carottes de béton extraites de fondations résidentielles montrant différents degré d’endommagement a été réalisé. Le granulat problématique contenant des sulfures de fer a été identifié comme un gabbro à hypersthène incorporant différentes proportions (selon les différentes localisations dans les deux carrières d’origine) de pyrrhotite, pyrite, chalcopyrite et pentlandite. Les produits de réaction secondaires observés dans les échantillons dégradés comprennent des formes minérales de "rouille", gypse, ettringite et thaumasite. Ces observations ont permis de déterminer qu’en présence d'eau et d'oxygène, la pyrrhotite s’oxyde pour former des oxyhydroxides de fer et de l'acide sulfurique qui provoquent une attaque aux sulfates dans le béton. Tout d'abord, la fiabilité de l'approche chimique proposée dans la norme européenne NF EN 12 620, qui consiste à mesurer la teneur en soufre total (ST, % en masse) dans le granulat pour détecter la présence (ou non) de sulfures de fer, a été évaluée de façon critique. Environ 50% (21/43) des granulats testés, représentant une variété de types de roches/lithologies, a montré une ST > 0,10%, montrant qu'une proportion importante de types de roches ne contient pas une quantité notable de sulfure, qui, pour la plupart d’entre eux, sont susceptibles d'être inoffensifs dans le béton. Ces types de roches/granulats nécessiteraient toutefois d'autres tests pour identifier la présence potentielle de pyrrhotite compte tenu de la limite de ST de 0,10 % proposée dans les normes européennes. Basé sur une revue exhaustive de la littérature et de nombreuses analyses de laboratoire, un test accéléré d’expansion sur barres de mortier divisé en deux phases a ensuite été développé pour reproduire, en laboratoire, les mécanismes de détérioration observés à Trois-Rivières. Le test consiste en un conditionnement de 90 jours à 80°C/80% RH, avec 2 cycles de mouillage de trois heures chacun, par semaine, dans une solution d’hypochlorite de sodium (eau de javel) à 6% (Phase I), suivi d’une période pouvant atteindre 90 jours de conditionnement à 4°C/100 % HR (Phase II). Les granulats ayant un potentiel d'oxydation ont présenté une expansion de 0,10 % au cours de la Phase I, tandis que la formation potentielle de thaumasite est détectée par le regain rapide de l'expansion suivi par la destruction des échantillons durant la Phase II. Un test de consommation d'oxygène a également été modifié à partir d’un test de Drainage Minier Acide, afin d'évaluer quantitativement le potentiel d'oxydation des sulfures de fer incorporés dans les granulats à béton. Cette technique mesure le taux de consommation d'oxygène dans la partie supérieure d'un cylindre fermé contenant une couche de matériau compacté afin de déterminer son potentiel d'oxydation. Des paramètres optimisés pour évaluer le potentiel d'oxydation des granulats comprennent une taille de particule inférieure à 150 μm, saturation à 40 %, un rapport de 10 cm d'épaisseur de granulat par 10 cm de dégagement et trois heures d’essai à 22ᵒC. Les résultats obtenus montrent que le test est capable de discriminer les granulats contenant des sulfures de fer des granulats de contrôle (sans sulfures de fer) avec un seuil limite fixé à 5% d'oxygène consommé. Finalement, un protocole d'évaluation capable d’estimer les effets néfastes potentiels des granulats à béton incorporant des sulfures de fer a été proposé. Le protocole est divisé en 3 grandes phases: (1) mesure de la teneur en soufre total, (2) évaluation de la consommation d'oxygène, et (3) un test accéléré d’expansion sur barres de mortier. Des limites provisoires sont proposées pour chaque phase du protocole, qui doivent être encore validées par la mise à l’essai d'un plus large éventail de granulats. / In the Trois-Rivières area (Quebec, Canada), more than 1 000 houses and commercial buildings are showing serious concrete deterioration problems. The deterioration problems are related to the oxidation of sulfide-bearing aggregates used for concrete manufacturing. This PhD project aims to better understand the mechanisms responsible for the deterioration of concrete incorporating sulfide-bearing aggregates in order to develop a methodology to efficiently evaluate the potential reactivity of such types of aggregates. A detailed petrographic examination of core samples extracted from concrete house foundations showing various degrees of severity was carried out. The problematic aggregate was identified as an hypersthene’s gabbro incorporating various proportions (according to different locations in the two originating quarries) of pyrrhotite, pyrite, chalcopyrite and pentlandite. Secondary reaction products observed in degraded core samples include “rust” mineral forms, gypsum, ettringite and thaumasite. For those observations, it was concluded that, in presence of water and oxygen, pyrrhotite oxidizes to form iron oxyhydroxides and sulfuric acid that provokes a sulfate attack in concrete. First, the reliability of the chemical approach proposed in the European Standards NF EN 12 620, which consists in the measurement of the total sulfur content (ST, % by mass) in the aggregate to detect the presence (or not) of iron sulfide minerals, was critically evaluated. About 50% (21/43) of the aggregate materials tested, representing a variety of rock types / lithologies, showed a ST > 0.10%, showing that a significant proportion of rock types does contain a noticeable amount of sulfide, which for most of them, are likely to be innocuous in concrete. Such rock types / aggregates would however require further testing to identify the potential presence of pyrrhotite considering the ST limit of 0.10% proposed in European standards. Based on extensive literature reviews and laboratory investigations, a two-phase accelerated mortar bar expansion test was then developed to reproduce, in the laboratory, the deterioration mechanisms observed on site. The test consists in 90 days of storage at 80°C/80% RH, with 2 three-hour wetting cycles per week in a 6% sodium hypochlorite (bleach) solution (Phase I) followed by up to 90 days of storage at 4°C/100% RH (Phase II). Aggregates with oxidation potential presented an expansion over 0.10% during Phase 1, while thaumasite formation potential is detected by rapid regain of expansion followed by destruction of the samples during Phase II. Also, an oxygen consumption test was modified from research carried out in the context of acid rock drainage, to quantitatively assess the sulfide oxidation potential of concrete aggregates. The technique measures the oxygen consumption rate at the top of a closed cylinder containing a layer of compacted material to determine its oxidation potential. Optimized testing parameters include an aggregate particle size inferior to 150 μm at 40% saturation, a ratio of 10 cm of aggregate material thickness for 10 cm headspace and 3 hours testing at 22ᵒC. The results thus obtained showed that the test is able to discriminate the aggregates containing iron sulfide minerals from the control aggregates with a threshold limit fixed at 5% oxygen consumed. Finally, an assessment protocol was proposed to evaluate the potential deleterious effects of iron sulfide bearing aggregates when used in concrete. The protocol is divided into 3 major phases: (1) total sulfur content measurement, (2) oxygen consumption evaluation, and (3) an accelerated mortar bar expansion test. Tentative limits are proposed for each phase of the protocol, which still need to be validated through the testing of a wider range of aggregates.
76

Caractérisation statistique des propriétés du roc intact obtenues à partir d'essais de laboratoire pour deux projets miniers canadiens

Boudreau, Catherine 23 April 2018 (has links)
La conception des ouvrages miniers souterrains repose sur une caractérisation géotechnique du massif rocheux. Lors des essais en laboratoire sur le roc intact, les données géotechniques sont amassées suivant les recommandations prescrites par la Société internationale de mécanique des roches (SIMR) (Brown, 1981). Bien que les essais en laboratoire sur le roc intact soient effectués selon les recommandations de la SIMR, ils ne sont pas réalisés d’une manière optimale quant au nombre de spécimens testés, à la localisation des essais, à la temporalité des essais, aux critères de rejet de certains spécimens testés et à l’utilisation des résultats dans la définition du critère de Hoek-Brown. Avec le coût élevé des essais en laboratoire, il est primordial d’optimiser les campagnes d’essais en laboratoire et de s’assurer d’utiliser et de maximiser l’information provenant des résultats tout en s’assurant de leur représentativité. À l’aide de deux études de cas réalisées sur des sites miniers québécois, ce mémoire a pour objectif global d’effectuer la caractérisation statistique de paramètres géomécaniques dans le but d’optimiser les campagnes d’essais et de de maximiser l’information obtenue par l’entremise d’essais en laboratoire sur le roc intact. Les analyses statistiques permettront de mieux quantifier la connaissance des propriétés du roc intact dans le cadre d’un projet minier. Elles permettront également d’optimiser le nombre d’essais à réaliser tout en s’assurant de la représentativité des résultats. Finalement, elles permettront d’identifier plus efficacement de nouvelles cibles de caractérisation.
77

Prise autonome d'objets divers avec un robot sériel industriel, un préhenseur sous-actionné et une caméra 3D

Lévesque, François 24 April 2018 (has links)
Longtemps confinée à l'industrie de fabrication en série, la robotique est en train de se démocratiser et fait ses débuts dans des domaines non traditionnels comme les secteurs alimentaire et logistique. Dans ce contexte, une tâche faisant l'objet de recherches et concours est l'automatisation de l'emballage de colis dans de grands entrepôts contenant plusieurs centaines de milliers d'objets différents. Les travaux entrepris dans le cadre de ce mémoire constituent un premier pas vers l'atteinte de cet objectif : la prise et le dépôt par un robot autonome d'une grande variété d'objets de la vie courante sans connaissance préalable de ces derniers (modèle 3D complet, etc.). Pour réaliser ce projet, un robot sériel, une pince sous-actionnée et un système de vision 3D ont été utilisés. Deux techniques de prise d'objets furent développées pour arriver à agripper un maximum d'objets. La première est une prise par le dessus. Le point de prise utilisé y est choisi en fonction de la largeur de l'objet au point de prise, des chances de collisions avec les obstacles environnants et de la robustesse de l'équilibre statique anticipé de la prise. Pour attraper les objets trop larges ou minces pour être pris par le dessus (comme un livre), une technique de prise en pelletage fut développée. Cette dernière tire avantage du sous-actionnement de la pince utilisée pour glisser un doigt sous l'objet puis le prendre en pincée. Un mouvement analogue est celui d'un humain prenant une feuille sur un plancher. Pour tester ces techniques, une batterie de 800 essais de prise sur 80 objets différents fut effectuée. Un taux de succès de 84 % fut obtenu, démontrant que le système forme une bonne base pour l'avenir.
78

L'intégration des marchés boursiers de 1992 à 2014

Bouchard, Georges-Alex 24 April 2018 (has links)
Dans la littérature concernant l'économie financière, on remarque que plusieurs études ont été réalisées sur l'intégration des marchés financiers, et que la plupart du temps, les résultats sont comparables. Dans ce mémoire, nous nous intéressons d'abord à l'intégration des marchés, mais aussi à la solidité des résultats lorsque l'on utilise différentes méthodes d'estimation. Plus précisément, nous allons comparer les résultats obtenus en utilisant le test de Johansen, un test économétrique de cointégration, et finalement un modèle à variable latente. Nous commençons par décrire en détail chacun des 14 indices boursiers choisis. Par la suite, nous présentons quelques statistiques descriptives concernant ceux-ci (Moyennes, Écarts-types et Corrélations). Ensuite nous présentons les trois méthodes d'estimation utilisées dans cet article, soit le test de Johansen, le test de cointégration (Présenté en annexe) et le modèle à variable latente, ainsi que les résultats obtenus pour chacune de ces méthodes. Nous concluons d'une part, que la manière choisie pour tester l'intégration des marchés boursiers mondiaux a un rôle très important à jouer étant donnée l'instabilité des données boursières. De plus, les avantages de la diversification internationale semblent toujours présents, mais de façon moindre depuis la récente crise financière.
79

Jeux de policiers et voleurs : modèles et applications

Simard, Frédéric 24 April 2018 (has links)
Les jeux de policiers et voleurs sont étudiés depuis une trentaine d’années en informatique et en mathématiques. Comme dans les jeux de poursuite en général, des poursuivants (les policiers) cherchent à capturer des évadés (les voleurs), cependant ici les joueurs agissent tour à tour et sont contraints de se déplacer sur une structure discrète. On suppose toujours que les joueurs connaissent les positions exactes de leurs opposants, autrement dit le jeu se déroule à information parfaite. La première définition d’un jeu de policiers-voleurs remonte à celle de Nowakowski et Winkler [39] et, indépendamment, Quilliot [46]. Cette première définition présente un jeu opposant un seul policier et un seul voleur avec des contraintes sur leurs vitesses de déplacement. Des extensions furent graduellement proposées telles que l’ajout de policiers et l’augmentation des vitesses de mouvement. En 2014, Bonato et MacGillivray [6] proposèrent une généralisation des jeux de policiers-voleurs pour permettre l’étude de ceux-ci dans leur globalité. Cependant, leur modèle ne couvre aucunement les jeux possédant des composantes stochastiques tels que ceux dans lesquels les voleurs peuvent bouger de manière aléatoire. Dans ce mémoire est donc présenté un nouveau modèle incluant des aspects stochastiques. En second lieu, on présente dans ce mémoire une application concrète de l’utilisation de ces jeux sous la forme d’une méthode de résolution d’un problème provenant de la théorie de la recherche. Alors que les jeux de policiers et voleurs utilisent l’hypothèse de l’information parfaite, les problèmes de recherches ne peuvent faire cette supposition. Il appert cependant que le jeu de policiers et voleurs peut être analysé comme une relaxation de contraintes d’un problème de recherche. Ce nouvel angle de vue est exploité pour la conception d’une borne supérieure sur la fonction objectif d’un problème de recherche pouvant être mise à contribution dans une méthode dite de branch and bound. / Cops and robbers games have been studied for the last thirty years in computer science and mathematics. As in general pursuit evasion games, pursuers (cops) seek to capture evaders (robbers), however here the players move in turn and are constrained to move on a discrete structure. It is always assumed that players know the exact location of their adversary, in other words the game is played with perfect information. The first definition of a cops and robbers game dates back to Nowakowski and Winkler [39] and, independantly, Quilliot [46]. This first definition presents a game opposing a single cop against a lone robber, both with constraints on their speed. Extensions were gradually formulated such as increasing the number of cops and the speed of the players. In 2014, Bonato and MacGillivray [6] presented a general characterization of cops and robbers games in order for them to be globally studied. However, their model does not take into account stochastic events that may occur such as the robbers moving in a random fashion. In this thesis, a novel model that includes stochastic elements is presented. Furthermore, we present in this thesis a concrete application of cops and robbers games in the form of a method of resolution of a problem from search theory. Although cops and robbers games assume perfect information, this hypothesis cannot be maintained in search problems. It appears however that cops and robbers games can be viewed as constraint relaxations of search problems. This point of view is made use of in the conception of an upper bound on the objective function of a search problem that is a applied in a branch and bound method.
80

Optimization of polypropylene cellular films for piezoelectric applications

Mohebbi, Abolfazl 24 April 2018 (has links)
Cette thèse comporte deux objectifs principaux: la production en continu de films de polypropylène (PP) moussés ayant une structure cellulaire de forme oculaire, suivie par la préparation de films PP ferroélectrets par décharge corona pour des applications piézoélectriques. Dans la première partie de ce travail, une production en continu par extrusion-calandrage a été développée pour produire des films de PP moussés pour des applications piézoélectriques. Le système est basé sur un moussage physique en utilisant de l'azote supercritique (SC-N2) et le carbonate de calcium (CaCO3) comme agent de nucléation. Les paramètres de mise en œuvre (conception de vis, profil de température, agent gonflant et de nucléation ainsi que leur contenu, et la vitesse d'étirement) ont été optimisés pour obtenir une forme spécifique (oculaire) comme structure cellulaire avec une distribution uniforme de la taille des cellules. Les résultats ont montré qu'une structure cellulaire avec un plus grand rapport d'aspect (AR) des cellules possède un plus faible module de Young, ce qui est approprié pour les films cellulaires piézoélectriques. Dans la deuxième partie, des films PP ferroélectrets ont été produits. Suite à l'optimisation du procédé de décharge corona (tension de charge, distance de l'aiguille, temps de charge), les propriétés piézoélectriques des films obtenus ont été caractérisées et le coefficient piézoélectrique quasi-statique d33 a produit une valeur de 550 pC/N. Afin de mieux caractériser le comportement du film, l’analyse mécanique dynamique (DMA) a été proposée comme une méthode simple pour relier les propriétés piézoélectriques des films PP cellulaires à leur morphologie (taille, géométrie et densité des cellules). Finalement, grâce à un post-traitement basé sur la saturation du film PP moussé avec le SC-N2, une procédure en température et pression a été développée afin d’améliorer la structure cellulaire (cellules plus allongées). Ce traitement a permis d’augmenter de 45% le coefficient d33 (800 pC/N). / This thesis is composed of two main objectives: the continuous production of thin foamed polypropylene (PP) films having an eye-like cellular structure, followed by the preparation of ferroelectret PP films through corona discharge for piezoelectric applications. In the first part of this work, a continuous extrusion-calendaring setup was developed to produce PP foamed films for piezoelectric applications. The setup is based on physical foaming using supercritical nitrogen (SC-N2) and calcium carbonate (CaCO3) as nucleating agent. The processing parameters (screw design, temperature profile, blowing agent and nucleating agent content, and stretching speed) were optimized to achieve a specific stretched eye-like cellular structure with a uniform cell size distribution. The results showed that a cellular structure with higher cell aspect ratio (AR) has lower Young’s modulus, which is appropriate for piezoelectric cellular films. In the second part, ferroelectret PP films were produced. After optimization of the corona discharge process (charging voltage, needle distance, charging time), the piezoelectric properties of the resulting films were characterized and the optimum quasi-static piezoelectric d33 coefficient value was 550 pC/N. To better characterize the film behavior, dynamic mechanical analysis (DMA) was proposed as a simple method to relate the piezoelectric properties of the cellular PP films to their morphology (cell size, geometry and density). Finally, through a post-processing treatment based on the saturation of the foamed PP film with SC-N2, a temperature-pressure procedure was developed to improve the cellular structure (more stretched eye-like cells). This treatment was shown to increase by 45% the d33 coefficient (800 pC/N).

Page generated in 0.03 seconds