361 |
Stratégie d'amélioration de la résistance mécanique des zones de connecteursLafond, Cassandra 08 October 2024 (has links)
Le bois subit une demande croissante comme matériau de construction dans les bâtiments de grandes dimensions. Ses qualités de matériau renouvelable et esthétique le rendent attrayant pour les architectes. Lorsque comparé à des produits fonctionnellement équivalents, il apparait que le bois permet de réduire la consommation d’énergie non-renouvelable. Sa transformation nécessite une quantité d’énergie inférieure que l’acier et le béton. Par ailleurs, par son origine biologique, une structure en bois permet de stocker du carbone biogénique pour la durée de vie du bâtiment. Maintenant permis jusqu’à six étages de hauteur au Canada, les bâtiments de grande taille en bois relèvent des défis de conception. Lors du dimensionnement des structures, les zones des connecteurs sont souvent les points critiques. Effectivement, les contraintes y sont maximales. Les structures peuvent alors apparaitre massives et diminuer l’innovation architecturale. De nouvelles stratégies doivent donc être développées afin d’améliorer la résistance mécanique dans les zones de connecteurs. Différents travaux ont récemment porté sur la création ou l’amélioration de types d’assemblage. Dans cette étude, l’accent est mis sur le renforcement du bois utilisé dans la région de connexion. L’imprégnation a été choisie comme solution de renfort puisque la littérature démontre qu’il est possible d’augmenter la dureté du bois avec cette technique. L’utilisation de cette stratégie de renfort sur l’épinette noire (Picea Mariana (Mill.) BSP) pour une application structurale est l’élément de nouveauté dans cette recherche. À défaut d’effectuer une imprégnation jusqu’au coeur des pièces, l’essence peu perméable de bois employée favorise la création d’une mince couche en surface traitée sans avoir à utiliser une quantité importante de produits chimiques. L’agent d’imprégnation est composé de 1,6 hexanediol diacrylate, de triméthylopropane tricacrylate et d’un oligomère de polyester acrylate. Une deuxième formulation contenant des nanoparticules de SiO2 a permis de vérifier l’effet des nanoparticules sur l’augmentation de la résistance mécanique du bois. Ainsi, dans ce projet, un procédé d’imprégnation vide-pression a servi à modifier un nouveau matériau à base de bois permettant des assemblages plus résistants mécaniquement. Le test de portance locale à l’enfoncement parallèle au fil d’un connecteur de type tige a été réalisé afin de déterminer l’apport du traitement sur le bois utilisé comme élément de connexion. L’effet d’échelle a été observé par la réalisation du test avec trois diamètres de boulons différents (9,525 mm, 12,700 mm et 15,875 mm). En outre, le test a été effectué selon un chargement perpendiculaire au fil pour le boulon de moyen diamètre (12,700 mm). La corrélation d’images numériques a été utilisée comme outil d’analyse de la répartition des contraintes dans le bois. Les résultats ont démontré une portance du bois plus élevée suite au traitement. Par ailleurs, l’efficacité est croissante lorsque le diamètre du boulon diminue. C’est un produit avec une valeur caractéristique de la portance locale parallèle au fil de 79% supérieure qui a été créé dans le cas du test avec le boulon de 9,525 mm. La raideur du bois a subi une augmentation avoisinant les 30%. Suite au traitement, la présence d’une rupture par fissuration est moins fréquente. Les contraintes se distribuent plus largement autour de la région de connexion. Le traitement n’a pas produit d’effet significatif sur la résistance mécanique de l’assemblage dans le cas d’un enfoncement du boulon perpendiculairement au fil du bois. De même, l’effet des nanoparticules en solution n’est pas ressorti significatif. Malgré une pénétration très faible du liquide à l’intérieur du bois, la couche densifiée en surface créée suite au traitement est suffisante pour produire un nouveau matériau plus résistant dans les zones de connexion. Le renfort du bois dans la région des connecteurs doit influencer le dimensionnement des structures de grande taille. Avec des éléments de connexion renforcés, il sera possible d’allonger les portées des poutres, multipliant ainsi les possibilités architecturales. Le renfort pourra aussi permettre de réduire les sections des poutres et d’utiliser une quantité moindre de bois dans un bâtiment. Cela engendrera des coûts de transport et des coûts reliés au temps d’assemblage réduits. De plus, un connecteur plus résistant permettra d’être utilisé en moins grande quantité dans un assemblage. Les coûts d’approvisionnement en éléments métalliques et le temps de pose sur le site pourront être revus à la baisse. Les avantages d’un nouveau matériau à base de bois plus performant utilisé dans les connexions permettront de promouvoir le bois dans les constructions de grande taille et de réduire l’impact environnemental des bâtiments. / Wood experiences a growing demand as a construction material in tall buildings. Its aesthetic qualities and the fact that it is a renewable material make it attractive for architects. When compared to functionally equivalent products, it appears that the wood decreases non-renewable energy consumption and total energy demand. Plus, wood carbon storage can reduce the environmental footprint of buildings when compared to steel or concrete. Now allowed up to six stories high in Canada, tall wood buildings are matter for important design challenges. When designing structures, the connector areas are often the critical points. Indeed, the stresses are highest there. Thus, the structures tend to appear massive and to reduce architectural innovation. New strategies need to be developed to improve the mechanical strength in the connector zone. Various studies have recently brought on creating or improving assembly type. In this study, the aim is to target the material used in the connection area by reinforcing it. The impregnation was chosen as the strengthening solution since the literature demonstrates that it is possible to increase the wood hardness with this technique. The use of this treatment on black spruce (Picea Mariana (Mill.) BSP) as a structural application is the novelty element in this research. Despite a full piece impregnation, the low permeability wood species helped to create a thin layer of densified surface without having to use a large quantity of chemicals. A vacuum-pressure impregnation process was used to develop a new wood-based material more performant in assemblies. The impregnation agent was composed of 1,6 hexanediol diacrylate, trimethylolpropane tricacrylate and of a polyester acrylate oligomer. A second formulation containing SiO2 nanoparticles allowed to verify the effect of the nanoparticles on the treatment. The dowel-bearing strength test was performed to determine the contribution of the treatment on the wood used as a connector element. The scale effect was observed by performing the test with three different diameters of bolts (9.525 mm, 12.700 mm and 15.875 mm). In addition, the test was carried out according to a load applied in the perpendicular to grain direction for the mean diameter of bolt (12.700 mm). The digital image correlation was used while executing the dowel-bearing test as an analytical tool to compare the differences between strain fields before and after the reinforcement treatment. Results have shown higher bearing strengths after treatment. Furthermore, the efficiency was increased more the bolt diameter decreased. The best results were defined as a 79% greater dowel bearing strength for the characteristic value using the bolt of 9.525 mm. The stiffness of treated wood was higher of approximately 30%. Better mechanical performances after treatment are associated to the increase of density giving by the polymerization of formulation at the border of the bolt hole. Change in dowel bearing strength was almost nonexistent for the perpendicular to grain orientation. Low depth penetration due to the wood anatomy limiting the permeability in the perpendicular to grain direction caused this phenomenon. For the treated sample, the presence of a cracking failure was less common. With the digital image correlation analysis, the strains were found to be distributed more widely around the connection area. Also, no significant differences were found in the samples treated with and without nanoparticles. A slightly lower chemical retention was observed for the treated with nanoparticles sample group due to the accumulation of nanoparticles acting as a barrier at wood surface. Normally, this could lead to better densification of the external layer of the wood, but in this case mechanical performances were the same. There is no need to add nanoparticles and increase the cost of chemicals. Despite a very low penetration of the liquid inside the timber, the densified layer created at wood surface is suitable to produce a new, strong material in the connecting areas. The reinforcement of wood in connectors region could influence the design of large structures. With strengthen connection elements, it would be possible to extend the beams spans, thus multiplying the architectural possibilities. The reinforcement could also reduce the sections of beams and decrease the need in construction materials. This would result in diminished transport costs and faster assembly times. In addition, a fewer quantity of connector elements could be needed, reducing the supply costs in metal elements as well. The outcomes of a new and more efficient wood-based material used in connections would promote wood in tall buildings while helping to lower the environmental impact of buildings.
|
362 |
Improving knowledge about the risks of inappropriate uses of geospatial data by introducing a collaborative approach in the design of geospatial databasesGrira, Joël 20 April 2018 (has links)
La disponibilité accrue de l’information géospatiale est, de nos jours, une réalité que plusieurs organisations, et même le grand public, tentent de rentabiliser; la possibilité de réutilisation des jeux de données est désormais une alternative envisageable par les organisations compte tenu des économies de coûts qui en résulteraient. La qualité de données de ces jeux de données peut être variable et discutable selon le contexte d’utilisation. L’enjeu d’inadéquation à l’utilisation de ces données devient d’autant plus important lorsqu’il y a disparité entre les nombreuses expertises des utilisateurs finaux de la donnée géospatiale. La gestion des risques d’usages inappropriés de l’information géospatiale a fait l’objet de plusieurs recherches au cours des quinze dernières années. Dans ce contexte, plusieurs approches ont été proposées pour traiter ces risques : parmi ces approches, certaines sont préventives et d’autres sont plutôt palliatives et gèrent le risque après l'occurrence de ses conséquences; néanmoins, ces approches sont souvent basées sur des initiatives ad-hoc non systémiques. Ainsi, pendant le processus de conception de la base de données géospatiale, l’analyse de risque n’est pas toujours effectuée conformément aux principes d’ingénierie des exigences (Requirements Engineering) ni aux orientations et recommandations des normes et standards ISO. Dans cette thèse, nous émettons l'hypothèse qu’il est possible de définir une nouvelle approche préventive pour l’identification et l’analyse des risques liés à des usages inappropriés de la donnée géospatiale. Nous pensons que l’expertise et la connaissance détenues par les experts (i.e. experts en geoTI), ainsi que par les utilisateurs professionnels de la donnée géospatiale dans le cadre institutionnel de leurs fonctions (i.e. experts du domaine d'application), constituent un élément clé dans l’évaluation des risques liés aux usages inadéquats de ladite donnée, d’où l’importance d’enrichir cette connaissance. Ainsi, nous passons en revue le processus de conception des bases de données géospatiales et proposons une approche collaborative d’analyse des exigences axée sur l’utilisateur. Dans le cadre de cette approche, l’utilisateur expert et professionnel est impliqué dans un processus collaboratif favorisant l’identification a priori des cas d’usages inappropriés. Ensuite, en passant en revue la recherche en analyse de risques, nous proposons une intégration systémique du processus d’analyse de risque au processus de la conception de bases de données géospatiales et ce, via la technique Delphi. Finalement, toujours dans le cadre d’une approche collaborative, un référentiel ontologique de risque est proposé pour enrichir les connaissances sur les risques et pour diffuser cette connaissance aux concepteurs et utilisateurs finaux. L’approche est implantée sous une plateforme web pour mettre en œuvre les concepts et montrer sa faisabilité. / Nowadays, the increased availability of geospatial information is a reality that many organizations, and even the general public, are trying to transform to a financial benefit. The reusability of datasets is now a viable alternative that may help organizations to achieve cost savings. The quality of these datasets may vary depending on the usage context. The issue of geospatial data misuse becomes even more important because of the disparity between the different expertises of the geospatial data end-users. Managing the risks of geospatial data misuse has been the subject of several studies over the past fifteen years. In this context, several approaches have been proposed to address these risks, namely preventive approaches and palliative approaches. However, these approaches are often based on ad-hoc initiatives. Thus, during the design process of the geospatial database, risk analysis is not always carried out in accordance neither with the principles/guidelines of requirements engineering nor with the recommendations of ISO standards. In this thesis, we suppose that it is possible to define a preventive approach for the identification and analysis of risks associated to inappropriate use of geospatial data. We believe that the expertise and knowledge held by experts and users of geospatial data are key elements for the assessment of risks of geospatial data misuse of this data. Hence, it becomes important to enrich that knowledge. Thus, we review the geospatial data design process and propose a collaborative and user-centric approach for requirements analysis. Under this approach, the user is involved in a collaborative process that helps provide an a priori identification of inappropriate use of the underlying data. Then, by reviewing research in the domain of risk analysis, we propose to systematically integrate risk analysis – using the Delphi technique – through the design of geospatial databases. Finally, still in the context of a collaborative approach, an ontological risk repository is proposed to enrich the knowledge about the risks of data misuse and to disseminate this knowledge to the design team, developers and end-users. The approach is then implemented using a web platform in order to demonstrate its feasibility and to get the concepts working within a concrete prototype.
|
363 |
Fouille de données : vers une nouvelle approche intégrant de façon cohérente et transparente la composante spatialeOuattara, Mamadou 16 April 2018 (has links)
Depuis quelques décennies, on assiste à une présence de plus en plus accrue de l’information géo-spatiale au sein des organisations. Cela a eu pour conséquence un stockage massif d’informations de ce type. Ce phénomène, combiné au potentiel d’informations que renferment ces données, on fait naître le besoin d’en apprendre davantage sur elles, de les utiliser à des fins d’extraction de connaissances qui puissent servir de support au processus de décision de l’entreprise. Pour cela, plusieurs approches ont été envisagées dont premièrement la mise à contribution des outils de fouille de données « traditionnelle ». Mais face à la particularité de l’information géo-spatiale, cette approche s’est soldée par un échec. De cela, est apparue la nécessité d’ériger le processus d’extraction de connaissances à partir de données géographiques en un domaine à part entière : le Geographic Knowlegde Discovery (GKD). La réponse à cette problématique, par le GKD, s’est traduite par la mise en œuvre d’approches qu’on peut catégoriser en deux grandes catégories: les approches dites de prétraitement et celles de traitement dynamique de l’information spatiale. Pour faire face aux limites de ces méthodes et outils nous proposons une nouvelle approche intégrée qui exploite l’existant en matière de fouille de données « traditionnelle ». Cette approche, à cheval entre les deux précédentes vise comme objectif principal, le support du type géo-spatial à toutes les étapes du processus de fouille de données. Pour cela, cette approche s’attachera à exploiter les relations usuelles que les entités géo-spatiales entretiennent entre elles. Un cadre viendra par la suite décrire comment cette approche supporte la composante spatiale en mettant à contribution des bibliothèques de traitement de la donnée géo-spatiale et les outils de fouille « traditionnelle » / In recent decades, geospatial data has been more and more present within our organization. This has resulted in massive storage of such information and this, combined with the learning potential of such information, gives birth to the need to learn from these data, to extract knowledge that can be useful in supporting decision-making process. For this purpose, several approaches have been proposed. Among this, the first has been to deal with existing data mining tools in order to extract any knowledge of such data. But due to a specificity of geospatial information, this approach failed. From this arose the need to erect the process of extracting knowledge from geospatial data in its own right; this lead to Geographic Knowledge Discovery. The answer to this problem, by GKD, is reflected in the implementation of approaches that can be categorized into two: the so-called pre-processing approaches and the dynamic treatment of spatial relationships. Given the limitations of these approaches we propose a new approach that exploits the existing data mining tools. This approach can be seen as a compromise of the two previous. It main objective is to support geospatial data type during all steps of data mining process. To do this, the proposed approach will exploit the usual relationships that geo-spatial entities share each other. A framework will then describe how this approach supports the spatial component involving geo-spatial libraries and "traditional" data mining tools
|
364 |
Étude de la visualisation géographique dans un environnement d'exploration interactive de données géodécisionnelles : adaptation et améliorationsBeaulieu, Véronique 16 April 2018 (has links)
La visualisation géographique de l'information est un aspect important du SOLAP. Elle est le troisième élément clé pour supporter une analyse facile, rapide et intuitive des données prônée par l'approche SOLAP. Cependant, à ce jour, aucune étude ne s'est intéressée spécifiquement à cet aspect du SOLAP et les stratégies de visualisation utilisées traditionnellement dans les SIG ne conviennent pas à l'approche interactive et multidimensionnelle. Ce mémoire présente une recherche exploratoire proposant premièrement de placer la visualisation géographique au coeur de la relation entre l'utilisateur et la base de données. Cette stratégie fait ressurgir plusieurs besoins et possibilités explorées au cours de ce mémoire. Le respect de la flexibilité d'analyse SOLAP, les divers types de visualisation nécessaires pour rendre les différents types de requêtes, puis les manipulations graphiques qui peuvent s'opérer dans un environnement SOLAP font l'objet de propositions. Deuxièmement, ce mémoire propose une méthode permettant une relation directe entre les données et leur visualisation, sans l'intermédiaire de l'utilisateur. La solution théorique résultante respecte la philosophie d'exploration interactive prônée par l'approche SOLAP. Elle suggère l'intégration de l'expertise en visualisation géographique à l'intérieur même de la technologie SOLAP par l'ajout de métadonnées et d'une base de connaissances sémiologiques. Ce premier pas vers une amélioration du processus de visualisation avec SOLAP ouvre la porte à plusieurs recherches ultérieures.
|
365 |
Élaboration d'une typologie forestière adaptée à la forêt boréale irrégulièreCôté, Guillaume 11 April 2018 (has links)
Les forêts de la Côte-Nord sont soumises à des cycles de feu relativement longs, ce qui est principalement attribuable au régime de précipitations du climat maritime humide. Les perturbations secondaires jouent alors un rôle important dans l'établissement de la structure des forêts, favorisant la formation de structures irrégulières. Cependant, la carte écoforestière, outil qui sert à la planification de l'aménagement forestier, ne contient pas d'information sur la structure des peuplements forestiers, ce qui rend impossible l'identification des peuplements irréguliers dans le but de leur appliquer des traitements sylvicoles adaptés. Des analyses de groupements ont été conduites sur les données d'inventaire provenant des 103 peuplements forestiers inventoriés afin de les regrouper selon leurs ressemblances. Les résultats ont permis d'identifier six types se distinguant par la composition en essences, l'état des arbres et la structure des peuplements qui les composent. La carte écoforestière ne permet pas de prédire la structure des peuplements, mais la photo-interprétation fine offre des meilleures capacités prédictives. / Forests of the Côte-Nord region often show irregular stand structures, mainly due to the precipitation regime of the humid climate. Indeed, because of the long fire cycle of this region, forest stand structure is driven by small-scale rather than large-scale disturbances. Forest inventory maps produced by the Québec Ministry of Natural Resources are used by forestry practitioners for the planning of silvicultural treatments. However, these maps do not include forest stand structure information, making it impossible for the foresters to identify forest stands that can be harvested following an uneven-aged management System. Cluster analysis was applied to the 103 sampled forest stands and the results suggest the presence of six different types which differ in composition, structure and tree vigour. Further analyses suggest that the forest inventory map cannot be used to predict forest stand structure, but a fine photo interpretation improves the prediction accuracy.
|
366 |
Développement d'une méthode d'inventaire de la qualité de la fibre au QuébecGiroud, Guillaume 07 January 2025 (has links)
La valeur du panier de produits des peuplements résineux dépend des dimensions et du défilement des tiges, de la présence de défauts internes, mais aussi des propriétés physiques et mécaniques du bois, principalement de la rigidité du bois, puisque le bois d’œuvre résineux est utilisé essentiellement à des fins structurales. La rigidité du bois d’œuvre résineux est estimée en usine lors du classement visuel ou mécanique des sciages. En forêt, cette connaissance n’existe pas et il n’est pas possible aujourd’hui de localiser les régions ou les peuplements avec un fort potentiel de bois rigide, ni d’évaluer la valeur des bois ou encore de comparer la rentabilité des scénarios sylvicoles, en considérant ce critère de qualité déterminant. Cette absence de connaissances s’explique principalement par les efforts et les coûts considérables associés à la réalisation d’un inventaire de la qualité de la fibre, lequel suppose en effet l’échantillonnage de milliers d’arbres et des analyses en laboratoire très exigeantes. C’est dans ce contexte que la spectroscopie proche infrarouge a été évaluée, comme technologie rapide et non destructive, pour mesurer les propriétés physiques et mécaniques du bois. Dans un premier temps, nous avons évalué la variabilité écogéographique des propriétés du bois de l’épinette noire pour les deux principales végétations potentielles de la forêt boréale aménagée du Québec (chapitre 1). Nous avons observé que le bois poussant dans les peuplements purs d’épinettes noires avait des fibres matures plus longues, un bois significativement plus dense et de meilleures caractéristiques mécaniques que le bois poussant dans des peuplements mélangés avec le sapin baumier. Une approche de modélisation par saut d’échelle, basée sur des mesures de cernes provenant de 3350 placettes d’inventaire, a permis d’améliorer la performance de tous les modèles, en expliquant, à l’échelle du peuplement, 47%, 57%, 63% et 63% de la variabilité de la densité du bois, du module d’élasticité, de l’angle des microfibrilles, et de la longueur des fibres matures, avec des erreurs quadratiques moyennes, de 8.9 kg/m³, 0.52 GPa, 0.60° et 0.06 mm respectivement. Nous avons ensuite évalué le potentiel de la spectroscopie proche infrarouge pour mesurer les propriétés du bois de l’épinette noire (chapitre 2). De bonnes et d’excellentes statistiques de calibration (R², rapport de la performance à l'écart) ont été obtenues pour la densité basale (0.85, 1.8), l’angle des microfibrilles (0.79, 2.2), et le module d’élasticité (0.88, 2.9). Une régression segmentée a également été appliquée au profil radial de l’angle des microfibrilles afin de déterminer l’âge de transition du bois juvénile au bois mature. Les valeurs obtenues avec SilviScan ont été comparées à celles obtenues par spectroscopie. L’âge moyen de transition (23 ans ± 7 ans) a été légèrement sous-estimé, par spectroscopie proche infrarouge, avec une erreur de prédiction moyenne de −2.2 ± 6.3 ans et des intervalles de confiance à 95% de −14.6 et 10.1. Ces résultats suggèrent que l’âge de transition du bois juvénile au bois mature peut également être prédit par spectroscopie proche infrarouge. Finalement, la spectroscopie proche infrarouge a été utilisée pour évaluer la variabilité régionale de la densité basale et de la rigidité du bois des principales essences boréales du Québec (épinette noire, sapin baumier, pin gris, bouleau à papier et peuplier faux-tremble) (chapitre 3). Un système automatisé a été développé à cette fin et calibré à partir de données SilviScan. La densité basale et la rigidité du bois ont été estimées sur 30159 carottes de bois provenant de 10573 placettes d’inventaire. Les observations de densité et de rigidité étaient spatialement autocorrélées sur de plus longues distances chez les feuillus que chez les résineux. Un gradient latitudinal uniforme relié au climat était apparent pour le bouleau à papier et le peuplier faux-tremble. La distribution spatiale de ces mêmes propriétés n’était pas uniforme chez les résineux, suggérant une adaptabilité environnementale plus restreinte en comparaison aux essences feuillues étudiées. Cette thèse présente de grandes avancées dans le développement d’une méthode d’inventaire de la qualité de la fibre au Québec. La variabilité régionale de la densité et de la rigidité du bois est maintenant connue pour les principales essences boréales du Québec. Les prochains travaux porteront sur l’estimation de ces propriétés à l’échelle du peuplement forestier. / The value of forest products from softwood stands depends on stems volume and taper, internal defects, but also on physical and mechanical wood properties, especially stiffness, since softwood lumber is primarily used for structural purposes. The lumber stiffness is evaluated in sawmills through visual or mechanical gradings. In forest, this knowledge does not exist and it is not possible to locate the regions or the forest stands with a high lumber stiffness, neither to evaluate the value of forest products and the economic profitability of forest management scenarios considering this key attribute. This lack of knowledge is mainly due to substantial investments associated with an inventory of wood fibre quality, which involves the sampling of thousands of trees and very demanding laboratory tests. It is in this context that the near-infrared spectroscopy was evaluated as a rapid, non-destructive method for estimating physical and mechanical wood properties. Ecogeographic variation in black spruce clear wood properties was first investigated for the two main vegetation types of the managed boreal forest of the province of Quebec (chapter 1). Wood growing in pure black spruce stands had longer mature fibers, a significantly denser wood with better mechanical characteristics than the wood growing in stands mixed with balsam fir. A scaling-up modeling approach, based on ring data from 3,350 inventory plots, has improved the performance of all models, explaining, at the stand level, 47%, 57%, 63% and 63% of variance in wood density, modulus of elasticity, microfibril angle and mature fiber length with estimated root mean square errors of 8.9 kg/m³, 0.52 GPa, 0.60° and 0.06 mm respectively. The potential of near-infrared spectroscopy to determine the transition from juvenile to mature wood in black spruce was then assessed (chapter 2). Good to excellent calibration statistics (R², ratio of performance to deviation) were obtained for basic density (0.85, 1.8), microfibril angle (0.79, 2.2), and modulus of elasticity (0.88, 2.9). Two-segment linear regressions were applied to microfibril angle profiles to determine the transition age. The values obtained using SilviScan data were compared with those obtained using near-infrared spectroscopy predicted data. The average transition age (23 years ± 7 years) was slightly underestimated by near-infrared spectroscopy with a mean prediction error (and 95% limits of agreement) of -2.2 ± 6.3 years (-14.6/10.1). These results suggest that the transition age from juvenile to mature wood could be predicted by near-infrared spectroscopy. Finally, the near-infrared spectroscopy was used for estimating the regional variation in wood density and stiffness for the main boreal species of Quebec (black spruce, balsam fir, jack pine, paper birch, trembling aspen) (chapter 3). An automated near-infrared system was developed for this purpose and calibrated using SilviScan data. Basic density and wood stiffness were estimated on 30,159 increment cores from 10,573 inventory plots. The observations in wood density and stiffness were spatially autocorrelated on longer distances in hardwoods than softwoods. A uniform latitudinal gradient related to climate was observed in paper birch and trembling aspen. Conversely, spatial distribution in wood density and modulus of elasticity was not uniform in softwoods, suggesting a more limited environmental adaptability in comparison to the hardwood species studied. This thesis has made major advances in the development of a method for inventorying wood fibre quality in Quebec. Regional variation in wood density and stiffness is now known for the main boreal species of Quebec. Future work will focus on estimating these properties at the forest stand level.
|
367 |
L'environnement des éricacées des forêts de l'est du QuébecLaberge Pelletier, Caroline 13 April 2018 (has links)
L’objectif principal de l’inventaire écologique réalisé est la caractérisation des sites avec présence d’éricacées : Rhododendron groenlandicum, Vaccinium sp. et Kalmia angustifolia, des forêts de la Côte-Nord, ainsi que de comprendre davantage leurs exigences écologiques. Quatre-vingt-dix-sept sites ont été étudiés au nord de Baie-Comeau, tous provenant de pessières noires à mousses (Picea mariana) vierges. Le Rhododendron est l’espèce éricacée dont le recouvrement moyen du parterre forestier est le plus important suivi par les Vaccinium et le Kalmia. Leur présence a été associée aux pessières noires ouvertes et aux sols acides, de textures grossières et pauvres en éléments nutritifs. Leur recouvrement diminuait avec la dominance des sapins (Abies balsamea). Quatre associations végétales ont été identifiées. L’une d’elles regroupait les trois espèces d’éricacées et trois espèces de Cladina. Les résultats de cette recherche pourront aider à classifier les sites selon leur niveau de vulnérabilité à l’envahissement par les plantes éricacées après coupe forestière. / The objective of the present ecological inventory was to characterize the presence of three common ericad species: Rhododendron groenlandicum, Vaccinium species and Kalmia angustifolia, in Quebec North Shore forests, and to better understand their presence in relation to environmental factors. Ninety-seven sites within the undisturbed black spruce-feathermoss (Picea mariana) forest north of Baie-Comeau were selected for the study. Rhododendron had the highest mean cover, followed by Vaccinium and Kalmia. The presence of these species was associated with an open forest canopy, acid, coarse-textured and nutrient-poor soils. Ericads were strongly associated with black spruce-dominated forests, with presence decreasing as the balsam fir (Abies balsamea) component increased. Four vegetation associations were identified, including an Ericad-lichen group that included the three ericads and three Cladina species. Results may be used to help identify and classify sites vulnerable to ericaceous invasion after forest harvest.
|
368 |
Towards development of fuzzy spatial datacubes : fundamental concepts with example for multidimensional coastal erosion risk assessment and representationJadidi Mardkheh, Amaneh 20 April 2018 (has links)
Les systèmes actuels de base de données géodécisionnels (GeoBI) ne tiennent généralement pas compte de l'incertitude liée à l'imprécision et le flou des objets; ils supposent que les objets ont une sémantique, une géométrie et une temporalité bien définies et précises. Un exemple de cela est la représentation des zones à risque par des polygones avec des limites bien définies. Ces polygones sont créés en utilisant des agrégations d'un ensemble d'unités spatiales définies sur soit des intérêts des organismes responsables ou les divisions de recensement national. Malgré la variation spatio-temporelle des multiples critères impliqués dans l’analyse du risque, chaque polygone a une valeur unique de risque attribué de façon homogène sur l'étendue du territoire. En réalité, la valeur du risque change progressivement d'un polygone à l'autre. Le passage d'une zone à l'autre n'est donc pas bien représenté avec les modèles d’objets bien définis (crisp). Cette thèse propose des concepts fondamentaux pour le développement d'une approche combinant le paradigme GeoBI et le concept flou de considérer la présence de l’incertitude spatiale dans la représentation des zones à risque. En fin de compte, nous supposons cela devrait améliorer l’analyse du risque. Pour ce faire, un cadre conceptuel est développé pour créer un model conceptuel d’une base de donnée multidimensionnelle avec une application pour l’analyse du risque d’érosion côtier. Ensuite, une approche de la représentation des risques fondée sur la logique floue est développée pour traiter l'incertitude spatiale inhérente liée à l'imprécision et le flou des objets. Pour cela, les fonctions d'appartenance floues sont définies en basant sur l’indice de vulnérabilité qui est un composant important du risque. Au lieu de déterminer les limites bien définies entre les zones à risque, l'approche proposée permet une transition en douceur d'une zone à une autre. Les valeurs d'appartenance de plusieurs indicateurs sont ensuite agrégées basées sur la formule des risques et les règles SI-ALORS de la logique floue pour représenter les zones à risque. Ensuite, les éléments clés d'un cube de données spatiales floues sont formalisés en combinant la théorie des ensembles flous et le paradigme de GeoBI. En plus, certains opérateurs d'agrégation spatiale floue sont présentés. En résumé, la principale contribution de cette thèse se réfère de la combinaison de la théorie des ensembles flous et le paradigme de GeoBI. Cela permet l’extraction de connaissances plus compréhensibles et appropriées avec le raisonnement humain à partir de données spatiales et non-spatiales. Pour ce faire, un cadre conceptuel a été proposé sur la base de paradigme GéoBI afin de développer un cube de données spatiale floue dans le system de Spatial Online Analytical Processing (SOLAP) pour évaluer le risque de l'érosion côtière. Cela nécessite d'abord d'élaborer un cadre pour concevoir le modèle conceptuel basé sur les paramètres de risque, d'autre part, de mettre en œuvre l’objet spatial flou dans une base de données spatiales multidimensionnelle, puis l'agrégation des objets spatiaux flous pour envisager à la représentation multi-échelle des zones à risque. Pour valider l'approche proposée, elle est appliquée à la région Perce (Est du Québec, Canada) comme une étude de cas. / Current Geospatial Business Intelligence (GeoBI) systems typically do not take into account the uncertainty related to vagueness and fuzziness of objects; they assume that the objects have well-defined and exact semantics, geometry, and temporality. Representation of fuzzy zones by polygons with well-defined boundaries is an example of such approximation. This thesis uses an application in Coastal Erosion Risk Analysis (CERA) to illustrate the problems. CERA polygons are created using aggregations of a set of spatial units defined by either the stakeholders’ interests or national census divisions. Despite spatiotemporal variation of the multiple criteria involved in estimating the extent of coastal erosion risk, each polygon typically has a unique value of risk attributed homogeneously across its spatial extent. In reality, risk value changes gradually within polygons and when going from one polygon to another. Therefore, the transition from one zone to another is not properly represented with crisp object models. The main objective of the present thesis is to develop a new approach combining GeoBI paradigm and fuzzy concept to consider the presence of the spatial uncertainty in the representation of risk zones. Ultimately, we assume this should improve coastal erosion risk assessment. To do so, a comprehensive GeoBI-based conceptual framework is developed with an application for Coastal Erosion Risk Assessment (CERA). Then, a fuzzy-based risk representation approach is developed to handle the inherent spatial uncertainty related to vagueness and fuzziness of objects. Fuzzy membership functions are defined by an expert-based vulnerability index. Instead of determining well-defined boundaries between risk zones, the proposed approach permits a smooth transition from one zone to another. The membership values of multiple indicators (e.g. slop and elevation of region under study, infrastructures, houses, hydrology network and so on) are then aggregated based on risk formula and Fuzzy IF-THEN rules to represent risk zones. Also, the key elements of a fuzzy spatial datacube are formally defined by combining fuzzy set theory and GeoBI paradigm. In this regard, some operators of fuzzy spatial aggregation are also formally defined. The main contribution of this study is combining fuzzy set theory and GeoBI. This makes spatial knowledge discovery more understandable with human reasoning and perception. Hence, an analytical conceptual framework was proposed based on GeoBI paradigm to develop a fuzzy spatial datacube within Spatial Online Analytical Processing (SOLAP) to assess coastal erosion risk. This necessitates developing a framework to design a conceptual model based on risk parameters, implementing fuzzy spatial objects in a spatial multi-dimensional database, and aggregating fuzzy spatial objects to deal with multi-scale representation of risk zones. To validate the proposed approach, it is applied to Perce region (Eastern Quebec, Canada) as a case study.
|
369 |
Integrating functional connectivity and climate change in the design of protected area networksBauduin, Sarah 27 August 2024 (has links)
Le rapide déclin actuel de la biodiversité est inquiétant et les activités humaines en sont la cause directe. De nombreuses aires protégées ont été mises en place pour contrer cette perte de biodiversité. Afin de maximiser leur efficacité, l’amélioration de la connectivité fonctionnelle entre elles est requise. Les changements climatiques perturbent actuellement les conditions environnementales de façon globale. C’est une menace pour la biodiversité qui n’a pas souvent été intégrée lors de la mise en place des aires protégées, jusqu’à récemment. Le mouvement des espèces, et donc la connectivité fonctionnelle du paysage, est impacté par les changements climatiques et des études ont montré qu’améliorer la connectivité fonctionnelle entre les aires protégées aiderait les espèces à faire face aux impacts des changements climatiques. Ma thèse présente une méthode pour concevoir des réseaux d’aires protégées tout en tenant compte des changements climatiques et de la connectivité fonctionnelle. Mon aire d’étude est la région de la Gaspésie au Québec (Canada). La population en voie de disparition de caribou de la Gaspésie-Atlantique (Rangifer tarandus caribou) a été utilisée comme espèce focale pour définir la connectivité fonctionnelle. Cette petite population subit un déclin continu dû à la prédation et la modification de son habitat, et les changements climatiques pourraient devenir une menace supplémentaire. J’ai d’abord construit un modèle individu-centré spatialement explicite pour expliquer et simuler le mouvement du caribou. J’ai utilisé les données VHF éparses de la population de caribou et une stratégie de modélisation patron-orienté pour paramétrer et sélectionner la meilleure hypothèse de mouvement. Mon meilleur modèle a reproduit la plupart des patrons de mouvement définis avec les données observées. Ce modèle fournit une meilleure compréhension des moteurs du mouvement du caribou de la Gaspésie-Atlantique, ainsi qu’une estimation spatiale de son utilisation du paysage dans la région. J’ai conclu que les données éparses étaient suffisantes pour ajuster un modèle individu-centré lorsqu’utilisé avec une modélisation patron-orienté. Ensuite, j’ai estimé l’impact des changements climatiques et de différentes actions de conservation sur le potentiel de mouvement du caribou. J’ai utilisé le modèle individu-centré pour simuler le mouvement du caribou dans des paysages hypothétiques représentant différents scénarios de changements climatiques et d’actions de conservation. Les actions de conservation représentaient la mise en place de nouvelles aires protégées en Gaspésie, comme définies par le scénario proposé par le gouvernement du Québec, ainsi que la restauration de routes secondaires à l’intérieur des aires protégées. Les impacts des changements climatiques sur la végétation, comme définis dans mes scénarios, ont réduit le potentiel de mouvement du caribou. La restauration des routes était capable d’atténuer ces effets négatifs, contrairement à la mise en place des nouvelles aires protégées. Enfin, j’ai présenté une méthode pour concevoir des réseaux d’aires protégées efficaces et j’ai proposé des nouvelles aires protégées à mettre en place en Gaspésie afin de protéger la biodiversité sur le long terme. J’ai créé de nombreux scénarios de réseaux d’aires protégées en étendant le réseau actuel pour protéger 12% du territoire. J’ai calculé la représentativité écologique et deux mesures de connectivité fonctionnelle sur le long terme pour chaque réseau. Les mesures de connectivité fonctionnelle représentaient l’accès général aux aires protégées pour le caribou de la Gaspésie-Atlantique ainsi que son potentiel de mouvement à l’intérieur. J’ai utilisé les estimations de potentiel de mouvement pour la période de temps actuelle ainsi que pour le futur sous différents scénarios de changements climatiques pour représenter la connectivité fonctionnelle sur le long terme. Le réseau d’aires protégées que j’ai proposé était le scénario qui maximisait le compromis entre les trois caractéristiques de réseau calculées. Dans cette thèse, j’ai expliqué et prédit le mouvement du caribou de la Gaspésie-Atlantique sous différentes conditions environnementales, notamment des paysages impactés par les changements climatiques. Ces résultats m’ont aidée à définir un réseau d’aires protégées à mettre en place en Gaspésie pour protéger le caribou au cours du temps. Je crois que cette thèse apporte de nouvelles connaissances sur le comportement de mouvement du caribou de la Gaspésie-Atlantique, ainsi que sur les actions de conservation qui peuvent être prises en Gaspésie afin d’améliorer la protection du caribou et de celle d’autres espèces. Je crois que la méthode présentée peut être applicable à d’autres écosystèmes aux caractéristiques et besoins similaires. / The world is facing worrisome declines in biodiversity. Species extinction rates have increased as a direct consequence of human activities. Protected areas have been implemented around the world in an effort to counter biodiversity loss. Although protected areas are part of the solution, they should be designed systematically in a way to maximize their effectiveness. Enhancing functional connectivity between protected areas is one way to increase their effectiveness. Climate change is disrupting environmental conditions globally. It is a threat to biodiversity that until recently was not often integrated into protected area design. Climate change has been shown to impact species movements, and therefore landscape functional connectivity. Some studies have suggested that enhancing functional connectivity between protected areas can also help species cope with climate change impacts. My thesis presents a methodology to design protected area networks while accounting for climate change and functional connectivity. My study area is located in the natural region of Gaspésie in Québec (Canada). The endangered Atlantic-Gaspésie population of woodland caribou (Rangifer tarandus caribou) was used as the focal species to define functional connectivity. This small population is in long-term decline due to predation and habitat change, but climate change may become an additional threat. First, I built a spatially explicit individual-based model to explain and simulate caribou movement. I used sparse VHF data available at the time of the study to select and parameterize a movement model using a pattern-oriented modeling strategy. My best model reproduced most of the movement patterns defined from the observed data. This model improved the understanding of the movement drivers for the Atlantic-Gaspésie caribou. It also provided spatial estimates of caribou landscape use in the Gaspésie region. I concluded that sparse data were sufficient to fit individual-based models when coupled with a pattern-oriented modeling strategy. Second, I estimated how climate change and conservation activities may impact caribou movement potential. I used the individual-based model to simulate caribou movements in hypothetical landscapes representing the impacts of various climate change scenarios and conservation activities. Conservation activities represented the implementation of new protected areas in Gaspésie, according to the scenario developed by the government of Québec, and the restoration of secondary roads inside protected areas. Climate change impacts on vegetation, as defined in my scenarios, reduced caribou movement potential. Road restoration was able to mitigate these negative effects whereas the implementation of the new protected areas did not improve caribou movement potential. Third, I presented a methodology to design effective protected area networks and proposed new protected areas to implement in Gaspésie to conserve biodiversity in the presence of climate change. I created a large sample of protected area networks expanding the existing network to reach an areal target of 12%. I then calculated an ecological representativeness index and two measures of functional connectivity over time for each network. Functional connectivity measures represented the overall access to the protected areas and the movement potential in them for the Atlantic-Gaspésie caribou. I used movement potential estimates for the current time period and for the future under different climate change scenarios to represent functional connectivity. The protected area network I proposed maximized the trade-off between the three network features I calculated. In this thesis I examined Atlantic-Gaspésie caribou movements under different environmental conditions, including climate change impacted landscapes. These results helped define new protected areas for the Gaspésie region that will protect the caribou population over time. I believe this thesis gives new insights on the Atlantic-Gaspésie caribou movement behavior, as well as on the management actions that could be taken in Gaspésie to improve conservation of caribou and of other species. I believe this methodology could be applied to other ecosystems with similar characteristics and needs.
|
370 |
Intégration de données temps-réel issues de capteurs dans un entrepôt de données géo-décisionnelMathieu, Jean 17 April 2018 (has links)
Nous avons pu, au cours des dernières années, assister à une augmentation du nombre de capteurs utilisés pour mesurer des phénomènes de plus en plus variés. En effet, nous pouvons aujourd'hui utiliser les capteurs pour mesurer un niveau d'eau, une position (GPS), une température et même le rythme cardiaque d'un individu. La grande diversité de capteurs fait d'eux aujourd'hui des outils par excellence en matière d'acquisition de données. En parallèle à cette effervescence, les outils d'analyse ont également évolué depuis les bases de données transactionnelles et ont mené à l'apparition d'une nouvelle famille d’outils, appelés systèmes d’analyse (systèmes décisionnels), qui répond à des besoins d’analyse globale sur les données. Les entrepôts de données et outils OLAP (On-Line Analytical Processing), qui font partie de cette famille, permettent dorénavant aux décideurs d'analyser l'énorme volume de données dont ils disposent, de réaliser des comparaisons dans le temps et de construire des graphiques statistiques à l’aide de simples clics de la souris. Les nombreux types de capteurs peuvent certainement apporter de la richesse à une analyse, mais nécessitent de longs travaux d'intégration pour les amener jusqu'à un entrepôt géo-décisionnel, qui est au centre du processus de prise de décision. Les différents modèles de capteurs, types de données et moyens de transférer les données sont encore aujourd'hui des obstacles non négligeables à l'intégration de données issues de capteurs dans un entrepôt géo-décisionnel. Également, les entrepôts de données géo-décisionnels actuels ne sont pas initialement conçus pour accueillir de nouvelles données sur une base fréquente. Puisque l'utilisation de l'entrepôt par les utilisateurs est restreinte lors d'une mise à jour, les nouvelles données sont généralement ajoutées sur une base hebdomadaire, mensuelle, etc. Il existe pourtant des entrepôts de données capables d'être mis à jour plusieurs fois par jour sans que les performances lors de leur exploitation ne soient atteintes, les entrepôts de données temps-réel (EDTR). Toutefois, cette technologie est encore aujourd’hui peu courante, très coûteuse et peu développée. Ces travaux de recherche visent donc à développer une approche permettant de publier et standardiser les données temps-réel issues de capteurs et de les intégrer dans un entrepôt géo-décisionnel conventionnel. Une stratégie optimale de mise à jour de l'entrepôt a également été développée afin que les nouvelles données puissent être ajoutées aux analyses sans que la qualité de l'exploitation de l'entrepôt par les utilisateurs ne soit remise en cause. / In the last decade, the use of sensors for measuring various phenomenons has greatly increased. As such, we can now make use of sensors to measure GPS position, temperature and even the heartbeats of a person. Nowadays, the wide diversity of sensor makes them the best tools to gather data. Along with this effervescence, analysis tools have also advanced since the creation of transactional databases, leading to a new category of tools, analysis systems (Business Intelligence (BI)), which respond to the need of the global analysis of the data. Data warehouses and OLAP (On-Line Analytical Processing) tools, which belong to this category, enable users to analyze big volumes of data, execute time-based requests and build statistic graphs in a few simple mouse clicks. Although the various types of sensor can surely enrich any analysis, such data requires heavy integration processes to be driven into the data warehouse, centerpiece of any decision-making process. The different data types produced by sensors, sensor models and ways to transfer such data are even today significant obstacles to sensors data streams integration in a geo-decisional data warehouse. Also, actual geo-decisional data warehouses are not initially built to welcome new data on a high frequency. Since the performances of a data warehouse are restricted during an update, new data is usually added weekly, monthly, etc. However, some data warehouses, called Real-Time Data Warehouses (RTDW), are able to be updated several times a day without letting its performance diminish during the process. But this technology is not very common, very costly and in most of cases considered as "beta" versions. Therefore, this research aims to develop an approach allowing to publish and normalize real-time sensors data streams and to integrate it into a classic data warehouse. An optimized update strategy has also been developed so the frequent new data can be added to the analysis without affecting the data warehouse performances.
|
Page generated in 0.0326 seconds