• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 504
  • 98
  • 9
  • 4
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 743
  • 561
  • 559
  • 129
  • 119
  • 116
  • 106
  • 77
  • 61
  • 52
  • 52
  • 48
  • 48
  • 46
  • 45
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
281

Étude de la visualisation géographique dans un environnement d'exploration interactive de données géodécisionnelles : adaptation et améliorations

Beaulieu, Véronique 16 April 2018 (has links)
La visualisation géographique de l'information est un aspect important du SOLAP. Elle est le troisième élément clé pour supporter une analyse facile, rapide et intuitive des données prônée par l'approche SOLAP. Cependant, à ce jour, aucune étude ne s'est intéressée spécifiquement à cet aspect du SOLAP et les stratégies de visualisation utilisées traditionnellement dans les SIG ne conviennent pas à l'approche interactive et multidimensionnelle. Ce mémoire présente une recherche exploratoire proposant premièrement de placer la visualisation géographique au coeur de la relation entre l'utilisateur et la base de données. Cette stratégie fait ressurgir plusieurs besoins et possibilités explorées au cours de ce mémoire. Le respect de la flexibilité d'analyse SOLAP, les divers types de visualisation nécessaires pour rendre les différents types de requêtes, puis les manipulations graphiques qui peuvent s'opérer dans un environnement SOLAP font l'objet de propositions. Deuxièmement, ce mémoire propose une méthode permettant une relation directe entre les données et leur visualisation, sans l'intermédiaire de l'utilisateur. La solution théorique résultante respecte la philosophie d'exploration interactive prônée par l'approche SOLAP. Elle suggère l'intégration de l'expertise en visualisation géographique à l'intérieur même de la technologie SOLAP par l'ajout de métadonnées et d'une base de connaissances sémiologiques. Ce premier pas vers une amélioration du processus de visualisation avec SOLAP ouvre la porte à plusieurs recherches ultérieures.
282

Fouille de données : vers une nouvelle approche intégrant de façon cohérente et transparente la composante spatiale

Ouattara, Mamadou 16 April 2018 (has links)
Depuis quelques décennies, on assiste à une présence de plus en plus accrue de l’information géo-spatiale au sein des organisations. Cela a eu pour conséquence un stockage massif d’informations de ce type. Ce phénomène, combiné au potentiel d’informations que renferment ces données, on fait naître le besoin d’en apprendre davantage sur elles, de les utiliser à des fins d’extraction de connaissances qui puissent servir de support au processus de décision de l’entreprise. Pour cela, plusieurs approches ont été envisagées dont premièrement la mise à contribution des outils de fouille de données « traditionnelle ». Mais face à la particularité de l’information géo-spatiale, cette approche s’est soldée par un échec. De cela, est apparue la nécessité d’ériger le processus d’extraction de connaissances à partir de données géographiques en un domaine à part entière : le Geographic Knowlegde Discovery (GKD). La réponse à cette problématique, par le GKD, s’est traduite par la mise en œuvre d’approches qu’on peut catégoriser en deux grandes catégories: les approches dites de prétraitement et celles de traitement dynamique de l’information spatiale. Pour faire face aux limites de ces méthodes et outils nous proposons une nouvelle approche intégrée qui exploite l’existant en matière de fouille de données « traditionnelle ». Cette approche, à cheval entre les deux précédentes vise comme objectif principal, le support du type géo-spatial à toutes les étapes du processus de fouille de données. Pour cela, cette approche s’attachera à exploiter les relations usuelles que les entités géo-spatiales entretiennent entre elles. Un cadre viendra par la suite décrire comment cette approche supporte la composante spatiale en mettant à contribution des bibliothèques de traitement de la donnée géo-spatiale et les outils de fouille « traditionnelle » / In recent decades, geospatial data has been more and more present within our organization. This has resulted in massive storage of such information and this, combined with the learning potential of such information, gives birth to the need to learn from these data, to extract knowledge that can be useful in supporting decision-making process. For this purpose, several approaches have been proposed. Among this, the first has been to deal with existing data mining tools in order to extract any knowledge of such data. But due to a specificity of geospatial information, this approach failed. From this arose the need to erect the process of extracting knowledge from geospatial data in its own right; this lead to Geographic Knowledge Discovery. The answer to this problem, by GKD, is reflected in the implementation of approaches that can be categorized into two: the so-called pre-processing approaches and the dynamic treatment of spatial relationships. Given the limitations of these approaches we propose a new approach that exploits the existing data mining tools. This approach can be seen as a compromise of the two previous. It main objective is to support geospatial data type during all steps of data mining process. To do this, the proposed approach will exploit the usual relationships that geo-spatial entities share each other. A framework will then describe how this approach supports the spatial component involving geo-spatial libraries and "traditional" data mining tools
283

Improving knowledge about the risks of inappropriate uses of geospatial data by introducing a collaborative approach in the design of geospatial databases

Grira, Joël 20 April 2018 (has links)
La disponibilité accrue de l’information géospatiale est, de nos jours, une réalité que plusieurs organisations, et même le grand public, tentent de rentabiliser; la possibilité de réutilisation des jeux de données est désormais une alternative envisageable par les organisations compte tenu des économies de coûts qui en résulteraient. La qualité de données de ces jeux de données peut être variable et discutable selon le contexte d’utilisation. L’enjeu d’inadéquation à l’utilisation de ces données devient d’autant plus important lorsqu’il y a disparité entre les nombreuses expertises des utilisateurs finaux de la donnée géospatiale. La gestion des risques d’usages inappropriés de l’information géospatiale a fait l’objet de plusieurs recherches au cours des quinze dernières années. Dans ce contexte, plusieurs approches ont été proposées pour traiter ces risques : parmi ces approches, certaines sont préventives et d’autres sont plutôt palliatives et gèrent le risque après l'occurrence de ses conséquences; néanmoins, ces approches sont souvent basées sur des initiatives ad-hoc non systémiques. Ainsi, pendant le processus de conception de la base de données géospatiale, l’analyse de risque n’est pas toujours effectuée conformément aux principes d’ingénierie des exigences (Requirements Engineering) ni aux orientations et recommandations des normes et standards ISO. Dans cette thèse, nous émettons l'hypothèse qu’il est possible de définir une nouvelle approche préventive pour l’identification et l’analyse des risques liés à des usages inappropriés de la donnée géospatiale. Nous pensons que l’expertise et la connaissance détenues par les experts (i.e. experts en geoTI), ainsi que par les utilisateurs professionnels de la donnée géospatiale dans le cadre institutionnel de leurs fonctions (i.e. experts du domaine d'application), constituent un élément clé dans l’évaluation des risques liés aux usages inadéquats de ladite donnée, d’où l’importance d’enrichir cette connaissance. Ainsi, nous passons en revue le processus de conception des bases de données géospatiales et proposons une approche collaborative d’analyse des exigences axée sur l’utilisateur. Dans le cadre de cette approche, l’utilisateur expert et professionnel est impliqué dans un processus collaboratif favorisant l’identification a priori des cas d’usages inappropriés. Ensuite, en passant en revue la recherche en analyse de risques, nous proposons une intégration systémique du processus d’analyse de risque au processus de la conception de bases de données géospatiales et ce, via la technique Delphi. Finalement, toujours dans le cadre d’une approche collaborative, un référentiel ontologique de risque est proposé pour enrichir les connaissances sur les risques et pour diffuser cette connaissance aux concepteurs et utilisateurs finaux. L’approche est implantée sous une plateforme web pour mettre en œuvre les concepts et montrer sa faisabilité. / Nowadays, the increased availability of geospatial information is a reality that many organizations, and even the general public, are trying to transform to a financial benefit. The reusability of datasets is now a viable alternative that may help organizations to achieve cost savings. The quality of these datasets may vary depending on the usage context. The issue of geospatial data misuse becomes even more important because of the disparity between the different expertises of the geospatial data end-users. Managing the risks of geospatial data misuse has been the subject of several studies over the past fifteen years. In this context, several approaches have been proposed to address these risks, namely preventive approaches and palliative approaches. However, these approaches are often based on ad-hoc initiatives. Thus, during the design process of the geospatial database, risk analysis is not always carried out in accordance neither with the principles/guidelines of requirements engineering nor with the recommendations of ISO standards. In this thesis, we suppose that it is possible to define a preventive approach for the identification and analysis of risks associated to inappropriate use of geospatial data. We believe that the expertise and knowledge held by experts and users of geospatial data are key elements for the assessment of risks of geospatial data misuse of this data. Hence, it becomes important to enrich that knowledge. Thus, we review the geospatial data design process and propose a collaborative and user-centric approach for requirements analysis. Under this approach, the user is involved in a collaborative process that helps provide an a priori identification of inappropriate use of the underlying data. Then, by reviewing research in the domain of risk analysis, we propose to systematically integrate risk analysis – using the Delphi technique – through the design of geospatial databases. Finally, still in the context of a collaborative approach, an ontological risk repository is proposed to enrich the knowledge about the risks of data misuse and to disseminate this knowledge to the design team, developers and end-users. The approach is then implemented using a web platform in order to demonstrate its feasibility and to get the concepts working within a concrete prototype.
284

Élaboration d'une typologie forestière adaptée à la forêt boréale irrégulière

Côté, Guillaume 11 April 2018 (has links)
Les forêts de la Côte-Nord sont soumises à des cycles de feu relativement longs, ce qui est principalement attribuable au régime de précipitations du climat maritime humide. Les perturbations secondaires jouent alors un rôle important dans l'établissement de la structure des forêts, favorisant la formation de structures irrégulières. Cependant, la carte écoforestière, outil qui sert à la planification de l'aménagement forestier, ne contient pas d'information sur la structure des peuplements forestiers, ce qui rend impossible l'identification des peuplements irréguliers dans le but de leur appliquer des traitements sylvicoles adaptés. Des analyses de groupements ont été conduites sur les données d'inventaire provenant des 103 peuplements forestiers inventoriés afin de les regrouper selon leurs ressemblances. Les résultats ont permis d'identifier six types se distinguant par la composition en essences, l'état des arbres et la structure des peuplements qui les composent. La carte écoforestière ne permet pas de prédire la structure des peuplements, mais la photo-interprétation fine offre des meilleures capacités prédictives. / Forests of the Côte-Nord region often show irregular stand structures, mainly due to the precipitation regime of the humid climate. Indeed, because of the long fire cycle of this region, forest stand structure is driven by small-scale rather than large-scale disturbances. Forest inventory maps produced by the Québec Ministry of Natural Resources are used by forestry practitioners for the planning of silvicultural treatments. However, these maps do not include forest stand structure information, making it impossible for the foresters to identify forest stands that can be harvested following an uneven-aged management System. Cluster analysis was applied to the 103 sampled forest stands and the results suggest the presence of six different types which differ in composition, structure and tree vigour. Further analyses suggest that the forest inventory map cannot be used to predict forest stand structure, but a fine photo interpretation improves the prediction accuracy.
285

L'environnement des éricacées des forêts de l'est du Québec

Laberge Pelletier, Caroline 13 April 2018 (has links)
L’objectif principal de l’inventaire écologique réalisé est la caractérisation des sites avec présence d’éricacées : Rhododendron groenlandicum, Vaccinium sp. et Kalmia angustifolia, des forêts de la Côte-Nord, ainsi que de comprendre davantage leurs exigences écologiques. Quatre-vingt-dix-sept sites ont été étudiés au nord de Baie-Comeau, tous provenant de pessières noires à mousses (Picea mariana) vierges. Le Rhododendron est l’espèce éricacée dont le recouvrement moyen du parterre forestier est le plus important suivi par les Vaccinium et le Kalmia. Leur présence a été associée aux pessières noires ouvertes et aux sols acides, de textures grossières et pauvres en éléments nutritifs. Leur recouvrement diminuait avec la dominance des sapins (Abies balsamea). Quatre associations végétales ont été identifiées. L’une d’elles regroupait les trois espèces d’éricacées et trois espèces de Cladina. Les résultats de cette recherche pourront aider à classifier les sites selon leur niveau de vulnérabilité à l’envahissement par les plantes éricacées après coupe forestière. / The objective of the present ecological inventory was to characterize the presence of three common ericad species: Rhododendron groenlandicum, Vaccinium species and Kalmia angustifolia, in Quebec North Shore forests, and to better understand their presence in relation to environmental factors. Ninety-seven sites within the undisturbed black spruce-feathermoss (Picea mariana) forest north of Baie-Comeau were selected for the study. Rhododendron had the highest mean cover, followed by Vaccinium and Kalmia. The presence of these species was associated with an open forest canopy, acid, coarse-textured and nutrient-poor soils. Ericads were strongly associated with black spruce-dominated forests, with presence decreasing as the balsam fir (Abies balsamea) component increased. Four vegetation associations were identified, including an Ericad-lichen group that included the three ericads and three Cladina species. Results may be used to help identify and classify sites vulnerable to ericaceous invasion after forest harvest.
286

Towards development of fuzzy spatial datacubes : fundamental concepts with example for multidimensional coastal erosion risk assessment and representation

Jadidi Mardkheh, Amaneh 20 April 2018 (has links)
Les systèmes actuels de base de données géodécisionnels (GeoBI) ne tiennent généralement pas compte de l'incertitude liée à l'imprécision et le flou des objets; ils supposent que les objets ont une sémantique, une géométrie et une temporalité bien définies et précises. Un exemple de cela est la représentation des zones à risque par des polygones avec des limites bien définies. Ces polygones sont créés en utilisant des agrégations d'un ensemble d'unités spatiales définies sur soit des intérêts des organismes responsables ou les divisions de recensement national. Malgré la variation spatio-temporelle des multiples critères impliqués dans l’analyse du risque, chaque polygone a une valeur unique de risque attribué de façon homogène sur l'étendue du territoire. En réalité, la valeur du risque change progressivement d'un polygone à l'autre. Le passage d'une zone à l'autre n'est donc pas bien représenté avec les modèles d’objets bien définis (crisp). Cette thèse propose des concepts fondamentaux pour le développement d'une approche combinant le paradigme GeoBI et le concept flou de considérer la présence de l’incertitude spatiale dans la représentation des zones à risque. En fin de compte, nous supposons cela devrait améliorer l’analyse du risque. Pour ce faire, un cadre conceptuel est développé pour créer un model conceptuel d’une base de donnée multidimensionnelle avec une application pour l’analyse du risque d’érosion côtier. Ensuite, une approche de la représentation des risques fondée sur la logique floue est développée pour traiter l'incertitude spatiale inhérente liée à l'imprécision et le flou des objets. Pour cela, les fonctions d'appartenance floues sont définies en basant sur l’indice de vulnérabilité qui est un composant important du risque. Au lieu de déterminer les limites bien définies entre les zones à risque, l'approche proposée permet une transition en douceur d'une zone à une autre. Les valeurs d'appartenance de plusieurs indicateurs sont ensuite agrégées basées sur la formule des risques et les règles SI-ALORS de la logique floue pour représenter les zones à risque. Ensuite, les éléments clés d'un cube de données spatiales floues sont formalisés en combinant la théorie des ensembles flous et le paradigme de GeoBI. En plus, certains opérateurs d'agrégation spatiale floue sont présentés. En résumé, la principale contribution de cette thèse se réfère de la combinaison de la théorie des ensembles flous et le paradigme de GeoBI. Cela permet l’extraction de connaissances plus compréhensibles et appropriées avec le raisonnement humain à partir de données spatiales et non-spatiales. Pour ce faire, un cadre conceptuel a été proposé sur la base de paradigme GéoBI afin de développer un cube de données spatiale floue dans le system de Spatial Online Analytical Processing (SOLAP) pour évaluer le risque de l'érosion côtière. Cela nécessite d'abord d'élaborer un cadre pour concevoir le modèle conceptuel basé sur les paramètres de risque, d'autre part, de mettre en œuvre l’objet spatial flou dans une base de données spatiales multidimensionnelle, puis l'agrégation des objets spatiaux flous pour envisager à la représentation multi-échelle des zones à risque. Pour valider l'approche proposée, elle est appliquée à la région Perce (Est du Québec, Canada) comme une étude de cas. / Current Geospatial Business Intelligence (GeoBI) systems typically do not take into account the uncertainty related to vagueness and fuzziness of objects; they assume that the objects have well-defined and exact semantics, geometry, and temporality. Representation of fuzzy zones by polygons with well-defined boundaries is an example of such approximation. This thesis uses an application in Coastal Erosion Risk Analysis (CERA) to illustrate the problems. CERA polygons are created using aggregations of a set of spatial units defined by either the stakeholders’ interests or national census divisions. Despite spatiotemporal variation of the multiple criteria involved in estimating the extent of coastal erosion risk, each polygon typically has a unique value of risk attributed homogeneously across its spatial extent. In reality, risk value changes gradually within polygons and when going from one polygon to another. Therefore, the transition from one zone to another is not properly represented with crisp object models. The main objective of the present thesis is to develop a new approach combining GeoBI paradigm and fuzzy concept to consider the presence of the spatial uncertainty in the representation of risk zones. Ultimately, we assume this should improve coastal erosion risk assessment. To do so, a comprehensive GeoBI-based conceptual framework is developed with an application for Coastal Erosion Risk Assessment (CERA). Then, a fuzzy-based risk representation approach is developed to handle the inherent spatial uncertainty related to vagueness and fuzziness of objects. Fuzzy membership functions are defined by an expert-based vulnerability index. Instead of determining well-defined boundaries between risk zones, the proposed approach permits a smooth transition from one zone to another. The membership values of multiple indicators (e.g. slop and elevation of region under study, infrastructures, houses, hydrology network and so on) are then aggregated based on risk formula and Fuzzy IF-THEN rules to represent risk zones. Also, the key elements of a fuzzy spatial datacube are formally defined by combining fuzzy set theory and GeoBI paradigm. In this regard, some operators of fuzzy spatial aggregation are also formally defined. The main contribution of this study is combining fuzzy set theory and GeoBI. This makes spatial knowledge discovery more understandable with human reasoning and perception. Hence, an analytical conceptual framework was proposed based on GeoBI paradigm to develop a fuzzy spatial datacube within Spatial Online Analytical Processing (SOLAP) to assess coastal erosion risk. This necessitates developing a framework to design a conceptual model based on risk parameters, implementing fuzzy spatial objects in a spatial multi-dimensional database, and aggregating fuzzy spatial objects to deal with multi-scale representation of risk zones. To validate the proposed approach, it is applied to Perce region (Eastern Quebec, Canada) as a case study.
287

Intégration de données temps-réel issues de capteurs dans un entrepôt de données géo-décisionnel

Mathieu, Jean 17 April 2018 (has links)
Nous avons pu, au cours des dernières années, assister à une augmentation du nombre de capteurs utilisés pour mesurer des phénomènes de plus en plus variés. En effet, nous pouvons aujourd'hui utiliser les capteurs pour mesurer un niveau d'eau, une position (GPS), une température et même le rythme cardiaque d'un individu. La grande diversité de capteurs fait d'eux aujourd'hui des outils par excellence en matière d'acquisition de données. En parallèle à cette effervescence, les outils d'analyse ont également évolué depuis les bases de données transactionnelles et ont mené à l'apparition d'une nouvelle famille d’outils, appelés systèmes d’analyse (systèmes décisionnels), qui répond à des besoins d’analyse globale sur les données. Les entrepôts de données et outils OLAP (On-Line Analytical Processing), qui font partie de cette famille, permettent dorénavant aux décideurs d'analyser l'énorme volume de données dont ils disposent, de réaliser des comparaisons dans le temps et de construire des graphiques statistiques à l’aide de simples clics de la souris. Les nombreux types de capteurs peuvent certainement apporter de la richesse à une analyse, mais nécessitent de longs travaux d'intégration pour les amener jusqu'à un entrepôt géo-décisionnel, qui est au centre du processus de prise de décision. Les différents modèles de capteurs, types de données et moyens de transférer les données sont encore aujourd'hui des obstacles non négligeables à l'intégration de données issues de capteurs dans un entrepôt géo-décisionnel. Également, les entrepôts de données géo-décisionnels actuels ne sont pas initialement conçus pour accueillir de nouvelles données sur une base fréquente. Puisque l'utilisation de l'entrepôt par les utilisateurs est restreinte lors d'une mise à jour, les nouvelles données sont généralement ajoutées sur une base hebdomadaire, mensuelle, etc. Il existe pourtant des entrepôts de données capables d'être mis à jour plusieurs fois par jour sans que les performances lors de leur exploitation ne soient atteintes, les entrepôts de données temps-réel (EDTR). Toutefois, cette technologie est encore aujourd’hui peu courante, très coûteuse et peu développée. Ces travaux de recherche visent donc à développer une approche permettant de publier et standardiser les données temps-réel issues de capteurs et de les intégrer dans un entrepôt géo-décisionnel conventionnel. Une stratégie optimale de mise à jour de l'entrepôt a également été développée afin que les nouvelles données puissent être ajoutées aux analyses sans que la qualité de l'exploitation de l'entrepôt par les utilisateurs ne soit remise en cause. / In the last decade, the use of sensors for measuring various phenomenons has greatly increased. As such, we can now make use of sensors to measure GPS position, temperature and even the heartbeats of a person. Nowadays, the wide diversity of sensor makes them the best tools to gather data. Along with this effervescence, analysis tools have also advanced since the creation of transactional databases, leading to a new category of tools, analysis systems (Business Intelligence (BI)), which respond to the need of the global analysis of the data. Data warehouses and OLAP (On-Line Analytical Processing) tools, which belong to this category, enable users to analyze big volumes of data, execute time-based requests and build statistic graphs in a few simple mouse clicks. Although the various types of sensor can surely enrich any analysis, such data requires heavy integration processes to be driven into the data warehouse, centerpiece of any decision-making process. The different data types produced by sensors, sensor models and ways to transfer such data are even today significant obstacles to sensors data streams integration in a geo-decisional data warehouse. Also, actual geo-decisional data warehouses are not initially built to welcome new data on a high frequency. Since the performances of a data warehouse are restricted during an update, new data is usually added weekly, monthly, etc. However, some data warehouses, called Real-Time Data Warehouses (RTDW), are able to be updated several times a day without letting its performance diminish during the process. But this technology is not very common, very costly and in most of cases considered as "beta" versions. Therefore, this research aims to develop an approach allowing to publish and normalize real-time sensors data streams and to integrate it into a classic data warehouse. An optimized update strategy has also been developed so the frequent new data can be added to the analysis without affecting the data warehouse performances.
288

Reconstruction 3D d'un bâtiment à partir de photographies prises par un mobile

Butzbach, Thomas 19 April 2018 (has links)
L’Office de l’Efficacité Energétique utilise des méthodes où l’opérateur est très sollicité pour réaliser les modèles 3D de bâtiments nécessaire pour le calcul énergétique. Cependant, les appareils mobiles sont de plus en plus présents sur le marché et pourraient être utilisé pour automatiser cette tâche. Ces appareils possèdent une caméra, et il existe des recherches sur la reconstruction 3D à partir d’images. Ces méthodes permettent d’obtenir un nuage de point et non un maillage devant répondre à certaines caractéristiques afin de pouvoir y réaliser des calculs de volumes. Ce mémoire présente une méthode permettant de réaliser l’acquisition et le traitement qui produit un modèle 3D du bâtiment qui sera utilisé pour les calculs écoénergétiques. Les méthodes de reconstruction 3D ont été passées en revue et ont permis d’imaginer une nouvelle méthode permettant de générer un nuage de points 3D qui sera utilisé pour générer le modèle 3D du bâtiment. / The Office Energy Efficiency use methods to perform 3D model of buildings. But the user is very solicited and he take a lot of time for the 3D reconstruction. The 3D model is using by software for energy calculation. They take some measure to generate an ugly 3D model. Mobile devices are increasingly present on the market at a lower price. These devices contain an integrated camera and there are multiple researches on 3D reconstruction from image. Unfortunately, these methods can generally get a points cloud rather than a mesh that must have some characteristics for accurate volume calculations. The purpose of this paper is to present a series of existing methods or not to perform data acquisition and processing needed to produce a 3D model of a building. The 3D reconstruction methods which we reviewed helped us to designed a new method based on various studies to generate a 3D points cloud. Then an algorithm based on the point cloud processing was performed to generate a 3D model of the building.
289

Modélisation et interpolation spatiale 3D pour l'étude de l'écosystème pélagique marin

Sahlin, Per Jonas 20 April 2018 (has links)
En raison de la nature dynamique et volumétrique de l'écosystème marin pélagique, sa modélisation spatiale constitue un défi important. La représentation conventionnelle des phénomènes de ce milieu s’effectue par des coupes statiques verticales ou horizontales dans un environnement bidimensionnel (2D). Cependant, comme le démontre ce mémoire, l'étude de l'écosystème marin peut être grandement améliorée grâce à la modélisation spatiale tridimensionnelle (3D). L’apport principal de cette étude est d’avoir démontré le potentiel et la pertinence de la modélisation spatiale 3D pour l’environnement pélagique marin. Cette étude confirme que les outils émergents de visualisation scientifique dans le domaine de la modélisation géologique peuvent servir à améliorer l’étude de cet écosystème. Elle permet également de combler une lacune importante identifiée dans la littérature scientifique en examinant la performance des méthodes d’interpolation spatiale 3D. L’interpolation spatiale est une étape essentielle de la modélisation spatiale 3D des phénomènes continus (p.ex. salinité, température, etc.), mais aucune étude n’avait encore évalué son efficacité pour l’environnement pélagique marin. Il s’agit donc d’un pas important vers le développement d’un système d’information géographique (SIG) marin 3D complet. Les avantages de migrer vers une modélisation spatiale 3D sont discutés dans le contexte de la campagne océanographique ArcticNet-Malina, réalisée dans la mer de Beaufort (Arctique canadien) en 2009. Des représentations spatiales 3D basées sur une stratégie d’interpolation 3D robuste et optimale de cinq variables pélagiques marines (température, concentration en chlorophylle a, coefficient d’atténuation particulaire, distribution des eaux de l'halocline supérieure et flux vertical de carbone organique particulaire) sont présentées et leurs valeurs écologiques sont discutées. / Spatial modeling of the marine pelagic ecosystem is challenging due to its dynamic and volumetric nature. Consequently, conventional oceanographic spatial analysis of this environment is in a 2D environment, limited to static cutting planes in horizontal and vertical sections to present various phenomena. However, the study of the marine pelagic ecosystem can benefit from 3D spatial modeling. The main contribution of this study is to show that recent advances in 3D spatial modeling tools developed primarily for geological modeling can be exploited to extend the usual interpretation of marine pelagic phenomena from a 2D to a 3D environment. This study also fills a major gap identified in the literature by examining the performance of 3D spatial interpolation methods. Such interpolation is an essential step in 3D spatial modeling of continuous phenomena (eg, salinity, temperature, etc.), but no study has yet evaluated its performance for the marine pelagic environment. Accordingly, this study constitutes an important step towards the development of a complete 3D marine GIS. The benefits of migrating to a 3D spatial modeling of the marine environment are discussed in the context of the oceanographic campaign ArcticNet-Malina, conducted in the Beaufort Sea (Canadian Arctic) in 2009. 3D spatial representations based on a robust and optimal 3D interpolation strategy for five pelagic variables (temperature, chlorophyll a, particulate attenuation coefficient, distribution of upper halocline water mass and vertical flux of particulate organic carbon) of the ArcticNet-Malina campaign are presented and their ecological values are discussed.
290

Développement d'un standard de couleur pour l'appariement du bois dans l'industrie du meuble

Troshani, Zhakin 16 April 2018 (has links)
Ce projet a pour but de développer une méthode permettant la quantification des différences de la couleur dans les panneaux de bois massif destinés à la production de meubles ou de composants de meubles, pour l'industrie du meuble du Québec. Le but ultime est subséquemment de développer des procédures standardisées pour identifier des catégories de différences de couleur, à partir de critères objectifs de mesure. Cette étude vise quatre essences parmi les plus utilisées dans l'industrie au Québec, le bouleau jaune (Betula alleghaniensis Britton), le bouleau blanc (Betula papyrifera Marsh.), l'érable à sucre (Acer saccharum Marsh.) et l'érable rouge (Acer rubrum L). Cette étude se veut un premier pas vers l'établissement d'un standard de couleur dans l'industrie du meuble et dans l'automatisation de l'appariement des panneaux de bois massif.

Page generated in 0.0267 seconds