• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 486
  • 71
  • 2
  • Tagged with
  • 559
  • 559
  • 558
  • 129
  • 119
  • 116
  • 106
  • 77
  • 61
  • 51
  • 48
  • 48
  • 46
  • 45
  • 45
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Évaluation du potentiel de l'infrarouge spectral pour la détection hâtive du stress nutritif chez les végétaux de grandes cultures. Application à la culture de la pomme de terre

Guénette, Caroline 11 April 2018 (has links)
À l’heure actuelle, la gestion des fertilisants dans les productions agricoles est un sujet auquel les producteurs et les gestionnaires accordent beaucoup d’attention. La sur-utilisation des fertilisants engendre des coûts environnementaux et financiers importants qui ont récemment mené à une législation, aussi fédérale que provinciale, dans ce domaine. Pour en arriver à l’utilisation optimale des fertilisants azotés, ce sont les carences des végétaux qui doivent être évaluées correctement. Ce projet de recherche vise à évaluer le potentiel de détection des carences nutritives en azote chez la pomme de terre par la télédétection spectrale infrarouge. Pour atteindre notre objectif, nous avons effectué une campagne de mesure en serre où le plan expérimental était sous forme de mesures répétées. Quatre niveaux de carences nutritives en azote ont été induits chez des plants de pomme de terre. Le stress causé par la carence nutritive chez les plants a été mesuré selon des techniques agronomiques et des techniques de télédétection, incluant la spectroscopie infrarouge. Une fois le potentiel de détection des carences évalué pour chaque technique, c’est la comparaison entres elles qui permet de déterminer lesquelles mèneront à la discrimination la plus hâtive dans la saison de croissance. Une combinaison optimale d’indice est identifiée et sa capacité de discrimination est quantifiée par une analyse discriminante. La recherche conclut à une amélioration notable du potentiel de discrimination du stress causé par une carence nutritive en azote en combinant 3 indices de télédétection spectrale. / At the present time, the management of fertilizers in the agricultural productions is a subject on which producers and administrators grant much attention. The overuse of fertilizers generates important environmental and financial costs which recently lead to both federal and provincial legislations in this field. To gain optimal use of nitrogenized fertilizers, one must evaluate correctly the plant‘s deficiencies. This research project aims at evaluating the potential of detection of the nutritive nitrogen deficiency on potato plants by the use of infra-red spectral remote sensing. To achieve our goal, we performed repeated measurements in a greenhouse experimental setup. Four levels of nitrogen deficiencies were induced on potato plants. The stress caused by the nutritive deficiency was measured according to agronomic techniques and remote sensing techniques, including the infra-red spectroscopy. Once the potential of detection evaluated for each technique, the comparison among them made it possible to determine which technique(s) allowed the hastiest discrimination during the growing season. An optimal combination of index has been identified. Its capacity of discrimination between levels of nitrogen deficiency has been quantified by a discriminant analysis. Research concludes with a notable improvement of discrimination potential by combining three remote sensing index.
2

Méthode de conception de traverses à gué aménagées pour des cours d'eau en milieu forestier

Larocque, Vicky 07 March 2020 (has links)
Un grand nombre de chemins forestiers sont présents sur le territoire québécois. Plusieurs de ces chemins sont construits lors de la mise en place de lignes électriques ou de lignes de gaz ainsi que pour l’exploitation forestière. Une fois la construction ou l’exploitation terminée, une forte proportion de ces chemins n’est utilisée que pour le contrôle de la végétation ou pour la vérification des infrastructures. Ces routes ne sont donc presque plus empruntées ni entretenues pendant de grandes périodes, ce qui mène à la dégradation des infrastructures de traverse de cours d'eau. Cette détérioration peut entraîner des dommages considérables à l'environnement. Dans le cadre de ce projet, une alternative de traverse de cours d’eau a été étudiée. Durant cette étude, quatre traverses à gué aménagées ont été mises en place dans deux régions du Québec, soit une en Mauricie et trois sur la Côte-Nord. Le logiciel Hec-Ras a été utilisé afin de modéliser les cours d’eau et les forces de cisaillement exercées sur le lit et les berges Ensuite, un débit de récurrence de 20 ans a été choisi pour la conception des ouvrages. Ce dernier se situe entre 3.92 et 16.17 m3/s pour l’ensemble des traverses, alors que la grandeur des bassins versants ne dépasse pas 14 km2. La longueur totale de l’enrochement prévue sur les différents sites varie entre 12.9 m et 39.6 m en excluant le lit du cours d’eau et le diamètre moyen des pierres prévu est de 100 – 200 mm. Par la suite, les plans de conception ont été effectués sur le logiciel AutoCad afin d’être transmis aux différents entrepreneurs. Les travaux ont eu lieu en octobre et novembre 2018. Finalement, à la suite des travaux, des recommandations ont pu être apportées. Les principales sont que ce type de traverse nécessite l’utilisation de pierre anguleuse, que la mise en place d’une traverse à gué sur un site argileux nécessite un géotextile et qu’il est préférable d’effectuer les travaux en période de débits bas.
3

Enhanced performance for GPS-PPP by resolving bias-free ambiguities

Kamali, Omid 24 April 2018 (has links)
Le Positionnement Ponctuel Précis (PPP) est une technique de positionnement qui utilise un seul récepteur GNSS. Cette approche diffère nettement des méthodes différentielles qui sont largement utilisées et qui nécessitent deux ou plusieurs récepteurs. Le PPP est une technique économique, autonome par station, avec une précision centimétrique qui a ouvert la possibilité à une large gamme d'applications. Cependant, dans les applications qui nécessitent une convergence rapide et une haute précision, la performance du PPP n'est pas encore suffisante. Le PPP peut prendre jusqu’à 30 minutes pour converger vers des solutions avec une précision décimétrique. Cette longue période d’initiation est principalement consacrée à la stabilisation des ambiguïtés de phase vers des valeurs flottantes constantes. Compte tenu de ce problème, il est démontré que la Résolution des Ambigüités (RA) améliore la stabilité du modèle d’estimation, réduit le temps de convergence et améliore la précision des coordonnées. Cette étude vise donc à améliorer la performance du PPP pour obtenir une meilleure précision plus rapidement. À cette fin, les biais de phase des satellites qui perturbent la résolution des ambiguïtés sont estimées du côté producteur et résolues du côté utilisateur. Une modélisation judicieuse de paramètres et une sélection rigoureuse des modèles de correction sont effectuées afin de réduire la propagation des erreurs non-corrigées dans les biais de phase des satellites estimés. Du côté producteur, une nouvelle approche modulaire à deux étapes est proposée et implémentée comprenant l'estimation de biais de phase des satellites à partir de chaque site et l'intégration séquentielle des solutions. Ces deux étapes ont des structures simples et elles permettent d'estimer précisément les biais de phase de chaque satellite. L’algorithme de l’intégration séquentielle garde un bon compromis entre la charge de calcul, la charge et la capacité de mémoire de l’ordinateur, l'efficacité du traitement des paramètres et la précision des estimations. Du coté producteur, chaque observation est modélisée individuellement et intégrée dans le processus d'estimation. Ceci facilite l'intégration des fréquences supplémentaires (par exemple, la troisième fréquence L5 ou des observations multi-GNSS) pour améliorer davantage la performance de PPP en fonction de la modernisation du GNSS. Du côté utilisateur, un modèle d’observation de plein rang au niveau de récepteur mono-fréquence est proposé et implémenté. Cela donne de la flexibilité aux utilisateurs avec les récepteurs mono-fréquence pour utiliser notre solution PPP-RA lorsque les produits d'ionosphère de haute précision sont disponibles. Le modèle proposé est compatible avec les horloges de satellite standards actuelles fournies par IGS, CODE, JPL, par exemple. Le délai ionosphérique est corrigé et estimé en parallèle. Cela permet à l'utilisateur d’utiliser une correction ionosphérique de faible ou de haute précision et obtenir une performance améliorée en ajustant uniquement la précision de l'estimation de ce paramètre. La performance du PPP-RA du côté utilisateur a été comparée au PPP conventionnel en termes du temps de convergence et de la précision des coordonnées. En résumé, on a obtenu une amélioration importante en temps de convergence (jusqu'à 80 %) et en précision planimétrique (jusqu'à 60 %) par rapport au PPP conventionnel. De plus, une étude comparative est effectuée pour distinguer les caractéristiques de notre approche des autres méthodes PPP-RA. L’avantage de notre PPP-RA est aussi démontré par son approche unique à éliminer les défauts de rang et résoudre les ambiguïtés libre-de-biais. / Precise Point Positioning (PPP) is a single receiver GNSS positioning technique developed in contrast to broadly used differential methods that require two or more receivers. Employing a single receiver makes PPP a cost-effective and per-site autonomous technique with centimetre precision that has opened up the possibility of a wide range of applications. In many applications where short time period is required to reach high precisions, the performance of PPP is not yet sufficient. Typically, PPP takes up to 30 minutes in order to converge to coordinate solutions with acceptable precision. This limitation is mostly due to the long period required for stabilizing the float carrier phase ambiguities to constant values. Given this problem, it is showed that Ambiguity Resolution (AR) improves drastically the stability of the estimation model that in turn reduces the convergence time, and increases the precision of estimated coordinates. Thus, this study seeks to enhance the performance of PPP to obtain higher precision at a faster convergence time. For this reason, the hardware dependent satellite phase biases are estimated at the producer-side and by applying them as corrections the integer ambiguities can be resolved at the user-side. A judicious modelling of all parameters and a careful selection of the correction models is accomplished to reduce the impact of error propagation on the precision of parameters estimation. At the producer-side, a novel modular approach is proposed and established including the per-site satellite phase bias estimation and the sequential integration of the solutions. The two-steps of the producer-side have simple structures and allows for estimating the satellite phase biases. The proposed sequential network solution, keeps a good compromise between the computational burden, the computer memory load, the efficiency of handling parameters and the precision of estimations. In addition, all observables are modelled individually and integrated in the estimation process that facilitates the extension of algorithms for integrating additional frequencies or mutli-GNSS observables with respect to the GNSS modernization. At the user side, a novel full rank design matrix in the single frequency level is proposed and implemented. This gives the flexibility to the users with single-frequency receivers to benefit from our PPP-AR while the high precision ionosphere products are available. The proposed model is compatible with the current standard satellite clocks available, for example, from IGS, CODE, and JPL. The ionosphere is corrected and estimated at the same time. This gives the user the possibility to take advantage of low or high precision ionosphere products for obtaining an enhanced performance with our PPP-AR by only adjusting the precision of the ionosphere delay estimation. The performance of our PPP-AR user-side is then compared to the conventional PPP in terms of convergence time and coordinate precision. A substantial improvement has been obtained in terms of planimetric precision (up to 60%) and the convergence time (up to 80%) compared to the conventional PPP method. In addition, the characteristics of our PPP-AR are compared in detail with other PPP-AR methods. The advantage of our method is discussed by its unique approach of removing the rank deficiencies and resolving bias-free ambiguities.
4

Développement d'une structure topologique de données 3D pour l'analyse de modèles géologiques

Lachance, Bernard 11 April 2018 (has links)
La géologie a exprimé, face à la géomatique, le besoin de modéliser les objets géologiques en 3D et d'analyser ces modèles pour prendre des décisions plus éclairées. La géomatique répond relativement bien à certain de ces besoins comme celui de construire des modèles géologiques tridimensionnels. Cependant, les systèmes géomatiques (tels que les systèmes d'information géographique) ne sont pas adaptés à la gestion explicite des relations topologiques s'exprimant dans un univers 3D. Ce projet de maîtrise vise à développer une structure de stockage qui régularise les relations spatiales entre des objets tridimensionnels, permettant d'élargir les possibilités d'analyse d'un modèle géologique 3D. Pour réaliser ce projet, quatre étapes ont été nécessaires : 1) inventaire des structures topologiques 2D et 3D, 2) création d'une structure de données géométriques 3D, 3) création d'un prototype et, finalement, 4) réalisation de tests avec le prototype. Avec ces développements, une requête montrant la relation spatiale contient entre des unités géologiques et des fractures a été réalisée en 3D. Les résultats obtenus montrent le grand potentiel de cette approche pour l'analyse de modèle géologique. De plus, la création d'une nouvelle structure topologique de données appliquée aux données géologiques est certes un avancement pour l'application de la géomatique au domaine des sciences de la terre.
5

Proposition d’un cadre conceptuel d’arrimage des savoirs géographiques locaux dans les macro-observatoires : cas de la région DIANA Madagascar

Randrianarivelo, Mamy Dina 20 April 2018 (has links)
Le recours aux données géographiques issues des macro-observatoires s’impose comme la solution incontournable pour les agences de développement et bailleurs de fonds internationaux en quête de données structurées et facilement accessibles. Ces données sont pourtant conçues selon une vision globalisante qui ne reflète pas ou pas suffisamment les contextes spécifiques locaux sur lesquels ces acteurs doivent intervenir. Dans les pays du Sud en particulier, les savoirs géographiques locaux constituent le plus souvent la seule source de données terrain disponible. Mais leur fiabilité et leur utilité sont souvent questionnées, en comparaison des données statistiques ou cartographiques des macro-observatoires. En effet, ils ne sont que peu ou pas formalisés. Ils nécessitent des processus de collecte de terrain complexes à mettre en œuvre. Leur interprétation est souvent difficile, en particulier pour les acteurs occidentaux. Ce travail de recherche a pour objectif la conception d’un cadre d’intégration des savoirs géographiques locaux dans les macro-observatoires. Il repose concrètement sur l’observation, l’analyse et la mise en relief des points communs et des différences des deux types de savoirs géographiques, à partir du cas de la région de DIANA à Madagascar; et plus précisément des savoirs locaux issues d’une démarche de Zonage À Dire d’Acteurs (ZADA) et des données globales de l’observatoire « Harvest Choice » de l’International Food Policy Research Institute (IFPRI). Mots-clés : Macro-observatoires, données locales, données globales, infrastructure de données spatiales, intégration des données, connaissances locales, connaissances experts, SIG.
6

Modélisation de stratégies d'aménagement durable dans un contexte de paludification : une analyse par coûts-bénéfices afin de maintenir un maximum de forêt fermée

Schab, Alexis 14 February 2020 (has links)
Les perturbations en rafales peuvent entraver la régénération naturelle des peuplements forestiers en forêt boréale. En forêt aménagée les coupes forestières sont des perturbations qui ont le potentiel d’affecter la capacité de régénération des forêts. On s’attend à un effet combiné des perturbations naturelles et de l’aménagement sur l’ouverture du couvert forestier, entravant la capacité d’y réaliser un aménagement forestier durable, notamment en réduisant la quantité de peuplements productifs. En milieu boréal, l’accumulation de la matière organique (paludification) contraint la remise en reproduction des peuplements récoltés et peut aussi affecter la productivité forestière. Or ces événements ne sont que partiellement intégrés dans les calculs des possibilités forestières. Il est donc important d’évaluer ce qui se produit si on ne tient pas compte de l’ouverture potentielle des peuplements par les perturbations, ainsi que l’impact de la perte de productivité causée par la paludification. Pour développer des stratégies d’aménagement propices au rétablissementdes peuplements tout en étant économiquement viables, je propose un calcul de possibilités mis à l’épreuve dans un modèle de dynamique des paysages qui intègre le régime de feux, la paludification, la récolte forestière et les accidents de régénération pour mesurer sa robustesse. Je teste trois stratégies d’aménagement concentrées sur le reboisement, une qui correspond aux stratégies actuelles(scénario REF), une basée sur l’accessibilité des superficies à traiter (scénario ACC) et la dernière qui consiste en une remise en production de l’ensemble des superficies brûlées et paludifiées(scénario TOT). J’évalue le succès des stratégies avec les médianes du volume récolté, de la proportion de superficies fermées, ouvertes et paludifiées, d’un indice de la productivité ainsi que du coût de reboisement. Après 150 ans, la productivité du territoire montre une diminution par rapport à l’état actuelde –7,6 % et –2,5 % pour les scénarios REF et ACC et une augmentation de 0,9 % pour le scénario TOT. La récolte sans modalités particulières des superficies paludifiées risque d’engendrer une forte augmentation des peuplements ouverts (+8 % du territoire en 50 ans) compromettant les objectifs de l’aménagement durable. La stratégie qui consiste à reboiser les secteurs accessibles apparait comme la plus propice à l’atteinte des cibles de l’aménagement forestier durable en prenant en compte la faisabilité opérationnelle. Malgré des calculs de possibilités aux 5 ans, les résultats suggèrent que l’historique de coupe du territoire d’étude amènera dans les prochaines décennies une période critique dans la gestion des peuplements paludifiés. Finalement, je montre que l’utilisation du volume maximal potentiel absolu (VMPA) comme indice de productivité a permis d’anticipé les problèmes beaucoup plus tôt qu’avec les indices usuels des calculs de possibilités. / Successive disturbances such as successive fires can hinder the natural regeneration of forest stands in the boreal forest. Futhermore, in managed forests, logging is a disturbance that has the potential to affect the regenerative capacity of forests. The combined effect of natural disturbance and management is therefore expected to have an impact on the opening of forests coverand to hinder the ability to achieve sustainable forest management notably by reducing the amount of productive forest stands. In addition, in the boreal environment, the accumulation of organic matter (paludification) causes constraints in growth of harvested stands and can affect forest productivity. These events are only partially integrated into the computations of annual allowable cuts. It is therefore important to evaluate the impacts of not considering the potential opening of stands by disturbances and the loss of productivity caused by paludification on a managed forest landscape. In addition, it isuseful to develop management and evaluate strategies able to promote the restoration of stands through growth and adequate regeneration while being economically viable. To do this, the computation of annual allowable cut is done in a model that integrates the fire regime, the paludification process, forest harvesting and regeneration failure to measure the robustness of different management strategies. Three management strategies focused on reforestation are developed and tested, one that corresponds to the current strategy (REF scenario), one based on the accessibility of the areas to be treated (ACC scenario) and the last one, which consists to return all the burned and paludified areas to production via planting (TOT scenario). The results are analyzed with different indicators of success (volume harvested, proportion of closed, open and paludified areas, reforestation costs, productivity index) and expressed as medians to ensure a reasonable level of protection. After 150 years, territory’s productivity decreases for scenarios REF and ACC (-7.6 % and -2.5 %) and increases for TOT scenario (+ 0.9 %). Harvesting paludified area without specific modalities concerning regeneration failure and stand opening may result in a sharp rise in open stands (+ 8% of the territory in 50 years) compromising the objectives of sustainable development. The strategy of reforesting accessible areas appears to be the most likely to achieve sustainable forest management targets by taking into account operational feasibility.The results suggest that despite the computation of annual allowable cuts every 5 years, the harvesting history of the study area has led to the arrival of a critical period in the management of paludified stands. Finally, I showed that using the absolute maximum potential volume (VMPA) as a productivity index made it possible to anticipate easily problems much earlier than with the usual indices of possibility calculations
7

Modèle d'ajustement pour réduire le biais sur le modèle numérique de terrain et le modèle de hauteur de canopée à partir de données LiDAR acquises selon divers paramètres et conditions forestières

Fradette, Marie-Soleil 27 May 2019 (has links)
La sous-estimation des hauteurs LiDAR est très largement connue, mais n’a jamais été étudiée pour plusieurs capteurs et diverses conditions forestières. Cette sous-estimation varie en fonction de la probabilité que le faisceau atteigne le sol et le sommet de la végétation. Les principales causes de cette sous-estimation sont la densité des faisceaux, le patron de balayage (capteur), l'angle des faisceaux, les paramètres spécifiques du survol (altitude de vol, fréquence des faisceaux) et les caractéristiques du territoire (pente, densité du peuplement et composition d’essences). Cette étude, réalisée à une résolution de 1 x 1 m, a d’abord évalué la possibilité de faire un modèle d’ajustement pour corriger le biais du modèle numérique de terrain (MNT) et ensuite un modèle d’ajustement global pour corriger le biais sur le modèle de hauteur de canopée (MHC). Pour cette étude, le MNT et le MHC ont été calculés en soustrayant deux jeux de données LiDAR: l’un avec des pixels comportant un minimum de 20 retours (valeur de référence) et l’autre avec des pixels à faible densité (valeur à corriger). Les premières analyses ont permis de conclure que le MNT ne nécessitait pas d’ajustement spécifique contrairement au MHC. Parmi toutes les variables étudiées, trois ont été retenues pour calibrer le modèle d’ajustement final du MHC : la hauteur du point le plus haut dans le pixel, la densité de premiers retours par mètre carré et l’écart type des hauteurs maximales du voisinage à 9 cellules. La modélisation s'est déroulée en trois étapes. Les deux premières ont permis de trouver les paramètres significatifs et la forme de l'équation (modèle linéaire mixte (1) et modèle non linéaire (2)).La troisième étape a permis d’obtenir une équation empirique à l’aide d’un modèle non linéaire mixte (3) applicable à un MHC d’une résolution de 1x 1m. La correction de la sous-estimation du MHC peut être utilisée comme étape préliminaire à plusieurs utilisations du MHC comme le calcul de volumes et la création de modèles de croissance ou d’analyses multi-temporelles.
8

Structure, dynamique et évolution du transcriptome chez les conifères

Raherison, Solonirina Mahefasoa Elie 23 April 2018 (has links)
Les analyses transcriptomiques contribuent à la compréhension des fonctions du génome des organismes non modèles comme les conifères, qui ont une importance économique et écologique au Canada. La majorité des études transcriptomiques sur les conifères ont abordé des questions biologiques spécifiques, en se penchant tout particulièrement sur les gènes différentiellement exprimés entre les stades de développement et les conditions biologiques. Ces études sont faites à partir d’un nombre limité de tissus. Notre étude avait des objectifs plus fondamentaux qui étaient d’étudier la structure, la dynamique et l’évolution du transcriptome chez les conifères. Nous avons mené deux études d’expression pour comparer différents tissus (études sur plusieurs tissus), une dont le but était de comparer des espèces et une autre pour analyser la variation temporelle de l’expression de gènes d’un type de tissu au cours d’une saison de croissance. Les données d’expression ont été générées grâce à la méthode d’hybridation utilisant des puces à ADN. Nous avons construit la première puce à oligonucléotide pour les conifères. Comparée aux puces à ADNc utilisées dans d’autres études, notre puce a une plus large couverture du génome avec près de 24 000 gènes de l’épinette blanche (Picea glauca [Moench] Voss.). L’analyse sur plusieurs espèces a montré la conservation des profils d’expression préférentiels aux tissus vasculaires entre des espèces d’épinettes. Nous avons créé la première base de données d’expression tissulaire chez les conifères. Cette base de données, appelée PiceaGenExpress, est issue d’une analyse sur plusieurs tissus qui se base sur des données semi-quantitatives. Pour une autre étude sur plusieurs tissus, nous avons analysé des données quantitatives. Ces analyses ont permis de mettre en évidence l’organisation modulaire du transcriptome et de construire un réseau transcriptionnel du xylème. Dans ce réseau, PgNAC-7 est le gène le mieux connecté et préférentiellement exprimé pendant la formation du bois initial, indiquant ainsi son rôle variable dans le temps. Nos résultats constituent une base des connaissances qui permettent des études sur des sujets indépendants par d’autres auteurs. Nos découvertes sont aussi une base pour le développement de marqueurs pour la sélection génétique des conifères dans une perspective de conservation et d’amélioration. / Transcriptome analyses contribute to the understanding of genome function in non-model organisms such as conifers trees, which are of economic and ecological importance in Canada. Most transcriptome profiling experiments in conifers have addressed specific biological questions, focusing on differential expressed genes between developmental stages or biological conditions and have analysed only a few different tissue types at a time. Our study had more fundamental goals which were to investigate transcriptome structure, dynamics and evolution in conifers. We conducted two gene expression studies comparing different tissues (multi-tissue analysis), as well as an analysis comparing species and another that monitored changes over the course of a growth season within a tissue type. Expression data were generated from microarray hybridizations. We developed the first oligonucleotide microarray in conifers. Compared to the cDNA-based microarrays used in previous studies, it has broader genome coverage with about 24 000 white spruce (Picea glauca [Moench] Voss.) genes. Analysis across species revealed the conservation of vascular tissue preferential expression patterns between spruce species. We built the first gene expression database of tissues in conifers. This database, called PiceaGenExpress, comes from a multi-tissue analysis based on semi-quantitative data. A separate multi-tissue analysis used quantitative data, highlighted the modular organization of transcriptome and, lead to the construction of a xylem transcriptional network. The gene PgNAC-7 was the most connected gene in the network and was preferentially expressed during earlywood formation indicating that its role is temporally variable. Ours results represent a knowledge foundation which has enabled research on several independent topics by other researchers. Our findings are also a basis for the development of genetic selection markers for conifer tree breeding and conservation.
9

Handling spatial vagueness issues in SOLAP datacubes by introducing a risk-aware approach in their design

Edoh-Alové, Djogbénuyè Akpé 23 April 2018 (has links)
Thèse en cotutelle: Université Laval Québec, Canada et Université Blaise-Pascal, Clermont-Ferrand, France / Les systèmes Spatial On-Line Analytical Processing (SOLAP) permettent de prendre en charge l’analyse multidimensionnelle en ligne d’un très grand volume de données ayant une référence spatiale. Dans ces systèmes, le vague spatial n’est généralement pas pris en compte, ce qui peut être source d’erreurs dans les analyses et les interprétations des cubes de données SOLAP, effectuées par les utilisateurs finaux. Bien qu’il existe des modèles d’objets ad-hoc pour gérer le vague spatial, l’implantation de ces modèles dans les systèmes SOLAP est encore à l’état embryonnaire. En outre, l’introduction de tels modèles dans les systèmes SOLAP accroit la complexité de l’analyse au détriment de l’utilisabilité dans bon nombre de contextes applicatifs. Dans cette thèse nous nous proposons d’investiguer la piste d’une nouvelle approche visant un compromis approprié entre l’exactitude théorique de la réponse au vague spatial, la facilité d’implantation dans les systèmes SOLAP existants et l’utilisabilité des cubes de données fournis aux utilisateurs finaux. Les objectifs de cette thèse sont donc de jeter les bases d’une approche de conception de cube SOLAP où la gestion du vague est remplacée par la gestion des risques de mauvaises interprétations induits, d’en définir les principes d’une implantation pratique et d’en démontrer les avantages. En résultats aux travaux menés, une approche de conception de cubes SOLAP où le risque de mauvaise interprétation est considéré et géré de manière itérative et en adéquation avec les sensibilités des utilisateurs finaux quant aux risques potentiels identifiés a été proposée; des outils formels à savoir un profil UML adapté, des fonctions de modification de schémas multidimensionnels pour construire les cubes souhaités, et un processus formel guidant de telles transformations de schémas ont été présentés; la vérification de la faisabilité de notre approche dans un cadre purement informatique avec la mise en œuvre de l’approche dans un outil CASE (Computed Aided Software Engineering) a aussi été présentée. Pour finir, nous avons pu valider le fait que l’approche fournisse non seulement des cubes aussi compréhensibles et donc utilisables que les cubes classiques, mais aussi des cubes où le vague n’est plus laissé de côté, sans aucun effort pour atténuer ses impacts sur les analyses et les prises de décision des utilisateurs finaux. / SOLAP (Spatial On-Line Analytical Processing) systems support the online multi-dimensional analysis of a very large volume of data with a spatial reference. In these systems, the spatial vagueness is usually not taken into account, which can lead to errors in the SOLAP datacubes analyzes and interpretations end-users make. Although there are ad-hoc models of vague objects to manage the spatial vagueness, the implementation of these models in SOLAP systems is still in an embryonal state. In addition, the introduction of such models in SOLAP systems increases the complexity of the analysis at the expense of usability in many application contexts. In this thesis we propose to investigate the trail of a new approach that makes an appropriate compromise between the theoretical accuracy of the response to the spatial vagueness, the ease of implementation in existing SOLAP systems and the usability of datacubes provided to end users. The objectives of this thesis are to lay the foundations of a SOLAP datacube design approach where spatial vagueness management in itself is replaced by the management of risks of misinterpretations induced by the vagueness, to define the principles of a practical implementation of the approach and to demonstrate its benefits. The results of this thesis consist of a SOLAP datacube design approach where the risks of misinterpretation are considered and managed in an iterative manner and in line with the end users tolerance levels regarding those risks; formal tools namely a suitable UML (Unified Modeling Language) profile, multidimensional schemas transformation functions to help tailored the datacubes to end-users tolerance levels, and a formal process guiding such schemas transformation; verifying the feasibility of our approach in a computing context with the implementation of the approach in a CASE (Computed Aided Software Engineering) tool. Finally, we were able to validate that the approach provides SOLAP datacubes that are not only as comprehensible and thus usable as conventional datacubes but also datacubes where the spatial vagueness is not left out, with no effort to mitigate its impacts on analysis and decision making for end users.
10

Évaluation de l’apport de l’intégration d’un gyro-accéléromètre à un récepteur GPS mono-fréquence pour détecter et corriger les sauts de cycle

Hickey, Jean-René 20 April 2018 (has links)
Afin d’obtenir un positionnement GPS de précision centimétrique, il est important de bien modéliser les erreurs telles que les délais ionosphérique et troposphérique ainsi que les erreurs d’horloge et d’éphémérides. Pour une solution de précision centimétrique utilisant des mesures de phase, il est également important d’être en mesure de détecter et de corriger les sauts de cycle, car ceux-ci introduisent des biais artificiels dans la solution, qui peuvent entraîner des erreurs dans l’estimation des coordonnées. Les sauts de cycle sont causés par la perte de réception des signaux occasionnée par des obstructions entre les satellites et l’antenne. Que ce soit pour un positionnement temporel relatif GPS qui n’utilise qu’un seul récepteur (aucune station de référence) ou en mode relatif conventionnel ou le PPP (Precise Point Positioning), les sauts de cycle obligent l’utilisateur à recommencer la période d’initialisation lorsqu’il reste moins de 4 satellites non obstrués. Le but de ce projet est d’évaluer l’apport d’une méthode pour détecter et corriger les sauts de cycle dans une solution GPS mono-fréquence en utilisant des mesures complémentaires provenant d’un gyro-accéléromètre. Le modèle utilisé lors des tests est le AHRS400CC-100 de la compagnie CrossBow. Avec cette méthode, il est possible de comparer, pour chaque satellite, la différence d’ ambigüités, calculée à partir des observations GPS et celle prédite à partir de la position calculée avec les mesures du gyro-accéléromètre. Dans le cadre de ce projet, plusieurs étapes ont dû être réalisées. La première étape était de valider la précision des observations du AHRS400CC-100, puis de quantifier pour chacun de ses capteurs, la marche aléatoire et l’instabilité du biais. Ensuite, d’exploiter les mesures du gyro-accéléromètre afin de calculer une solution de navigation, et d’identifier les limites de précision de l’instrument en mode statique et cinématique. La dernière étape était de combiner la solution de navigation du gyro-accéléromètre à celle du GPS pour évaluer pendant combien de temps le gyro-accéléromètre maintient un positionnement avec suffisamment de précision pour détecter et corriger un saut de cycle. Les résultats ont démontré que des sauts de cycle pourraient être détectés et corrigés instantanément après une coupure du signal GPS d’une durée de 10 secondes pour un positionnement statique et pouvant atteindre 5 secondes en mode cinématique dans des conditions idéales sinon 1 à 2 secondes. Pour augmenter l’efficacité de l’application de détection et de correction de sauts de cycle, l’implémentation d’un filtre de Kalman pour effectuer la fusion des observations GPS et du gyro-accéléromètre pourrait être réalisée dans le cadre de travaux futurs. / In order to achieve centimetre precision using GPS, one must use the carrier phase measurements. It is also important to minimise the impact of the many errors that affect GPS measurements: ionosphere and tropospheric delays, orbit and clocks errors. Another essential part of a precise GPS measurement, is the detection and correction of cycle slips. These slips, caused by the interruption of the GPS signal, introduce artificial biases in the measurement that result in erroneous coordinate estimates. For different GPS solution such as Real Time Kinematic (RTK), Time Relative positioning (TRP) or Precise Point positioning (PPP), to correct cycle slips, the user must restart the initialisation process. In this research, a method to detect and correct cycle slip in monofrequence GPS solution is explored. This methode uses inertial data provided by an attitude and heading reference system (AHRS). The model that is used here is Crossbow’s AHRS400CC-100. With this method, it is possible to compare, for each observed satellite, the ambiguity difference between the ambiguity values calculated from GPS observations and those predicted by the navigation solution calculated from the AHRS observations. It is effective to integrate AHRS to GPS. An AHRS can potentially be used for cycle slip detection and fixing. Using the AHRS measurements, one can achieve centimetre level precision for short periods of time. This method of positioning can be used during GPS signal loss to maintain the navigation solution. Once the GPS signal is retrieved, it is possible to compare the ambiguity difference between satellite line of view vector of each satellite calculated using GPS observations and satellite line of view vector calculated from the last AHRS position GPS observations. For this research project, the initial task was to validate the precision of the AHRS400CC-100 observations, and to quantify random walk error and bias instability for each of the instruments sensors using static data sets. The next task was to use the AHRS measurements to calculate a navigation solution and to identify the instruments limitations of position precision using static and kinematic data. The last task was to combine AHRS and GPS observations, to obtain an integrated navigation solution. Once the solution implemented, simulated data gaps were added to the data set in order to evaluate the maximum duration of GPS data loss after which it is possible to detect and correct GPS cycle slips using the autonomous AHRS navigation solution. According to the results of the experiments using the method proposed in this paper, AHRS positioning appears to maintain adequate precision for cycle slip detection and fixing for up to 10 seconds for static positioning and up to 5 seconds for kinematic positioning in ideal conditions.

Page generated in 0.071 seconds