• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 425
  • 115
  • 52
  • 4
  • Tagged with
  • 587
  • 253
  • 251
  • 244
  • 109
  • 102
  • 86
  • 72
  • 62
  • 62
  • 58
  • 57
  • 52
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Remote sensing of phytoplankton in the Arctic Ocean : development, tuning and evaluation of new algorithms

Li, Juan 01 September 2022 (has links)
Thèse en cotutelle : Université Laval, Québec, Canada, Philosophiæ doctor (Ph. D.) et Wuhan University, Wuhan, Chine. / Au cours des dernières décennies, l'augmentation de la production primaire (PP) dans l'océan Arctique (AO) a en partie été associée à une augmentation de la biomasse phytoplanctonique, comme l'ont montré des études de télédétection. La concentration en chlorophylle a (Chl), un indicateur de la biomasse phytoplanctonique, est un facteur clé qui peut biaiser les estimations de la PP quand elle comporte des erreurs de mesure. En d'autres mots, une estimation précise de la Chl est cruciale pour améliorer notre connaissance de l'écosystème marin et de sa réponse au changement climatique en cours. Cependant, la télédétection de la couleur de l'océan dans l'océan Arctique présente plusieurs défis. Tout d'abord, il est bien connu que l'échec des algorithmes standards de la couleur de l'océan dans l'AO est dû à l'interférence des matières colorées et détritiques (CDM) dans le spectre visible, mais comment et dans quelle mesure cela va biaiser l'estimation de la Chl reste inconnu. En outre, la Chl étant un facteur clé utilisé pour estimer la PP, la propagation des erreurs des estimations de la Chl aux estimations de la PP doit être évaluée. Le dernier mais le plus important est qu'un algorithme robuste avec une incertitude raisonnable, en particulier pour les eaux côtières complexes et productives, n'est pas encore disponible. Pour résoudre ces problèmes, dans cette étude, nous avons d'abord compilé une grande base de données bio-optiques in situ dans l'Arctique, à partir de laquelle nous avons évalué de manière approfondie les algorithmes de couleur de l'océan actuellement disponibles du point de vue des impacts des CDM. Nous avons constaté que plus le niveau de CDM par rapport à la Chl dans la colonne d'eau était élevé, plus il biaisait les estimations de la Chl. L'analyse de sensibilité des estimations de la PP sur la Chl a montré que l'erreur des estimations de la Chl était amplifiée de 7% lorsqu'elle était passée dans l'estimation du PP en utilisant un modèle de PP résolu spectralement et verticalement. En outre, pour obtenir de meilleurs résultats, nous avons optimisé un algorithme semi-analytique (Garver-Siegel-Maritorena, GSM) pour l'AO en ajoutant la bande spectrale de 620 nm qui est moins affectée par le CDM et le signal ici est généralement élevé pour les eaux riches en CDM, devenant anisi important pour le GSM afin d'obtenir des estimates précises de la Chl. Notre algorithme ajusté, GSMA, n'a amélioré la précision que de 8% pour l'AO, mais l'amélioration pour les eaux côtières a atteint 93%. Enfin, étant donné que les algorithmes qui n'exploitent pour la plupart que les parties bleue et verte du spectre visible sont problématiques pour les eaux très absorbantes/obscures, nous avons introduit un modèle d'émission de fluorescence pour tenir compte des propriétés bio-optiques du phytoplancton dans la partie rouge du spectre visible. En se couplant avec le GSMA, le nouvel algorithme à spectre complet, FGSM, a encore amélioré la précision des estimations de la Chl de ~44% pour les eaux eutrophes. À l'avenir, des couplages sont nécessaires à des fins de validation en ce qui concerne l'application satellitaire. De plus, de nouvelles approches pouvant être appliquées pour détecter le maximum de chlorophylle sous la surface (SCM), les efflorescences en bordure de glace et/ou sous la glace, les types fonctionnels de phytoplancton (PFT), sont attendues. / In the recent decades, the raise of primary production (PP) in the Arctic Ocean (AO) is mainly driven by the increase of phytoplankton biomass as multiple remote sensing studies have suggested. Chlorophyll a concentration (Chl), a proxy of phytoplankton biomass, is a key factor that biases PP estimates. In terms of bottom-up control, accurate Chl estimate is crucial to improve our knowledge of marine ecosystem and its response to ongoing climate change. However, there are several challenges of ocean color remote sensing in the Arctic Ocean. Firstly, it is well known that the failure of standard ocean color algorithms in the AO is due to the interference of colored and detrital material (CDM) in the visible spectrum, but how and to what extend it will bias the estimation of Chl remains unknown. Besides, Chl as a key factor used to estimate PP, error propagation from Chl estimates to PP estimates needs to be assessed. The last but most important is that a robust algorithm with reasonable uncertainty, especially for the complex and productive coastal waters, is not yet available. To address these problems, in this study, we first compiled a large Arctic in situ bio-optical database, based on which we thoroughly evaluated presently available ocean color algorithms from a perspective of the impacts of CDM. We found that the higher the level of CDM relative to Chl in the water column, the larger it would bias Chl estimates. Sensitivity analysis of PP estimates on Chl showed that the error of Chl estimates was amplified within 7% when passed into the estimation of PP using a spectrally- and vertically-resolved PP model. Besides, to obtain better results, we tuned GSM for the AO by adding 620 waveband which is less affected by CDM and the signal here is generally high for CDM-rich waters thus become important for GSM to retrieve accurate Chl estimates. Our tuned algorithm, GSMA, merely improved the accuracy by 8% for the AO, but the improvement for coastal waters reached up to 93%. Finally, given that algorithms that only exploits visible spectrum are problematic for highly-absorbing/dark waters, we introduced the fluorescence emission model to account for the bio-optical properties of phytoplankton in the near infrared spectrum. By coupling with GSMA, the novel full-spectrally algorithm, FGSM, further improved the accuracy of Chl estimates by ~44% for eutrophic waters. In the future, matchups are needed for validation purposes with respect to satellite application. Moreover, new approaches that can be applied to detect subsurface chlorophyll maximum (SCM), ice-edge and/or under-ice blooms, phytoplankton functional types (PFT) and so on are expected.
22

Probing contaminated aerosol clouds using remote filament induced breakdown spectroscopy

Daigle, Jean-François 20 April 2018 (has links)
Une technique de télédétection par spectroscopie de plasma induite par filamentation (R-FIBS pour remote filament-induced breakdown spectroscopy) est utilisée pour sonder un nuage d’aérosols aqueux contenant des sels métalliques en solution. Nous avons démontré expérimentalement que cette technique peut être utilisée efficacement pour caractériser à distance la composition d’un nuage d’aérosols. En effet, la fluorescence caractéristique de tous les ions métalliques a été observée. De plus, ces raies d’émission étroites excitées par un plasma à faible densité ont pu être identifiées simultanément sans recouvrement spectral. Les résultats obtenus démontrent qu’il est possible d’identifier et distinguer simultanément tous les composants métalliques dissous dans un tel nuage. La technique a également été testée avec succès à une distance de 70 m sur un nuage aqueux contenant du chlorure de sodium. / Remote Filament Induced Breakdown Spectroscopy (R-FIBS) was used for probing a cloud of aqueous aerosols containing a mixture of dissolved metallic salts. We demonstrated experimentally that it can be used as a sensitive sensing technique to remotely retrieve the composition of microdroplets in clouds located at a distance. In fact, fluorescence from all the metallic ions dissolved was observed. Moreover, these spectrally narrow atomic transitions excited by the low density plasma did not show any signal overlap. These characteristic spectra demonstrate that R-FIBS can be used to simultaneously recognize and distinguish every single metallic constituent dissolved inside such a cloud. The technique has been successfully tested for long range field test of 70 m with an aerosol cloud of droplets containing sodium chloride.
23

Remote sensing of phytoplankton in the Arctic Ocean : development, tuning and evaluation of new algorithms

Li, Juan 13 December 2023 (has links)
Thèse en cotutelle : Université Laval, Québec, Canada, Philosophiæ doctor (Ph. D.) et Wuhan University, Wuhan, Chine. / Au cours des dernières décennies, l'augmentation de la production primaire (PP) dans l'océan Arctique (AO) a en partie été associée à une augmentation de la biomasse phytoplanctonique, comme l'ont montré des études de télédétection. La concentration en chlorophylle a (Chl), un indicateur de la biomasse phytoplanctonique, est un facteur clé qui peut biaiser les estimations de la PP quand elle comporte des erreurs de mesure. En d'autres mots, une estimation précise de la Chl est cruciale pour améliorer notre connaissance de l'écosystème marin et de sa réponse au changement climatique en cours. Cependant, la télédétection de la couleur de l'océan dans l'océan Arctique présente plusieurs défis. Tout d'abord, il est bien connu que l'échec des algorithmes standards de la couleur de l'océan dans l'AO est dû à l'interférence des matières colorées et détritiques (CDM) dans le spectre visible, mais comment et dans quelle mesure cela va biaiser l'estimation de la Chl reste inconnu. En outre, la Chl étant un facteur clé utilisé pour estimer la PP, la propagation des erreurs des estimations de la Chl aux estimations de la PP doit être évaluée. Le dernier mais le plus important est qu'un algorithme robuste avec une incertitude raisonnable, en particulier pour les eaux côtières complexes et productives, n'est pas encore disponible. Pour résoudre ces problèmes, dans cette étude, nous avons d'abord compilé une grande base de données bio-optiques in situ dans l'Arctique, à partir de laquelle nous avons évalué de manière approfondie les algorithmes de couleur de l'océan actuellement disponibles du point de vue des impacts des CDM. Nous avons constaté que plus le niveau de CDM par rapport à la Chl dans la colonne d'eau était élevé, plus il biaisait les estimations de la Chl. L'analyse de sensibilité des estimations de la PP sur la Chl a montré que l'erreur des estimations de la Chl était amplifiée de 7% lorsqu'elle était passée dans l'estimation du PP en utilisant un modèle de PP résolu spectralement et verticalement. En outre, pour obtenir de meilleurs résultats, nous avons optimisé un algorithme semi-analytique (Garver-Siegel-Maritorena, GSM) pour l'AO en ajoutant la bande spectrale de 620 nm qui est moins affectée par le CDM et le signal ici est généralement élevé pour les eaux riches en CDM, devenant anisi important pour le GSM afin d'obtenir des estimates précises de la Chl. Notre algorithme ajusté, GSMA, n'a amélioré la précision que de 8% pour l'AO, mais l'amélioration pour les eaux côtières a atteint 93%. Enfin, étant donné que les algorithmes qui n'exploitent pour la plupart que les parties bleue et verte du spectre visible sont problématiques pour les eaux très absorbantes/obscures, nous avons introduit un modèle d'émission de fluorescence pour tenir compte des propriétés bio-optiques du phytoplancton dans la partie rouge du spectre visible. En se couplant avec le GSMA, le nouvel algorithme à spectre complet, FGSM, a encore amélioré la précision des estimations de la Chl de ~44% pour les eaux eutrophes. À l'avenir, des couplages sont nécessaires à des fins de validation en ce qui concerne l'application satellitaire. De plus, de nouvelles approches pouvant être appliquées pour détecter le maximum de chlorophylle sous la surface (SCM), les efflorescences en bordure de glace et/ou sous la glace, les types fonctionnels de phytoplancton (PFT), sont attendues. / In the recent decades, the raise of primary production (PP) in the Arctic Ocean (AO) is mainly driven by the increase of phytoplankton biomass as multiple remote sensing studies have suggested. Chlorophyll a concentration (Chl), a proxy of phytoplankton biomass, is a key factor that biases PP estimates. In terms of bottom-up control, accurate Chl estimate is crucial to improve our knowledge of marine ecosystem and its response to ongoing climate change. However, there are several challenges of ocean color remote sensing in the Arctic Ocean. Firstly, it is well known that the failure of standard ocean color algorithms in the AO is due to the interference of colored and detrital material (CDM) in the visible spectrum, but how and to what extend it will bias the estimation of Chl remains unknown. Besides, Chl as a key factor used to estimate PP, error propagation from Chl estimates to PP estimates needs to be assessed. The last but most important is that a robust algorithm with reasonable uncertainty, especially for the complex and productive coastal waters, is not yet available. To address these problems, in this study, we first compiled a large Arctic in situ bio-optical database, based on which we thoroughly evaluated presently available ocean color algorithms from a perspective of the impacts of CDM. We found that the higher the level of CDM relative to Chl in the water column, the larger it would bias Chl estimates. Sensitivity analysis of PP estimates on Chl showed that the error of Chl estimates was amplified within 7% when passed into the estimation of PP using a spectrally- and vertically-resolved PP model. Besides, to obtain better results, we tuned GSM for the AO by adding 620 waveband which is less affected by CDM and the signal here is generally high for CDM-rich waters thus become important for GSM to retrieve accurate Chl estimates. Our tuned algorithm, GSMA, merely improved the accuracy by 8% for the AO, but the improvement for coastal waters reached up to 93%. Finally, given that algorithms that only exploits visible spectrum are problematic for highly-absorbing/dark waters, we introduced the fluorescence emission model to account for the bio-optical properties of phytoplankton in the near infrared spectrum. By coupling with GSMA, the novel full-spectrally algorithm, FGSM, further improved the accuracy of Chl estimates by ~44% for eutrophic waters. In the future, matchups are needed for validation purposes with respect to satellite application. Moreover, new approaches that can be applied to detect subsurface chlorophyll maximum (SCM), ice-edge and/or under-ice blooms, phytoplankton functional types (PFT) and so on are expected.
24

Estimation et localisation de l'assèchement forestier amazonien par imagerie Modis

Briant, Gaël 16 April 2018 (has links)
Bien davantage que le ± poumon ¿ de la Terre, les forêts équatoriales et notamment la forêt amazonienne représentent un enjeu considérable du point de vue de la biodiversité mais aussi du climat global. Il est donc nécessaire d'apprendre à mieux les connaître afin de mieux les protéger. Par conséquent, au travers de cette étude, nous avons tenté de nous familiariser le plus possible avec ce milieu complexe et varié, en nous aidant en premier lieu d'une revue bibliographique multi disciplinaire poussée. On y a découvert un monde très hétérogène mais formant une seule entité. Cette forêt est particulièrement fragile, et mise à mal par les activités humaines, notamment la deforestation. Celle-ci entraînant probablement une dégradation indirecte des forêts résiduelles, en termes d'assèchement. Par le biais de la télédétection satellitaire à imagerie visible et infrarouge, nous avons été en mesure de localiser avec une précision de l'ordre de 500m la progression du front de deforestation au cours de la période 2000 - 2007, puis de détecter les variations spatiotemporelles de teneur en eau de la végétation. Le principal acteur de la présente étude est l'indice de sécheresse SIWSI, obtenu par le capteur passif MODIS, et il représente le moyen le plus adapté à notre disposition. L'objectif principal de ce travail était de mesurer l'assèchement relatif des franges forestières à plus ou moins grande distance des lisières adjacentes aux surfaces défrichées. Grâce à une étude géostatistique, il en est ressorti que la perte moyenne de teneur en eau de ces parties forestières en contact avec le front de deforestation est bien réelle. Que ce soit au cours de la saison sèche ou durant la période de 8 années, l'assèchement s'est avéré assez intense et en progression vers les zones frontales de forêt dense, qui se montre ainsi très vulnérable à toutes sortes d'agressions. Pour ce qui concerne les forêts résiduelles situées un peu en retrait à l'arrière du front, la présence de vastes aires défrichées entraîne non seulement leur assèchement progressif et constant , mais elle aussi un désordre important dans le réseau hydrologique.
25

Concepts de base d'une méthode novatrice de détection et d'identification de systèmes optiques et de réduction de fausses alarmes

Auclair, Michel 19 April 2018 (has links)
Le monde militaire s’intéresse à la détection de systèmes optiques présents dans un milieu urbain. La raison de cet intérêt est que la présence de systèmes optiques peut être directement ou indirectement reliée à des activités hostiles. Cette visée consiste en un défi de taille car l’environnement urbain contient de nombreux éléments pouvant être confondus aux systèmes optiques, générant alors de fausses alarmes. Au cours de cette thèse, les concepts de base d’une méthode de détection novatrice permettant de détecter et d’identifier la présence de systèmes optiques ainsi que de diminuer les fausses alarmes sont présentés et vérifiés expérimentalement. Ces concepts sont fondés sur l’établissement d’une signature propre aux systèmes optiques construite à partir de la mesure de leur section efficace laquelle est fonction de la longueur d’onde de la source d’interrogation. Une plateforme de détection a été conçue afin de mesurer la section efficace des systèmes optiques en utilisant le principe de rétro-réflexion. Cette plateforme contient des sources lasers de longueurs d’onde différentes, une caméra à crénelage spatial, un tube télescopique pour l’émission et la collection des rayonnements ainsi qu’un télémètre laser. Les résultats expérimentaux ont permis de valider les concepts de la méthode proposée en détectant et identifiant correctement les systèmes optiques en plus de les différentier des fausses alarmes, ouvrant ainsi la voie à un traitement nouveau de l’information pour ce type d’application.
26

Impact et suivi de la variabilité climatique sur la production viticole dans le sud du Québec à l’aide de la télédétection hyperspectrale

Sirois, Jean-Philippe January 2015 (has links)
Au Québec, la viticulture commerciale ou artisanale n’a que 35 ans. Cependant, le Québec est soumis à de nombreuses pressions climatiques comme la présence de gel hâtif à l’automne et tardif au printemps. La période de croissance (la différence entre le dernier gel au printemps et le premier gel à l’automne) est donc très limitée par la présence du froid. Dans un contexte de réchauffement climatique, cette période de croissance sera portée à s’allonger. Une plus longue période de croissance pourrait inciter les vignerons à modifier leurs cépages ou à augmenter la superficie cultivée. Trois vignobles ont fait l’objet d’étude et des prises de mesures spectrales des ceps y ont été effectuées. Des indices climatiques appliqués à la viticulture y ont été calculés sur une période de 30 ans avec les données du NARR et validés avec les données des stations météorologiques d’Environnement Canada. La moyenne de certains indices permet de les comparer à ceux des régions viticoles renommées comme Bordeaux et Dijon en France. L’étude des indices climatiques des 30 dernières années puis des 10 dernières années permet de découvrir qu’il existe un réel potentiel pour l’implantation de cépages nobles dans le sud du Québec. Ainsi, on remarque que l’énergie thermique est suffisante pour faire la culture de ces cépages. Cependant, la période sans gel est très variable et vient tempérer ces résultats. L’analyse des signatures spectrales de données de réalité de terrain permet de faire une différenciation entre les cépages en fonction des étapes de développement et de la vitesse d’adaptation des ceps aux pratiques culturales et au climat. Les longueurs d’onde entre 720-740 nm (proche infrarouge) et 550 nm (vert) sont les plus touchées par le changement. L’analyse dérivative permet d’éliminer les facteurs d’éclairement. De plus, il est possible de rehausser les différences dans les longueurs d’onde du pic de réflectance de la chlorophylle (≈720 nm). Avec toutes ses informations, il devient possible d’identifier les principaux cépages dans les vignobles grâce à des mesures spectrales temporelles. L’utilisation d’une image hyperspectrale et de données de réalité de terrain ont permis de différencier les cépages et d’en faire l’évolution phénologique entre deux saisons de croissance. Ainsi, avec l’extraction des signatures des pixels d’un secteur n’ayant pas subi de changement physiologique majeur (secteur de vieux ceps), la signature spectrale mesurée par le capteur est comparable à celles des données de réalité de terrain. L’analyse a permis de confirmer que l’énergie thermique acquise pour le 9 juillet 2009 (422 ∘C) est comparable à celle du 27 juin 2011 (419 ∘C). L’énergie thermique cumulée à ces deux dates suppose un développement comparable des cépages. Les similarités dans les signatures spectrales reflètent ce développement comparable.
27

Étude de l’estimation de paramètres structuraux de la forêt à l’aide d’un cadre de modélisation, de la photographie hémisphérique et du LiDAR.

Leblanc, Sylvain January 2014 (has links)
Résumé : La disponibilité des données des sites expérimentaux en forêt est limitée et ces données possèdent parfois de grandes erreurs de mesures. De plus les attributs de la forêt, comme la densité du feuillage, sont difficiles à estimer et à valider. Pour résoudre ce problème, nous avons conçu une étude en cinq volets : le premier volet a été de développer un cadre de modélisation pour la simulation tridimensionnelle de scènes en forêts, rendus avec le gratuiciel POV-Ray (www.povray.org). Pour ce projet, 75 peuplements ont été créés avec trois distributions angulaires des feuilles : aléatoire, érectophile et planophile. Le cadre de modélisation permet la réalisation de scènes avec un gradient de valeur précise des attributs de l’architecture de la forêt qui sont parfois difficile à mesurer. Comme deuxième volet, le cadre de modélisation est utilisé pour évaluer des méthodes existantes d’estimation de l'indice de surface totale et foliaire (IST et ISF) et de la fermeture du couvert (FC) à partir de la photographie hémisphérique (PH). Dix PHs simulées par scènes ont été analysé pour en extraire l'IST qui comprend les feuilles et les matières ligneuses (par exemple les troncs et les branches) et les résultats ont montrés que l'intégrale tronquée de Miller (10º à 65º au zénith) et l’estimation près de 57,3º (55º à 60º) sont très semblables avec des facteurs de corrélation (R[indice supérieur 2]) de plus de 0,9 entre eux. Les résultats montrent aussi que l’IST et l’ISF sont mieux estimés par rapport aux valeurs d'entrées lorsque le groupage des feuilles est considéré. En outre, le groupage considéré avec la méthode CLX-45 (pour angles de visée de 55º à 60º), a été estimé avec un R[indice supérieur 2] de 0,66, ainsi qu’une erreur RMS de 1,0 unité (23%). Les estimations de la FC près du zénith avec dix PHs étaient très bonnes avec un R[indice supérieur 2] de 0,83 et une erreur RMS de 9 %. En troisième volet, le cadre de modélisation a été utilisé pour simuler des données de LiDAR terrestre et aéroporté. Un nouvel algorithme (LF) d’extraction de l’ISF, basé sur la méthode CLX et adaptée aux données LiDARs, a été présenté et testé sur ces données virtuelles. Les résultats de l’estimation de l’ISF sur les données TLS simulées nous montrent qu’avec la meilleur combinaison des paramètres de la méthode LF, les données TLS ont un grand potentiel pour la mesure de l’ISF avec un R[indice supérieur 2] de 0,83 et une erreur RMS de 0,7 (20 %). Donc une amélioration du R[indice supérieur 2] de 0,17 et une diminution de l’erreur RMS de 0,3 unité (3 %) par rapport aux résultats de la PH. Le même algorithme a aussi été testé sur des données LiDAR aéroportés simulées sur les même 75 scènes virtuelles et a donnée un R[indice supérieur 2] de 0,85 et une erreur RMS de 0,6 (20 %) à l’angle de visée de 55º mais seulement un R[indice supérieur 2] de 0,18 et une erreur RMS de 2,2 (58 %) à l’angle de visée de 5º. Puis, en quatrième volet, le nouvel algorithme à été testé sur des données TLS et ALS sur la réserve de Matane, Québec. Comme cinquième et dernier volet, nous avons exploré en détails les méthodes d’évaluation de l’IST, et surtout du groupage du feuillage afin de mieux comprendre les causes et limites des erreurs mesurées. Nos résultats pour ce dernier volet ont montrés que la densité du feuillage à l’intérieur des houppiers est un facteur important dans la sous-estimation de l’IST avec la méthode CCL et que la grandeur des segments en rapport avec l’ISF détermine le nombre de segments sans trouée où la moyenne logarithmique est un problème. De plus, la difficulté à mesurer l’ISF au nadir a été démontré avec les ALS, suggérant ainsi que l’ISF soit estimé à des angles proches de 57,3º autant avec les données sur le terrain (PH et TLS) qu’aéroportées (ALS). // Abstract : The availability of experimental data from forest sites is limited and may also have large measurement error. In addition, attributes such as foliage density, are difficult to estimate and validate. To address this problem, we designed a study in five parts: the first part was the development of a modeling framework for three-dimensional simulation of forest scenes, rendered with the freeware POV-Ray (www.povray.org). For this project, 75 simulated stands were created with angular distributions of random leaves, and erectophile and planophile. The framework allows the realization of scenes with the knowledge of architectural attributes of the forest that are sometimes difficult to measure. As a second component, the modeling framework is used to evaluate existing methods for estimating the total plant and leaf area index (PAI, LAI), and canopy closure from hemispherical photography (HP). Ten HPs are simulated per scene and were analyzed to extract the PAI which includes leaves and woody material (eg trunks and branches). The results have shown that the truncated integration Miller (10º to 65º in view zenith), and estimated from 55º to 60º are very similar with coefficient of determination (R[superscript 2])of more than 0.9. The results also show that PAI and LAI are better estimated with respect to the input when the grouping of the leaves is considered. In addition, the grouping method considered with the CLX method (for viewing angles of 55º to 60º), was estimated with an R[superscript 2] of 0.66 and an RMSE of 1.0 units (23 %). Canopy closure estimates near the zenith with 10 HPs were very good with an R[superscript 2] of 0.83 and an RMSE of 9%. As third component, the modeling framework was used to simulate terrestrial and airborne LiDAR data. A new LAI algorithm (LF), based on the CLX method adapted to LiDARs data was presented and tested on these virtual data. The new algorithm has been tested with simulated terrestrial LiDAR (TLS) data for the same 75 virtual scenes. The results show a great potential using TLS data and the best LF method combinations of parameters gave an R[superscript 2] of 0.83 and an RMS error of 0.7 (20 %), thus improving the R[superscript 2] by 0.17 and a reduction of the RMSE of 0.3 units (3 %). The same algorithm was also tested on simulated airborne LiDAR (ALS) data on the same 75 virtual scenes and gave an R[superscript 2] of 0.85 and an RMSE of 0.6 (20 %) at viewing angle of 55° but only an R[superscript 2] of 0.18 and an RMSE of 2.2 (58%) at the viewing angle of 5º. Then, in the fourth part, the new algorithm was tested on ALS and TLS data from the Matane Reserve, Quebec. As the fifth and final installment, we explore in detail the evaluation of the IST methods, and especially the grouping of foliage to better understand the causes and limits of measured errors. The density of foliage within crowns is an important factor in the underestimation of the LAI with the CCL method and the size of the segments with the LX based methods determines the number of segments without holes where the logarithmic mean is a problem. In addition, the difficulty in measuring the LAI at nadir has been demonstrated with ALS, suggesting that the LAI should be estimated at angles near 57.3º for both field data (HP and TLS) and airborne data (ALS).
28

Cartographie extensive d'attributs forestiers en milieu boréal à partir d'images satellitaires et de photographies aériennes

Leboeuf, Antoine January 2013 (has links)
Les forêts boréales nordiques sont peu habitées et le réseau de transport dans ces régions est peu étendu, ce qui rend difficile l'accès en forêt pour sonder l'état de la ressource forestière. Ces milieux nordiques représentent néanmoins un très grand potentiel au niveau des ressources et de leur biodiversité. Leur homogénéité en terme de composition d'essences d'arbres favorisent l'utilisation des outils de télédétection pour leur cartographie ou monitoring sur de grands territoires. Le présent projet de recherche vise d'abord à développer une méthode de cartographie des attributs forestiers à échelle locale à partir d'images à très haute résolution spatiale (QuickBird ou WorldView) et de photographies aériennes acquises à une résolution spatiale de 30 cm. Une carte matricielle d'attributs forestiers (hauteur de peuplement, densité, surface terrière et volume marchand) à échelle locale est calculée à partir d'images à très haute résolution spatiale et basée sur une méthode de fraction d'ombre. Ensuite, la méthode de fraction d'ombre est étendue pour s'appliquer à des photographies aériennes dans le but de calculer des cartes d'attributs forestiers. Ces cartes locales d'attributs forestiers servent à enrichir la base de données des placettes d'inventaire. Enfin ces données locales sont spatialement généralisées à l'aide des méthodes de kNN (k Nearest Neighbor) et KMSN (k Most Similar Neighbors) pour cartographier les attributs forestiers à une échelle régionale. Les résultats obtenus de la cartographie locale et régionale démontrent le fort potentiel de l'approche développée avec des coefficients de régressions de 36 à 92% pour le modèle (local) de fraction d'ombre ainsi que des erreurs quadratiques moyennes de 18 à 58% pour la carte régionale d'attributs forestiers. Le couplage de ces méthodes permet donc de cartographier de grandes superficies du paysage forestier québécois avec très peu de ressources financière, humaine et technique.
29

Etude de méthodes de détection de foyers de scolytes (Coleoptera, Curculionidae) dans l'est de la France. Comparaison de techniques d'inventaires au sol, de surveillance aéroportée et de télédétection aérienne et satellitaire

Delplace, David 08 February 2008 (has links)
La détection précoce de foyers de scolytes est une étape déterminante des opérations phytosanitaires qui doivent permettre de réduire l’impact indirect des tempêtes sur les forêts de conifères, en particulier l’impact du typographe sur les pessières. Cette détection doit idéalement être efficace, précise et économique. La présente thèse portait sur le typographe, Ips typographus, en pessière dans le massif vosgien. Elle visait à étudier et à comparer les performances en termes de précision (détection, localisation et inventaire), de coût et de rapidité de mise en œuvre de différentes méthodes de détection: la surveillance au sol, la détection aéroportée par un observateur embarqué (hélicoptère et ULM), et la télédétection (photographies aérienne infrarouge et imagerie satellitaire à haute et très haute résolution). Dans le chapitre « techniques de détection au sol », nous avons évalué plusieurs méthodes de suivi (par transects, le long des routes carrossables et chemins forestiers, des courbes de niveau, à partir des foyers antérieurs, le long de parcours conditionnels liés aux foyers observés). Leurs performances ont été estimées via des simulations sous SIG (système d’information géographique) et les trajets qui ont présenté les meilleurs résultats ont ensuite fait l’objet d’une validation sur le terrain. Il en ressort que ce sont les trajets le long des routes carrossables et chemins forestiers ainsi que les trajets conditionnels qui présentent les meilleurs rapports efficacité/rendement dans la détection des foyers de scolytes. Le choix d’une de ces méthodes dépendra de la taille minimum des foyers que l’on veut observer. Nous avons ensuite évalué, dans le chapitre « détection aéroportée », les performances de techniques d’observations de foyers réalisées par un observateur embarqué à bord d’un hélicoptère et d’un ULM. Une première étape a consisté à optimaliser toute une série de paramètres de vol pour les deux types d’appareils afin de permettre à l’observateur embarqué d’être dans les meilleures conditions d’observation. Ensuite, nous avons évalué la précision de détection en fonction de divers types de trajets en ULM et hélicoptère. D’après nos résultats, les observations recueillies à l’aide des deux sortes appareils n’ont pas permis de détecter de manière satisfaisante les foyers de scolytes quelque soit le type de trajet utilisé. Ces résultats sont sans-doute dus, en partie, à la faible expérience des observateurs embarqués mais également aux caractéristiques spatiales des foyers d’infestation qui ne facilitent pas leur détection par ce genre de méthode. Enfin, dans le chapitre « télédétection », nous avons évalué les performances qu’offrent (1) des séries temporelles d’images SPOT, (2) la photographie aérienne infrarouge et (3) des images Quickbird dans la détection de foyers de scolytes. Pour tous ces types d’images, nous avons estimé la précision d’une classification automatique des foyers d’infestation, réalisée à partir de leurs caractéristiques spectrales, texturales et environnementales, par rapport aux autres éléments présents sur l’image. Ces analyses ont mis en évidence qu’il est possible d’atteindre une précision de classification relativement bonne (>80%) des foyers d’infestation sur des photographies aériennes et sur des images satellites à très haute résolution spatiale (Quickbird) grâce à des techniques de segmentation et de classification par arbre de décision. Par contre, il ne nous a pas été possible de déterminer de façon satisfaisante la précision de classification des images SPOT (haute résolution spatiale). Les résultats détaillés de chacune de ces méthodes de détections sont développés dans les différents chapitres de cette thèse. La discussion générale met ceux-ci en relation en abordant leurs avantages et inconvénients respectifs, et aborde les perspectives découlant de nos résultats.
30

L’assimilation de données multivariées par filtre de Kalman d’ensemble pour la prévision hydrologique

Bergeron, Jean January 2017 (has links)
Le potentiel de l’assimilation d’un type d’observation pour la prévision hydrologique a été démontré dans certaines études. Cependant, le potentiel de l’assimilation simultanée de plusieurs types d’observations a été peu validé, particulièrement pour les données comprenant une information sur la neige au sol. De plus, l’amplitude et la durée de l’impact de l’assimilation de données peuvent dépendre du type de données assimilé, ainsi que du contenu du vecteur d’état employé pour mettre à jour les variables ou les paramètres du modèle hydrologique. La présente thèse examine l’impact de l’assimilation de données multivariées en fonction du type de données assimilé et du contenu du vecteur d’état pour la prévision hydrologique à court terme (horizon de prévision jusqu’à 5 jours) et moyen terme (horizon de prévision entre 25 et 50 jours). Le filtre de Kalman d’ensemble est employé pour assimiler les observations de l’équivalent en eau de la neige à trois endroits sur le bassin versant de la rivière Nechako, ainsi que le débit à l’exutoire, dans le modèle hydrologique CEQUEAU. Les scénarios d’assimilation sont premièrement testés dans un cadre synthétique afin d’identifier les variables les plus susceptibles à l’assimilation des données pour la prévision hydrologique. La robustesse des scénarios d’assimilation de données est ensuite testée en introduisant un biais sur les précipitations solides. Finalement, les observations réelles sont assimilées pour vérifier l’impact réel des scénarios pour la prévision hydrologique. Les résultats montrent une amélioration variable des prévisions hydrologiques en fonction des scénarios selon plusieurs critères de performance mesurant l’exactitude, le biais et la représentativité de l’incertitude représentée par les prévisions d’ensemble. L’assimilation du débit pour la mise à jour des variables améliore principalement les prévisions à court terme, tandis que l’impact de la mise à jour de certains paramètres persiste à moyen terme. L’assimilation de l’équivalent en eau de la neige améliore les prévisions à court et moyen terme, principalement pendant la période de fonte de neige. Pour la plupart des scénarios, l’assimilation simultanée du débit et de l’équivalent en eau de la neige surpasse l’assimilation des données individuellement. Ces résultats sont cohérents entre les cadres synthétique et réel.

Page generated in 0.0925 seconds