• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 481
  • 141
  • 95
  • 60
  • 52
  • 30
  • 25
  • 15
  • 12
  • 11
  • 6
  • 4
  • 3
  • 3
  • 3
  • Tagged with
  • 1122
  • 175
  • 167
  • 159
  • 118
  • 117
  • 112
  • 104
  • 93
  • 89
  • 81
  • 81
  • 74
  • 73
  • 66
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Simulation of real-time Lidar sensor in non-ideal environments : Master’s Thesis in Engineering Physics

Rosberg, Philip January 2024 (has links)
Light Detection and Ranging (Lidar) is a kind of active sensor that emits a laser pulse and primarily measures the time of flight of the returning pulse and uses it to construct a 3D point cloud of the scene around the lidar sensor. The constructed point cloud is an essential asset for the control of autonomous vehicles, and especially today, an essential basis for the training of autonomous vehicle control models. However, it remains time-consuming, high-risk and expensive to acquire the amounts of data necessary to train the rather complex modern control models. As such, generating the point cloud through simulations becomes a natural solution. Yet, many lidar simulations today produce ideal point clouds, corrected only by random noise, without considering the physical reasons behind the imperfections visible in real lidar point clouds. The aim of this study was to investigate real-time simulation models for disturbances that may cause imperfections in lidar data. From a base investigation of lidar, disturbances were found, models were investigated and finally a real-time implementation of Atmospheric Effects and attenuation from Beam Divergence was evaluated. It was found that the implemented models could produce physically accurate lidar point placement while keeping the computational time low enough for real-time evaluation. However, to achieve correct separation of target hit rates under Atmospheric Effects, as high as 34% of the points had to be dropped. Additionally, the intensity of the return points could not be properly verified. From these results it can be concluded that, with additional verification and adjustment, the presented models can achieve good results for evaluation in real-time. The results of this study thus serve as a support for future developments of realistic real-time lidar simulations, for use in development of autonomous vehicle control models and implementation of digital twins.
252

Application of Multifunctional Doppler LIDAR for Non-contact Track Speed, Distance, and Curvature Assessment

Munoz, Joshua 08 December 2015 (has links)
The primary focus of this research is evaluation of feasibility, applicability, and accuracy of Doppler Light Detection And Ranging (LIDAR) sensors as non-contact means for measuring track speed, distance traveled, and curvature. Speed histories, currently measured with a rotary, wheel-mounted encoder, serve a number of useful purposes, one significant use involving derailment investigations. Distance calculation provides a spatial reference system for operators to locate track sections of interest. Railroad curves, using an IMU to measure curvature, are monitored to maintain track infrastructure within regulations. Speed measured with high accuracy leads to high-fidelity distance and curvature data through utilization of processor clock rate and left-and right-rail speed differentials during curve navigation, respectively. Wheel-mounted encoders, or tachometers, provide a relatively low-resolution speed profile, exhibit increased noise with increasing speed, and are subject to the inertial behavior of the rail car which affects output data. The IMU used to measure curvature is dependent on acceleration and yaw rate sensitivity and experiences difficulty in low-speed conditions. Preliminary system tests onboard a 'Hy-Rail' utility vehicle capable of traveling on rail show speed capture is possible using the rails as the reference moving target and furthermore, obtaining speed profiles from both rails allows for the calculation of speed differentials in curves to estimate degrees curvature. Ground truth distance calibration and curve measurement were also carried out. Distance calibration involved placement of spatial landmarks detected by a sensor to synchronize distance measurements as a pre-processing procedure. Curvature ground truth measurements provided a reference system to confirm measurement results and observe alignment variation throughout a curve. Primary testing occurred onboard a track geometry rail car, measuring rail speed over substantial mileage in various weather conditions, providing high-accuracy data to further calculate distance and curvature along the test routes. Tests results indicate the LIDAR system measures speed at higher accuracy than the encoder, absent of noise influenced by increasing speed. Distance calculation is also high in accuracy, results showing high correlation with encoder and ground truth data. Finally, curvature calculation using speed data is shown to have good correlation with IMU measurements and a resolution capable of revealing localized track alignments. Further investigations involve a curve measurement algorithm and speed calibration method independent from external reference systems, namely encoder and ground truth data. The speed calibration results show a high correlation with speed data from the track geometry vehicle. It is recommended that the study be extended to provide assessment of the LIDAR's sensitivity to car body motion in order to better isolate the embedded behavior in the speed and curvature profiles. Furthermore, in the interest of progressing the system toward a commercially viable unit, methods for self-calibration and pre-processing to allow for fully independent operation is highly encouraged. / Ph. D.
253

Tracking Human Movement Indoors Using Terrestrial Lidar

Karki, Shashank 03 June 2024 (has links)
Recent developments in surveying and mapping technologies have greatly enhanced our ability to model and analyze both outdoor and indoor environments. This research advances the traditional concept of digital twins—static representations of physical spaces—by integrating real-time data on human occupancy and movement to develop a dynamic digital twin. Utilizing the newly constructed mixed-use building at Virginia Tech as a case study, this research leverages 11 terrestrial lidar sensors to develop a dynamic digital model that continuously captures human activities within public spaces of the building. Three distinct object detection methodologies were evaluated: deep learning models, OpenCV-based techniques, and Blickfeld's lidar perception software, Percept. The deep learning and OpenCV techniques analyzed projected 2D raster images, while Percept utilized real-time 3D point clouds to detect and track human movement. The deep learning approach, specifically the YOLOv5 model, demonstrated high accuracy with an F1 score of 0.879. In contrast, OpenCV methods, while less computationally demanding, showed lower accuracy and higher rates of false detections. Percept, operating on real-time 3D lidar streams, performed well but was susceptible to errors due to temporal misalignment. This study underscores the potential and challenges of employing advanced lidar-based technologies to create more comprehensive and dynamic models of indoor spaces. These models significantly enhance our understanding of how buildings serve their users, offering insights that could improve building design and functionality. / Master of Science / Americans spend an average 87% of their time indoors, but mapping these spaces has been a challenge. Traditional methods like satellite imaging and drones do not work well indoors, and camera-based models can be invasive and limiting. By contrast, lidar technology can create detailed maps of indoor spaces while also protecting people's privacy—something especially important in buildings like schools. Currently, most technology creates static digital maps of places, called digital twins, but these do not show how people actually use these spaces. My study aims to take this a step further by developing a dynamic digital twin. This enhanced model shows the physical space and incorporates real-time information about where and how people move within it. For my research, I used lidar data collected from 11 sensors in a mixed-use building at Virginia Tech to create detailed images that track movement. I applied advanced computer techniques, including machine learning and computer vision, to detect human movement within the study space. Specifically, I used methods such as YOLOv5 for deep learning and OpenCV for movement detection to find and track people's movements inside the building. I also compared my techniques with a known software called Percept by Blickfeld, which detects moving objects in real-time from lidar data. To evaluate how well my methods worked, I measured them using traditional and innovative statistical metrics against a standard set of manually tagged images. This way, I could see how accurately my system could track indoor dynamics, offering a richer, more dynamic view of how indoor spaces are used.
254

Dust-related ice formation in the troposphere: A statistical analysis based on 11 years of lidar observations of aerosols and clouds over Leipzig / Staubbeinflusste Eisbildung in der Troposphäre: Statistische Untersuchungen von Aerosol- und Wolkenprofilen anhand von Lidarmessungen der Jahre 1997 bis 2008

Seifert, Patric 28 July 2011 (has links) (PDF)
Im Rahmen der vorliegenden Arbeit wurde der Zusammenhang zwischen heterogener Eisbildung und Temperatur auf Basis eines 11-Jahres Lidardatensatzes untersucht, wobei besonders der potenzielle Einfluss von Wüstenstaubaerosol auf die heterogene Gefriertemperatur von unterkühlten Wasserwolken überprüft wurde. Der zugrundeliegende Lidardatensatz entstand im Rahmen von zwischen 1997 und 2008 am Leibniz-Institut für Troposphärenforschung (IfT) in Leipzig durchgeführten Lidarmessungen. Mehr als 2300 zeitlich und räumlich defifinierte Wolkenschichten wurden anhand des gemessenen linearen Depolarisationsverhältnisses als Flüssigwasserwolken oder als eisbeinhaltende Wolken klassifiziert. Dazu war es nötig, den störenden Einfluss von spiegelnden Reflektionen horizontal ausgerichteter Eiskristalle auf das gemessene Depolarisationsverhältnis zu charakterisieren. Die für die Auswertung benötigten Wolkenoberkantentemperaturen wurden aus Modelldaten oder, falls zeitnah verfügbar, aus Radiosondenprofifilen ermittelt. Die statistische Auswertung des Wolkendatensatzes ergab, dass der Anteil an eisbeinhaltenden Wolken mit abnehmender Temperatur stark zunimmt. Wurde in Wolken mit Oberkantentemperaturen zwischen 0 und -5 °C in nur 1% aller Fälle Eis detektiert, enthielten zwischen -10 und -15 °C bereits 40% der in dem Temperaturbereich beobachteten Wolken Eis. Bei Wolkenoberkantentemperaturen unterhalb von -25 °C wurde in nahezu 100% aller Fälle Eis in den Wolken beobachtet. Ein ähnlicher Zusammenhang zwischen Temperatur und dem Anteil an eisbeinhaltenden Wolken wurde bereits in zahlreichen auf Flugzeugmessungen basierenden Studien gefunden. In einem weiteren Schritt wurde der Wolkendatensatz mittels drei verschiedener Ansätze in einen staubbelasteten sowie einen staubfreien Teil getrennt. Dies geschah Anhand einer Trajektorien-Clusteranalyse sowie der Trennung bezüglich der von einem Mineralstaubvorhersagemodell berechneten Mineralstaubbelastung in Wolkenhöhe beziehungsweise in der gesamten Luftsäule über Leipzig. Die Trennung ergab, dass staubbelastete Wolken im Temperaturbereich zwischen -5 und -25 °C 10-30% mehr Eis beinhalten als staubfreie Wolken. Die Ergebnisse dieser Untersuchung legen deshalb nahe, dass Mineralstaub Eisbildung in unterkühlten Wolken maßgeblich fördert. Der Vergleich des Leipziger Wolkendatensatzes mit einem auf den Kapverden gesammelten Datensatz tropischer Wolken zeigte, dass trotz vergleichbarem Einfluss von Mineralstaubaerosol Eisbildung in den Tropen erst bei um 10 K tieferen Temperaturen einsetzt. Als mögliche Einflussfaktoren wurden Unterschiede in der atmosphärischen Dynamik und die Wirkung effektiverer Eiskeime über Mitteleuropa diskutiert. / The formation and presence of ice crystals in clouds strongly determines meteorological processes as precipitation formation but also climatological parameters as the radiation budget of the atmosphere. The process of ice formation, however, is not straightforward because ice crystals and liquid water droplets can coexist at temperatures from -38 °C to 0 °C. In this temperature range, aerosol particles, so-called ice nuclei, must be present to trigger ice formation in a supercooled droplet. From laboratory studies it is known that mineral dust particles are efficient ice nuclei. We present a statistical analysis of lidar-based observations of 2300 free-tropospheric clouds that was used to investigate the effect of mineral dust particles on the ice-formation temperature. The observations were performed at Leipzig, Germany (51° N, 12 °E). The time and height as well as the phase state (ice, liquid-water) of the observed clouds can easily be derived from the lidar data. The dust load in every observed cloud layer was determined by means of model data. From the analysis it was found that dust-affected clouds produce ice 50% more frequently than dust-free clouds at temperatures between -20 and -10 °C. In a last step we compared the relationship between ice-containing clouds and temperature of the Leipzig dataset with a similar data set from Cape Verde (15 °N, 23.5 °W). Even though dust is omnipresent in the troposphere at this location, the study of more than 200 spatially well-defined altocumulus clouds did not show a significant number of ice clouds at temperatures above -15 °C. Possible explanations for the observed differences between the Leipzig and the Cape Verde data set are contrasts in atmospheric dynamics over Central Europe and western Africa or the presence of anthropogenic aerosol over Europe that may provide additional effective ice nuclei besides Saharan dust.
255

Cordilleran Forest Scaling Dynamics And Disturbance Regimes Quantified By Aerial LiDAR

Swetnam, Tyson Lee January 2013 (has links)
Semi-arid forests are in a period of rapid transition as a result of unprecedented landscape scale fires, insect outbreaks, drought, and anthropogenic land use practices. Understanding how historically episodic disturbances led to coherent forest structural and spatial patterns that promoted resilience and resistance is a critical part of addressing change. Here my coauthors and I apply metabolic scaling theory (MST) to examine scaling behavior and structural patterns of semi-arid conifer forests in Arizona and New Mexico. We conceptualize a linkage to mechanistic drivers of forest assembly that incorporates the effects of low-intensity disturbance, and physiologic and resource limitations as an extension of MST. We use both aerial LiDAR data and field observations to quantify changes in forest structure from the sub-meter to landscape scales. We found: (1) semi-arid forest structure exhibits MST-predicted behaviors regardless of disturbance and that MST can help to quantitatively measure the level of disturbance intensity in a forest, (2) the application of a power law to a forest overstory frequency distribution can help predict understory presence/absence, (3) local indicators of spatial association can help to define first order effects (e.g. topographic changes) and map where recent disturbances (e.g. logging and fire) have altered forest structure. Lastly, we produced a comprehensive set of above-ground biomass and carbon models for five distinct forest types and ten common species of the southwestern US that are meant for use in aerial LiDAR forest inventory projects. This dissertation presents both a conceptual framework and applications for investigating local scales (stands of trees) up to entire ecosystems for diagnosis of current carbon balances, levels of departure from historical norms, and ecological stability. These tools and models will become more important as we prepare our ecosystems for a future characterized by increased climatic variability with an associated increase in frequency and severity of ecological disturbances.
256

Détection de sites sécuritaires par réseaux de neurones pour un atterrissage autonome sur corps planétaire

Belley, Katia January 2008 (has links)
Dans le cadre des futures missions d'exploration planétaire comportant un atterrissage, la sélection d'un site d'atterrissage sécuritaire en temps réel devient une technologie de plus en plus recherchée. Celle-ci permet d'augmenter les retombées scientifiques de la mission en donnant accès à des régions à plus haut potentiel scientifique. Elle permet aussi d'accroître les chances de réussite de la mission et d'augmenter la charge utile des équipements en rendant l'atterrissage plus sécuritaire. Parmi les méthodes développées pour faire la sélection d'un site d'atterrissage, celle proposée par Andrew Johnson du Jet Propulsion Laboratory pour évaluer le degré de sécurité de sites d'atterrissage à partir d'images lidar prises pendant la descente s'avère très intéressante. Il utilise une technique nommée moindres carrées médians pour calculer la pente et la rugosité des sites d'atterrissage. Cependant, le temps de calcul exigé par cette approche la rend difficile à exécuter en temps réel. Ce mémoire de maîtrise propose l'utilisation d'un système à base de RNA (réseaux de neurones artificiels) pour faire l'approximation de la méthode des moindres carrés médians. Une architecture comportant quatre RNA a été développée afin de déterminer la pente et la rugosité d'un site d'atterrissage. Trois RNA permettent d'évaluer les paramètres du plan médian afin d'estimer ces deux propriétés du terrain. Un réseau optionnel est spécialisé pour l'évaluation des sites comportant une grande rugosité. Des modules de prétraitement et post-traitement des données sont utilisés pour améliorer la performance des réseaux de neurones et des modules d'arbitrage servent à déterminer les deux sorties du système. Une solution est aussi proposée pour présélectionner une zone d'atterrissage sécuritaire afin de réduire le nombre de sites individuels à évaluer. Plusieurs types de réseaux de neurones ont été comparés pour résoudre la problématique. Des lignes directrices ont été établies permettant de choisir les réseaux de neurones les plus efficaces pour chacun des modules en fonction du temps de calcul disponible. Le système développé permet de diminuer considérablement le temps de calcul requis pour résoudre la problématique. De plus, la solution proposée peut facilement être adaptée en fonction des objectifs de la mission spatiale.
257

Modélisation des attributs de la fibre de bois à l’échelle locale à partir de métriques extraites du signal LiDAR terrestre : cas d’étude sur les forêts de conifères de Terre-Neuve.

Blanchette, Danny January 2015 (has links)
La capacité d’estimer les attributs de la fibre de bois (AFB) à l’échelle locale améliorerait considérablement l’information fournie par l’inventaire forestier actuel. Afin de mieux comprendre les facteurs d’influence sur les AFB, nous avons exploré la possibilité d’utiliser des estimés par télédétection de la structure forestière à l’échelle du groupement d’arbres et vérifier leur relation avec quatre AFB significatifs pour l’industrie : la densité et longueur de fibre, l’angle des microfibrilles de même que la rugosité. Notre étude a permis le développement de modèles prédictifs de ces quatre attributs en utilisant des métriques de structure en provenance de peuplements d’épinette noire (Picea mariana) et de sapin baumier (Abies Balsamea). Les métriques sélectionnées permettent de décrire quatre aspects structuraux de la forêt : la structure de canopée, la compétition dans un groupement d’arbres, la densité de végétation et la topographie locale. Des données LiDAR terrestre (Light Detection and Ranging) ont été acquises sur 53 sites répartis sur l’île de Terre-Neuve à l’aide du système Zoller+Fröhlich Imager 5006i et représentent la source d’information primaire pour l’extraction de nos métriques. Des échantillons par carottage ont été prélevés sur 10 arbres jugés représentatifs par site visité. Leur analyse par le processus SilviScan a permis de relever en détail l’état de leurs AFB. L’utilisation du critère d’information Akaike (AIC) et l’inférence multimodèle a permis d’identifier des modèles prédictifs ayant des coefficients de détermination allant de 63% à 72% dans le cas de l’épinette noire. Les métriques de structure traduisant l’aspect de compétition ont été identifiées comme étant d’importants prédicteurs. La capacité de prédiction des AFB pour le sapin baumier a toutefois été démontrée moins considérable avec des coefficients de détermination allant de 37% à 63% selon les attributs. Pour cette espèce, les métriques traduisant la structure de la canopée se sont avérées les plus importantes. Nos résultats démontrent l’importance de la structure forestière comme indicateur important de l’état des AFB et qu’ils peuvent servir dans la mise en place de modèles prédictifs pour estimer la distribution des AFB à l’échelle régionale.
258

Optical characterization of Polar winter aerosols and clouds / La caractérisation optique des aérosols et des nuages pendant l’hiver polaire

Baibakov, Konstantin January 2014 (has links)
Résumé : L’Arctique est particulièrement sensible aux changements climatiques et a récemment subi des modifications majeures incluant une diminution dramatique de l’extension de la glace de mer. Notre capacité́ à modéliser et à potentiellement réduire les changements climatiques est limitée, en partie, par les incertitudes associées au forçage radiatif induit par les effets directs et indirects des aérosols, qui dépendent de notre compréhension des processus impliquant les nuages et les aérosols. La charge des aérosols est caractérisée par l’épaisseur optique des aérosols (AOD) qui est le paramètre radiatif extensif le plus important et l’indicateur régional du comportement des aérosols sans doute le plus décisif. Une de nos lacunes majeures dans la compréhension des aérosols arctiques est leur comportement durant l’hiver polaire. Cela est principalement dû au manque de mesures nocturnes d’AOD. Dans ce travail, on utilise des instruments (lidar et photomètre stellaire) installés en Arctique pour mesurer, respectivement, les profils verticaux des aérosols et une valeur intégrée dans la colonne (AOD) de ces profils. En outre, les données d’un lidar spatial (CALIOP) sont utilisées pour fournir un contexte pan-arctique et des statistiques saisonnières pour supporter les mesures au sol. Ces dernières ont été obtenues aux stations arctiques d’Eureka (80◦ N, 86◦ W) et de Ny Ålesund (79◦ N, 12◦ E) durant les hivers polaires de 2010-2011 et 2011-2012. L’importance physique des pe- tites variations d’amplitude de l’AOD est typique de l’hiver polaire en Arctique, mais suppose une vérification pour s’assurer que des artefacts ne contribuent pas à ces variations (par exemple un masque de nuage insuffisant). Une analyse des processus basée sur des événements (avec une résolution temporelle ≈ une minute) est essentielle pour s’assurer que les paramètres optiques et microphysiques extensifs (grossiers) et intensifs (par particules) sont cohérents et physiquement conformes. La synergie photomètre stellaire-lidar nous permet de caractériser plusieurs événements distincts au cours des périodes de mesures, en particulier : des aérosols, des cristaux de glace, des nuages fins et des nuages polaires stratosphériques (PSC). Dans l’ensemble, les modes fin (<1μm) et grossier (>1μm) de l’AOD obtenus par photométrie stellaire (τ[indice inférieur f] et τ[indice inférieur c]) sont cohérents avec leurs analogues produits à partir des profils intégrés du lidar. Cependant certaines inconsistances causées par des facteurs instrumentaux et environnementaux ont aussi été trouvées. La division de l’AOD du photomètre stellaire τ[indice inférieur f] et τ[indice inférieur c] a été davantage exploitée afin d’éliminer les épaisseurs optiques du mode grossier (le filtrage spectral de nuages) et, par la suite, de comparer τ[indice inférieur]f avec les AODs obtenues par le filtrage de nuages traditionnel (temporel). Alors que les filtrages temporel et spectral des nuages des cas étudiés au niveau des processus ont conduit à des résultats bons à modérés en termes de cohérence entre les données filtrées spectralement et temporellement (les épaisseurs optiques des photomètres stellaires et lidars étant toutes deux filtrées temporellement), les résultats saisonniers semblent être encore contaminés par les nuages. En imposant un accord en utilisant un second filtre, plus restrictif, avec un critère de ciel clair ("enveloppe minimale du nuage"), les valeurs saisonnières moyennes obtenues étaient de 0.08 à Eureka et 0.04 à Ny Ålesund durant l’hiver 2010-2011. En 2011-2012, ces valeurs étaient, respectivement, de 0.12 et 0.09. En revanche les valeurs d’épaisseur optique de CALIOP (estimées entre 0 et 8 km) ont légèrement diminué de 2010-2011 à 2011-2012 (0.04 vs. 0.03). // Abstract : The Arctic region is particularly sensitive to climate change and has recently undergone major alterations including a dramatic decrease of sea-ice extent. Our ability to model and potentially mitigate climate change is limited, in part, by the uncertainties associated with radiative forcing due to direct and indirect aerosol effects which in turn are dependent on our understanding of aerosol and cloud processes. Aerosol loading can be characterized by aerosol optical depth (AOD) which is the most important (extensive or bulk) aerosol radiative parameter and arguably the most important regional indicator of aerosol behavior. One of the most important shortcomings in our understanding of Arctic aerosols is their behavior during the Polar winter. A major reason for this is the lack of night-time AOD measurements. In this work we use lidar and starphotometry instruments in the Arctic to obtain vertically resolved aerosol profiles and column integrated representations of those profiles (AODs) respectively. In addition, data from a space-borne lidar (CALIOP) is used to provide a pan-Arctic context and seasonal statistics in support of ground based measurements. The latter were obtained at the Eureka (80 ◦ N, 86 ◦ W) and Ny Ålesund (79 ◦ N, 12 ◦ E) high Arctic stations during the Polar Winters of 2010-11 and 2011-12. The physical significance of the variation of the small-amplitude AODs that are typical of the Arctic Polar Winter, requires verification to ensure that artifactual contributions (such as incomplete cloud screening) do not contribute to these variations. A process-level event-based analysis (with a time resolution of ≈ minutes), is essential to ensure that extracted extensive (bulk) and intensive (per particle) optical and microphysical indicators are coherent and physically consistent. Using the starphotometry-lidar synergy we characterized several distinct events throughout the measurement period: these included aerosol, ice crystal, thin cloud and polar stratospheric cloud (PSC) events. In general fine (<1 μm ) and coarse (>1 μm )modeAODs from starphotometry ( τ[subscript f] and τ [subscript c] ) were coherent with their lidar analogues produced from integrated profiles : however several inconsistencies related to instrumental and environmental factors were also found. The division of starphotometer AODs into τ[subscript ]f and τ [subscript c] components was further exploited to eliminate coarse mode cloud optical depths (spectral cloud screening) and subsequently compare τ [subscript f] with cloud-screened AODs using a traditional (temporal based) approach. While temporal and spectral cloud screening case studies at process level resolutions yielded good to moderate results in terms of the coherence between spectrally and temporally cloud screened data (both temporally screened starphotometer and lidar optical depths), seasonal results apparently still contained cloud contaminated data. Forcing an agreement using a more restrictive, second-pass, clear sky criterion ("minimal cloud envelope") produced mean 2010-11 AOD seasonal values of 0.08 and 0.04 for Eureka and Ny Ålesund respectively. In 2011-12 these values were 0.12 and 0.09. Conversely, CALIOP AODs (0 to 8 km) for the high Arctic showed a slight decrease from 2010-2011 to 2011-2012 (0.04 vs 0.03).
259

Étude de l’estimation de paramètres structuraux de la forêt à l’aide d’un cadre de modélisation, de la photographie hémisphérique et du LiDAR.

Leblanc, Sylvain January 2014 (has links)
Résumé : La disponibilité des données des sites expérimentaux en forêt est limitée et ces données possèdent parfois de grandes erreurs de mesures. De plus les attributs de la forêt, comme la densité du feuillage, sont difficiles à estimer et à valider. Pour résoudre ce problème, nous avons conçu une étude en cinq volets : le premier volet a été de développer un cadre de modélisation pour la simulation tridimensionnelle de scènes en forêts, rendus avec le gratuiciel POV-Ray (www.povray.org). Pour ce projet, 75 peuplements ont été créés avec trois distributions angulaires des feuilles : aléatoire, érectophile et planophile. Le cadre de modélisation permet la réalisation de scènes avec un gradient de valeur précise des attributs de l’architecture de la forêt qui sont parfois difficile à mesurer. Comme deuxième volet, le cadre de modélisation est utilisé pour évaluer des méthodes existantes d’estimation de l'indice de surface totale et foliaire (IST et ISF) et de la fermeture du couvert (FC) à partir de la photographie hémisphérique (PH). Dix PHs simulées par scènes ont été analysé pour en extraire l'IST qui comprend les feuilles et les matières ligneuses (par exemple les troncs et les branches) et les résultats ont montrés que l'intégrale tronquée de Miller (10º à 65º au zénith) et l’estimation près de 57,3º (55º à 60º) sont très semblables avec des facteurs de corrélation (R[indice supérieur 2]) de plus de 0,9 entre eux. Les résultats montrent aussi que l’IST et l’ISF sont mieux estimés par rapport aux valeurs d'entrées lorsque le groupage des feuilles est considéré. En outre, le groupage considéré avec la méthode CLX-45 (pour angles de visée de 55º à 60º), a été estimé avec un R[indice supérieur 2] de 0,66, ainsi qu’une erreur RMS de 1,0 unité (23%). Les estimations de la FC près du zénith avec dix PHs étaient très bonnes avec un R[indice supérieur 2] de 0,83 et une erreur RMS de 9 %. En troisième volet, le cadre de modélisation a été utilisé pour simuler des données de LiDAR terrestre et aéroporté. Un nouvel algorithme (LF) d’extraction de l’ISF, basé sur la méthode CLX et adaptée aux données LiDARs, a été présenté et testé sur ces données virtuelles. Les résultats de l’estimation de l’ISF sur les données TLS simulées nous montrent qu’avec la meilleur combinaison des paramètres de la méthode LF, les données TLS ont un grand potentiel pour la mesure de l’ISF avec un R[indice supérieur 2] de 0,83 et une erreur RMS de 0,7 (20 %). Donc une amélioration du R[indice supérieur 2] de 0,17 et une diminution de l’erreur RMS de 0,3 unité (3 %) par rapport aux résultats de la PH. Le même algorithme a aussi été testé sur des données LiDAR aéroportés simulées sur les même 75 scènes virtuelles et a donnée un R[indice supérieur 2] de 0,85 et une erreur RMS de 0,6 (20 %) à l’angle de visée de 55º mais seulement un R[indice supérieur 2] de 0,18 et une erreur RMS de 2,2 (58 %) à l’angle de visée de 5º. Puis, en quatrième volet, le nouvel algorithme à été testé sur des données TLS et ALS sur la réserve de Matane, Québec. Comme cinquième et dernier volet, nous avons exploré en détails les méthodes d’évaluation de l’IST, et surtout du groupage du feuillage afin de mieux comprendre les causes et limites des erreurs mesurées. Nos résultats pour ce dernier volet ont montrés que la densité du feuillage à l’intérieur des houppiers est un facteur important dans la sous-estimation de l’IST avec la méthode CCL et que la grandeur des segments en rapport avec l’ISF détermine le nombre de segments sans trouée où la moyenne logarithmique est un problème. De plus, la difficulté à mesurer l’ISF au nadir a été démontré avec les ALS, suggérant ainsi que l’ISF soit estimé à des angles proches de 57,3º autant avec les données sur le terrain (PH et TLS) qu’aéroportées (ALS). // Abstract : The availability of experimental data from forest sites is limited and may also have large measurement error. In addition, attributes such as foliage density, are difficult to estimate and validate. To address this problem, we designed a study in five parts: the first part was the development of a modeling framework for three-dimensional simulation of forest scenes, rendered with the freeware POV-Ray (www.povray.org). For this project, 75 simulated stands were created with angular distributions of random leaves, and erectophile and planophile. The framework allows the realization of scenes with the knowledge of architectural attributes of the forest that are sometimes difficult to measure. As a second component, the modeling framework is used to evaluate existing methods for estimating the total plant and leaf area index (PAI, LAI), and canopy closure from hemispherical photography (HP). Ten HPs are simulated per scene and were analyzed to extract the PAI which includes leaves and woody material (eg trunks and branches). The results have shown that the truncated integration Miller (10º to 65º in view zenith), and estimated from 55º to 60º are very similar with coefficient of determination (R[superscript 2])of more than 0.9. The results also show that PAI and LAI are better estimated with respect to the input when the grouping of the leaves is considered. In addition, the grouping method considered with the CLX method (for viewing angles of 55º to 60º), was estimated with an R[superscript 2] of 0.66 and an RMSE of 1.0 units (23 %). Canopy closure estimates near the zenith with 10 HPs were very good with an R[superscript 2] of 0.83 and an RMSE of 9%. As third component, the modeling framework was used to simulate terrestrial and airborne LiDAR data. A new LAI algorithm (LF), based on the CLX method adapted to LiDARs data was presented and tested on these virtual data. The new algorithm has been tested with simulated terrestrial LiDAR (TLS) data for the same 75 virtual scenes. The results show a great potential using TLS data and the best LF method combinations of parameters gave an R[superscript 2] of 0.83 and an RMS error of 0.7 (20 %), thus improving the R[superscript 2] by 0.17 and a reduction of the RMSE of 0.3 units (3 %). The same algorithm was also tested on simulated airborne LiDAR (ALS) data on the same 75 virtual scenes and gave an R[superscript 2] of 0.85 and an RMSE of 0.6 (20 %) at viewing angle of 55° but only an R[superscript 2] of 0.18 and an RMSE of 2.2 (58%) at the viewing angle of 5º. Then, in the fourth part, the new algorithm was tested on ALS and TLS data from the Matane Reserve, Quebec. As the fifth and final installment, we explore in detail the evaluation of the IST methods, and especially the grouping of foliage to better understand the causes and limits of measured errors. The density of foliage within crowns is an important factor in the underestimation of the LAI with the CCL method and the size of the segments with the LX based methods determines the number of segments without holes where the logarithmic mean is a problem. In addition, the difficulty in measuring the LAI at nadir has been demonstrated with ALS, suggesting that the LAI should be estimated at angles near 57.3º for both field data (HP and TLS) and airborne data (ALS).
260

The application of optimal estimation retrieval to lidar observations

Povey, Adam Charles January 2013 (has links)
Optimal estimation retrieval is a nonlinear regression scheme to determine the conditions statistically most-likely to produce a given measurement, weighted against any a priori knowledge. The technique is applied to three problems within the field of lidar data analysis. A retrieval of the aerosol backscatter and either the extinction or lidar ratio from two-channel Raman lidar data is developed using the lidar equations as a forward model. It produces profiles consistent with existing techniques at a resolution of 10-1000 m and uncertainty of 5-20%, dependent on the quality of data. It is effective even when applied to noisy, daytime data but performs poorly in the presence of cloud. Two of the most significant sources of uncertainty in that retrieval are the nonlinearity of the detectors and the instrument's calibration (known as the dead time and overlap function). Attempts to retrieve a nonlinear correction from a pair of lidar profiles, one attenuated by a neutral density filter, are not successful as uncertainties in the forward model eliminate any information content in the measurements. The technique of Whiteman et al. [1992] is found to be the most accurate. More successful is a retrieval of the overlap function of a Raman channel using a forward model combining an idealised extinction profile and an adaptation of the equations presented in Halldórsson and Langerholc [1978]. After refinement, the retrieval is shown to be at least as accurate, and often superior to, existing methods of calibration from routine measurements, presenting uncertainties of 5-15%. These techniques are then applied to observations of ash over southern England from the Eyjafjallajökull eruption of April 2010. Lidar ratios of 50-60 sr were observed when the plume first appeared, which reduced to 20-30 sr after several days within the planetary boundary layer, indicating an alteration of the particles over time.

Page generated in 0.0338 seconds