Spelling suggestions: "subject:"1mages"" "subject:"demages""
371 |
Exploitation de séries temporelles d'images satellites à haute résolution spatiale pour le suivi des prairies en milieu agricole / Use of time–series of high spatial resolution satellite images for grassland monitoring in agricultural areasDusseux, Pauline 05 December 2014 (has links)
En milieu agricole, on observe depuis plusieurs décennies une régression des prairies ainsi qu’uneévolution de leur mode de gestion liées à l’intensification de l’agriculture. Face aux enjeux que ces changementsimpliquent tant sur le plan environnemental qu’économique, l’estimation de la place des prairies dans les systèmes de production et la détermination des pratiques agricoles qui leur sont associées sont stratégiques. Avec l’arrivée de nouveaux capteurs de télédétection à Haute Résolution Spatiale (HRS) caractérisés par une résolution temporelle élevée, il est désormais possible d’envisager l’étude des couverts prairiaux à une échelle fine et à partir d’observations régulières dans le temps. L’objectif de cette thèse est d’identifier les couverts prairiaux à l’échelle des territoires agricoles et de déterminer leurs modes de gestion à partir de paramètres dérivés de séries temporelles d’images de télédétection à HRS. Pour cela, plusieurs séries intra–annuelles d’images à haute résolution spatiale optiques et radars ont été constituées afin de recenser les prairies et d’identifier trois de leurs modes de gestion : le pâturage, la fauche et l’exploitation mixte, sur un bassin versant dont le système d’exploitation dominant est l’élevage laitier. Les résultats obtenus à partir du traitement et de l’analyse des séries temporelles optiques ont permis de montrer qu’il est possible d’estimer avec une bonne précision la biomasse des prairies, de les identifier et de les caractériser. Ils mettent aussi en évidence le fait que les images radars améliorent l’identification des prairies sans pouvoir discriminer leurs modes de gestion, l’utilisation combinée des deux types d’images augmentant encore le taux d’identification des prairies. Par ailleurs, les résultats montrent que les méthodes de classification s’appuyant sur des critères de comparaison adaptés aux séries temporelles (distances élastiques) produisent des résultats nettement plus satisfaisants pour discriminer les modes de gestion des prairies que les méthodes de classification standards. / In agricultural areas, we observed a decrease of grasslands and change in their management in the last half–century, which are commonly associated with agriculture intensification. These changes have affected environmental and economic systems. In this context, the evaluation of grassland status and grassland management in farming systems is a key–issue for sustainable agriculture. With the arrival of new Earth observation sensors with high spatial and temporal resolutions, it is now possible to study grasslands at fine scale using regular observations over time. The objective of this thesis is to identify grasslands and their management practices using parameters derived from time–series of high spatial resolution (HSR) remote sensing data. For that purpose, several intra–annual time series of HSR optical and Synthetic Aperture Radar (SAR) satellite images were acquired in order to identify grasslands and three of their management practices: grazing, mowing and mixed management, on a catchment area mainly oriented towards cattle production. Results obtained from the processing and analysis of the optical time series have shown that it is possible to estimate with good accuracy grassland biomass, to identify and to characterize them. They also highlighted that radar images improve grassland identification without being able to distinguish management practices, the combined use of the two types of images further increasing grassland identification. Furthermore, results showed that the classification methods based on comparison criteria adapted to time series (warping criteria) increase significantly results for discriminating grassland management practices compared to standard classification methods
|
372 |
Décomposition intrinsèque multi vue et ré-éclairage / Multi view delighting and relightingDuchêne, Sylvain 28 April 2015 (has links)
Nous introduisons un algorithme de décomposition intrinsèque multi-vue qui permet de ré-éclairer une scène extérieure en utilisant quelques images en entrée. Plusieurs applications comme l’architecture, jeux et films exigent de manipuler un modèle 3D d’une scène. Cependant, la modification de telles scènes est limitée par les conditions d’éclairage de capture. Notre méthode estime les images intrinsèques prises dans des conditions d’éclairage identiques avec des ombres. Nous utilisons conjointement une reconstruction 3D automatique et la direction du soleil pour obtenir la décomposition de chaque image en calques de réflectance et d’éclairage malgré l’inexactitude des données du modèle 3D. Notre approche est basée sur deux idées principales. Tout d’abord, nous raffinons l’estimation des paramètres de notre modèle de formation d’image en combinant la simulation d’éclairage 3D avec des méthodes d’optimisation basée image. Deuxièmement, nous utilisons ce modèle pour exprimer la réflectance en fonction de valeur de visibilité discrète pour l’ombre et la lumière, ce qui nous permet d’introduire un classificateur d’ombre robuste pour des paires de points dans une scène. Nos calques intrinsèques sont de qualité suffisante pour manipuler les images d’entrée. Nous déplaçons les ombres portées en créant une géométrie qui préserve les silhouettes d’ombre. Notre méthode est compatible avec les approches de rendu basé image et réduit les coûts de création de contenu 3D. Enfin, nous présentons une étude sur les limites du modèle de réflectance diffus et la difficulté d’appliquer les approches existantes dans le cadre de reconstruction 3D multi vue où les données sont imprécises. / We present a multi-view intrinsic decomposition algorithm that allows relighting of an outdoor scene using just a few photographs as input. Several applications such as architecture, games and movies require a 3D model of a scene. However, editing such scenes is limited by the lighting condition at the time of capture. Our method computes intrinsic images photos taken under the same lighting condition with existing cast shadows by the sun. We use an automatic 3D reconstruction from these photos and the sun direction as input and decompose each image into reflectance and shading layers, despite the inaccuracies and missing data of the 3D model. Our approach is based on two key ideas. First, we progressively improve the accuracy of the parameters of our image formation model by performing iterative estimation and combining 3D lighting simulation with 2D image optimization methods. Second we use the image formation model to express reflectance as a function of discrete visibility values for shadow and light, which allows us to introduce a robust shadow classifier for pairs of points in a scene. Our multi-view intrinsic decomposition is of sufficient quality for relighting of the input images. We create shadow-caster geometry which preserves shadow silhouettes and using the intrinsic layers, we can perform multi-view relighting with moving cast shadows. Our method allows image-based rendering with changing illumination conditions and reduces the cost of creating 3D content for applications. Finally, we present an initial study on the limitation of diffuse reflectance models for these computations.
|
373 |
Le bicentenaire de la Révolution américaine : Représentations audiovisuelles de la mémoire / The Bicentennial of the American Revolution : Audiovisual Representations of MemoryRoman, Emilie 26 June 2015 (has links)
Fondée sur un riche corpus audiovisuel, cette thèse se concentre principalement sur les représentations audiovisuelles de la commémoration du bicentenaire de la Révolution américaine. Composé de trois chapitres, ce travail analyse le processus de construction mémoriel et identitaire qui émergea de cet anniversaire. Mes recherches montrent le caractère démagogique, idéologique et prophétique de la commémoration. Ces évènements célèbrent le passé dans le but de restaurer l’unité et former l’identité nationale afin de façonner l’avenir du pays. Le premier chapitre examine l'importance que le contexte défavorable des années 1970 a joué dans le développement des productions audiovisuelles et comment les organisateurs des évènements ont instrumentalisé le passé afin de rétablir l'unité nationale. Cette instrumentalisation aboutit à la construction d’une mythologie nationale et à l’entretien du souvenir collectif. Dans le deuxième chapitre, on analyse les divers projets nationaux et internationaux et le public visé ou oublié par les organisateurs. On fait aussi ressortir le caractère populaire de la commémoration, et on révèle le mythe identitaire qui l’accompagna. Le multiculturalisme et le contexte historique poussèrent le gouvernement et les organisateurs à imaginer des célébrations à l’échelle mondiale et une universalisation du processus mémoriel participant de la tentation messianique de l’Amérique. Enfin, on démontre comment la mémoire collective nationale a été reconfigurée par une représentation sélective des évènements, des figures et des valeurs de la Révolution en utilisant différentes méthodes et formats de diffusion afin de s’adapter aux enjeux de l’audiovisuel. / Grounded on a rich audiovisual corpus, this dissertation focuses on the audiovisual representations of the commemoration of the American Revolution Bicentennial. Composed of three chapters, this work analyzes the process of memory and identity making that emerged from this anniversary. My research shows the demagogic, ideological and prophetic caracter of the commemoration, a series of events that celebrate the past in order to restore unity, form the national identity and shape the country’s future.The first chapter examines two pivotal aspects of the celebrations: in the one hand, the importance that the adverse context of the seventies played in the development of the audiovisual materials, and on the other hand, how the organizers of the events instrumentalized the past in order to reinstate the national unity. This instrumentalization led to the construction of a national mythology and the preservation of the collective memory.In the second chapter, I analyze the various national and international projects along with the public targeted or consciously forgotten by the organizers. In this chapter, the popular character of the commemoration is highlighted and I unveil the identity myth that went with it. Multiculturalism and historical context pushed the government and the organizers to imagine worldwide celebrations, and an universalization of the memory process evolving around the messianic temptation of the United States.Finally, I demonstrate how the national collective memory was remapped through a selective representation of the Revolution’s events, figures, and values using different broadcasting methods and formats adjusted to audiovisual stakes.
|
374 |
Investigating the possibility of forest height/volume estimation using lidar, radar and optical images : case study : Nowshahr Forests in Mazindaran, Iran / Estimation de la hauteur et du volume de la forêt à l'aide du lidar, radar et des données optiques : étude de cas : forêts de Nowshahr en Mazindaran, IranRajab Pourrahmati, Manizheh 19 December 2016 (has links)
L'importance de mesurer les paramètres biophysiques de la forêt pour la surveillance de la santé des écosystèmes et la gestion forestière encourage les chercheurs à trouver des méthodes précises et à faible coût en particulier sur les zones étendues et montagneuses. Dans la présente étude, le lidar satellitaire GLAS embarqué à bord du satellite ICESat (Ice Cloud and land Elevation Satellite) a été utilisé pour estimer trois caractéristiques biophysiques des forêts situées dans le nord de l'Iran:1) hauteur maximale de la canopée (Hmax),2)hauteur de Lorey (HLorey), et 3)le volume du bois (V). Des régressions linéaires multiples (RLM), des modèles basés sur les Forêts Aléatoires (FA : Random Forest) et aussi des réseaux de neurones (ANN) ont été développés à l'aide de deux ensembles différents de variables incluant des métriques obtenues à partir des formes d’onde GLAS et des composantes principales (CP) produites à partir de l'analyse en composantes principales (ACP) des données GLAS. Pour valider et comparer les modèles, des critères statistiques ont été calculées sur la base d'une validation croisée. Le meilleur modèle pour l’estimation de la hauteur maximale a été obtenu avec une régression RLM (RMSE=5.0m) qui combine deux métriques extraites des formes d'onde GLAS (H50, Wext), et un paramètre issu du modèle numérique d'élévation (Indice de relief TI). L'erreur moyenne absolue en pourcentage (MAPE) sur les estimations de la hauteur maximale est de 16.4%. Pour la hauteur de Lorey, un modèle basé sur les réseaux de neurones et utilisant des CPs et le Wext fournit le meilleur résultat avec RMSE=3.4m et MAPE=12.3%. Afin d'estimer le volume du bois, deux approches ont été utilisées:(1)estimation du volume à l'aide d’une relation volume-hauteur avec une hauteur estimée à partir de données GLAS et (2)estimation du volume du bois directement à partir des données GLAS en développant des régressions entre le volume in situ et les métriques GLAS. Le résultat de la première approche (RMSE=116.3m3/ha) était légèrement meilleur que ceux obtenus avec la seconde approche. Par exemple, le réseau de neurones basé sur les PCs donnait un RMSE de 119.9m3/ha mais avec des meilleurs résultats que l’approche basée sur la relation volume-hauteur pour les faibles (<10m3/ha) et les forts (>800m3/ha) volumes. Au total, l'erreur relative sur le volume de bois est estimée à environ 26%. En général, les modèles RLM et ANN avaient des meilleures performances par rapport aux modèles de FA. En outre, la précision sur l’estimation de la hauteur à l'aide de métriques issues des formes d'onde GLAS est meilleure que celles basées sur les CPs.Compte tenu des bons résultats obtenus avec les modèles de hauteur GLAS, la production de la carte des hauteurs d’étude par une utilisation combinée de données de télédétection lidar, radar et optique et de données environnementales a été effectuée à l’intérieur de notre zone. Ainsi, des régressions RLM et FA ont été construites entre toutes les hauteurs dérivées des données GLAS, à l'intérieur de la zone d'étude, et les indices extraits des données de télédétection et des paramètres environnementaux. Les meilleurs modèles entrainés pour estimer Hmax (RMSE=7.4m et R_a^2=0.52) et HLorey (RMSE=5.5m et R_a^2=0.59) ont été utilisées pour produire les cartes de hauteurs. La comparaison des Hmax de la carte obtenue avec les valeurs de Hmax in situ à l'endroit de 32 parcelles produit un RMSE de 5.3m et un R2 de 0.71. Une telle comparaison pour HLorey conduit à un RMSE de 4.3m et un R2 de 0.50. Une méthode de régression-krigeage a également été utilisée pour produire une carte des hauteurs en considérant la corrélation spatiale entre les hauteurs. Cette approche, testée dans le but d'améliorer la précision de la carte de la hauteur du couvert fournie par la méthode non-spatiale, a échouée due à l'hétérogénéité de la zone d'étude en termes de la structure forestière et de la topographie. / The importance of measuring forest biophysical parameters for ecosystem health monitoring and forest management encourages researchers to find precise, yet low-cost methods especially in mountainous and large areas. In the present study Geoscience Laser Altimeter System (GLAS) on board ICESat (Ice Cloud and land Elevation Satellite) was used to estimate three biophysical characteristics of forests located in the north of Iran: 1) maximum canopy height (Hmax), 2) Lorey’s height (HLorey), and 3) Forest volume (V). A large number of Multiple Linear Regressions (MLR), Random Forest (RF) and also Artificial Neural Network regressions were developed using two different sets of variables including waveform metrics and Principal Components (PCs) produced from Principal Component Analysis (PCA). To validate and compare models, statistical criteria were calculated based on a five-fold cross validation. Best model concerning the maximum height was an MLR (RMSE=5.0m) which combined two metrics extracted from waveforms (waveform extent "Wext" and height at 50% of waveform energy "H50"), and one from Digital Elevation Model (Terrain Index: TI). The mean absolute percentage error (MAPE) of maximum height estimates was 16.4%. For Lorey’s height, an ANN model using PCs and waveform extent “Wext” outperformed other models (RMSE=3.4m, MAPE=12.3%). In order to estimate forest volume, two approaches was employed: First, estimating volume using volume-height relationship while height is GLAS estimated height; Second, estimation of forest volume directly from GLAS data by developing regressions between in situ volume and GLAS metrics. The result from first approach (116.3m3/ha) was slightly better than the result obtained by the second approach that is a PCs-based ANN model (119.9 m3/ha). But the ANN model performed better in very low (<10 m3/ha) and very high (> 800 m3/ha) volume stands. In total, the relative error of estimated forest volume was about 26%. Generally, MLR and ANN models had better performance when compared to the RF models. In addition, the accuracy of height estimations using waveform metrics was better than those based on PCs.Given the suitable results of GLAS height models (maximum and Lorey’s heights), production of wall to wall height maps from synergy of remote sensing (GLAS, PALSAR, SPOT5 and Landsat-TM) and environmental data (slope, aspect, classified elevation map and also geological map) was taken under consideration. Thus, MLR and RF regressions were built between all GLAS derived heights, inside of the study area, and indices extracted from mentioned remotely sensed and environmental data. The best resulted models for Hmax (RMSE=7.4m and R_a^2=0.52) and HLorey (RMSE=5.5m and R_a^2=0.59) were used to produce a wall to wall maximum canopy height and Lorey’ height maps. Comparison of Hmax extracted from the resulted Hmax map with true height values at the location of 32 in situ plots produced an RMSE and R2 of 5.3m and 0.71, respectively. Such a comparison for HLorey led to an RMSE and R2 of 4.3m and 0.50, respectively. Regression-kriging method was also used to produce canopy height map with considering spatial correlation between canopy heights. This approach, with the aim of improving the precision of canopy height map provided from non-spatial method, was unsuccessful which could be due to the heterogeneity of the study area in case of forest structure and topography.
|
375 |
Image-based Exploration of Iso-surfaces for Large Multi- Variable Datasets using Parameter Space.Binyahib, Roba S. 13 May 2013 (has links)
With an increase in processing power, more complex simulations have resulted in larger data size, with higher resolution and more variables. Many techniques have been developed to help the user to visualize and analyze data from such simulations. However, dealing with a large amount of multivariate data is challenging, time- consuming and often requires high-end clusters. Consequently, novel visualization techniques are needed to explore such data. Many users would like to visually explore their data and change certain visual aspects without the need to use special clusters or having to load a large amount of data. This is the idea behind explorable images (EI). Explorable images are a novel approach that provides limited interactive visualization without the need to re-render from the original data [40]. In this work, the concept of EI has been used to create a workflow that deals with explorable iso-surfaces for scalar fields in a multivariate, time-varying dataset. As a pre-processing step, a set of iso-values for each scalar field is inferred and extracted from a user-assisted sampling technique in time-parameter space. These iso-values are then used to generate iso- surfaces that are then pre-rendered (from a fixed viewpoint) along with additional buffers (i.e. normals, depth, values of other fields, etc.) to provide a compressed representation of iso-surfaces in the dataset. We present a tool that at run-time allows the user to interactively browse and calculate a combination of iso-surfaces superimposed on each other. The result is the same as calculating multiple iso- surfaces from the original data but without the memory and processing overhead. Our tool also allows the user to change the (scalar) values superimposed on each of the surfaces, modify their color map, and interactively re-light the surfaces. We demonstrate the effectiveness of our approach over a multi-terabyte combustion dataset. We also illustrate the efficiency and accuracy of our technique by comparing our results with those from a more traditional visualization pipeline.
|
376 |
Detection of Aircraft, Vehicles and Ships in Aerial and Satellite Imagery using Evolutionary Deep LearningThoudoju, Akshay Kumar January 2021 (has links)
Background. The view of the Earth from above can offer a lot of data and with technological advancements in image sensors and high-resolution satellite images there is more quantity and quality of data which can be useful in research and applications like military, monitoring climate, etc. Deep neural networks have been successful in object detection and it is seen that their learning process can be improved with using right hyperparameters when configuring the networks. This can be done hyperparameter optimization by the use of genetic algorithms. Objectives. The thesis focuses on obtaining deep learning techniques with optimal hyperparameters using genetic algorithm to detect aircraft, vehicles and ships from satellite and aerial images and compare the optimal models with the original deep learning models. Methods. The study uses literature review to obtain the appropriate deep learning techniques for object detection in satellite and aerial images, followed by conducting experiments in order to implement a genetic algorithm to find the right hyperparameters and then followed by another experiment which compares the performance between optimal and original deep learning model on basis of performance metrics mentioned in the study. Results. The literature review results depict that deep learning techniques for object detection in satellite and aerial images are Faster R-CNN, SSD and YOLO. The results of experiments show that the genetic algorithm was successful in finding optimal hyperparameters. The accuracy achieved by optimized models was higher than the original models in the case of aircraft, vehicles and ship detection. The results also show that the training times for the models have been reduced with the use of optimal hyperparameters with slight decrease in precision when detecting ships. Conclusions. After analyzing all the results carefully, the best deep learning techniques to detect aircraft, vehicles and ships are found and stated. The implementation of the genetic algorithm has been successful as it provided a set of hyperparameters which resulted in the improvement of accuracy, precision and recall in all scenarios except for values of precision in ship detection as well as improvement in training times.
|
377 |
Binary Codes for Enhancing the Most Significant Bit-Based Selective EncryptionKafi, Mehrshad January 2022 (has links)
Selective encryption (SE) methods for images often encrypt the sign bits, i.e., the most significant bits (MSBs) of the codewords corresponding to key syntax elements (in compressed images) or to pixel intensities (for uncompressed images). Our work is motivated by the key observation that the binary code (BC) used for these representations has an impact on the quality of the reconstruction at the eavesdropper (Eve), which can be regarded as a measure of the degree of security of the encryption (the lower the quality, the higher the level of security). Therefore, we address the design of BCs that enhance the security of MSB-based SE by increasing the degradation at Eve’s side when she uses a simple replacement attack (replacing all MSBs either by 0s or by 1s). We first consider the scenario of fixed-length BCs, i.e., where all the codewords have the same length. We formulate the design problem as an optimization problem with the objective of maximizing the distortion at Eve’s without any constraint or with a constraint on the entropy of the MSBs in order to shorten the size of the MSB stream to reduce the computational overhead of encryption. We show that the problem can be cast as a binary integer linear program equivalent to a weighted non-bipartite graph matching problem, for which polynomial-time solution algorithms exist. We empirically assess the performance of the optimized BCs on a Mixed Gaussian source, as well as on Gaussian and Laplacian sources, the
latter two being commonly used to model the distribution of transform coefficients and prediction residuals. Our experiments lead to the conclusion that MSB-based SE schemes could benefit from the proposed BC designs. For the case of uncompressed images, we also propose a family of structured BCs for the pixel intensity values. These BCs are constructed such that intensity values that are close have reconstructions that are far apart. As a result, the reconstruction with the replacement attack significantly destroys the smooth areas and blurs the edges, therefore increasing the degree of security. Next, we focus on the construction of variable-length BCs for the non-zero quantized AC coefficients in JPEG compressed images. For this, we first formulate the BC design problem as the problem of maximizing the distortion at Eve’s side with a constraint on the entropy. This problem can also be cast as a weighted non-bipartite graph matching problem and, therefore, can be solved efficiently. Furthermore, by gaining insights from the optimization results, a simpler and faster method for BC design is devised, which consists of only swapping a few codewords in the original code used in JPEG. We assess the practical performance of the proposed BCs for the SE method of JPEG images that encrypts only the MSBs of the non-zero quantized AC coefficients, along with the full encryption of the DC coefficients. Our experimental results show that high visual security can be achieved with only a small sacrifice in compression efficiency. In addition, the proposed BCs can be tuned to achieve various levels of degradation at Eve’s side, a property that is convenient for certain applications. / Thesis / Doctor of Philosophy (PhD)
|
378 |
Initial Study of Anisotropic Textures for Identification of Blood Vessels in 7T MRI Brain Phase ImagesBarnes, Phillip D. 22 October 2010 (has links)
No description available.
|
379 |
The Effects of Still Images and Animated Images on Motion-Related and Non-Motion Related Learning Tasks in College Students of Different Levels of Field DependenceGao, Huaiying 26 April 2005 (has links)
The use of still images in instruction has a long history in the field of education. With the widespread use of microcomputers and the development of graphic software, the ability to create and use animated images has greatly increased; today many people use animated images in their teaching and training activities. Since the use of different types of images in instruction has various influences on students'learning results, the different effects between animated images and still images have been studied widely among researchers. However, the research results are not consistent. Some research results show that animated images are more effective than still images and some show no difference or less effective results.
This experimental study explores the effects of animated images and still images on college students' learning of motion-related tasks and non-motion related tasks, with the students possessing different levels of field dependence-independence. This study found that:
For learning tasks involving motion and/or change, animated images were more effective than still images for college students, and field dependent students benefited more from animated images than did the field independent students. However, for learning tasks that did not involve motion or change, there was no difference in learning results from the use of still images as opposed to animated images. In addition, for such learning tasks, there was no difference in the learning benefits of still images to field dependent versus field independent learners. / Ph. D.
|
380 |
Régularisation d´images sur des surfaces non-planesLopez Perez, Lucero Diana 15 December 2006 (has links) (PDF)
Nous nous intéressons aux approches par EDP pour la régularisation d´images scalaires et multivaluées définies sur des supports non plans et à leurs applications à des problèmes de traitement des images. Nous étudions la relation entre les méthodes existantes et les comparons en termes de performance et complexité d´implémentation. Nous développons de nouvelles méthodes numériques pour traiter des opérateurs de type divergence utilisés dans les méthodes de régularisation par EDPs sur des surfaces triangulées. Nous généralisons la technique de régularisation du Flot de Beltrami pour le cas des images définies sur des surfaces implicites et explicites. Des implémentations sont proposées pour ces méthodes, et des expériences sont exposées. Nous montrons aussi une application concrète de ces méthodes à un problème de cartographie rétinotopique.
|
Page generated in 0.0389 seconds