21 |
Local Ties, VLBI-GPS eccentricities and Combination of Geodetic Reference Frames: a critical investigation applied to the co-located observatory of MedicinaAbbondanza, Claudio <1977> 14 July 2008 (has links)
No description available.
|
22 |
Monitoraggio di colture agricole mediante dati satellitari ASTER: problematiche e applicazioniDe Giglio, Michaela <1977> 14 July 2008 (has links)
No description available.
|
23 |
Studio delle deformazioni gravitazionali delle antenne VLBI di Medicina e di Noto con metodologiche Laser Scanning, Topografiche e FEMMontaguti, Simonetta <1975> 14 July 2008 (has links)
No description available.
|
24 |
Monitoring Ice Velocity Field in Victoria Land (Antarctica) Using Cross-Correlation Techniques on Satellite ImagesPino, Ivano <1977> 14 July 2008 (has links)
No description available.
|
25 |
Calcolo della posizione di reti di stazioni permanentiRicucci, Luciano <1968> 04 June 2010 (has links)
Con il trascorrere del tempo, le reti di stazioni permanenti GNSS (Global Navigation Satellite System) divengono sempre più un valido supporto alle tecniche di rilevamento satellitare. Esse sono al tempo stesso un’efficace materializzazione del sistema di riferimento e un utile ausilio ad applicazioni di rilevamento topografico e di monitoraggio per il controllo di deformazioni. Alle ormai classiche applicazioni statiche in post-processamento, si affiancano le misure in tempo reale sempre più utilizzate e richieste dall’utenza professionale.
In tutti i casi risulta molto importante la determinazione di coordinate precise per le stazioni permanenti, al punto che si è deciso di effettuarla tramite differenti ambienti di calcolo. Sono stati confrontati il Bernese, il Gamit (che condividono l’approccio differenziato) e il Gipsy (che utilizza l’approccio indifferenziato). L’uso di tre software ha reso indispensabile l’individuazione di una strategia di calcolo comune in grado di garantire che, i dati ancillari e i parametri fisici adottati, non costituiscano fonte di diversificazione tra le soluzioni ottenute.
L’analisi di reti di dimensioni nazionali oppure di reti locali per lunghi intervalli di tempo, comporta il processamento di migliaia se non decine di migliaia di file; a ciò si aggiunge che, talora a causa di banali errori, oppure al fine di elaborare test scientifici, spesso risulta necessario reiterare le elaborazioni. Molte risorse sono quindi state investite nella messa a punto di procedure automatiche finalizzate, da un lato alla preparazione degli archivi e dall’altro all’analisi dei risultati e al loro confronto qualora si sia in possesso di più soluzioni.
Dette procedure sono state sviluppate elaborando i dataset più significativi messi a disposizione del DISTART (Dipartimento di Ingegneria delle Strutture, dei Trasporti, delle Acque, del Rilevamento del Territorio - Università di Bologna). E’ stato così possibile, al tempo stesso, calcolare la posizione delle stazioni permanenti di alcune importanti reti locali e nazionali e confrontare taluni fra i più importanti codici scientifici che assolvono a tale funzione.
Per quanto attiene il confronto fra i diversi software si è verificato che:
• le soluzioni ottenute dal Bernese e da Gamit (i due software differenziati) sono sempre in perfetto accordo;
• le soluzioni Gipsy (che utilizza il metodo indifferenziato) risultano, quasi sempre, leggermente più disperse rispetto a quelle degli altri software e mostrano talvolta delle apprezzabili differenze numeriche rispetto alle altre soluzioni, soprattutto per quanto attiene la coordinata Est; le differenze sono però contenute in pochi millimetri e le rette che descrivono i trend sono comunque praticamente parallele a quelle degli altri due codici;
• il citato bias in Est tra Gipsy e le soluzioni differenziate, è più evidente in presenza di determinate combinazioni Antenna/Radome e sembra essere legato all’uso delle calibrazioni assolute da parte dei diversi software.
E’ necessario altresì considerare che Gipsy è sensibilmente più veloce dei codici differenziati e soprattutto che, con la procedura indifferenziata, il file di ciascuna stazione di ciascun giorno, viene elaborato indipendentemente dagli altri, con evidente maggior elasticità di gestione: se si individua un errore strumentale su di una singola stazione o se si decide di aggiungere o togliere una stazione dalla rete, non risulta necessario il ricalcolo dell’intera rete.
Insieme alle altre reti è stato possibile analizzare la Rete Dinamica Nazionale (RDN), non solo i 28 giorni che hanno dato luogo alla sua prima definizione, bensì anche ulteriori quattro intervalli temporali di 28 giorni, intercalati di sei mesi e che coprono quindi un intervallo temporale complessivo pari a due anni. Si è così potuto verificare che la RDN può essere utilizzata per l’inserimento in ITRF05 (International Terrestrial Reference Frame) di una qualsiasi rete regionale italiana nonostante l’intervallo temporale ancora limitato. Da un lato sono state stimate le velocità ITRF (puramente indicative e non ufficiali) delle stazioni RDN e, dall’altro, è stata effettuata una prova di inquadramento di una rete regionale in ITRF, tramite RDN, e si è verificato che non si hanno differenze apprezzabili rispetto all’inquadramento in ITRF, tramite un congruo numero di stazioni IGS/EUREF (International GNSS Service / European REference Frame, SubCommission for Europe dello International Association of Geodesy). / A precise and accurate coordinates estimation of GNSS (Global Navigation Satellite System) networks is very important; it can be obtained by using many software and following several strategies. One aim of the present work is to evaluate the differences of final solutions coming from different adjustment approaches and software parameterizations. Three different scientific software have been employed: Bernese, Gamit/Globk/Glorg and Gipsy/Oasis II. The Bernese and Gamit software systems adopt the classical approach (based on double phase difference), while the Gipsy software implements the Precise Point Position approach.
In order to follow the EUREF (“European REference Frame, SubCommission for Europe” of the “International Association of Geodesy”) guidelines for network densification, harmonization of the ancillary products and options was needed. These guidelines consist of a list of indications covering all phases of data processing.
Analyzing the solutions obtained by processing large amounts of data by means of the three software packages, the creation of a dedicated automatic pre and post-processing procedure became necessary. The realization of these procedures permitted data analysis and processing in a very short time. This technical aspect is mandatory considering the elaboration of regional GNSS networks or local networks for a long time span. These procedures were developed by processing the most significant datasets made available to the DISTART (Dipartimento di Ingegneria delle Strutture, dei Trasporti, delle Acque, del Rilevamento del Territorio - a Department of the University of Bologna). Therefore it has been possible to calculate the position of permanent stations of some important local and national networks and to compare some of the most important scientific codes at the same time.
Some final considerations concerning the comparison between different software are listed below:
• The solutions obtained by differentiated approaches (Bernese and Gamit) are very close one to each other;
• Gipsy solutions (using undifferentiated method) are frequently slightly more scattered than those coming from other software and sometimes they show larger differences mostly regarding the East component; nevertheless, the same differences range a few millimetres, and the trend describing lines are nearly parallel to those referring to the other two codes;
• The bias in the East component between Gipsy and differentiated solutions, is more evident in some combinations Antenna/Radome and appears to be related to the use of “absolute antenna calibrations” performed by different software.
Anyway, an important consideration coming from software comparison is that Gipsy is faster and more flexible than the others: if an instrumental error is detected on a single station or if you decide to add or remove a station from the network, recalculation of the entire network will not be necessary.
The RDN (Rete Dinamica Nazionale) was also analyzed. It has been possible to verify that RDN can be used in order to frame any regional Italian network in ITRF05 (International Terrestrial Reference Frame). On one hand, the trend ITRF (a purely indicative and non-official trend) of the stations RDN has been estimated, on the other, the framework of a regional network in ITRF by means of RDN has been tested.
|
26 |
Valorizzazione di cartografia storica attraverso moderne tecniche geomatiche: recupero metrico, elaborazione e consultazione in ambiente digitaleGatta, Giorgia <1981> 04 June 2010 (has links)
“Cartographic heritage” is different from “cartographic history”. The second term refers to the study of the development of surveying and drawing techniques related to maps, through time, i.e. through different types of cultural environment which were background for the creation of maps. The first term concerns the whole amount of ancient maps, together with these different types of cultural environment, which the history has brought us and which we perceive as cultural values to be preserved and made available to many users (public, institutions, experts).
Unfortunately, ancient maps often suffer preservation problems of their analog support, mostly due to aging. Today, metric recovery in digital form and digital processing of historical cartography allow preserving map heritage. Moreover, modern geomatic techniques give us new chances of using historical information, which would be unachievable on analog supports.
In this PhD thesis, the whole digital processing of recovery and elaboration of ancient cartography is reported, with a special emphasis on the use of digital tools in preservation and elaboration of cartographic heritage. It is possible to divide the workflow into three main steps, that reflect the chapter structure of the thesis itself:
• map acquisition: conversion of the ancient map support from analog to digital, by means of high resolution scanning or 3D surveying (digital photogrammetry or laser scanning techniques); this process must be performed carefully, with special instruments, in order to reduce deformation as much as possible;
• map georeferencing: reproducing in the digital image the native metric content of the map, or even improving it by selecting a large number of still existing ground control points; this way it is possible to understand the projection features of the historical map, as well as to evaluate and represent the degree of deformation induced by the old type of cartographic transformation (that can be unknown to us), by surveying errors or by support deformation, usually all errors of too high value with respect to our standards;
• data elaboration and management in a digital environment, by means of modern software tools: vectorization, giving the map a new and more attractive graphic view (for instance, by creating a 3D model), superimposing it on current base maps, comparing it to other maps, and finally inserting it in GIS or WebGIS environment as a specific layer.
The study is supported by some case histories, each of them interesting from the point of view of one digital cartographic elaboration step at least. The ancient maps taken into account are the following ones:
• three maps of the Po river delta, made at the end of the XVI century by a famous land-surveyor, Ottavio Fabri (he is single author in the first map, co-author with Gerolamo Pontara in the second map, co-author with Bonajuto Lorini and others in the third map), who wrote a methodological textbook where he explains a new topographical instrument, the squadra mobile (mobile square) invented and used by himself; today all maps are preserved in the State Archive of Venice;
• the Ichnoscenografia of Bologna by Filippo de’ Gnudi, made in the 1702 and today preserved in the Archiginnasio Library of Bologna; it is a scenographic view of the city, captured in a bird’s eye flight, but also with an icnographic value, as the author himself declares;
• the map of Bologna by the periti Gregorio Monari and Antonio Laghi, the first map of the city derived from a systematic survey, even though it was made only ten years later (1711–1712) than the map by de’ Gnudi; in this map the scenographic view was abandoned, in favor of a more correct representation by means of orthogonal projection; today the map is preserved in the State Archive of Bologna;
• the Gregorian Cadastre of Bologna, made in 1831 and updated until 1927, now preserved in the State Archive of Bologna; it is composed by 140 maps and 12 brogliardi (register volumes).
In particular, the three maps of the Po river delta and the Cadastre were studied with respect to their acquisition procedure. Moreover, the first maps were analyzed from the georeferencing point of view, and the Cadastre was analyzed with respect to a possible GIS insertion. Finally, the Ichnoscenografia was used to illustrate a possible application of digital elaboration, such as 3D modeling.
Last but not least, we must not forget that the study of an ancient map should start, whenever possible, from the consultation of the precious original analogical document; analysis by means of current digital techniques allow us new research opportunities in a rich and modern multidisciplinary context.
|
27 |
Interferometria SAR per lo studio di movimenti e generazione di modelli digitali del terreno in AntartideLugli, Andrea <1977> 04 June 2010 (has links)
Satellite SAR (Synthetic Aperture Radar) interferometry represents a valid technique for digital elevation models (DEM) generation, providing metric accuracy even without ancillary data of good quality.
Depending on the situations the interferometric phase could be interpreted both as topography and as a displacement eventually occurred between the two acquisitions.
Once that these two components have been separated it is possible to produce a DEM from the first one or a displacement map from the second one.
InSAR DEM (Digital Elevation Model) generation in the cryosphere is not a straightforward operation because almost every interferometric pair contains also a displacement component, which, even if small, when interpreted as topography during the phase to height conversion step could introduce huge errors in the final product.
Considering a glacier, assuming the linearity of its velocity flux, it is therefore necessary to differentiate at least two pairs in order to isolate the topographic residue only.
In case of an ice shelf the displacement component in the interferometric phase is determined not only by the flux of the glacier but also by the different heights of the two tides.
As a matter of fact even if the two scenes of the interferometric pair are acquired at the same time of the day only the main terms of the tide disappear in the interferogram, while the other ones, smaller, do not elide themselves completely and so correspond to displacement fringes.
Allowing for the availability of tidal gauges (or as an alternative of an accurate tidal model) it is possible to calculate a tidal correction to be applied to the differential interferogram.
It is important to be aware that the tidal correction is applicable only knowing the position of the grounding line, which is often a controversial matter.
In this thesis it is described the methodology applied for the generation of the DEM of the Drygalski ice tongue in Northern Victoria Land, Antarctica.
The displacement has been determined both in an interferometric way and considering the coregistration offsets of the two scenes.
A particular attention has been devoted to investigate the importance of the role of some parameters, such as timing annotations and orbits reliability.
Results have been validated in a GIS environment by comparison with GPS displacement vectors (displacement map and InSAR DEM) and ICEsat GLAS points (InSAR DEM). / L’interferometria SAR (Synthetic Aperture Radar) da satellite si è recentemente affermata tra le tecniche per la produzione di modelli digitali del terreno (DEM), consentendo accuratezze metriche anche in assenza di dati ancillari di buona qualità.
A seconda dei casi la fase interferometrica può essere considerata espressione sia della topografia del suolo che di un eventuale spostamento intercorso tra le due acquisizioni: una volta separate queste due componenti dalla prima si ottengono DEM dalla seconda mappe di deformazione.
Nella criosfera la generazione di DEM interferometrici è particolarmente problematica per via del fatto che praticamente tutte le coppie presentano anche una componente di movimento, che per quanto piccola, se espressa in termini altimetrici può comportare l’introduzione di errori anche notevoli.
Nel caso di un ghiacciaio, assumendone la linearità della velocità di spostamento, è quindi necessario differenziare due coppie in modo da isolare la sola componente di residuo topografico.
Si consideri che nel caso di una lingua glaciale flottante sul mare la componente di movimento è determinata sia dal flusso del ghiacciaio che dalle differenti altezze della marea nelle due acquisizioni.
Nonostante le due scene costituenti la coppia interferometrica siano acquisite nello stesso istante nella giornata, nell’interferogramma risultano elisi solo i termini principali della marea e non anche quelli minori che quindi comportano l’introduzione di frange di spostamento.
Avendo a disposizione misure di marea (o in alternativa un modello di marea accurato) è possibile calcolare una correzione tidale da applicare all’interferogramma differenziale.
Si noti che la correzione tidale è applicabile solo a condizione di conoscere l’ubicazione della linea di disancoraggio del ghiacciaio.
Si descrive la metodologia individuata per la generazione del DEM interferometrico della lingua flottante del ghiacciaio David Drygalski nella Terra Vittoria Settentrionale in Antartide.
Lo spostamento del ghiacciaio è stato determinato sia per via interferometrica che considerando gli offset della coregistrazione delle due scene.
Particolare attenzione si è posta nel valutare l’importanza che assumono nel processing alcuni parametri, come ad esempio l’accuratezza delle orbite e delle timing annotations.
La validazione dei risultati è avvenuta in ambiente GIS tramite confronto con vettori spostamento desunti da misure GPS (mappa di deformazione SAR) e punti laser altimetro ICEsat GLAS (DEM interferometrico e mappa di deformazione SAR).
|
28 |
Il contributo del telerilevamento multi ed iperspettrale per la caratterizzazione del territorio e la sostenibilità ambientaleMandanici, Emanuele <1982> 26 May 2011 (has links)
L’evoluzione dei sensori multispettrali e la prospettiva di sviluppo dei sensori iperspettrali nel campo del telerilevamento ottico offrono nuovi strumenti per l’indagine del territorio e rinnovano la necessità di ridefinire potenzialità, limiti e accuratezza delle metodologie tradizionali. Nel caso delle immagini iperspettrali, in particolare, l’elevatissima risoluzione spettrale apre nuove possibilità di sviluppo di modelli fisicamente basati per correlare grandezze radiometriche con indicatori fisico-chimici caratteristici delle superfici osservate, a prezzo però di maggiori oneri nella gestione del dato.
Il presente lavoro mira appunto ad esaminare, per alcune applicazioni di carattere ambientale e attraverso casi di studio specifici, le criticità del problema del rilevamento da remoto nel suo complesso: dai problemi di correzione radiometrica delle immagini, all'acquisizione di dati di calibrazione sul campo, infine all'estrazione delle informazioni di interesse dal dato telerilevato. A tal fine sono stati sperimentati diversi modelli di trasferimento radiativo ed è stata sviluppata un’interfaccia per la gestione del modello 6SV. Per quest’ultimo sono state inoltre sviluppate routine specifiche per il supporto dei sensori Hyperion e World View 2. La ricerca svolta intende quindi offrire un contributo alla definizione di procedure operative ripetibili, per alcune applicazioni intimamente connesse all’indagine conoscitiva ed al monitoraggio dei processi in atto sul territorio.
Nello specifico, si è scelto il caso di studio dell’oasi del Fayyum, in Egitto, per valutare il contenuto informativo delle immagini satellitari sotto tre diversi profili, soltanto in apparenza distinti: la classificazione della litologia superficiale, la valutazione dello stato di qualità delle acque ed il monitoraggio delle opere di bonifica. Trattandosi di un’oasi, le aree coltivate del Fayyum sono circondate dai suoli aridi del deserto libico. La mancanza di copertura vegetale rappresenta una condizione privilegiata per l’osservazione della litologia superficiale da remoto, auspicabile anche per la scarsa accessibilità di alcune aree. Il fabbisogno idrico dell’oasi è garantito dall’apporto di acque del fiume Nilo attraverso una rete di irrigazione che ha, come recettore finale, il lago Qarun, situato nella porzione più depressa dell’oasi. Questo lago, privo di emissari, soffre enormi problemi di salinizzazione, visto il clima iper-arido in cui si trova, e di inquinamento da fertilizzanti agricoli. Il problema della sostenibilità ambientale dello sfruttamento agricolo intensivo dell’oasi è un problema di deterioramento della qualità dell’acqua e della qualità dei suoli. È un problema che richiede una adeguata conoscenza del contesto geologico in cui questi terreni sono inseriti ed una capacità di monitoraggio degli interventi di bonifica ed estensione delle coltivazioni in atto; entrambe conoscenze necessarie alla definizione di un piano di sviluppo economico sostenibile.
Con l’intento di contribuire ad una valutazione delle effettive potenzialità del telerilevamento come strumento di informazione territoriale, sono state sperimentate tecniche di classificazione di immagini multispettrali ASTER ed iperspettrali Hyperion di archivio per discriminare la litologia superficiale sulle aree adiacenti al lago Qarun nell’oasi del Fayyum. Le stesse immagini Hyperion di archivio più altre appositamente acquisite sono state utilizzate, assieme ad immagini multispettrali ALI, per la valutazione qualitativa e quantitativa di parametri di qualità delle acque, attraverso l’applicazione di modelli empirici di correlazione. Infine, per valutare l’ipotesi che il deterioramento della qualità delle acque possa essere correlato ai processi di bonifica ed estensione delle coltivazioni in atto negli ultimi decenni, le immagini dell’archivio Landsat sono state utilizzate per analisi di change detection.
Per quanto riguarda il problema della validazione dei risultati, si è fatto uso di alcuni dati di verità a terra acquisiti nel corso di un survey preliminare effettuato nell’Ottobre 2010. I campioni di roccia prelevati e le misure di conducibilità elettrica delle acque del lago, benché in numero estremamente limitato per la brevità della missione e le ovvie difficoltà logistiche, consentono alcune valutazioni preliminari sui prodotti ottenuti dalle elaborazioni. Sui campioni di roccia e sabbie sciolte, in particolare, sono state effettuate misure di riflettività in laboratorio ed analisi mineralogiche dettagliate.
Per la valutazione della qualità delle acque, più precisamente delle concentrazioni di clorofilla, la metodologia utilizzata per il caso di studio egiziano è stata applicata anche sul tratto costiero adriatico antistante le foci dei fiumi Tronto e Salinello. In questo sito sono state effettuate misure in situ di conducibilità elettrica ed il prelievo di campioni di acqua per la determinazione in laboratorio delle concentrazioni di clorofilla.
I risultati ottenuti hanno evidenziato le potenzialità offerte dall’informazione spettrale contenuta nelle immagini satellitari e consentono l’individuazione di alcune pratiche operative. D’altro canto hanno anche messo in luce le carenze dei modelli attualmente esistenti, nonché le criticità legate alla correzione atmosferica delle grandezze radiometriche rilevate.
|
29 |
Rilevamento e modellazione tridimensionale per oggetti di piccole dimensioniGirardi, Fabrizio <1979> 26 May 2011 (has links)
Oggigiorno le richieste di rilievi tridimensionali e di rappresentazioni 3D ad alta
qualità i sono sempre più frequenti, e coinvolgono un numero sempre maggiore di
discipline e ambiti applicativi, quali quello industriale, medico, archeologico, forense,
museale, ecc., con ulteriori prospettive di allargamento per quanto riguarda la natura ed
il numero delle realizzazioni.
Il lavoro di ricerca svolto, di natura prevalentemente applicata, vuole andare ad
investigare un settore, quello degli oggetti di medie, medio-piccole e soprattutto piccole
dimensioni, che, a parere dell’autore, non è stato ancora investigato a fondo;di questo
d’altra parte dà riscontro il numero relativamente limitato di lavori presenti in
letteratura su questo tema.
Sebbene la metodologia di lavoro non sia concettualmente diversa da quella che si
adotta comunemente in ambito close range, le problematiche che sono state incontrate
nel corso dei diversi casi di studio analizzati nel periodo di dottorato hanno evidenziato
la necessità di soluzioni tecniche e metodologiche specifiche, anche in funzione dei
requisiti di precisione che competono ad oggetti di piccole dimensioni.
Nel corso degli anni, si è visto un allargamento della base di utenti che trovano nel
prodotto 3D un importante strumento di lavoro; si pensi alla cinematografia, alla
computer grafica, alle simulazioni virtuali a partire da modelli 3D realistici, ecc. Questo
trend sembra, al giorno d’oggi, non trovare ancora una battuta d’arresto. Considerando il
settore dei Beni Culturali, per esempio, si tratta di un campo di applicazione delle
tecniche geomatiche abbastanza ristretto e sostanzialmente nuovo, in quanto le
problematiche di documentazione e visualizzazione di beni mobili ed immobili sono in
genere indirizzate prevalentemente ad oggetti a scala di edificio, porzione di edificio o
elementi quali bassorilievi e statue, comunque con un ordine di grandezza che va da
qualche metro alla decina di metri. Qualora, come detto in precedenza, si volesse
aumentare ulteriormente la scala di indagine e di rappresentazione, devono essere
adottate delle tecniche di rilievo che possano fornire un'adeguata precisione, con
strumenti e tecnologie che possano adattarsi alle diverse configurazioni e caratteristiche
geometriche.
Nella tesi viene dunque affrontata la problematica del rilievo e della modellazione
tridimensionale, con alto livello di dettaglio, di oggetti di dimensioni che variano da
qualche decina a pochi centimetri; una situazione di questo tipo può aversi in svariati
ambiti, che vanno da quello industriale e del design a quello biologico e medico,
dall’archeologia ed alla musealizzazione virtuale alle indagini forensi, ecc.
Concentrando l’analisi al campo dei Beni Culturali, oggi oggetto di importanti
ricerche applicative che trovano impulso anche dallo sviluppo delle nuove tecnologie,
sono molto numerose e varie le occasioni in cui operare con oggetti di altissimo valore e
dimensioni molto ridotte: un esempio immediato è quello fornito dal rilievo di reperti
archeologici, ma nell’ambito del restauro, dell’analisi dei materiali, delle indagini non
distruttive, le potenzialità sono di grandissimo interesse..
Comunemente, fino a poco tempo fa, e soprattutto in ambito museale, la
documentazione geometrica di un bene culturale mobile di piccole dimensioni si è
limitata ad una rappresentazione fotografica, riportante magari elementi metrici
minimali, come un righello posto di fianco all’oggetto, in grado di fornire una scala di
lettura. Ciò che si è in genere tenuto in scarsa considerazione, ma in grado invece di
dare al contenuto informativo quel qualcosa in più rispetto alla semplice fotografia, è
l’adozione di metodologie per un rilievo rigoroso e metrico, metodologie che possono
essere di grandissimo interesse non solo a fini di studio e divulgazione dell’oggetto (si
pensi alla problematica della virtualizzazione della fruizione di beni museali) ma anche
per scopi diversi quali la duplicazione e riproduzione di copie dell’oggetto (a scala
identica al vero o a scala diversa). Di frequente infatti ci si trova di fronte a
problematiche legate alla salvaguardia e conservazione dell’oggetto, in termini di
accesso e visione da parte del pubblico, di mantenimento in particolari condizioni
microclimatiche, di difficoltà di manipolazione a fini di studio e misura, ecc.
Nella tesi sono state prese in considerazione le due tecniche geomatiche che si
prestano a soddisfare nel miglior modo possibile i requisiti di correttezza metrica e
radiometrica che un rilievo ad elevata precisione richiede. Tali tecniche, rappresentate
dalla fotogrammetria digitale con ottiche Macro e dal laser a scansione, in particolare del
tipo a triangolazione, sono state sperimentate sul campo , in modo da poter valutarne le
potenzialità, non solo alla luce dei risultati finali ottenuti, ma anche considerando i
problemi al contorno che esse comportano.
Nel corso di numerose sperimentazioni in laboratorio e sul campo sono stati
analizzati problemi quali la calibrazione di obiettivi macro e la realizzazione di reticoli
speciali atti allo scopo, la qualità dei DSM di origine laser e fotogrammetrica, l’estrazione
di caratteristiche morfologiche di microrilievo, le conseguenze della compressione dei
dati immagine, la calibrazione radiometrica ed il filtraggio delle immagini digitali,
l’allineamento di nuvole di punti con algoritmi ICP.
|
30 |
Contributi della Geomatica nella salvaguardia e gestione dei Beni Culturali / Contributions of Geomatics for the safegard and management of Cultutal AssetsMannina, Marcella 11 May 2012 (has links)
Il territorio italiano presenta una grandissima ricchezza nel campo dei Beni Culturali, sia mobili che immobili; si tratta di un patrimonio di grande importanza che va gestito e tutelato nel migliore dei modi e con strumenti adeguati, anche in relazione ai problemi ad esso legati in termini di manutenzione e di salvaguardia dai fattori di rischio a cui può essere esposto. Per una buona conoscenza del Patrimonio Culturale, è fondamentale un’acquisizione preliminare di informazioni condotte in modo sistematico e unitario, che siano diffuse ed organiche, ma anche utili ad una valutazione preventiva e ad una successiva programmazione degli interventi di restauro di tipo conservativo. In questo ambito, l'impiego delle tecniche e tecnologie geomatiche nel campo dei Beni Culturali, può fornire un valido contributo, che va dalla catalogazione e documentazione del bene culturale al suo controllo e monitoraggio. Oggigiorno il crescente sviluppo di nuove tecnologie digitali, accompagnato dai notevoli passi avanti compiuti dalle discipline della geomatica (in primo luogo topografiche e fotogrammetriche), rende possibile una efficace integrazione tra varie tecniche, favorita anche dalla diffusione di soluzioni per l’interscambio dati e per la comunicazione tra differenti dispositivi.
Lo studio oggetto della presente tesi si propone, di approfondire gli aspetti legati all’uso delle tecniche e tecnologie della Geomatica, per mettere in risalto le condizioni di un bene ed il suo stato di degrado. Per la gestione e la salvaguardia di un bene culturale , si presenta il SIT Carta del Rischio che evidenzia le pericolosità legate al patrimonio, e come esse sommate alla vulnerabilità di un singolo bene, contribuiscano all’individuazione del grado di rischio. di approfondire gli aspetti legati all’uso delle tecniche e tecnologie delle Geomatica, per mettere in risalto le condizioni di un bene ed il suo stato di degrado. / The Italian territory offers a wide range of treasures in the field of Cultural Assets, both real property and personal property; it is a property of great importance which needs an accurate management and preservation in the best way and by means of appropriate tools, also with regard to problems linked to it in terms of maintenance and safeguard from risk factors to which it may be involved.
For a good knowledge of the Cultural Heritage it is fundamental to get a previous survey of information run in a systematic and unitary way which are widespread and organic but also useful for preventive assessment and a following planning of the conservative restoration work. In this case, the use of geomatic technologies and techniques in the field of cultural assets, can provide a substantial contribution which includes from the classification and documentation of the cultural asset to its check and monitoring. Nowadays the increasing development of new digital technologies, added by remarkable steps forward got by the subject of geomatic (in the first place the topographic photogrammetric ones), makes possible an efficient integration among varied the techniques, helped also by spread of solutions to improve the data import-export movement and the communication of different devices.
The study, subject of this thesis,intends to investigate the aspects linked to the use of the techniques and technologies of Geomatic to focalize the condition of the assets and its deterioration.
In order to gain the management and the safeguard of cultural asset we can use the Risk Map, which represents territorial interest sights, this map underlines the dangers linked to the heritage assets, and it explains how these dangers, added to the vulnerability of a single assets, can contribute to the determination of the risk degree.
|
Page generated in 0.0392 seconds