61 |
Waldbiotopkartierung in Sachsen: Ergebnisse der ersten Aktualisierung 2006 bis 2016Hilpert, Steffen, Beck, Arne, Homann, Michael 21 March 2022 (has links)
Von 2006 bis 2016 erfolgte die erste landesweite Aktualisierung der Waldbiotopkartierung. Sie dokumentiert Anzahl und Lage gesetzlich geschützter und anderer wertvoller Biotope sowie den Zustand der Lebensraumtypen innerhalb und außerhalb der FFH-Gebiete. Die Ergebnisse sind in dieser Veröffentlichung anschaulich aufbereitet.
Redaktionsschluss: 30.10.2018
|
62 |
Mehrwegeausbreitung bei GNSS-gestützter PositionsbestimmungWildt, Steffen 28 July 2006 (has links)
GNSS-Messungen werden neben systembedingten Fehlereinflüssen vor allem von den Auswirkungen der Mehrwegeausbreitung und Signalbeugung insbesondere in der Empfangsumgebung dominiert. Verschiedene Dienste z.B. der Landesvermessungsämter haben deshalb ein primäres Interesse daran, die Auswirkungen der Effekte möglichst gering zu halten oder aber genau bestimmen zu können, um Korrekturwerte zu generieren. Mehrwege- und Beugungseffekte lassen sich besonders innerhalb von Netzstrukturen gut bestimmen. Liegen Sollkoordinaten aller Beobachtungsstationen vor gelingt dies auch in Echtzeit. In der vorliegenden Arbeit werden neben einer detaillierten Beschreibung der jeweiligen Einflussgrößen auch Möglichkeiten aufgezeigt, die genannten Effekte zu erkennen und Maßnahmen zur Reduktion der Auswirkungen auf das Meßergebnis zu ergreifen. Kern der Untersuchungen ist ein zweistufiges Modell zur Reduzierung von Mehrwegeeffekten in Echtzeit innerhalb von (Referenz-) Stationsnetzen durch Bestimmung von Korrekturwerten für originale und abgeleitete Meßwerte pro Epoche, Station und Satellit.
|
63 |
Variability of Gravity Wave Effects on the Zonal Mean Circulation and Migrating Terdiurnal Tide as Studied With the Middle and Upper Atmosphere Model (MUAM2019) Using a Nonlinear Gravity Wave SchemeLilienthal, Friederike, Yig˘ it, Erdal, Samtleben, Nadja, Jacobi, Christoph 03 April 2023 (has links)
Implementing a nonlinear gravity wave (GW) parameterization into a mechanistic middle
and upper atmosphere model, which extends to the lower thermosphere (160 km), we
study the response of the atmosphere in terms of the circulation patterns, temperature
distribution, and migrating terdiurnal solar tide activity to the upward propagating smallscale
internal GWs originating in the lower atmosphere. We perform three test simulations
for the Northern Hemisphere winter conditions in order to assess the effects of variations in
the initial GWspectrum on the climatology and tidal patterns of the mesosphere and lower
thermosphere. We find that the overall strength of the source level momentum flux has a
relatively small impact on the zonal mean climatology. The tails of the GW source level
spectrum, however, are crucial for the lower thermosphere climatology. With respect to the
terdiurnal tide, we find a strong dependence of tidal amplitude on the induced GW drag,
generally being larger when GW drag is increased.
|
64 |
Variability of Gravity Wave Effects on the Zonal Mean Circulation and Migrating Terdiurnal Tide as Studied With the Middle and Upper Atmosphere Model (MUAM2019) Using a Nonlinear Gravity Wave SchemeLilienthal, Friederike, Yiğit, Erdal, Samtleben, Nadja, Jacobi, Christoph 21 March 2023 (has links)
Implementing a nonlinear gravity wave (GW) parameterization into a mechanistic middle
and upper atmosphere model, which extends to the lower thermosphere (160 km), we
study the response of the atmosphere in terms of the circulation patterns, temperature
distribution, and migrating terdiurnal solar tide activity to the upward propagating small scale internal GWs originating in the lower atmosphere. We perform three test simulations
for the Northern Hemisphere winter conditions in order to assess the effects of variations in
the initial GW spectrum on the climatology and tidal patterns of the mesosphere and lower
thermosphere. We find that the overall strength of the source level momentum flux has a
relatively small impact on the zonal mean climatology. The tails of the GW source level
spectrum, however, are crucial for the lower thermosphere climatology. With respect to the
terdiurnal tide, we find a strong dependence of tidal amplitude on the induced GW drag,
generally being larger when GW drag is increased.
|
65 |
Observations of PG 1553+113 with the MAGIC telescope / Beobachtungen von PG 1553+113 mit dem MAGIC TeleskopDorner, Daniela January 2008 (has links) (PDF)
Blazars are among the most luminous sources in the universe. Their extreme short-time variability indicates emission processes powered by a supermassive black hole. With the current generation of Imaging Air Cherenkov Telescopes, these sources are explored at very high energies. Lowering the threshold below 100 GeV and improving the sensitivity of the telescopes, more and more blazars are discovered in this energy regime. For the MAGIC telescope, a low energy analysis has been developed allowing to reach energies of 50 GeV for the first time. The method is presented in this thesis at the example of PG 1553+113 measuring a spectrum between 50 GeV and 900 GeV. In the energy regime observed by MAGIC, strong attenuation of the gamma-rays is expected from pair production due to interactions of gamma-rays with low-energy photons from the extragalactic background light. For PG 1553+113, this provides the possibility to constrain the redshift of the source, which is still unknown. Well studied from radio to x-ray energies, PG 1553+113 was discovered in 2005 in the very high energy regime. In total, it was observed with the MAGIC telescope for 80~hours between April 2005 and April 2007. From more than three years of data taking, the MAGIC telescope provides huge amounts of data and a large number of files from various sources. To handle this data volume and to provide monitoring of the data quality, an automatic procedure is essential. Therefore, a concept for automatic data processing and management has been developed. Thanks to its flexibility, the concept is easily applicable to future projects. The implementation of an automatic analysis is running stable since three years in the data center in Würzburg and provides consistent results of all MAGIC data, i.e. equal processing ensures comparability. In addition, this database controlled system allows for easy tests of new analysis methods and re-processing of all data with a new software version at the push of a button. At any stage, not only the availability of the data and its processing status is known, but also a large set of quality parameters and results can be queried from the database, facilitating quality checks, data selection and continuous monitoring of the telescope performance. By using the automatic analysis, the whole data sample can be analyzed in a reasonable amount of time, and the analyzers can concentrate on interpreting the results instead. For PG 1553+113, the tools and results of the automatic analysis were used. Compared to the previously published results, the software includes improvements as absolute pointing correction, absolute light calibration and improved quality and background-suppression cuts. In addition, newly developed analysis methods taking into account timing information were used. Based on the automatically produced results, the presented analysis was enhanced using a special low energy analysis. Part of the data were affected by absorption due to the Saharan Air Layer, i.e. sanddust in the atmosphere. Therefore, a new method has been developed, correcting for the effect of this meteorological phenomenon. Applying the method, the affected data could be corrected for apparent flux variations and effects of absorption on the spectrum, allowing to use the result for further studies. This is especially interesting, as these data were taken during a multi-wavelength campaign. For the whole data sample of 54 hours after quality checks, a signal from the position of PG 1553+113 was found with a significance of 15 standard deviations. Fitting a power law to the combined spectrum between 75 GeV and 900 GeV, yields a spectral slope of 4.1 +/- 0.2. Due to the low energy analysis, the spectrum could be extended to below 50 GeV. Fitting down to 48 GeV, the flux remains the same, but the slope changes to 3.7 +/- 0.1. The determined daily light curve shows that the integral flux above 150 GeV is consistent with a constant flux. Also for the spectral shape no significant variability was found in three years of observations. In July 2006, a multi-wavelength campaign was performed. Simultaneous data from the x-ray satellite Suzaku, the optical telescope KVA and the two Cherenkov experiments MAGIC and H.E.S.S. are available. Suzaku measured for the first time a spectrum up to 30 keV. The source was found to be at an intermediate flux level compared to previous x-ray measurements, and no short time variability was found in the continuous data sample of 41.1 ksec. Also in the gamma regime, no variability was found during the campaign. Assuming a maximum slope of 1.5 for the intrinsic spectrum, an upper limit of z < 0.74 was determined by deabsorbing the measured spectrum for the attenuation of photons by the extragalactic background light. For further studies, a redshift of z = 0.3 was assumed. Collecting various data from radio, infrared, optical, ultraviolet, x-ray and gama-ray energies, a spectral energy distribution was determined, including the simultaneous data of the multi-wavelength campaign. Fitting the simultaneous data with different synchrotron-self-compton models shows that the observed spectral shape can be explained with synchrotron-self-compton processes. The best result was obtained with a model assuming a log-parabolic electron distribution. / Blazare gehören zu den leuchtstärksten Quellen im Universum. Ihre extreme Kurzzeitvariabilität deutet auf Strahlungsprozesse hin, die von einem supermassereichem schwarzen Loch mit Energie versorgt werden. Mit der aktuellen Generation von abbildenden Luft-Cherenkov Teleskopen werden diese Quellen bei sehr hohen Energien erforscht. Durch das Absenken der Schwellenenergie auf unter 100 GeV und aufgrund verbesserter Sensitivitäten werden immer mehr Blazare in diesem Energiebereich entdeckt. Für das MAGIC Teleskop wurde eine Analysemethode entwickelt, die es erlaubt zum ersten mal zu niedrigen Energien im Bereich von 50 GeV vorzudringen. Mit dieser Methode wurde am Beispiel von PG 1553+113 ein Spektrum zwischen 50 GeV und 900 GeV bestimmt. Im dem von MAGIC beobachteten Energiebereich wird eine starke Abschwächung des Gammalichts aufgrund von Paarproduktion in Wechselwirkungen mit niederenergetischen Photonen des extragalaktischen Hintergrundlichts erwartet. Für PG 1553+113 ergibt sich daraus eine Möglichkeit um die noch unbekannte Entfernung der Quelle einzuschränken. Während die Quelle PG 1553+113 im Radio- bis Röntgenbereich gut untersucht ist, wurde sie im Hochenergiebereich erst 2005 entdeckt. Zwischen April 2005 und April 2007 wurde sie mit dem MAGIC Teleskop insgesamt 80 Stunden lang beobachtet. Aus mehr als drei Jahren Datennahme liefert das MAGIC Telekop riesige Mengen an Daten und eine große Anzahl von Dateien. Um dieses Datenvolumen zu bewältigen und für die Überwachung der Datenqualität ist eine automatische Verarbeitung unverzichtbar. Darum wurde ein Konzept zur automatischen Datenverwaltung und -verarbeitung entwickelt. Aufgrund seiner Flexibilität kann dieses Konzept auch leicht auf zukünftige Projekte übertragen werden. Die Umsetzung für MAGIC läuft seit drei Jahren stabil im Datenzentrum in Würzburg und liefert konsistente Ergebnisse von allen Daten, d.h. die identische Verarbeitung sorgt für Vergleichbarkeit. Ausserdem ermöglicht das datenbankbasierte Konzept einfache Tests neuer Analysemethoden und die Neuanalyse aller Daten mit einer neuen Software auf Knopfdruck. Man kann nicht nur jederzeit die Verfügbarkeit und den Verarbeitungsstatus aller Daten aus der Datenbank abfragen, sondern auch Qualitätsparameter und Ergebnisse, was die Qualitätskontrolle und Auswahl von Daten sowie die Überwachung des Teleskopstatus erleichtert. Durch die Verwendung der automatischen Analyse kann die riesige Menge an Daten in einem vernünftigen Zeitrahmen analysiert werden und man kann sich stattdessen auf die Interpretation der Ergebnisse konzentrieren. Für PG 1553+113 wurden die Werkzeuge und Resultate der automatischen Analyse verwendet. Verglichen mit den zuvor veröffentlichten Ergebnissen wurde eine Software Version verwendet, die verschiedene Verbesserungen enthält, wie zum Beispiel eine absolute Pointing-Korrektur, eine absolute Lichtkalibration und verbesserte Schnitte zur Qualitätssicherung und Untergrundunterdrückung. Ausserdem wurde eine neu entwickelte Analysemethode, welche die Zeitinformation mit einzbezieht, benutzt. Basierend auf den Ergebnissen der automatischen Analyse wurde das Ergebnis mit einer speziell für niedrige Energien optimierten Analyse verbessert. Ein Teil der Daten wurde beinträchtigt durch Absorption aufgrund Sandstaub in der Atmosphäre, der sogenannten Calima. Eine neue Methode wurde entwickelt, um den Effekt dieses meteorologischen Phänomens zu korrigieren. Auf diese Weise konnten scheinbare Flussänderungen und Einflüsse auf das Spetrum ausgeglichen werden, wodurch die Daten für weiterführende Studien verwendet werden können. Dies ist hier von besonderer Bedeutung, da die betroffenen Daten simultan mit Daten aus anderen Wellenlängenbereichen genommen wurden. Für den kompletten Datensatz wurde ein Signal aus der Richtung von PG 1553+113 mit einer Signifikanz von 15 Standardabweichungen gemessen. Fittet man ein Potenzgesetz an das kombinierte Spektrum, so erhält man einen Spektralindex von 4.1 +/- 0.2. Mit Hilfe der Niederenergieanalyse konnte das Spektrum bis unter 50 GeV erweitert werden. Fittet man es bis 48 GeV, so bleibt die Flussnormierung gleich, aber der Index ändert sich auf 3.7 +/- 0.1. Die berechnete Lichtkurve auf Tagesbasis zeigt, dass der integrale Fluss oberhalb von 150 GeV mit konstanten Fluss konsistent ist. Auch für die Form des Spektrums wurde in den drei Jahren, in denen beobachtet wurde, keine Variabilität gefunden. Im Juli 2006 wurden simultane Beobachtungen des Röntgensatelliten Suzaku, des optischen Teleskops KVA und der Cherenkovexperimente MAGIC und H.E.S.S. koordiniert. Mit Suzaku wurde zum ersten Mal ein Röngtenspektrum bis 30 keV vermessen. Die Quelle befand sich, verglichen mit früheren Röngtenmessungen, in einem mittleren Flusszustand, und während der kontinuierlichen Datennahme von 41.1 ksec wurde keine Variabilität gemessen. Auch im Gammabereich wurden keinen Veränderungen während der Beobachtungen festgestellt. Nimmt man für das intrinsische Spektrum der Quelle einen maximalen Index von 1.5 an, so lässt sich für die Rotverschiebung eine obere Grenze von z < 0.74 bestimmen, indem man das gemessene Spektrum mit verschiedenen angenommenen Rotverschiebungen auf die Abschwächung durch das extragalaktische Hintergrundlicht korrigiert. Für weitere Studien wird eine Rotverschiebung von z = 0.3 angenommen. Aus einer Sammlung von Daten aus dem Radio-, Infrarot-, optischen, Ultraviolett-, Röntgen- und Gammabereich wurde eine spektrale Energieverteilung bestimmt, die auch die simultanen Daten aus der Multiwellenlängenkampagne enthält. Fittet man die simultanen Daten mit einem Synchrotron-Selbst-Compton Modell, so sieht man, dass die spektrale Form mit Synchrotron-Selbst-Compton Prozessen erklärt werden kann. Das beste Ergebnis konnte mit einem Modell erzielt werden, das eine Elektronenverteilung annimmt, die in doppelt logarithmischer Darstellung eine Parabelform hat. Read more
|
66 |
Discovery and Characterization of the first Low-Peaked and Intermediate-Peaked BL Lacertae Objects in the Very High Energy Gamma-Ray Regime / Entdeckung und Charakterisierung der ersten "low-peaked" und "intermediate-peaked" BL Lacertae Objekte im Hochenergetischen GammabereichBerger, Karsten January 2009 (has links) (PDF)
20 years after the discovery of the Crab Nebula as a source of very high energy gamma-rays, the number of sources newly discovered above 100 GeV using ground-based Cherenkov telescopes has considerably grown, at the time of writing of this thesis to a total of 81. The sources are of different types, including galactic sources such as supernova remnants, pulsars, binary systems, or so-far unidentified accelerators and extragalactic sources such as blazars and radio galaxies. The goal of this thesis work was to search for gamma-ray emission from a particular type of blazars previously undetected at very high gamma-ray energies, by using the MAGIC telescope. Those blazars previously detected were all of the same type, the so-called high-peaked BL Lacertae objects. The sources emit purely non-thermal emission, and exhibit a peak in their radio-to-X-ray spectral energy distribution at X-ray energies. The entire blazar population extends from these rare, low-luminosity BL Lacertae objects with peaks at X-ray energies to the much more numerous, high-luminosity infrared-peaked radio quasars. Indeed, the low-peaked sources dominate the source counts obtained from space-borne observations at gamma-ray energies up to 10 GeV. Their spectra observed at lower gamma-ray energies show power-law extensions to higher energies, although theoretical models suggest them to turn over at energies below 100 GeV. This opened the quest for MAGIC as the Cherenkov telescope with the currently lowest energy threshold. In the framework of this thesis, the search was focused on the prominent sources BL Lac, W Comae and S5 0716+714, respectively. Two of the sources were unambiguously discovered at very high energy gamma-rays with the MAGIC telescope, based on the analysis of a total of about 150 hours worth of data collected between 2005 and 2008. The analysis of this very large data set required novel techniques for treating the effects of twilight conditions on the data quality. This was successfully achieved and resulted in a vastly improved performance of the MAGIC telescope in monitoring campaigns. The detections of low-peaked and intermediate-peaked BL Lac objects are in line with theoretical expectations, but push the models based on electron shock acceleration and inverse-Compton cooling to their limits. The short variability time scales of the order of one day observed at very high energies show that the gamma-rays originate rather close to the putative supermassive black holes in the centers of blazars, corresponding to less than 1000 Schwarzschild radii when taking into account relativistic bulk motion. / 20 Jahre nachdem zum ersten Mal hoch energetische Gamma-Strahlung aus der Richtung des Krabbennebels detektiert wurde, ist die Zahl der mit erdgebundenen Tscherenkow Teleskopen neu entdeckten Quellen oberhalb von 100 GeV erheblich gestiegen, auf insgesamt 81, zum derzeitigen Stand dieser Arbeit. Die Quellen haben unterschiedliche Ursprünge, die von galaktischen Objekten, wie z.B. Supernova Überresten, Pulsaren, Doppelsystemen zu bisher nicht identifizierten Objekten und extragalaktischen Objekten wie Blazaren und Radio Galaxien reicht. Das Ziel dieser Arbeit war es nach Gamma-Strahlung von einer bestimmten Art von Blazaren zu suchen, die bisher nicht im Hochenergie Gamma Bereich detektiert werden konnten. Für die Suche werden die Daten des MAGIC Teleskops auf La Palma verwendet, welches das weltweit größte Teleskop seiner Art ist. Alle bisher entdeckten Blazare waren vom gleichen Typ, der sogenannten Klasse der “high-peaked BL Lacertae”. Diese Quellen emittieren nicht thermische Strahlung und zeigen ein Maximum in der Radio-zu-Röntgen Spektralverteilung bei Röntgenenergien. Die gesamte Blazar Population reicht von diesen seltenen BL Lacertae Objekten mit niedriger Leuchtkraft und einem Maximum im Röntgenbereich hin zu den sehr viel zahlreicheren Radio Quasaren mit hoher Leuchtkraft, deren Maximum der Spektralen Energieverteilung im Infrarotbereich liegt. Tatsächlich dominieren diese “low-peaked” Quellen die Populationsstudien von satellitengestützten Gammabeobachtungen im Energiebereich bis zu 10 GeV. Ihre Spektren im niederenergetischen Gammabereich lassen sich exponentiell bis zu höheren Energien extrapolieren, ohne dass ein Abbruch erkennbar ist, obwohl theoretische Modelle einen Wendepunkt unterhalb von 100 GeV erwarten. Darauf begründet wurden Beobachtungen mit dem MAGIC Tscherenkow Teleskop durchgeführt, welches die derzeit niedrigste Energieschwelle besitzt. Im Rahmen dieser Arbeit konzentrierte sich die Suche auf die bekannten Quellen BL Lac, W Comae und S5 0716+714. Zwei von diesen Quellen wurden eindeutig im Hochenergetischen Gammabereich mit dem MAGIC Teleskop entdeckt, basierend auf insgesamt etwa 150 Stunden an Daten, die zwischen 2005 und 2008 gesammelt wurden. Die Analyse dieses sehr großen Datensatzes benötigte neue Techniken um die Effekte von Beobachtungen unter Dämmerungsbedingungen auf die Datenqualität untersuchen zu können. Die erfolgreiche Anwendung sorgte für eine gewaltige Erweiterung der Performanz des MAGIC Teleskops während Überwachungskampagnen. Die Detektionen der sogenannten “low-peaked” und “intermediate-peaked” Objekte liegt im Rahmen der theoretischen Erwartungen, jedoch werden Modelle, die auf der Schockbeschleunigung von Elektronen und die Kühlung durch den umgekehrten Compton Prozess basieren an ihre Grenzen gebracht. Die beobachtete Kurzzeitvariabilität im hochenergetischen Gammabereich beträgt etwa einen Tag, was zeigt, dass die Gammastrahlung relativ nah am vermuteten Supermassiven Schwarzen Loch entsteht, weniger als 1000 Schwarzschild Radien entfernt, wenn man die Bewegung mit relativistischen Geschwindigkeiten berücksichtigt. Read more
|
67 |
A High-Resolution Time-of-Flight Spectrometer for Fission Fragments and Ion BeamsKosev, Krasimir 20 October 2008 (has links) (PDF)
1. A quantitive understanding of the nucleosynthesis process requires the knowledge of the production rates, the masses and the ?-decay characteristics of exotic neutron-rich nu- clei. Nuclear fission is a suitable method of producing such nuclei with masses from 60 - 150. Neutron-rich nuclei close to the r-process path can be produced via photo-fission at the Rossendorf superconducting linear accelerator of high brilliance and low emittance (ELBE) or by means of nuclear reactions at relativistic energies (for example at GSI). If the fission prod- ucts are identified and also their charge numbers are obtained, it will be principally possible to investigate their structure by means of beta-gamma spectroscopy. 2. For the purpose of fission-fragment detection a double time-of-flight (TOF) spectrometer has been developed. The key component of the TOF spectrometer is a TOF detector consisting of multichannel-plate (MCP) detectors with a position-sensitive readout, a foil for secondary electron (SE) production and an electrostatic mirror. The fission fragments are detected by measuring the SEs impinging on the position-sensitive anode after emission from the foil, ac- celeration and deflection by the electrostatic mirror. 3. In the first part of the work, special attention is paid to the relevant methods of building a spectrometer of such type. The functionality of the different detector components is proven in detail. A unique method for the determination of the SE foil thickness with ?-particles is pre- sented. Values for the mirror transmission and scattering are deduced. A dedicated SIMION 3D simulation showed that introducing serpentine like wires with pitch distance of 1 mm is capable of providing transparency of more than 90% without significant impact on the time resolution. 4. Since the performance of the MCP detectors is crucial, optimised schemes for their high- voltage supplies have been implemented successfully. Further enhancement of the setup was achieved by introducing surface-mount device (SMD) elements for signal decoupling, positioned close to the detector surface. Thus, we succeeded in avoiding signal deterioration coming from the additional capacitances and inductivities caused by extra cable lengths. Because the MCP signal decoupling takes place by means of rings with not well-defined impedance, impedance- matching problems arise, causing signal ringing and distortion. An approach towards solving this problem was to build a special fast, wide-band transimpedance amplifier. Using its circuit mounted close to the detectors, a significant reduction of the signal ringing was observed while maintaining the rise time of the detector signal. In order to process the multichannel-plate de- tector signals optimally, a new state-of-the-art constant-fraction discriminator (CFD) based on the amplitude and rise time compensated (ARC) technique with very low threshold capabilities and optimised walk properties has been developed and incorporated into the setup. 5. In our first laboratory test measurements conducted with an ?-particle source, we demonstrated ability of the setup to resolve pattern images placed directly in front of the MCP detector or reflected by the electrostatic mirror. The obtained position resolution for the second case is in the order of 2 mm. We showed that the detection efficiency of the system for ions like He is less than 30 %. This is mainly due to the low number of the electrons liberated from the SE foil. In a setup consisting of two mirror MCP detectors, we could successfully observe the TOF spectrum of a mixed (226Ra, 222Rn, 210Po, 218Po, 214Po) ?-source and found a good agreement with a SRIM simulation. 6. Measurements performed at the FZ Dresden-Rossendorf 5 MV tandem accelerator en- abled us to learn more about the response of the TOF detectors to various beams of heavy ions. The first in-beam experiments clearly showed that the applied setup consisting of two mirror detectors is capable of resolving different 35Cl beam charge states. In a combination with the specially designed wide-band amplifier and dedicated CFDs based on the ARC technique, we managed to achieve an in-beam time resolution of 170 ps per TOF detector. Measurements with ions of Z &gt; 30 resulted in detection efficiencies of greater than 90%. At foil accelerating potentials approximately two times larger than the mirror deflection voltage, most of the SEs gain enough energy to pass through the electrostatic mirror without being deflected towards the MCP surface. Thus, an abrupt drop of the efficiency curve was observed - the “transparent” mode of the mirror. 7. Properties of electrons ejected from thin foils from heavy ions have been also investigated. From the MCP pulse-height-distribution spectra, a number for the forward-emitted SEs ejected by 35Cl beam was deduced. A method for obtaining widths of the SE energy distributions from the drop of the efficiency curve for various ions has been proposed. Assuming that the efficiency curve as a function of the accelerating voltage follows an error function, its standard deviation gives the standard deviation of the SE energy distribution. Another method based on the TOF technique for reconstructing the secondary electron velocity and energy distribution was also invented. It was found that the resulting mean SE velocity closely approaches the one of the beam ions. This phenomenon was attributed to the so-called “convoy” electrons. 8. The obtained position resolution for beams like 35Cl, 79Br and 107Ag at stable detection efficiency was better than 1.8 mm. It was demonstrated that with increasing the foil accelerat- ing voltage, the position resolution improves due to the minimised SE angular spread. Such a mode of operation was favoured until the mirror “semi-transparency” regime was reached, after which increasing further the accelerating potential could lead to a position resolution worsen- ing. An explanation of the fact could be the deterioration of the anode timing signals or some defocusing effects arising from the mirror wires field at high accelerating voltages. 9. Testing photo-fission experiments were performed at the bremsstrahlung facility at the ELBE accelerator. For the first time a spectrometer of this kind was successfully employed for bremsstrahlung-induced photo-fission measurements. The setup consisted of two mirror detectors (first arm) and a 80 mm diameter MCP detector (second arm) with a 238U target positioned in between. TOF measurements with two bremsstrahlung end-point energies of 12.9 and 16.0 MeV were carried out. A clear cut separation of the TOF peaks for the medium- mass and heavy fission fragments was observed. At these experimental test runs, we did not aim at one-by-one fission fragment mass resolution, since this may be the purpose of a more specific experiment utilising a much thinner fissile source than the one applied here (minimum straggling of the fragments inside the target is required) and considerably better statistics. It was possible to estimate the photo-fission production rate for the two measuring cases and to compare the obtained results with data from other measurements. Read more
|
68 |
Geographic object-based image analysisMarpu, Prashanth Reddy 27 July 2009 (has links) (PDF)
The field of earth observation (EO) has seen tremendous development over recent time owing to the increasing quality of the sensor technology and the increasing number of operational satellites launched by several space organizations and companies around the world. Traditionally, the satellite data is analyzed by only considering the spectral characteristics measured at a pixel. The spatial relations and context were often ignored. With the advent of very high resolution satellite sensors providing a spatial resolution of ≤ 5m, the shortfalls of traditional pixel-based image processing techniques became evident. The need to identify new methods then led to focusing on the so called object-based image analysis (OBIA) methodologies. Unlike the pixel-based methods, the object-based methods which are based on segmenting the image into homogeneous regions use the shape, texture and context associated with the patterns thus providing an improved basis for image analysis. The remote sensing data normally has to be processed in a different way to that of the other types of images. In the geographic sense OBIA is referred to as Geographic Object-Based Image Analysis (GEOBIA), where the GEO pseudo prefix emphasizes the geographic components. This thesis will provide an overview of the principles of GEOBIA, describe some fundamentally new contributions to OBIA in the geographical context and, finally, summarize the current status with ideas for future developments. Read more
|
69 |
Geodätische Fehlerrechnung mit der skalenkontaminierten Normalverteilung / Geodetic Error Calculus by the Scale Contaminated Normal DistributionLehmann, Rüdiger 22 January 2015 (has links) (PDF)
Geodätische Messabweichungen werden oft gut durch Wahrscheinlichkeitsverteilungen beschrieben, die steilgipfliger als die Gaußsche Normalverteilung sind. Das gilt besonders, wenn grobe Messabweichungen nicht völlig ausgeschlossen werden können. Neben einigen in der Geodäsie bisher verwendeten Verteilungen (verallgemeinerte Normalverteilung, Hubers Verteilung) diskutieren wir hier die skalenkontaminierte Normalverteilung, die für die praktische Rechnung einige Vorteile bietet. / Geodetic measurement errors are frequently well described by probability distributions, which are more peak-shaped than the Gaussian normal distribution. This is especially true when gross errors cannot be excluded. Besides some distributions used so far in geodesy (generalized normal distribution, Huber’s distribution) we discuss the scale contaminated normal distribution, which offers some advantages in practical calculations.
|
70 |
Fuzzy-Set Veränderungsanalyse für hochauflösende FernerkundungsdatenTufte, Lars 07 April 2006 (has links)
Die Fernerkundung ist eine wichtige Quelle für aktuelle und qualitativ hochwertige Geodaten bzw. für die Aktualisierung von vorhandenen Geodaten. Die Entwicklung von neuen flugzeug- und satellitengestützten digitalen Sensoren in den letzten Jahren hat diese Bedeutung noch erhöht. Die Sensoren erschließen aufgrund ihrer verbesserten räumlichen und radiometrischen Auflösung und der vollständig digitalen Verarbeitungskette neue Anwendungsfelder. Klassische Auswerteverfahren stoßen bei der Analyse der Daten häufig an ihre Grenzen. Die in dieser Arbeit vorgestellte multiskalige objektklassen-spezifische Analyse stellt hier ein sehr gut geeignetes Verfahren dar, welches gute Ergebnisse liefert. Die Klassifizierung der Daten erfolgt mittels eines Fuzzy- Klassifizierungsverfahrens, welches Vorteile in der Genauigkeit und Interpretierbarkeit der Ergebnisse liefert. Die thematische Genauigkeit (Datenqualität) der Fuzzy-Klassifizierung ist von entscheidender Bedeutung für die Akzeptanz der Ergebnisse und ihre weitere Nutzung. Hier wurden Methoden zur räumlich differenzierten Ermittlung und Visualisierung der thematischen Genauigkeit entwickelt.Außerdem wurde die Methode der segmentbasierten Fuzzy-Logic Veränderungsanalyse (SFLV) entwickelt. Die Methode ermöglicht die Veränderungsanalyse von sehr bis ultra hoch aufgelösten Fernerkundungsdaten mit einer differenzierten Aussage zu den eingetretenen Veränderungen. Sie basiert auf den Standard Operationen für unscharfe Mengen und nutzt die Ergebnisse der entwickelten Methode zur Analyse hochauflösender Fernerkundungsdaten. Die SFLV liefert einen deutlichen Mehrwert zu dem klassischen Vergleich zweier Klassifizierungsergebnisse, indem sich differenzierte Aussagen über mögliche Veränderungen machen lassen. Die Anwendbarkeit der SFLV wurde erfolgreich an einem kleinen Untersuchungsgebiet auf der Elbinsel Pagensand beispielhaft für Veränderungsanalyse von Biotoptypen auf der Grundlage von HRSC-A Daten aufgezeigt. Read more
|
Page generated in 0.0255 seconds