• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 2
  • 1
  • Tagged with
  • 6
  • 6
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Compressed Sensing zur Filterung und Reduktion der Rekonstruktionszeit in der Positronen-Emissions-Tomographie / Compressed sensing for filtering and reduction of reconstruction time in positron emission tomography

Richter, Dominik January 2014 (has links) (PDF)
Durch die Verwendung radioaktiver Substanzen mit ihrer schädigenden Wirkung auf den menschlichen Körper besteht in der Positronen-Emissions-Tomographie (PET) ein fortwährendes Interesse an der Reduktion der applizierten Dosis bei gleichbleibender Qualität der Ergebnisse. Zusätzlich ist im Hinblick auf die Wirtschaftlichkeit der Systeme eine Reduktion sowohl der Akquisitions- als auch der Rekonstruktionszeit erstrebenswert. In dieser Arbeit werden zwei Möglichkeiten vorgestellt, diese Ziele durch den Einsatz von Compressed Sensing (CS) zu erreichen. Neben der Entwicklung neuartiger Rekonstruktionsalgorithmen können Filtertechniken eingesetzt werden, um eine qualitative Verbesserung rekonstruierter Bilder zu erzielen. Der Vorteil eines Filters besteht unter anderem darin, dass diese retrospektiv angewandt werden können. Es ist folglich möglich, die Qualität eines Bildes zu überprüfen und lediglich im Bedarfsfall einen Filter einzusetzen. Die Technik des CS war in den letzten Jahren Gegenstand zahlreicher Forschungsarbeiten im Bereich der Bildgebung, insbesondere in der Magnetresonanztomographie und der Computertomographie (CT). Mit CS könnten bildgebende Verfahren wie die CT oder die PET mit weniger Messungen durchgeführt werden, wodurch sich die Messzeit und die Strahlenexposition reduziert. In der molekularen Bildgebung mit der PET ist CS jedoch weitgehend unbekannt. Im ersten Teil dieser Dissertation wird eine Methode vorgestellt, welche CS als Filtertechnik in der PET einsetzt. Den Ausgangspunkt stellt ein vollständiger, analytisch rekonstruierter Datensatz dar. Dieser wird mit einer Reihe unterschiedlicher Abtastmuster retrospektiv unterabgetastet und jeweils erneut, unter Verwendung von CS rekonstruiert. Im rauschfreien Fall würde CS stets das Originalbild liefern. Das überlagerte Rauschen führt jedoch zu Artefakten und einer Verschlechterung des Ergebnisses. CS kann nun einerseits das Rauschen vermindern. Andererseits ist es durch die Mittelung mehrerer unterschiedlicher Rekonstruktionen möglich, die Artefakte zu reduzieren. Auf diesem Weg kann die Bildqualität signifikant verbessert werden. Es konnte gezeigt werden, dass die Technik sowohl für 2D, als auch für 3D Datensätze verwendet werden kann. Die größten qualitativen Verbesserungen werden erzielt, wenn der Datensatz lediglich aus wenigen Ereignissen besteht. In diesem Fall ist die Bildqualität der analytischen Rekonstruktionen extrem schlecht, die Verbesserung durch die Filtertechnik mit CS und die damit verbundene Erhöhung des Signal-Rausch-Verhältnisses jedoch am größten. Bei diesen Datensätzen können die Ergebnisse iterativer Rekonstruktionen übertroffen werden. In der Praxis wäre damit ein Einsatz speziell bei dynamischen oder getriggerten Aufnahmen denkbar. In beiden Fällen basieren die Rekonstruktionen nicht selten auf wenigen Ereignissen. Die resultierenden Bilder sind häufig von schlechter Qualität, womit eine Verbesserung durch Filterung sinnvoll ist. Der zweite Teil dieser Arbeit beschäftigt sich mit der Rohdaten-basierten Triggerung am Kleintier-PET sowie mit dem Einsatz von CS zur Reduktion der Rekonstruktionszeit. Frühere Veröffentlichungen zeigten bereits die Anwendbarkeit Rohdaten-basierter Triggermethoden bei humanen Datensätzen. Im Hinblick auf eine präklinische Anwendung, speziell bei Datensätzen mit dem Fokus auf Mäuseherzen, existieren jedoch nur wenige Studien. In dieser Arbeit wird gezeigt, dass die segmentierte Methode des Massenschwerpunkts (COMseg) eine Technik darstellt, welche die kardiale Triggerung sowohl bei Datensätzen von Ratten, als auch von Mäusen erlaubt. Ein nicht zu unterschätzender Nachteil der COMseg besteht darin, dass vor deren Anwendung die List-Mode Datei in kleine Zeitframes unterteilt und in Sinogramme sortiert werden muss. Auf jedes Sinogramm wird im Anschluss ein Rebinning Algorithmus angewandt. Dies stellt einen enormen Zeitaufwand dar, wodurch sich eine Anwendung bei größeren Studien in der Praxis als schwierig erweist. Ziel der Triggermethoden ist die Gewinnung eines Triggersignals, durch welches beispielsweise der Herzschlag in mehrere Phasen aufgeteilt werden kann. Das Triggersignal hat für gewöhnlich eine dünnbesetzte Repräsentation im Frequenzraum. Dieses Vorwissen ermöglicht den Einsatz von CS. Anstelle des vollständigen Datensatzes wurde lediglich ein Teil der Daten in kleine Zeitframes sortiert und mit der COMseg ausgewertet. Aus diesem unterabgetasteten Datensatz wird mit Hilfe von CS das vollständige Triggersignal rekonstruiert. Die Stärke der Unterabtastung entspricht in etwa dem Faktor der Reduktion der Rekonstruktionszeit. Auf diesem Weg ist es möglich, eine signifikante Beschleunigung zu erzielen. Die Anwendung dieser Technik ist jedoch nicht auf die COMseg beschränkt. Prinzipiell kann das Verfahren bei allen Methoden der Rohdaten-basierten Triggerung angewandt werden, welche es erlauben, die Abtastpunkte des Signals separat zu berechnen. Damit werden Algorithmen interessant, deren Einsatz aufgrund aufwändiger Berechnungen bislang in der Praxis nicht sinnvoll war. Zusammenfassend legen die in dieser Arbeit vorgestellten Daten nahe, dass CS ein neuartiges Werkzeug in der PET darstellen könnte, mit welchem eine Filterung von Bildern sowie eine Reduktion der Rekonstruktionszeit möglich ist. / In positron emission tomography (PET) radioactive substances are used. The exposure to ionizing radiation can cause damage to the human body. Therefore, there is an ongoing interest in reducing the amount of applied dose while keeping the quality of the results. With regard to the cost effectiveness of the systems a reduction of acquisition as well as reconstruction time is desirable. Within this work two possibilities are presented that enable achieving these objectives by using compressed sensing (CS). Filtering methods can be used beside the development of novel reconstruction algorithms to improve the quality of reconstructed images. One advantage of filters is the possibility of retrospective usage. Therewith, the image quality can be evaluated and the filter is solely applied if necessary. Over the past years, CS was the subject of several research activities in the field of imaging techniques, especially in magnetic resonance imaging and x-ray computed tomography (CT). CS could enable imaging modalities such as CT and PET to reconstruct images using fewer measurements, thus reducing scanning time and a patient's exposure to radiation. However, data on applications of CS in the molecular imaging with PET are lacking. The first part of this dissertation describes a method that uses CS as a filter in PET. The initial point is a complete and analytically reconstructed dataset. Several different sampling patterns are applied for retrospective undersampling followed by an reconstruction using CS. In the noise-free case each reconstruction would yield the original image. However, additional noise results in artefacts and in a decline of the result. On the one hand, CS is able to reduce noise. On the other hand, an averaging of several different reconstructions can reduce artefacts. Therewith, the image quality can be improved significantly. It is shown that the method could be applied to 2D as well as to 3D datasets. Best results are obtained when the dataset consists of a few events only. While the quality of analytically reconstructed images is extremely bad, the greatest improvement and therewith the maximum increase of the signal-to-noise ratio is achieved using the CS filter method. Thereby, it is possible to outperform the results of iterative reconstructions. In practice, an application to dynamic or gated acquisitions would be conceivable. Reconstructions at both acquisition modes are often based on few counts. The resulting images are commonly of bad quality, whereby an improvement using a filter is reasonable. The second part of this work deals with raw data based triggering at a small animal PET as well as the application of CS to reduce reconstruction time. Former publications already showed the practicability of raw data based triggering methods at human datasets. However, with regard to preclinical utilisation and especially to datasets that focus mice hearts, there are only few studies available. Within this work it is shown that the segmented centre of mass method (COMseg) enables cardiac gating of datasets of rats as well as mice. When applying the COMseg list-mode data have to be sub-divided into small time frames and sorted to sinograms. Afterwards, a rebinning algorithm is applied to each sinogram. The enormous expenditure of time is a disadvantage that should not be underestimated. In practice, an application to larger studies is difficult thereby. The aim of triggering methods is to yield a triggering signal which enables subdivision e.g. of the heartbeat in several phases. Usually, a triggering signal has a sparse representation in frequency space. This previous knowledge allows the application of CS. Instead of all data only a fraction of the dataset is sorted to small time frames and analysed using the COMseg. CS is used to calculate the complete triggering signal out of the undersampled one. The amount of undersampling corresponds to the reduction factor of reconstruction time. Thereby, a significant acceleration can be achieved. However, the application of this technique is not limited to the COMseg. If a raw data based triggering method calculates each sample individually, CS can be applied. Therefore, algorithms that were not practicable because of long computation times may become interesting. In summary, data of this work suggest that CS could be a novel analysis tool for filtering and reduction of reconstruction time in PET.
2

Proximal methods in medical image reconstruction and in nonsmooth optimal control of partial differential equations / Proximale Methoden in der medizinischen Bildrekonstruktion und in der nicht-glatten optimalen Steuerung von partiellen Differenzialgleichungen

Schindele, Andreas January 2016 (has links) (PDF)
Proximal methods are iterative optimization techniques for functionals, J = J1 + J2, consisting of a differentiable part J2 and a possibly nondifferentiable part J1. In this thesis proximal methods for finite- and infinite-dimensional optimization problems are discussed. In finite dimensions, they solve l1- and TV-minimization problems that are effectively applied to image reconstruction in magnetic resonance imaging (MRI). Convergence of these methods in this setting is proved. The proposed proximal scheme is compared to a split proximal scheme and it achieves a better signal-to-noise ratio. In addition, an application that uses parallel imaging is presented. In infinite dimensions, these methods are discussed to solve nonsmooth linear and bilinear elliptic and parabolic optimal control problems. In particular, fast convergence of these methods is proved. Furthermore, for benchmarking purposes, truncated proximal schemes are compared to an inexact semismooth Newton method. Results of numerical experiments are presented to demonstrate the computational effectiveness of our proximal schemes that need less computation time than the semismooth Newton method in most cases. Results of numerical experiments are presented that successfully validate the theoretical estimates. / Proximale Methoden sind iterative Optimierungsverfahren für Funktionale J = J1 +J2, die aus einem differenzierbaren Teil J2 und einem möglicherweise nichtdifferenzierbaren Teil bestehen. In dieser Arbeit werden proximale Methoden für endlich- und unendlichdimensionale Optimierungsprobleme diskutiert. In endlichen Dimensionen lösen diese `1- und TV-Minimierungsprobleme welche erfolgreich in der Bildrekonstruktion der Magnetresonanztomographie (MRT) angewendet wurden. Die Konvergenz dieser Methoden wurde in diesem Zusammenhang bewiesen. Die vorgestellten proximalen Methoden wurden mit einer geteilten proximalen Methode verglichen und konnten ein besseres Signal-Rausch-Verhältnis erzielen. Zusätzlich wurde eine Anwendung präsentiert, die parallele Bildgebung verwendet. Diese Methoden werden auch für unendlichdimensionale Probleme zur Lösung von nichtglatten linearen und bilinearen elliptischen und parabolischen optimalen Steuerungsproblemen diskutiert. Insbesondere wird die schnelle Konvergenz dieser Methoden bewiesen. Außerdem werden abgeschnittene proximale Methoden mit einem inexakten halbglatten Newtonverfahren verglichen. Die numerischen Ergebnisse demonstrieren die Effektivität der proximalen Methoden, welche im Vergleich zu den halbglatten Newtonverfahren in den meisten Fällen weniger Rechenzeit benötigen. Zusätzlich werden die theoretischen Abschätzungen bestätigt.
3

Zero-padding Network Coding and Compressed Sensing for Optimized Packets Transmission

Taghouti, Maroua 04 November 2022 (has links)
Ubiquitous Internet of Things (IoT) is destined to connect everybody and everything on a never-before-seen scale. Such networks, however, have to tackle the inherent issues created by the presence of very heterogeneous data transmissions over the same shared network. This very diverse communication, in turn, produces network packets of various sizes ranging from very small sensory readings to comparatively humongous video frames. Such a massive amount of data itself, as in the case of sensory networks, is also continuously captured at varying rates and contributes to increasing the load on the network itself, which could hinder transmission efficiency. However, they also open up possibilities to exploit various correlations in the transmitted data due to their sheer number. Reductions based on this also enable the networks to keep up with the new wave of big data-driven communications by simply investing in the promotion of select techniques that efficiently utilize the resources of the communication systems. One of the solutions to tackle the erroneous transmission of data employs linear coding techniques, which are ill-equipped to handle the processing of packets with differing sizes. Random Linear Network Coding (RLNC), for instance, generates unreasonable amounts of padding overhead to compensate for the different message lengths, thereby suppressing the pervasive benefits of the coding itself. We propose a set of approaches that overcome such issues, while also reducing the decoding delays at the same time. Specifically, we introduce and elaborate on the concept of macro-symbols and the design of different coding schemes. Due to the heterogeneity of the packet sizes, our progressive shortening scheme is the first RLNC-based approach that generates and recodes unequal-sized coded packets. Another of our solutions is deterministic shifting that reduces the overall number of transmitted packets. Moreover, the RaSOR scheme employs coding using XORing operations on shifted packets, without the need for coding coefficients, thus favoring linear encoding and decoding complexities. Another facet of IoT applications can be found in sensory data known to be highly correlated, where compressed sensing is a potential approach to reduce the overall transmissions. In such scenarios, network coding can also help. Our proposed joint compressed sensing and real network coding design fully exploit the correlations in cluster-based wireless sensor networks, such as the ones advocated by Industry 4.0. This design focused on performing one-step decoding to reduce the computational complexities and delays of the reconstruction process at the receiver and investigates the effectiveness of combined compressed sensing and network coding.
4

Charakterisierung des mechanischen Verformungsverhaltens von weichelastischen Schaumstoffen unter impulsartigen sportspezifischen Belastungen / Characterization of the mechanical deformation behaviour of flexible foam materials under sport specific impact load

Brückner, Karoline 29 July 2013 (has links) (PDF)
Im Rahmen dieser Arbeit wird ein physikalisches Modell für weichelastische EVA-Schaumstoffe entwickelt, das das mechanische Verformungsverhalten (Spannungs-Verformungs-Kurve) bei der Interaktion zwischen Sportler und Sportgerät am Beispiel eines Laufschuhs anwendungsgerecht – d.h. bei hoher Verformung und Belastungsgeschwindigkeit – kennzeichnet. Im Stand der Technik werden als Einflussfaktoren auf das mechanische Verformungsverhalten von Weichschäumen die Parameter Schaumdichte, Zellgröße bzw. Zelldurchmesser, Schaumhärte und Verformungsgeschwindigkeit ermittelt. Diese werden für die vorliegenden vier Versuchsmaterialien analysiert, wobei die letzten zwei Parameter im Modell Berücksichtigung finden. Das Modell setzt sich aus einem Matrix- und einem Gasphasenanteil zusammen. Der Matrixphasenanteil wird experimentell bei der jeweiligen Verformungsgeschwindigkeit bestimmt, wohingegen der Gasphasenanteil der in den Zellen komprimierten Luft auf einem physikalischen Zusammenhang beruht und anhand der gemessenen Schaumhärte und des Atmosphärendrucks bei der jeweiligen Verformung berechnet wird. Die Voraussetzungen für die Verwendung des Modells, zu denen inkompressible Matrixphase, Geschlossenzelligkeit und keine Querausdehnung des Schaums zählen, werden vorab umfangreich geprüft. Zusammenfassend lässt sich aussagen, dass das gewählte Modell eine gute Übereinstimmung mit den experimentell bestimmten Ergebnissen erzielt. Dies wird anhand der Mittelwertes der Differenz von experimentell ermittelten zu modellierten Daten bestimmt, für den ein Wert von 7 % berechnet wird. / The purpose of this doctoral thesis is developing a physical model for flexible foam materials (e.g. ethylene/vinyl acetate foam) characterizing the mechanical deformation behavior (stress-strain-curve) at the interaction between athlete and sports equipment (e.g. running footwear) during high deformation and high loading rate. Previous studies described various parameters influencing the mechanical deformation behavior of flexible foams: foam density, cell size / cell diameter, foam hardness and loading rate. These parameters are being analyzed for the four present foams whereof the last two parameters were considered in the model. The model consists of a matrix phase measured experimentally at required loading rate multiplied with a correction factor and a gas phase of the air compressed in the foam cells which is calculated by atmospheric pressure and foam hardness. The requirements (incompressible matrix phase, closed cells and zero Poisson ratio) for using the model are verified first of all. In conclusion, the developed model presents a good accordance with the experimental data calculated by a mean difference between experimental and modeled data of 7 %.
5

The lag between micro- and macro-mixing in compressed fluid flows

Bassing, Daniel, Bräuer, Andreas S. 27 July 2020 (has links)
We report the application of a novel optical Raman-based measurement technique for the simultaneous determination of the progress of mixing on the micro- and on the macro-scale. The introduced measurement technique is applicable to mixing systems containing one compound, which potentially can form hydrogen bonds, such as water, alcohols or amines, and does not rely on the addition of traces of indicator compounds. Here we demonstrate its applicability by analyzing the lag of micro-mixing behind macro-mixing when liquid ethanol is injected into a supercritical bulk environment mainly composed of carbon dioxide (CO2). While the degree of mixing on the macro-scale is determined from the ratio of the intensities of characteristic Raman signals of ethanol and CO2, the degree of mixing on the micro-scale is determined from the shape of the OH stretching vibration Raman signal of ethanol, which is a function of the development of hydrogen bonds.
6

Charakterisierung des mechanischen Verformungsverhaltens von weichelastischen Schaumstoffen unter impulsartigen sportspezifischen Belastungen: Charakterisierung des mechanischen Verformungsverhaltens vonweichelastischen Schaumstoffen unter impulsartigen sportspezifischen Belastungen

Brückner, Karoline 04 June 2013 (has links)
Im Rahmen dieser Arbeit wird ein physikalisches Modell für weichelastische EVA-Schaumstoffe entwickelt, das das mechanische Verformungsverhalten (Spannungs-Verformungs-Kurve) bei der Interaktion zwischen Sportler und Sportgerät am Beispiel eines Laufschuhs anwendungsgerecht – d.h. bei hoher Verformung und Belastungsgeschwindigkeit – kennzeichnet. Im Stand der Technik werden als Einflussfaktoren auf das mechanische Verformungsverhalten von Weichschäumen die Parameter Schaumdichte, Zellgröße bzw. Zelldurchmesser, Schaumhärte und Verformungsgeschwindigkeit ermittelt. Diese werden für die vorliegenden vier Versuchsmaterialien analysiert, wobei die letzten zwei Parameter im Modell Berücksichtigung finden. Das Modell setzt sich aus einem Matrix- und einem Gasphasenanteil zusammen. Der Matrixphasenanteil wird experimentell bei der jeweiligen Verformungsgeschwindigkeit bestimmt, wohingegen der Gasphasenanteil der in den Zellen komprimierten Luft auf einem physikalischen Zusammenhang beruht und anhand der gemessenen Schaumhärte und des Atmosphärendrucks bei der jeweiligen Verformung berechnet wird. Die Voraussetzungen für die Verwendung des Modells, zu denen inkompressible Matrixphase, Geschlossenzelligkeit und keine Querausdehnung des Schaums zählen, werden vorab umfangreich geprüft. Zusammenfassend lässt sich aussagen, dass das gewählte Modell eine gute Übereinstimmung mit den experimentell bestimmten Ergebnissen erzielt. Dies wird anhand der Mittelwertes der Differenz von experimentell ermittelten zu modellierten Daten bestimmt, für den ein Wert von 7 % berechnet wird. / The purpose of this doctoral thesis is developing a physical model for flexible foam materials (e.g. ethylene/vinyl acetate foam) characterizing the mechanical deformation behavior (stress-strain-curve) at the interaction between athlete and sports equipment (e.g. running footwear) during high deformation and high loading rate. Previous studies described various parameters influencing the mechanical deformation behavior of flexible foams: foam density, cell size / cell diameter, foam hardness and loading rate. These parameters are being analyzed for the four present foams whereof the last two parameters were considered in the model. The model consists of a matrix phase measured experimentally at required loading rate multiplied with a correction factor and a gas phase of the air compressed in the foam cells which is calculated by atmospheric pressure and foam hardness. The requirements (incompressible matrix phase, closed cells and zero Poisson ratio) for using the model are verified first of all. In conclusion, the developed model presents a good accordance with the experimental data calculated by a mean difference between experimental and modeled data of 7 %.

Page generated in 0.0922 seconds