Spelling suggestions: "subject:"bildverarbeitung""
1 |
Attributes and their potential to analyze and interpret 3D GPR dataBöniger, Urs January 2010 (has links)
Based on technological advances made within the past decades, ground-penetrating radar (GPR) has become a well-established, non-destructive subsurface imaging technique. Catalyzed by recent demands for high-resolution, near-surface imaging (e.g., the detection of unexploded ordnances and subsurface utilities, or hydrological investigations), the quality of today's GPR-based, near-surface images has significantly matured. At the same time, the analysis of oil and gas related reflection seismic data sets has experienced significant advances.
Considering the sensitivity of attribute analysis with respect to data positioning in general, and multi-trace attributes in particular, trace positioning accuracy is of major importance for the success of attribute-based analysis flows. Therefore, to study the feasibility of GPR-based attribute analyses, I first developed and evaluated a real-time GPR surveying setup based on a modern tracking total station (TTS). The combination of current GPR systems capability of fusing global positioning system (GPS) and geophysical data in real-time, the ability of modern TTS systems to generate a GPS-like positional output and wireless data transmission using radio modems results in a flexible and robust surveying setup. To elaborate the feasibility of this setup, I studied the major limitations of such an approach: system cross-talk and data delays known as latencies. Experimental studies have shown that when a minimal distance of ~5 m between the GPR and the TTS system is considered, the signal-to-noise ratio of the acquired GPR data using radio communication equals the one without radio communication. To address the limitations imposed by system latencies, inherent to all real-time data fusion approaches, I developed a novel correction (calibration) strategy to assess the gross system latency and to correct for it. This resulted in the centimeter trace accuracy required by high-frequency and/or three-dimensional (3D) GPR surveys.
Having introduced this flexible high-precision surveying setup, I successfully demonstrated the application of attribute-based processing to GPR specific problems, which may differ significantly from the geological ones typically addressed by the oil and gas industry using seismic data. In this thesis, I concentrated on archaeological and subsurface utility problems, as they represent typical near-surface geophysical targets. Enhancing 3D archaeological GPR data sets using a dip-steered filtering approach, followed by calculation of coherency and similarity, allowed me to conduct subsurface interpretations far beyond those obtained by classical time-slice analyses. I could show that the incorporation of additional data sets (magnetic and topographic) and attributes derived from these data sets can further improve the interpretation. In a case study, such an approach revealed the complementary nature of the individual data sets and, for example, allowed conclusions about the source location of magnetic anomalies by concurrently analyzing GPR time/depth slices to be made.
In addition to archaeological targets, subsurface utility detection and characterization is a steadily growing field of application for GPR. I developed a novel attribute called depolarization. Incorporation of geometrical and physical feature characteristics into the depolarization attribute allowed me to display the observed polarization phenomena efficiently. Geometrical enhancement makes use of an improved symmetry extraction algorithm based on Laplacian high-boosting, followed by a phase-based symmetry calculation using a two-dimensional (2D) log-Gabor filterbank decomposition of the data volume. To extract the physical information from the dual-component data set, I employed a sliding-window principle component analysis. The combination of the geometrically derived feature angle and the physically derived polarization angle allowed me to enhance the polarization characteristics of subsurface features. Ground-truth information obtained by excavations confirmed this interpretation. In the future, inclusion of cross-polarized antennae configurations into the processing scheme may further improve the quality of the depolarization attribute.
In addition to polarization phenomena, the time-dependent frequency evolution of GPR signals might hold further information on the subsurface architecture and/or material properties. High-resolution, sparsity promoting decomposition approaches have recently had a significant impact on the image and signal processing community. In this thesis, I introduced a modified tree-based matching pursuit approach. Based on different synthetic examples, I showed that the modified tree-based pursuit approach clearly outperforms other commonly used time-frequency decomposition approaches with respect to both time and frequency resolutions. Apart from the investigation of tuning effects in GPR data, I also demonstrated the potential of high-resolution sparse decompositions for advanced data processing. Frequency modulation of individual atoms themselves allows to efficiently correct frequency attenuation effects and improve resolution based on shifting the average frequency level.
GPR-based attribute analysis is still in its infancy. Considering the growing widespread realization of 3D GPR studies there will certainly be an increasing demand towards improved subsurface interpretations in the future. Similar to the assessment of quantitative reservoir properties through the combination of 3D seismic attribute volumes with sparse well-log information, parameter estimation in a combined manner represents another step in emphasizing the potential of attribute-driven GPR data analyses. / Geophysikalische Erkundungsmethoden haben in den vergangenen Jahrzehnten eine weite Verbreitung bei der zerstörungsfreien beziehungsweise zerstörungsarmen Erkundung des oberflächennahen Untergrundes gefunden. Im Vergleich zur Vielzahl anderer existierender Verfahrenstypen ermöglicht das Georadar (auch als Ground Penetrating Radar bezeichnet) unter günstigen Standortbedingungen Untersuchungen mit der höchsten räumlichen Auflösung. Georadar zählt zu den elektromagnetischen (EM) Verfahren und beruht als Wellenverfahren auf der Ausbreitung von hochfrequenten EM-Wellen, das heisst deren Reflektion, Refraktion und Transmission im Untergrund. Während zweidimensionale Messstrategien bereits weit verbreitet sind, steigt gegenwärtig das Interesse an hochauflösenden, flächenhaften Messstrategien, die es erlauben, Untergrundstrukturen dreidimensional abzubilden.
Ein dem Georadar prinzipiell ähnliches Verfahren ist die Reflexionsseismik, deren Hauptanwendung in der Lagerstättenerkundung liegt. Im Laufe des letzten Jahrzehnts führte der zunehmende Bedarf an neuen Öl- und Gaslagerstätten sowie die Notwendigkeit zur optimalen Nutzung existierender Reservoirs zu einer verstärkten Anwendung und Entwicklung sogenannter seismischer Attribute. Attribute repräsentieren ein Datenmaß, welches zu einer verbesserten visuellen Darstellung oder Quantifizierung von Dateneigenschaften führt die von Relevanz für die jeweilige Fragestellung sind. Trotz des Erfolgs von Attributanalysen bei reservoirbezogenen Anwendungen und der grundlegenden Ähnlichkeit von reflexionsseismischen und durch Georadar erhobenen Datensätzen haben attributbasierte Ansätze bisher nur eine geringe Verbreitung in der Georadargemeinschaft gefunden. Das Ziel dieser Arbeit ist es, das Potential von Attributanalysen zur verbesserten Interpretation von Georadardaten zu untersuchen. Dabei liegt der Schwerpunkt auf Anwendungen aus der Archäologie und dem Ingenieurwesen.
Der Erfolg von Attributen im Allgemeinen und von solchen mit Berücksichtigung von Nachbarschaftsbeziehungen im Speziellen steht in engem Zusammenhang mit der Genauigkeit, mit welcher die gemessenen Daten räumlich lokalisiert werden können. Vor der eigentlichen Attributuntersuchung wurden deshalb die Möglichkeiten zur kinematischen Positionierung in Echtzeit beim Georadarverfahren untersucht. Ich konnte zeigen, dass die Kombination von modernen selbstverfolgenden Totalstationen mit Georadarinstrumenten unter Verwendung von leistungsfähigen Funkmodems eine zentimetergenaue Positionierung ermöglicht. Experimentelle Studien haben gezeigt, dass die beiden potentiell limitierenden Faktoren - systeminduzierte Signalstöreffekte und Datenverzögerung (sogenannte Latenzzeiten) - vernachlässigt beziehungsweise korrigiert werden können.
In der Archäologie ist die Untersuchung oberflächennaher Strukturen und deren räumlicher Gestalt wichtig zur Optimierung geplanter Grabungen. Das Georadar hat sich hierbei zu einem der wohl am meisten genutzten zerstörungsfreien geophysikalischen Verfahren entwickelt. Archäologische Georadardatensätze zeichnen sich jedoch oft durch eine hohe Komplexität aus, was mit der wiederholten anthropogenen Nutzung des oberflächennahen Untergrundes in Verbindung gebracht werden kann. In dieser Arbeit konnte gezeigt werden, dass die Verwendung zweier unterschiedlicher Attribute zur Beschreibung der Variabilität zwischen benachbarten Datenspuren eine deutlich verbesserte Interpretation in Bezug auf die Fragestellung ermöglicht. Des Weiteren konnte ich zeigen, dass eine integrative Auswertung von mehreren Datensätzen (methodisch sowie bearbeitungstechnisch) zu einer fundierteren Interpretation führen kann, zum Beispiel bei komplementären Informationen der Datensätze.
Im Ingenieurwesen stellen Beschädigungen oder Zerstörungen von Versorgungsleitungen im Untergrund eine große finanzielle Schadensquelle dar. Polarisationseffekte, das heisst Änderungen der Signalamplitude in Abhängigkeit von Akquisitions- sowie physikalischen Parametern stellen ein bekanntes Phänomen dar, welches in der Anwendung bisher jedoch kaum genutzt wird. In dieser Arbeit wurde gezeigt, wie Polarisationseffekte zu einer verbesserten Interpretation verwendet werden können. Die Überführung von geometrischen und physikalischen Attributen in ein neues, so genanntes Depolarisationsattribut hat gezeigt, wie unterschiedliche Leitungstypen extrahiert und anhand ihrer Polarisationscharakteristika klassifiziert werden können.
Weitere wichtige physikalische Charakteristika des Georadarwellenfeldes können mit dem Matching Pursuit-Verfahren untersucht werden. Dieses Verfahren hatte in den letzten Jahren einen großen Einfluss auf moderne Signal- und Bildverarbeitungsansätze. Matching Pursuit wurde in der Geophysik bis jetzt hauptsächlich zur hochauflösenden Zeit-Frequenzanalyse verwendet. Anhand eines modifizierten Tree-based Matching Pursuit Algorithmus habe ich demonstriert, welche weiterführenden Möglichkeiten solche Datenzerlegungen für die Bearbeitung und Interpretation von Georadardaten eröffnen. Insgesamt zeigt diese Arbeit, wie moderne Vermessungstechniken und attributbasierte Analysestrategien genutzt werden können um dreidimensionale Daten effektiv und genau zu akquirieren beziehungsweise die resultierenden Datensätze effizient und verlässlich zu interpretieren.
|
2 |
UNIX-Stammtisch: Pinguin auf FotosafariHeik, Andreas, Heine, Detlef 30 September 2009 (has links)
Werkzeuge zur Fotoverwaltung, Bearbeitung und Präsentation
|
3 |
UNIX-Stammtisch: Pinguin auf FotosafariHeik, Andreas, Heine, Detlef 30 September 2009 (has links)
Werkzeuge zur Fotoverwaltung, Bearbeitung und Präsentation
|
4 |
Validierung einer neuen Software für halbautomatische Volumetrie – ist diese besser als manuelle Messungen?Noschinski, Leonie 22 September 2016 (has links) (PDF)
This study compared a manual program for liver volumetry with a semiautomated software. The hypothesis was that the software would be faster, more accurate and less dependent on the evaluator’s experience. Materials and Methods: Ten patients undergoing hemihepatectomy were included into this IRB approved study after written informed consent. All patients underwent a preoperative abdominal CTScan, which was used for whole liver volumetry and volume prediction for the liver part to be resected. Two different softwares were used: 1) manual method: borders of the liver had to be defined per slice by the user; 2) semiautomated software: automatic identification of liver volume with manual assistance for definition of Couinaud-segments. Measurements were done by six observers with different experience levels. Water displacement volumetry immediately after partial liver resection served as gold standard. The resected part was examined with a CT-scan after displacement volumetry. Results: Volumetry of the resected liver scan showed excellent correlations to water displacement volumetry (manual: ρ=0.997; semiautomated software: ρ=0.995). Difference between the predicted volume and the real volume was significantly smaller with the semiautomated software than with the manual method (33 % vs. 57 %, p=0.002). The semiautomated software was almost four times faster for volumetry of the whole liver. Conclusion:
Both methods for liver volumetry give an estimated liver volume close to the real one. The tested semiautomated software is faster, more accurate in predicting the volume of the resected liver part, gives more reproducible results and is less dependent on the user’s experience. / Ziel dieser Studie war es, eine manuelle Methode zur Lebervolumetrie mit einer halbautomatischen Software zu vergleichen. Die zu prüfende Hypothese war eine Überlegenheit der halbautomatischen Software hinsichtlich Schnelligkeit, Genauigkeit und Unabhängigkeit von der Erfahrung des Auswerters. Material und Methoden: Die Studie wurde von der Ethikkommission geprüft und es lagen Einverständniserklärungen aller Patienten vor. In die Studie wurden zehn Patienten eingeschlossen, die eine Hemihepatektomie erhielten. Es wurde präoperativ ein CT-Scan angefertigt, der sowohl für die Volumetrie der gesamten Leber als auch zur Bestimmung des Resektatvolumens verwendet wurde. Für die Volumetrie wurden zwei verschiedene Programme genutzt: 1) eine manuelle Methode, wobei die Lebergrenzen in jeder Schicht vom Auswerter definiert werden mussten 2) eine halbautomatische Software mit automatischer Erkennung des Lebervolumens und manueller Definition der Lebersegmente nach Coinaud. Die Messungen wurden von sechs Auswertern mit unterschiedlicher Erfahrung vorgenommen. Als Goldstandard diente eine Verdrängungsvolumetrie des Leberresektats, die direkt nach der Resektion im Operationssaal durchgeführt wurde. Anschließend wurde zusätzlich ein CT-Scan des Resektats angefertigt. Ergebnisse: Die Ergebnisse des postoperativen CT-Scans korrelierten hochgradig mit den Ergebnissen der Verdrängungsvolumetrie (manuell: ρ=0.997; halbautomatische Software: ρ=0.995). Mit der halbautomatischen Software fielen die Unterschiede zwischen dem vorhergesagten und dem tatsächlichen Volumen signifikant kleiner aus (33 % vs. 57 %, p=0.002). Zudem lieferte die halbautomatische Software die Volumina der Gesamtleber 3.9mal schneller.
Schlussfolgerung: Beide Methoden erlauben eine sehr gute Abschätzung des Lebervolumens. Die getestete halbautomatische Software kann das Lebervolumen jedoch schneller und das Resektatvolumen genauer vorhersagen und ist zusätzlich unabhängiger von der Erfahrung des Auswerters.
|
5 |
Characterization of tissue properties on the sub-micron scale in human bone by means of synchrotron radiation CTHesse, Bernhard 18 June 2014 (has links)
Gesunder humaner Knochen unterliegt einem permanenten Umbau, um sich den mechanischen Anforderungen anzupassen, Mikrofrakturen zu reparieren und das Mineraliengleichgewicht zu erhalten. Dieser Umbauprozess wird durch Osteoblasten- und Osteoklastenaktivität realisiert, den knochenbildenden bzw. knochenresorbierenden Zellen. Gesteuert wird dieser Prozess durch Osteozyten, dessen Netzwerk mechanosensorische Fähigkeiten zugesprochen werden. Bisphosphonate (BP), hemmen die Osteoklastenaktivität und erhöhen somit die Knochenumsatzzeit. Im ersten Teil dieser Arbeit wurden morphologische Eigenschaften der Osteozyten-Lakunen (OL) in humanem Knochen mittels Synchrotron-µCT untersucht. Dabei wurden sowohl gesunde als auch mit BP behandelte Spender verglichen. Anschließend haben wir Synchrotron-Nano-CT in Kombination mit Phasenkontrast angewandt, um unsere Untersuchungen auf die Morphologie des lakuno-kanalikulären Netzwerkes (LKN) und die Gewebeeigenschaften in der Umgebung des LKN auszuweiten. Wir nahmen an, dass der sekundäre Mineralisierungsprozess mittels eines Diffusionsprozesses durch die Grenzfläche der extrazellulären Flüssigkeit im LKN stattfindet, was zu Gradienten der Massendichte in der Umgebung des LKN führen sollte. Unsere Untersuchungen haben gezeigt, dass sowohl in der Umgebung der OL als auch der Kanäle Massendichtegradienten existieren. Daraus schließen wir, dass der Mineralienaustausch zwischen der extrazellulären Flüssigkeit und der mineralisierten Matrix an der gesamten Oberfläche des LKN stattfindet. Wir schätzten, dass die Kapazität, unter Berücksichtigung des gesamten LKN, Mineralien auszutauschen etwa eine Größenordnung höher ist, gegenüber der Annahme, dass der Austausch lediglich an den Grenzflächen der OL stattfindet. Zukünftige Studien sollten nicht nur die peri-LKN Gewebeeigenschaften während der sekundären Mineralisierung untersuchen, sondern auch Schwankungen der Mineralienkonzentration bei hohen Kalziumanforderungen des Körpers berücksichtigen. / Under healthy conditions human bone undergoes permanent remodeling to adjust to mechanical demands, to repair micro-cracks and to maintain mineral homeostasis. This process of remodeling is performed by osteoblasts and osteoclasts: bone-forming and bone-resorbing cells. The activity of osteoclasts and osteoblasts is triggered by osteocytes, the most frequently occurring type of bone cell, via mechanosensation processes. Bisphosphonates (BP) prescribed during treatment for osteoporosis or bone metastasis inhibit osteoclast activity and thus decrease the bone turnover. In this work, the distribution and morphology of osteocyte lacunae of human cortical jaw bone was investigated in 3D, and a comparison between healthy and BP-treated donors was performed using synchrotron radiation (SR) µCT. In a second approach, we used SR nano-CT with phase contrast to investigate the morphology of the canalicular network and the bone tissue properties in the vicinity of the lacuna-canalicular network of human jaw bone, originating from both healthy subjects and patients treated with BPs. We hypothesized that secondary mineralization takes place via a diffusion process through the fluid-matrix interface at both the lacunar and the canalicular surfaces. This should result in mass density gradients with respect to the distance to the pore boundary. Such mass density gradients were indeed observed at both lacunar and canalicular interfaces. We concluded that mineral exchange between extracellular fluid and mineralized matrix occurs at all bone surfaces, including the canaliculi. Our data suggested that the capacity of the pore network to exchange mineral with the bone matrix would increase by one order of magnitude if the canalicular surface is taken into account. However, more studies should be performed, targeting not only the changes of tissue properties during secondary mineralization, but also during fluctuations of mineral concentration in periods of high mineral demand.
|
6 |
Mitteilungen des URZ 2/1999Fischer,, Friedrich,, Heik,, Hübner,, Junghänel,, Richter,, Riedel,, Ziegler, 19 July 1999 (has links)
Mobile Informationen - WebDAV
AMANDA
PHP3 - Professional Home Page Tool
0371 36704 ... stets Anschluß unter dieser Nummer
Datenbankservice
VMWARE für Linux
The Gimp
Das Ding
Ein fantastischer Stängel auf der Schlossstraße
|
7 |
Validierung einer neuen Software für halbautomatische Volumetrie – ist diese besser als manuelle Messungen?Noschinski, Leonie 19 July 2016 (has links)
This study compared a manual program for liver volumetry with a semiautomated software. The hypothesis was that the software would be faster, more accurate and less dependent on the evaluator’s experience. Materials and Methods: Ten patients undergoing hemihepatectomy were included into this IRB approved study after written informed consent. All patients underwent a preoperative abdominal CTScan, which was used for whole liver volumetry and volume prediction for the liver part to be resected. Two different softwares were used: 1) manual method: borders of the liver had to be defined per slice by the user; 2) semiautomated software: automatic identification of liver volume with manual assistance for definition of Couinaud-segments. Measurements were done by six observers with different experience levels. Water displacement volumetry immediately after partial liver resection served as gold standard. The resected part was examined with a CT-scan after displacement volumetry. Results: Volumetry of the resected liver scan showed excellent correlations to water displacement volumetry (manual: ρ=0.997; semiautomated software: ρ=0.995). Difference between the predicted volume and the real volume was significantly smaller with the semiautomated software than with the manual method (33 % vs. 57 %, p=0.002). The semiautomated software was almost four times faster for volumetry of the whole liver. Conclusion:
Both methods for liver volumetry give an estimated liver volume close to the real one. The tested semiautomated software is faster, more accurate in predicting the volume of the resected liver part, gives more reproducible results and is less dependent on the user’s experience. / Ziel dieser Studie war es, eine manuelle Methode zur Lebervolumetrie mit einer halbautomatischen Software zu vergleichen. Die zu prüfende Hypothese war eine Überlegenheit der halbautomatischen Software hinsichtlich Schnelligkeit, Genauigkeit und Unabhängigkeit von der Erfahrung des Auswerters. Material und Methoden: Die Studie wurde von der Ethikkommission geprüft und es lagen Einverständniserklärungen aller Patienten vor. In die Studie wurden zehn Patienten eingeschlossen, die eine Hemihepatektomie erhielten. Es wurde präoperativ ein CT-Scan angefertigt, der sowohl für die Volumetrie der gesamten Leber als auch zur Bestimmung des Resektatvolumens verwendet wurde. Für die Volumetrie wurden zwei verschiedene Programme genutzt: 1) eine manuelle Methode, wobei die Lebergrenzen in jeder Schicht vom Auswerter definiert werden mussten 2) eine halbautomatische Software mit automatischer Erkennung des Lebervolumens und manueller Definition der Lebersegmente nach Coinaud. Die Messungen wurden von sechs Auswertern mit unterschiedlicher Erfahrung vorgenommen. Als Goldstandard diente eine Verdrängungsvolumetrie des Leberresektats, die direkt nach der Resektion im Operationssaal durchgeführt wurde. Anschließend wurde zusätzlich ein CT-Scan des Resektats angefertigt. Ergebnisse: Die Ergebnisse des postoperativen CT-Scans korrelierten hochgradig mit den Ergebnissen der Verdrängungsvolumetrie (manuell: ρ=0.997; halbautomatische Software: ρ=0.995). Mit der halbautomatischen Software fielen die Unterschiede zwischen dem vorhergesagten und dem tatsächlichen Volumen signifikant kleiner aus (33 % vs. 57 %, p=0.002). Zudem lieferte die halbautomatische Software die Volumina der Gesamtleber 3.9mal schneller.
Schlussfolgerung: Beide Methoden erlauben eine sehr gute Abschätzung des Lebervolumens. Die getestete halbautomatische Software kann das Lebervolumen jedoch schneller und das Resektatvolumen genauer vorhersagen und ist zusätzlich unabhängiger von der Erfahrung des Auswerters.
|
8 |
Mitteilungen des URZ 2/1999Fischer, Friedrich, Heik, Hübner, Junghänel, Richter, Riedel, Ziegler 19 July 1999 (has links)
Mobile Informationen - WebDAV
AMANDA
PHP3 - Professional Home Page Tool
0371 36704 ... stets Anschluß unter dieser Nummer
Datenbankservice
VMWARE für Linux
The Gimp
Das Ding
Ein fantastischer Stängel auf der Schlossstraße
|
9 |
Development of Process Models for Multiphase Processes in the Pore Space of a Filter Cake based on 3D InformationLöwer, Erik 20 May 2022 (has links)
Reliable information about the micro-processes during filtration and dewatering of filter cakes allows more accurate statements about process development and design in any industrial application with solid-liquid separation units. Distributed particle properties such as shape, size, and material influence the formation of the porous network structure, which can show considerable local fluctuations in vertical and horizontal alignment in the cake forming apparatus. The present work relates to a wide range of particle sizes and particle shapes and presents their effects on integral, but preferably local, structural parameters of cake filtration. Current models for the relationship between particle properties and resulting porous structure remain inaccurate. Therefore, the central question focus on the model-based correlation between obtained tomographic 3D information and characteristic
cake and process parameters.
In combination with X-ray computed tomography and microscopy (ZEISS Xradia 510), data acquisition of the structural build-up of filter cakes is possible on a small scale (filter area 0.2 cm²) and a conventional laboratory scale (filter area 20 cm², VDI 2762 pressure nutsch). Thereby, the work focuses on structural parameters at the local level before, during, and after cake dewatering, such as porosity, coordination number, three-phase contact angle, characteristics of pores and isolated liquid regions, the liquid load of individual particles, tortuosity, and capillary length, and the corresponding spatial distributions. Seven different particle systems in the range of 20 and 500 µm, suspended in aqueous solutions with additives for contrast enhancement, served as raw materials for the filter cake formation. Image data processing from 16-bit greyscale images with a resolution of 2 to 4 µm/voxel edge length includes various operations with a two-stage segmentation to identify air, solid particles, and liquid phase, resulting in a machine learning-based automated approach. Subsequent modeling and correlation of measured parameters rely on experimentally verified quantities from mercury porosimetry, laser diffraction, dynamic image analysis, static and dynamic droplet contour analysis, as well as filtration and capillary pressure tests according to VDI guidelines. The tomography measurements provide microscopic information about the porous system, quantified using characteristic key parameters and distribution functions. By studying the cake structure concerning the local distribution of particle size and shape and the resulting porosity, segregation effects can be avoided by increasing the feed concentration of particles, whereby swarm inhibition of particles in the initial suspension strongly hinders or completely suppresses layer formation in the cake according to distributed particle properties (Publication A). In the subsequent dewatering of the filter cake to the irreducible saturation, the measurement of the local coordination number as well as the remaining liquid volumes at the particle contacts allows the determination of a discrete liquid load distribution by correlation with the respective particle volume (Publication B). The determination of the capillary length - shortest capillary for single-phase pore flow and capillary of least resistance for multiphase pore flow - provides modeling
approaches for the cake formation from publication A as well as the dewatering process from publication B (Publication C). The parameter sets obtained also help to transfer and extend existing, theoretical models of multiphase pore flow to the application example of filter cake dewatering (Publication D). At the microscopic level, the measurement of the three-phase contact angle at isolated liquid volumes within the porous matrix provides a deeper understanding of the macroscopic models from publications C and D (Publication E).:List of Figures
List of Tables
Notation
1 Introduction
2 Multiphase Processes in Porous Media
2.1 Cake Filtration and Single Phase Porous Media Flow
2.2 Cake Dewatering
2.2.1 Particle Surface Wettability
2.2.2 Capillarity in Porous Media
2.2.3 Static Capillary Pressure
2.2.4 Dynamic Capillary Pressure
3 Acquisition of 3D Information of Porous Media
3.1 Absorption and Scattering of X-rays
3.2 X-ray Microscopy
3.2.1 Image Acquisition
3.2.2 Image Reconstruction
3.2.3 Image Quality and Artifacts
3.3 Image Post-Processing
3.3.1 Image Enhancement
3.3.2 Segmentation and Thresholding
3.3.3 Processing Binary Images
3.4 Image Measurement
4 Materials and Methods
4.1 The Solid Phase
4.2 The Liquid Phase
4.3 Suspension Stability
4.4 Experimental Design and Down-Scale for Tomography Measurements
4.5 Experimental Characterization of Filtration and Dewatering Properties
4.5.1 Cake Filtration
4.5.2 Cake Dewatering (Capillary Pressure Measurements)
5 Conclusion and Outlook
Literature
Publications A to E
Appendix
|
10 |
Proximal Splitting Methods in Nonsmooth Convex OptimizationHendrich, Christopher 25 July 2014 (has links) (PDF)
This thesis is concerned with the development of novel numerical methods for solving nondifferentiable convex optimization problems in real Hilbert spaces and with the investigation of their asymptotic behavior. To this end, we are also making use of monotone operator theory as some of the provided algorithms are originally designed to solve monotone inclusion problems.
After introducing basic notations and preliminary results in convex analysis, we derive two numerical methods based on different smoothing strategies for solving nondifferentiable convex optimization problems. The first approach, known as the double smoothing technique, solves the optimization problem with some given a priori accuracy by applying two regularizations to its conjugate dual problem. A special fast gradient method then solves the regularized dual problem such that an approximate primal solution can be reconstructed from it. The second approach affects the primal optimization problem directly by applying a single regularization to it and is capable of using variable smoothing parameters which lead to a more accurate approximation of the original problem as the iteration counter increases. We then derive and investigate different primal-dual methods in real Hilbert spaces. In general, one considerable advantage of primal-dual algorithms is that they are providing a complete splitting philosophy in that the resolvents, which arise in the iterative process, are only taken separately from each maximally monotone operator occurring in the problem description. We firstly analyze the forward-backward-forward algorithm of Combettes and Pesquet in terms of its convergence rate for the objective of a nondifferentiable convex optimization problem. Additionally, we propose accelerations of this method under the additional assumption that certain monotone operators occurring in the problem formulation are strongly monotone. Subsequently, we derive two Douglas–Rachford type primal-dual methods for solving monotone inclusion problems involving finite sums of linearly composed parallel sum type monotone operators. To prove their asymptotic convergence, we use a common product Hilbert space strategy by reformulating the corresponding inclusion problem reasonably such that the Douglas–Rachford algorithm can be applied to it. Finally, we propose two primal-dual algorithms relying on forward-backward and forward-backward-forward approaches for solving monotone inclusion problems involving parallel sums of linearly composed monotone operators.
The last part of this thesis deals with different numerical experiments where we intend to compare our methods against algorithms from the literature. The problems which arise in this part are manifold and they reflect the importance of this field of research as convex optimization problems appear in lots of applications of interest.
|
Page generated in 0.1015 seconds