• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 78
  • 43
  • 24
  • 7
  • 1
  • 1
  • Tagged with
  • 155
  • 116
  • 63
  • 60
  • 59
  • 59
  • 59
  • 30
  • 26
  • 15
  • 13
  • 13
  • 12
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Design, Fabrication and Applications of Organic-Inorganic Hybrid Systems

Agrawal, Mukesh 22 September 2008 (has links) (PDF)
A simple and facile way to the fabrication of nano to micro scale organic-inorganic hybrid particles was demonstrated. A well known “template-assisted approach” was chosen for the preparation of these hybrid particles, in which the inorganic material of interest is templated against the template particles. A series of colloidal template particles including, polystyrene, poly (vinylcaprolactam) and poly (N-isopropylacrylamide) was used for the deposition of a variety of metal oxides/hydroxide nanoparticles. A classical surfactant free co-polymerization process was employed for the synthesis of these template particles. To facilitate the deposition of inorganic nanoparticles in subsequent steps, these colloidal particles were functionalized with the suitable functional groups. For this purpose, polystyrene particles were synthesized in the presence of acetoacetoxyethylmethacrylate (AAEM) co-monomer. Similarly, poly (vinylcaprolactam) and poly (N-isopropylacrylamide) particles were functionalized by adding AAEM and acrylic acid co-monomers, respectively, during their synthesis. It is thought that an effective interaction between these functionalities of employed template and metal oxide/hydroxide precursors is the driving force for the fabrication of organic-inorganic hybrid particles. A number of metal oxide/hydroxide nanoparticles including ZnO, TiO2, Ta2O5 and In(OH)3 were deposited on the surface of polystyrene colloidal particles. A systematic variation in the employed reaction conditions allowed a modulation in size, shape, morphology, shell thickness and inorganic contents of resulting hybrid particles. Similar effect of the employed Indium isopropoxide concentration on the morphology of PS-In(OH)3 hybrid particles was observed. In the case of PS-TiO2 and PS-Ta2O5 only core-shell morphology was observed. However, suitable surface chemistry and careful selection of reaction parameters allowed the deposition of as much thick as 130 nm TiO2/Ta2O5 shell on the polystyrene core. In addition, a controlled manipulation of the shell thickness with the employed concentration of inorganic salt was observed. Polystyrene colloidal particles coated with a high refractive index material such as TiO2, were employed as building blocks for the fabrication of self assembled colloidal crystals. The variation in particle size and TiO2 content of employed building blocks allowed the manipulation in stop band position and band width of resulting photonic structures. Furthermore, PS-ZnO hybrid particles with raspberry-like morphology were exploited as carrier for ZnO nanoparticles into a host polymer matrix to achieve a nanocomposite material. In addition, fabrication of a series of closed, intact and mechanically robust hollow spheres, composed of pure and mixed metal oxides was demonstrated. The removal of polystyrene core from PS-TiO2 and PS-Ta2O5 hybrid particles by chemical or thermal treatment resulted into the hollow TiO2 and Ta2O5 spheres, respectively. Templating of PVCL colloidal particles against ZnO nanoparticles was shown and variation in physical properties of the resulting hybrid microgels as a function of the loaded amount of ZnO nanoparticles was demonstrated. PVCL-ZnO hybrid microgels showed the temperature sensitivity of the template particles and the UV-absorbing property of the loaded ZnO nanoparticles. It was demonstrated that these hybrid materials can effectively be used in the preparation of a transparent UV-shielding material. In addition, the deposition of preformed and functionalized quantum dots (CdTe) on the surface of PNIPAm microgel particles was explored and a manipulation in the fluorescent properties of loaded quantum dots as a result of temperature induced swelling and deswelling of microgel template was investigated. It was found that the fluorescence of deposited quantum dots can be switched to “ON” or “OFF” by changing the temperature of the surrounding media. These hybrid particles are envisioned to be used in the fabrication of temperature nanosensors.
32

Sedimentationsverhalten von Submikrometerpartikeln in wässrigen Suspensionen / Sedimentation behavior of sub-micrometer particles in aqueous suspensions / Comportamiento de sedimentación de partículas submicrométricas en suspensiones acuosas

Salinas Salas, Gonzalo Eugenio 28 November 2007 (has links) (PDF)
Die Dissertation verfolgt das Ziel, das Sedimentationsverhalten kolloidaler Suspensionen in Abhängigkeit von der Partikelkonzentration und den Partikelwechselwirkungen zu untersuchen und die Grenzen einer Sedimentationsanalyse im Zentrifugalkraftfeld auszuarbeiten. Um Effekte der Partikelagglomeration von den anderen Einflussfaktoren unterscheiden zu können, wurde besonderes Augenmerk auf die Gewährleistung der Suspensionsstabilität und deren messtechnischen Nachweis gerichtet. Im Submikrometerbereich gewinnen die zwischen den einzelnen Partikeln wirkenden nicht-hydrodynamischen Kräfte gegenüber Trägheits- oder Feldkräften an Bedeutung und können diese sogar dominieren. Infolgedessen ist der Zustand einer kolloidalen Suspension nicht mehr allein über die Partikelgrößenverteilung und die Partikelkonzentration definiert, sondern gleichfalls abhängig von den bestehenden Grenzflächeneigenschaften, die wiederum von solchen Eigenschaften der kontinuierlichen Phase wie pH-Wert oder Elektrolytgehalt abhängen. Im Zentrum der experimentellen Arbeiten stand die Untersuchung des Einflusses der Partikelkonzentration auf das Sedimentationsverhalten feinster Partikelsysteme. In der Literatur existiert keine einheitliche Beschreibung des Konzentrationseinflusses. In der Dissertation wurde die Suspensionsstabilität von Siliziumdioxid-Suspensionen gezielt beeinflusst, um deren Einfluss auf das Sedimentationsverhalten zu bewerten. Es wurde gezeigt, dass nur für instabile Suspensionen die erwartete Sinkgeschwindigkeitsüberhöhung existiert. Es wurde aber auch gezeigt, dass die bei unterschiedlichen Drehzahlen erhaltenen Sinkgeschwindigkeiten nicht über das Beschleunigungsvielfache skaliert werden können. Weiterhin wurde demonstriert, dass in solchen Systemen eine komplexe Abhängigkeit vom Feststoffgehalt existiert, weil die Koagulationsgeschwindigkeit auch von der Partikelkonzentration abhängt. Als geeignetes Kriterium zur Bewertung des Agglomerationszustandes monodisperser Partikelsysteme konnte die Breite der Sinkgeschwindigkeitsverteilung nachgewiesen werden. In Ergänzung zu den im Zusammenhang mit der Partikelkoagulation instabiler Suspensionen führen insbesondere bei elektrostatisch stabilisierten Partikelsystemen die mit der elektrochemischen Doppelschicht verbundenen Wechselwirkungen zu einer Beeinflussung der Suspensionsstruktur und folglich zu einer Beeinflussung hydrodynamischer Phänomene. Das wird in den bekannten Modellen nicht berücksichtigt und in der vorgelegten Arbeit am Sedimentationsverhalten monodisperser Partikelsysteme bei verschiedenen Elektrolytgehalten der kontinuierlichen Phase untersucht. Zu diesem Zweck wurden aus einer konzentrierten Suspension von 200 nm Partikeln und dem ihr zugehörigen Zentrifugat Suspensionsproben unterschiedlichen Feststoffgehaltes zubereitet. Mit einem Potenzansatz, wie er bereits von Richardson und Zaki für die Sedimentation von Mikrometerpartikeln verwendet wurde, konnte der experimentell bestimmte Zusammenhang zwischen der Sinkgeschwindigkeit und der Suspensionsporosität beschrieben werden. Dabei ist die Sedimentationsbehinderung umso ausgeprägter, je kleiner der Elektrolytgehalt, d.h. je ausgedehnter die Doppelschichtdicke ist. Die stark mit dem Elektrolytgehalt korrelierenden Werte für den Exponenten dieses Ansatzes liegen zwischen 5 und 10 im Gegensatz zu Richardson und Zaki von 4,65. Untersuchungen zum Konzentrationseinfluss mit gröberen Partikeln in elektrolytarmen Lösungsmitteln bestätigten die gegenüber dem Mikrometerbereich stärkere Sedimentationsbehinderung elektrostatisch stabilisierter kolloidaler Suspensionen. Zusätzlich zu den wissenschaftlichen Untersuchungen erfolgte die Konstruktion einer einfachen und robusten Sedimentationszelle mit optischer Messwerterfassung. Es wurde die Funktionstüchtigkeit eines zuverlässigen, partikelgrößenselektiven Messgerät z.B. für Industrielabore zur Optimierung von Sedimentationsprozessen demonstriert. / The sedimentation of stabilized suspensions strongly depends on the particle concentration. Even for dilute systems the decrease of the settling velocity compared to that of isolated particles is quite significant. This is primarily due to hydrodynamic interactions (HI), which are long-range interaction, since disturbances in the flow field decline reciprocally with the distance from the surface. The sedimentation of colloidal particles is additionally affected by the electric double layer surrounding them. The double layer leads to electro-viscous effects as well as to electrostatic repulsion between neighboring particles. Both phenomena can amplify the hydrodynamic hindrance to considerable extent. In this dissertation thesis an experimental study on the influence of double layer thickness on the sedimentation of charged colloidal particles is presented. Investigations were carried out using an optical centrifuge, in which the sedimentation velocity of monosized sub-micrometer silica particles were studied at different particle concentration and varying ionic strength. The results are discussed with regard to the applicability of theoretical models and (semi-)empirical approximations. Richardson and Zaki had determined a power law exponent of 4.65 for hard sphere systems in the 100 micrometer range. In the experimental work for sub-micrometer particles the exponent was determined between 5 (low double layer thickness at high electrolyte concentration) and 10 (high double layer thickness at low electrolyte concentration). Additionally a simple and robust device for gravitational sedimentation analysis by optical signal sensing was designed. It enables industrial application for the optimization of sedimentation processes.
33

Beitrag zur quantitativen Kornformcharakterisierung unter besonderer Berücksichtigung der digitalen Bildaufnahmetechnik

Zlatev, Metodi 15 July 2009 (has links) (PDF)
Die Eigenschaften von verschiedenen Produkten, an denen Feststoffe beteiligt sind, hängen von der Korngröße und Kornform der verwendeten Materialien ab. Im Bereich der Steine- Erden-Industrie werden die Eigenschaften der Partikelgemische (z.B. Wasseraufnahmefähigkeit, Fließverhalten, Verdichtbarkeit, Kornfestsitz) neben der Korngröße in starkem Maße auch von der Form der einzelnen Körner beeinflusst. Von diesen Eigenschaften sind später die Festigkeit und die Nutzungsdauer der Bauwerke abhängig. Zur Charakterisierung der Partikelform werden verschiedene Methoden angewendet, die z.T. in gültigen Normen (z.B. EN 933, Teil 4 zur Ermittlung der Kubizität, EN 933, Teil 5 für die visuelle Ermittlung der Bruchflächigkeit) berücksichtigt werden. Eine Analyse des wissenschaftlich-technischen Standes führte zu dem Ergebnis, dass die derzeit bekannten Methoden zur Kornformbewertung nur Aussagen über die Makro- (z.B. kubisch oder fehlförmig) und teilweise die Mesogestalt (z.B. Sphärizität) eines Korngemisches zulassen. Quantitative Aussagen zur Mikrogestalt (z.B. Oberflächenrauhigkeit, Bruchflächigkeit) sind gegenwärtig nicht möglich. Für die granulometrische Bewertung von Korngemischen stehen seit einigen Jahren photooptische Aufnahmetechniken (digitale Zeilen- oder Matrixkameras) zur Verfügung. Diese liefern digitale Partikelprojektionsbilder, die für eine quantitative Korngrößen- und Kornformbewertung verwendet werden können. Ziel der vorliegenden Arbeit war daher die Entwicklung einer neuen Kornformbeschreibungsmethodik unter Einbeziehung der modernen digitalen Bildaufnahmetechnik, die in Anlehnung an die Erfordernisse der Steine-Erden-Industrie eine Charakterisierung der Makro-, Meso und Mikrogestalt der Partikel bzw. Partikelgemische ermöglicht. Dazu war es erforderlich, eine komplexe Durchdringung der Problemkreise Bildaufnahme, -bearbeitung und -auswertung durchzuführen. Der erste Komplex der Untersuchungen befasste sich mit den Problemen einer korrekten Bildaufnahme. Dazu wurde ein theoretisches Modell zur Optimierung des Aufnahmeprinzips des zur Verfügung stehenden Zeilenkameramessgerätes entwickelt, um den Einfluss der physikalischen Fallparameter der Partikel und der hardwaremäßigen Kameraeinstellungen auf eine korrekte Bildaufnahme zu untersuchen. Im Ergebnis dessen wurde nachfolgendes festgestellt: - Für eine korrekte Bildaufnahme ist eine Abstimmung der physikalischen Fallparameter (z.B. Fallgeschwindigkeit) der Partikel mit den hardwaremäßigen Kameraeinstellungen (z.B. Abtastfrequenz Fk, Pixelgröße dbk) vorzunehmen, um Verzerrungen (Stauchungen, Streckungen) der aufgenommenen Partikelprojektionsbilder zu vermeiden. - Der Einfluss der Partikelbeschleunigung während des Scannprozesses auf die korrekte Bildaufnahme ist eine Funktion der hardwaremäßig vorgegebenen Pixelgröße. So können z.B. Partikel mit einem Äquivalentdurchmesser von däq < 3 mm bei Aufnahme mit einer Pixelgröße dbk= 0,065 mm ohne Berücksichtigung der Partikelfallbeschleunigung nahezu verzerrungsfrei aufgenommen werden. Bei Aufnahme von größeren Partikeln däq > 3 mm kann der Einfluss der Beschleunigung jedoch nicht mehr vernachlässigt werden. - Durch experimentelle Untersuchungen, die mit Kugeln unterschiedlicher Dichte p und Äquivalentdurchmesser däq bei Variation der Fallhöhe durchgeführt wurden, konnten die aus dem theoretischen Modell abgeleiteten Einflussgrößen experimentell nachgewiesen werden. Durch weitere theoretische Betrachtungen wurden die Mindestanforderungen bezüglich der notwendigen Kameraeinstellungen (Pixelform, Pixelgröße) und der unteren messbaren Grenzpartikelgröße für die Korngrößen- bzw. Kornformcharakterisierung in den unterschiedlichen Gestaltbereichen festgelegt. Im zweiten Untersuchungskomplex wurden die Probleme der digitalen Bildbearbeitung näher betrachtet. Nachfolgende wichtige Punkte wurden dabei untersucht. - Für die Formcharakterisierung eines Partikels ist die Ermittlung seiner Randkontur von besonderem Interesse. Eine Bewertung der Möglichkeiten zur Unterscheidung der abgedeckten Projektionspixel in die Kategorien „Randpixel“ und „Flächenpixel“ führte zu der Erkenntnis, dass diese Unterscheidung durch Flächenerosion erfolgen sollte. Ein Vergleich der theoretisch bekannten Grenztypen für die Flächenerosion zeigte, dass der Grenztyp 4 (4 Nachbarschaftsabfragen) genauere Information über die Partikelrandkontur, bei geringerem Speicherplatzbedarf für die Bilderosion, liefert. - Zur Abtastung der Partikelrandkontur in einer definierten Reihenfolge und zur Ermittlung der X,Y-Randpixelkoordinaten wurde ein 8-Punkte-Abfragealgorithmus entwickelt. Durch Abtastung mit einer Hilfsmatrix wurde dabei der Rechen- und Speicheraufwand minimiert. Bei der Ermittlung der X,Y-Randpixelkoordinaten bleiben die Informationen zur Partikelform und -abbildungslage für die weitere Bearbeitung erhalten. - Nach Durchführung einer Koordinatentransformation erhält man eine Punkt-Zug-Kurve in einem kartesischen Koordinatensystem, die einer mathematisch-analytischen Auswertung unterzogen werden kann. - Zur Untersuchung des Einflusses der Partikelabbildungslage auf die charakteristischen Parameter eines Partikels (z.B. Umfang und Sphärizität) wurden umfangreiche Untersuchungen zu den Nachbarschaftsverhältnissen der Randpixel untereinander (horizontale, diagonale, vertikale Nachbarschaft) angestellt. Dabei wurde festgestellt, dass die in statistischer Abbildungslage aufgenommenen Partikel bei Nichtberücksichtigung der Abbildungslage eine Abweichung bezüglich der Umfangs- bzw. Sphärizitätsberechnung von bis zu 17 % aufweisen können. Im Ergebnis dessen sind die Partikel für die Kornformbewertung in einer definierten Auswertelage (z.B. größte Partikelabmessung parallel zur XAchse) zu untersuchen. Der gesamte Ablauf der einzelnen Bildbearbeitungschritte, wie z.B. - Einlesen des Projektionsbildes in eine X,Y-Matrix zur Ermittlung der Gesamtanzahl der abgedeckten Pixel, - Durchführung einer Bilderosion zur Ermittlung der Randpixelanzahl, - Abtastung der Randkontur für die Ermittlung der Randpixelkoordinaten und - Durchführung einer Koordinatentransformation zur Ermittlung der „Punkt-Zug-Kurve“ wurde in einem Rechenprogramm zur automatisierten Auswertung der Partikelprojektionsbilder realisiert. Der dritte Komplex befasste sich mit der mathematisch- analytischen Auswertung der erhaltenen Punkt-Zug-Kurven. Aus der Literatur ist eine Vielzahl unterschiedlicher Vorgehensweisen zur Bestimmung von Formparametern mit Hilfe von harmonischen Analysen (z.B. Fourier-, Walsh-, Radamacher-, Hadamard-, Haar-Transformation) bekannt. Nach einer Recherche der für die Kornformcharakterisierung angewandten Transformationen wurde entschieden, diese mit Hilfe einer Fourieranalyse auszuwerten. Für die Formanalyse stehen als Ergebnis eine Anzahl von Fourierkoeffizienten zur Verfügung, die von der Randpixelanzahl und somit von der Pixel- und Partikelgröße abhängig sind. Nach Durchführung einer Normierung sind die erhaltenen Fourierkoeffizienten unabhängig von der Partikelgröße. Im letzten Untersuchungskomplex wird die Relevanz der neuen Kornformbeschreibungsmethode für die Kornformbeschreibung der Makro- und Mesogestalt durch Anwendung von mathematisch- statistischen Untersuchungen und Vergleich mit der klassischen Radius-Winkel- Funkion bewertet. Die Ergebnisse lassen sich wie folgt zusammenfassen: - Die Fourierkoeffizienten niedriger Ordnung sind die Hauptinformationsträger der Formbeschreibung für die Makro- und Mesogestalt der Partikel. - Der normierte Fourierkoeffizient A1 korreliert am besten mit dem Xa/Xb-Verhältnis der Partikel. - Die normierte Teilsumme der Fourierkoeffizienten A0-5 korreliert am besten mit der Sphärizität sp der Partikel. Im Vergleich zur klassischen Radius-Winkel-Funktion weist die neue Kornformbeschreibungsmethode folgende Vorteile auf: - Bessere Korrelation mit den ausgewählten Formfaktoren, - höhere Messempfindlichkeit (Anstieg der Anpassungsfunktion) und - höhere Nachweisempfindlichkeit für Kornformunterschiede. Für die Untersuchungen im Mikrogestaltsbereich wurde festgestellt, dass kein anwendbarer Kornformfaktor existiert, der als Bezugsgröße bei der Suche nach einer passenden Kombination von Fourierkoeffizienten verwendet werden kann. Daher wurde ein neuer Formfaktor für die Kantenrauhigkeit definiert und mit Hilfe von selbstkonfigurierten Modellpartikeln getestet. Dabei wurde auch eine quantitative Aussage bezüglich der Mindestanforderungen an die Aufnahmetechnik (Pixelgröße) bzw. der unteren messbaren Partikelgröße für die Kornformcharakterisierung im Mikrogestaltsbereich (z.B. Bruchflächigkeit und Kantenrauhigkeit) abgeleitet. Die Anwendbarkeit der neuen Rauhigkeitskennzahl Rp wurde durch Berechnungen mit realen Projektionsbildern von vollständig gebrochenen Splittgemischen bzw. vollständig gerundeten Kiesgemischen getestet. Die Untersuchungsergebnisse lassen die Schlussfolgerung zu, dass die neue Rauhigkeitskennzahl Rp auch für die Quantifizierung der Bruchflächigkeit geeignet ist. In einem weiteren Untersuchungskomplex wurden unterschiedliche Siliziumcarbidproben (15m < däq < 40m), die vor bzw. nach dem Schneidprozess entnommen wurden, einer Rauhigkeitsbewertung unterzogen. Dazu wurden die Siliziumcarbidproben vereinzelt und nach Vergrößerung mit einem Mikroskop mit einer Pixelgröße dak = dbk = 0,27 m aufgenommen. Die Auswertung der aufgenommenen Mikroskopbilder führte zu nachfolgendem Ergebnis: - Die SiC-Probe, die vor dem Schneidvorgang entnommen wurde, hat eine signifikant höhere mittlere Rauhigkeitskennzahl (Rp= 10,9 %) gegenüber der Probe nach dem Schneidprozess (Rp= 6,6 %). Damit konnte bestätigt werden, dass das Schneidmittel während des Schneidprozesses einen Teil seiner ursprünglichen Kantenrauhigkeit einbüßt. Analog den Korrelationsuntersuchungen, die für den Bereich der Makro- und Mesogestalt durchgeführt wurden, wurden auch mit den Splitt- bzw. Kiesgemischen analoge Korrelationsuntersuchungen zwischen Fourierkoeffizienten und Rauhigkeitskennzahl durchgeführt, wobei nachfolgende Erkenntnisse festgestellt wurden: - Aus den umfangreichen Korrelationsuntersuchungen geht hervor, dass die normierte Teilsumme der Fourierkoeffizienten A5-20 am besten mit der Rauhigkeitskennzahl Rp korreliert (Kr= 0,96) und Rauhigkeitsschwankungen am empfindlichsten nachweist (Rp= 1,5 % bei einer statistische Sicherheit von 68,27 %). Vergleicht man wiederum die neue Kornformbeschreibungsmethode mit der klassische Radius- Winkel-Funktion, so lässt sich auch für die Kornformcharakterisierung der Mikrogestalt die Überlegenheit der neuen Methode durch eine: - bessere Korrelation mit der angewendeten Rauhigkeitskennzahl Rp, (Kr= 0,96 gegenüber Kr= 0,81), - höhere Messempfindlichkeit der Anpassungsfunktion (Eabs= 0,372 gegen Eabs.= 0,002) sowie - höhere Nachweisempfindlichkeit für Rauhigkeitsänderungen (Rp= 1,5 % gegenüber Rp= 3,2 %) nachweisen. Die gewonnenen Erkenntnisse in dieser Arbeit können zukünftig bei einer automatisierten Korngrößen- und Kornformbewertung angewendet werden. Sie bilden die Grundlagen für eine breitere Anwendung der digitalen Aufnahmetechnik zur Charakterisierung der Makro-, Meso- und Mikrogestalt der Produkte aus der Steine-Erden-Industrie. Weiterführende Untersuchungen sollten sich auf folgende Schwerpunkte konzentrieren: - Weiterentwicklung der digitalen Bildaufnahmetechnik durch Optimierung der Messgeometrie und unter Beachtung der erforderlichen Mindestanforderungen (Pixelgröße) für die Kornformcharakterisierung im Makro-, Meso- und Mikrogestaltsbereich. - Weiterführende Untersuchungen zur Quantifizierung des Zusammenhanges zwischen der Rauhigkeitskennzahl Rp und der Bruchflächigkeit nach EN 933, Teil 5. - Entwicklung eines Softwaremoduls zur automatischen Ermittlung von Bruchflächigkeitsverteilungen.
34

Simulation of Unsteady Gas-Particle Flows including Two-way and Four-way Coupling on a MIMD Computer Architectur

Pachler, Klaus, Frank, Thomas, Bernert, Klaus 17 April 2002 (has links) (PDF)
The transport or the separation of solid particles or droplets suspended in a fluid flow is a common task in mechanical and process engineering. To improve machinery and physical processes (e.g. for coal combustion, reduction of NO_x and soot) an optimization of complex phenomena by simulation applying the fundamental conservation equations is required. Fluid-particle flows are characterized by the ratio of density of the two phases gamma=rho_P/rho_F, by the Stokes number St=tau_P/tau_F and by the loading in terms of void and mass fraction. Those numbers (Stokes number, gamma) define the flow regime and which relevant forces are acting on the particle. Dependent on the geometrical configuration the particle-wall interaction might have a heavy impact on the mean flow structure. The occurrence of particle-particle collisions becomes also more and more important with the increase of the local void fraction of the particulate phase. With increase of the particle loading the interaction with the fluid phase can not been neglected and 2-way or even 4-way coupling between the continous and disperse phases has to be taken into account. For dilute to moderate dense particle flows the Euler-Lagrange method is capable to resolve the main flow mechanism. An accurate computation needs unfortunately a high number of numerical particles (1,...,10^7) to get the reliable statistics for the underlying modelling correlations. Due to the fact that a Lagrangian algorithm cannot be vectorized for complex meshes the only way to finish those simulations in a reasonable time is the parallization applying the message passing paradigma. Frank et al. describes the basic ideas for a parallel Eulererian-Lagrangian solver, which uses multigrid for acceleration of the flow equations. The performance figures are quite good, though only steady problems are tackled. The presented paper is aimed to the numerical prediction of time-dependend fluid-particle flows using the simultanous particle tracking approach based on the Eulerian-Lagrangian and the particle-source-in-cell (PSI-Cell) approach. It is shown in the paper that for the unsteady flow prediction efficiency and load balancing of the parallel numerical simulation is an even more pronounced problem in comparison with the steady flow calculations, because the time steps for the time integration along one particle trajectory are very small per one time step of fluid flow integration and so the floating point workload on a single processor node is usualy rather low. Much time is spent for communication and waiting time of the processors, because for cold flow particle convection not very extensive calculations are necessary. One remedy might be a highspeed switch like Myrinet or Dolphin PCI/SCI (500 MByte/s), which could balance the relative high floating point performance of INTEL PIII processors and the weak capacity of the Fast-Ethernet communication network (100 Mbit/s) of the Chemnitz Linux Cluster (CLIC) used for the presented calculations. Corresponding to the discussed examples calculation times and parallel performance will be presented. Another point is the communication of many small packages, which should be summed up to bigger messages, because each message requires a startup time independently of its size. Summarising the potential of such a parallel algorithm, it will be shown that a Beowulf-type cluster computer is a highly competitve alternative to the classical main frame computer for the investigated Eulerian-Lagrangian simultanous particle tracking approach.
35

Zur Berechnung der Verweilzeitverteilung von Partikeln

Ham, Jong-Ho 04 September 2003 (has links) (PDF)
Verweilzeitverteilungen werden zur Charakterisierung verfahrenstechnischer und speziell reaktionstechnischer Prozesse herangezogen. In dispersen Systemen existiert für jede Phase eine Verweilzeitverteilung, die sich stark voneinander unterscheiden können. Verweilzeitverteilungen werden häufig auf der Basis des Dispersionsmodells oder mittels einer Rührkesselkaskade beschrieben, wobei die Anpassung nicht immer gut ist. Deshalb werden zunächst halbempirische Gleichungen vorgestellt, die mittels charakteristischen Parametern (mittlere, minimale, maximale Verweilzeit; Exponent) eine flexible Nachbildung erlauben. Die Brauchbarkeit dieser Gleichungen wird für fluide und disperse Phase anhand der Nachrechnung veröffentlichter Verweilzeitverteilungskurven in unterschiedlichen Apparaten nachgewiesen, wobei auch ein Vergleich mit den Ergebnissen anderer Modelle erfolgt. Unter der Annahme einer stationären Sinkgeschwindigkeit gelingt für stark vereinfachte Fälle die Ableitung analytischer Ausdrücke für die Verweilzeitverteilung der dispersen Phase. Realere Fälle werden mit dem stochastischen Modell ZEMP (Zellenmodell mit Platzerwechselwahrscheinlichkeit), das um die Einbeziehung der Relativgeschwindigkeit der Partikeln erweitert wurde, erfasst. Dadurch wird es möglich, den Einfluss des Dispersionskoeffizienten, der Zugabeart, des Geschwindigkeitsprofils und des Vorliegens von Eigenschaftsverteilungen auf die Verweilzeitverteilung separat auszuweisen. Für das sich entwickelnde Geschwindigkeitsprofil des laminar durchströmten Rohrs und Kanals werden Gleichungen aufgestellt, in die die Werte von Literaturen eingingen. Damit wird der Einfluss der Einlaufstrecke auf die sich ausbildende Verweilzeitverteilung ermittelt.
36

An immersion freezing study of mineral dust and bacterial ice nucleating particles

Hartmann, Susan 03 July 2015 (has links) (PDF)
Ice formation largely influences the properties of clouds and hence it has an important impact on weather and climate. Primary ice formation is a consequence of either homogeneous or heterogeneous ice nucleation. The latter process is catalyzed by a foreign substance called Ice Nucleating Particle (INP). Mineral dust particles were found to contribute to atmospheric INPs. Most types of mineral dust are ice active below -20 °C. In contrast, atmospheric observations indicate that immersion freezing as one of the most important heterogeneous ice nucleation processes can occur at temperatures higher than -15 °C. One possible explanation for cloud glaciation at high temperatures might be the presence of biological material (e.g. bacteria) inducing ice nucleation. Our fundamental process and even qualitative understanding concerning atmospheric heterogeneous ice nucleation is limited. In the framework of the present thesis, experimental and theoretical work was carried out to improve the basic understanding of the immersion freezing behavior of mineral dust and bacterial INPs. On the basis of model simulations immersion freezing experiments were designed at the Leipzig Aerosol Cloud Interaction Simulator (LACIS). The immersion freezing behavior of mineral dust and bacterial INPs was studied in dependence of temperature and particle surface area/number at LACIS. As a results of the present thesis, it was found that the immersion freezing behavior of kaolinite being a proxy of mineral dust INPs does not depend on the droplet volume, but on the particle surface area. The kaolinite particles investigated caused freezing below -30 °C. In contrast, Ice Nucleation Active (INA) protein complexes that are attributed to bacterial INPs were found to induce freezing at -7 °C. Furthermore, it was shown that the ice nucleation activity of protein complexes is very similar regardless of whether the INA protein complex is attached to the outer cell membrane of intact bacteria or to cell membrane fragments. The immersion freezing ability depends on the number and type of INA protein complexes present in the droplet ensemble. The immersion freezing ability of mineral dust and bacterial INPs was parameterized accounting for the time effect. With this, results from literature could be reproduced for both INP types. These parameterizations can be used in e.g. cloud resolving atmospheric models.
37

Multikriterielle Optimierungsverfahren für rechenzeitintensive technische Aufgabenstellungen

Röber, Marcel 08 May 2012 (has links) (PDF)
Die Optimierung spielt in der Industrie und Technik eine entscheidende Rolle. Für einen Betrieb ist es beispielsweise äußerst wichtig, die zur Verfügung stehenden Ressourcen optimal zu nutzen und Betriebsabläufe effizient zu gestalten. Damit diese Vorhaben umgesetzt werden können, setzt man Methoden der Optimierung ein. Die Zielstellungen werden als eine abstrakte mathematische Aufgabe formuliert und anschließend wird versucht, dieses Problem mit einem Optimierungsverfahren zu lösen. Da die Komplexität der Problemstellungen in der Praxis ansteigt, sind exakte Verfahren in der Regel nicht mehr effizient anwendbar, sodass andere Methoden zum Lösen dieser Aufgaben entwickelt werden müssen, die in angemessener Zeit eine akzeptable Lösung finden. Solche Methoden werden als Approximationsalgorithmen bezeichnet. Im Gegensatz zu den exakten Verfahren ist der Verlauf der Optimierung bei dieser Verfahrensklasse vom Zufall abhängig. Dadurch lassen sich in der Regel keine Konvergenzaussagen beweisen. Dennoch hat sich gezeigt, dass Approximationsalgorithmen viel versprechende Ergebnisse für eine Vielzahl von unterschiedlichen Problemstellungen liefern. Zwei Approximationsalgorithmen werden in dieser Arbeit vorgestellt, untersucht und erweitert. Zum einen steht ein Verfahren im Vordergrund, welches aus Beobachtungen in der Natur entstanden ist. Es gibt Lebewesen, die durch verblüffend einfache Strategien in der Lage sind, komplexe Probleme zu lösen. Beispielsweise bilden Fische Schwärme, um sich vor Fressfeinden zu schützen. Der Fischschwarm kann dabei als selbstorganisierendes System verstanden werden, bei dem die Aktivitäten der einzelnen Fische hauptsächlich von den Bewegungen der Nachbarfische abhängig sind. An diesem erfolgreichen Schwarmverhalten ist der moderne Approximationsalgorithmus der Partikelschwarmoptimierung angelehnt. Weiterhin wird ein ersatzmodellgestütztes Verfahren präsentiert. Der Ausgangspunkt dieses Optimierungsverfahrens ist der Aufbau von Ersatzmodellen, um das Verhalten der Zielfunktionen anhand der bisherigen Auswertungen vorhersagen zu können. Damit so wenig wie möglich Funktionsauswertungen vorgenommen werden müssen, wird bei diesem Verfahren ein hoher Aufwand in die Wahl der Punkte investiert, welche auszuwerten sind. Die vorliegende Diplomarbeit gliedert sich wie folgt. Zunächst werden die mathematischen Grundlagen für das Verständnis der weiteren Ausführungen gelegt. Insbesondere werden multikriterielle Optimierungsaufgaben betrachtet und klassische Lösungsansätze aufgezeigt. Das dritte Kapitel beschäftigt sich mit der Partikelschwarmoptimierung. Dieser „naturanaloge Approximationsalgorithmus“ wird ausführlich dargelegt und analysiert. Dabei stehen die Funktionsweise und der Umgang mit mehreren Zielen und Restriktionen im Vordergrund der Ausarbeitung. Ein ersatzmodellgestütztes Optimierungsverfahren wird im Anschluss darauf vorgestellt und erweitert. Neben der Verfahrensanalyse, ist die Behebung der vorhandenen Schwachstellen ein vorrangiges Ziel dieser Untersuchung. Die eingeführten und implementierten Verfahren werden im fünften Kapitel an geeigneten analytischen und technischen Problemen verifiziert und mit anderen Approximationsalgorithmen verglichen. Anschließend werden Empfehlungen für die Verwendung der Verfahren gegeben. Die gewonnenen Kenntnisse werden im letzten Kapitel zusammengefasst und es wird ein Ausblick für zukünftige Forschungsthemen gegeben
38

Konzepte der Satzkonnexion

Wöllstein, Angelika January 2008 (has links)
Zugl.: Köln, Univ., Habil.-Schr., 2005
39

Inte vet jag vad jag håller på med e. : En beskrivning av partikel-e i dellboskan i två delar. Distribution och funktion.

Magdalena, Munther January 2008 (has links)
Denna uppsats syfte och mål har varit att undersöka distribution och funktion för den i dellboska partikeln e. Undersökningen utgår från material transkriberat dels från egna inspelningar, dels inspelningar från Swedia2000projektet. Analysen uppdelas sedan på två delar; en första grammatisk undersökning för att fastställa regler för distributionen, somgenomförs utifrån skribentens och informanters språkkänsla samt konkordansundersökningar. Dessa resultat ligger sedan till grund för undersökningen av partikelns funktion i diskursen utifrån definitioner av diskursmarkörer. Slutligen har undersökningen visat att partikelntroligtvis kan införas under begreppet final dubblering av negation, samt också kan definieras som en diskurspartkel med funktionen att signalera övertygelse om att det som sägs är riktigt, och något som inte bör ifrågasättas.
40

Simulation of Unsteady Gas-Particle Flows including Two-way and Four-way Coupling on a MIMD Computer Architectur

Pachler, Klaus, Frank, Thomas, Bernert, Klaus 17 April 2002 (has links)
The transport or the separation of solid particles or droplets suspended in a fluid flow is a common task in mechanical and process engineering. To improve machinery and physical processes (e.g. for coal combustion, reduction of NO_x and soot) an optimization of complex phenomena by simulation applying the fundamental conservation equations is required. Fluid-particle flows are characterized by the ratio of density of the two phases gamma=rho_P/rho_F, by the Stokes number St=tau_P/tau_F and by the loading in terms of void and mass fraction. Those numbers (Stokes number, gamma) define the flow regime and which relevant forces are acting on the particle. Dependent on the geometrical configuration the particle-wall interaction might have a heavy impact on the mean flow structure. The occurrence of particle-particle collisions becomes also more and more important with the increase of the local void fraction of the particulate phase. With increase of the particle loading the interaction with the fluid phase can not been neglected and 2-way or even 4-way coupling between the continous and disperse phases has to be taken into account. For dilute to moderate dense particle flows the Euler-Lagrange method is capable to resolve the main flow mechanism. An accurate computation needs unfortunately a high number of numerical particles (1,...,10^7) to get the reliable statistics for the underlying modelling correlations. Due to the fact that a Lagrangian algorithm cannot be vectorized for complex meshes the only way to finish those simulations in a reasonable time is the parallization applying the message passing paradigma. Frank et al. describes the basic ideas for a parallel Eulererian-Lagrangian solver, which uses multigrid for acceleration of the flow equations. The performance figures are quite good, though only steady problems are tackled. The presented paper is aimed to the numerical prediction of time-dependend fluid-particle flows using the simultanous particle tracking approach based on the Eulerian-Lagrangian and the particle-source-in-cell (PSI-Cell) approach. It is shown in the paper that for the unsteady flow prediction efficiency and load balancing of the parallel numerical simulation is an even more pronounced problem in comparison with the steady flow calculations, because the time steps for the time integration along one particle trajectory are very small per one time step of fluid flow integration and so the floating point workload on a single processor node is usualy rather low. Much time is spent for communication and waiting time of the processors, because for cold flow particle convection not very extensive calculations are necessary. One remedy might be a highspeed switch like Myrinet or Dolphin PCI/SCI (500 MByte/s), which could balance the relative high floating point performance of INTEL PIII processors and the weak capacity of the Fast-Ethernet communication network (100 Mbit/s) of the Chemnitz Linux Cluster (CLIC) used for the presented calculations. Corresponding to the discussed examples calculation times and parallel performance will be presented. Another point is the communication of many small packages, which should be summed up to bigger messages, because each message requires a startup time independently of its size. Summarising the potential of such a parallel algorithm, it will be shown that a Beowulf-type cluster computer is a highly competitve alternative to the classical main frame computer for the investigated Eulerian-Lagrangian simultanous particle tracking approach.

Page generated in 0.1143 seconds