• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 17
  • 6
  • 5
  • 5
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 52
  • 52
  • 27
  • 19
  • 7
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

UPNS4D+ – Neue Ansätze für die Kluftflächen- und Haufwerksanalyse

Donner, Ralf, Geier, Andreas, John, André 28 September 2017 (has links)
Der Zugang zu wirtschaftsstrategischen Bodenschätzen ist für moderne Industriegesellschaften von essenzieller Bedeutung. Für Deutschland besteht für die Versorgung mit nichtenergetischen Rohstoffen wie Stahlveredlern und Seltenen-Erden eine weitgehende Importabhängigkeit. Vorhandene heimische Lagerstätten weisen eine komplexe geologische Struktur mit geringen Abbaumächtigkeiten in großen Teufen auf. Um diese Lagerstätten nutzen zu können, soll ein untertagetaugliches Positionierungs- und Navigationssystem, UPNS4D+, für die Erkundung der Lagerstätte entwickelt und als Demonstrationssystem gebaut werden. Das Institut für Markscheidewesen und Geodäsie der TU Bergakademie ist Teil des Entwicklerkonsortiums. Es ist zuständig für die markscheiderische und bergmännische Nutzbarkeit der mit dem Erkundungssystem gewonnen Daten. Entsprechend dem aktuellen Arbeitsfortschritt werden im vorliegenden Beitrag die Lösungen für die Kluftflächen- und die Haufwerksanalyse vorgestellt. Die teilautomatisierte Haufwerksanalyse dient der Detektion großer Partikel und deren Lagebestimmung in einem relativen Koordinatensystem. / Access to strategic mineral resources is essential for modern industrial societies. Germany is largely dependent on imports of non-energy raw materials such as steel refiners and rare earth elements. Existing indigenous deposits have a complex geological structure with low extraction thickness in large depths. In order to use these deposits, an underground positioning and navigation system, namely UPNS4D+, as a demonstration system has to be developed for deposit exploration. As part of the developer consortium, the Institute for Mining Surveying and Geodesy of the TU Bergakademie Freiberg is responsible for the utilization of the acquired data in the field of mining. According to the current work status, in this paper the solutions for rock fracture analysis and grain size analysis are presented. The partly automated grain size analysis is used for the detection of large particles and their position in a relative coordinate system.
42

Approche granulaire et colloïdale du matériau terre pour la construction / Granular and colloïdal approach of earthen building material

Anger, Romain 20 December 2011 (has links)
La terre crue est un des matériaux les plus utilisés au monde pour bâtir. Chaque terre est un mélange de grains de différentes tailles (cailloux, graviers, sables, silts et argiles) en proportions variées. Les particules les plus fines, qui constituent le liant du matériau, se différencient des autres grains par leur petite taille, à laquelle est associée des propriétés colloïdales lorsqu’elles sont mélangées à l’eau. L’argile, au sens granulométrique (particules inférieures à deux microns), contient généralement un mélange d’argiles, au sens minéralogique (phyllosilicates hydratés), d’oxydes de fer, d’aluminium et de silicium. Pour comprendre ce matériau de construction, la terre est envisagée dans un premier temps comme une matière en grains. La physique des milieux granulaires secs et la physique des milieux granulaires humides sont explorées afin de décrire les comportements physiques de cette matière. Des techniques de construction innovantes, qui découlent de cette compréhension, sont présentées. Dans un deuxième temps, l’argile est envisagée comme une matière colloïdale. Comme beaucoup de systèmes naturels, le liant argileux est un mélange de particules aux propriétés de surface différentes, contenant à la fois des charges permanentes négatives et des charges variables avec le pH et la force ionique. Ces systèmes mixtes sont dits hétérocoagulés. Des pistes de recherche, qui découlent de cette compréhension, sont présentées. / Raw earth is one of the most used building material in the world. Each earthen material is a mix of different sizes grains (stones, gravels, sands, silts and clays) in various proportions. The finest particles, which constitute the binding material, differ from other grains by their small size, which is associated with colloidal properties when mixed with water. Clay, as defined by size (particles smaller than two microns), usually contains a mixture of clays, as defined by mineralogy (hydrated phyllosilicates), with iron, aluminum and silicium oxides. To understand this building material, earthen material is considered initially as a granular material. Physics of dry granular media and physics of wet granular media are explored in order to describe the physical behavior of this material. Innovative building systems, which come from this understanding, are presented. In a second step, clay is considered as a colloidal material. Like many natural systems, clay binder is a mixture of particles with different surface properties, containing both permanent negative charges and variable charges, depending of pH and ionic strength. These mixed systems are called heterocoagulated systems. Different sujects for further researches, that follow this understanding, are presented.
43

A comparison of the reactivity of different synthetic calcium carbonate minerals with arsenic oxyanions

Mandal, Abhishek 14 January 2009
This study was conducted to determine how the structure and surface chemistry of bulk CaCO3 differs from that of nanometer-sized CaCO3 and then to determine rate, extent and mechanisms of As adsorption on various synthetic CaCO3 materials. Additionally, we sought to devise a chemical CaCO3 precipitate that approximates biogenic CaCO3. The bulk CaCO3 precipitation was performed by using a solution that was highly oversaturated so that large CaCO3 precipitates rapidly form. Two different methods were employed for the synthesis of nanometer size CaCO3 i) an in situ deposition technique and ii) an interfacial reaction (water in oil emulsion). Mineral characterization of all CaCO3 precipitates was done with Nitrogen Porosimetry (Brunauer Emmett Teller method), particle size analysis, X-ray diffraction and Fourier Transform Infrared/ Fourier Transform Raman spectroscopy. The principal objective of the research was to assess the overall reactivity of As(III) and As(V) with different synthetic CaCO3 minerals. This was accomplished by i) running adsorption isotherms (varying As concentration), ii) measuring pH envelopes (varying pH at a fixed concentration) and iii) kinetic experiments (varying reaction time). Also, electrophoretic mobility experiments were performed in the presence of As(III) and As(V), and these studies revealed that As(III) forms stronger inner-sphere complexes with CaCO3 than As(V). Also, it was found that nanometer-sized CaCO3 prepared via deposition formed stronger inner-sphere complexes with As oxyanions (q = 5.26 µmol/m2) compared to either nano-sized CaCO3 from interfacial reactions (q = 4.51 µmol/m2) or bulk CaCO3 (q = 4.39 µmol/m2).<p> The PEG-based nano CaCO3 prepared by an in-situ deposition technique presents a novel and readily available synthesis route that can be used as proxy for the biogenic CaCO3 known to be present in many different environmental conditions. The results of this study suggest that CaCO3 can be used as a sorbent for As in groundwater.
44

A comparison of the reactivity of different synthetic calcium carbonate minerals with arsenic oxyanions

Mandal, Abhishek 14 January 2009 (has links)
This study was conducted to determine how the structure and surface chemistry of bulk CaCO3 differs from that of nanometer-sized CaCO3 and then to determine rate, extent and mechanisms of As adsorption on various synthetic CaCO3 materials. Additionally, we sought to devise a chemical CaCO3 precipitate that approximates biogenic CaCO3. The bulk CaCO3 precipitation was performed by using a solution that was highly oversaturated so that large CaCO3 precipitates rapidly form. Two different methods were employed for the synthesis of nanometer size CaCO3 i) an in situ deposition technique and ii) an interfacial reaction (water in oil emulsion). Mineral characterization of all CaCO3 precipitates was done with Nitrogen Porosimetry (Brunauer Emmett Teller method), particle size analysis, X-ray diffraction and Fourier Transform Infrared/ Fourier Transform Raman spectroscopy. The principal objective of the research was to assess the overall reactivity of As(III) and As(V) with different synthetic CaCO3 minerals. This was accomplished by i) running adsorption isotherms (varying As concentration), ii) measuring pH envelopes (varying pH at a fixed concentration) and iii) kinetic experiments (varying reaction time). Also, electrophoretic mobility experiments were performed in the presence of As(III) and As(V), and these studies revealed that As(III) forms stronger inner-sphere complexes with CaCO3 than As(V). Also, it was found that nanometer-sized CaCO3 prepared via deposition formed stronger inner-sphere complexes with As oxyanions (q = 5.26 µmol/m2) compared to either nano-sized CaCO3 from interfacial reactions (q = 4.51 µmol/m2) or bulk CaCO3 (q = 4.39 µmol/m2).<p> The PEG-based nano CaCO3 prepared by an in-situ deposition technique presents a novel and readily available synthesis route that can be used as proxy for the biogenic CaCO3 known to be present in many different environmental conditions. The results of this study suggest that CaCO3 can be used as a sorbent for As in groundwater.
45

以財務比率、共同比分析和公司治理指標預測 上市公司財務危機之基因演算法與支持向量機的計算模型 / Applying Genetic Algorithms and Support Vector Machines for Predicting Financial Distresses with Financial Ratios and Features for Common-Size Analysis and Corporate Governance

黃珮雯, Huang, Pei-Wen Unknown Date (has links)
過去已有許多技術應用來建立預測財務危機的模型,如統計學的多變量分析或是類神經網路等分類技術。這些早期預測財務危機的模型大多以財務比率作為變數。然而歷經安隆(Enron)、世界通訊(WorldCom)等世紀騙局,顯示財務數字計算而成的財務比率有其天生的限制,無法在公司管理階層蓄意虛增盈餘時,及時給予警訊。因此,本論文初步探勘共同比分析、公司治理及傳統的Altman財務比率等研究方法,試圖突破財務比率在財務危機預測問題的限制,選出可能提高財務危機預測的特徵群。接著,我們進一步應用基因演算法篩選質性與非質性的特徵,期望藉由基因演算法裡子代獲得親代間最優基因的交配過程,可以讓子代的適應值最大化,找出最佳組合的特徵群,然後以此特徵群訓練支持向量機預測模型,以提高財務預測效果並降低公眾的損失。實驗結果顯示,共同比分析與公司治理等相關特徵確實能提升預測財務危機模型的預測效果,我們應當用基因演算法嘗試更多質性與非質性的特徵組合,及早預警財務危機公司以降低社會成本。
46

Größenanalyse an nicht separierten Holzpartikeln mit regionenbildenden Algorithmen am Beispiel von OSB-Strands / Size analysis of unseparated wood particles with region-based algorithms using the example of OSB strands

Plinke, Burkhard 12 November 2012 (has links) (PDF)
Bei strukturorientierten, aus relativ großen Holzpartikeln aufgebauten Holzwerkstoffen wie z.B. OSB (oriented strand board) addieren sich die gerichteten Festigkeiten der einzelnen Lagen je nach Orientierung der Partikel und der Verteilung ihrer Größenparameter. Wünschenswert wäre eine Messung der Partikelgeometrie und Orientierung möglichst im Prozess, z.B. am Formstrang vor der Presse direkt durch den „Blick auf das Vlies“. Bisher sind regelmäßige on-line-Messungen der Spangeometrie aber nicht möglich, und Einzelspanmessungen werden nicht vorgenommen, weil sie zu aufwändig wären. Um die Partikelkonturen zunächst hinreichend für die Vermessung zu restaurieren und dann zu vermessen, muss ein mehrstufiges Verfahren angewendet werden, das eine Szene mit Strands und mehr oder weniger deutlichen Kanten zunächst als „Grauwertgebirge“ auffasst. Zur Segmentierung reicht ein Watershed-Algorithmus nicht aus. Auch ein zweistufiger Kantendetektor nach Canny liefert allein noch kein ausreichendes Ergebnis, weil sich keine geschlossenen Objektkonturen ergeben. Hinreichend dagegen ist ein komplexes Verfahren auf der Grundlage der Höhenschichtzerlegung und nachfolgenden Synthese: Nach einer Transformation der Grauwerte des Bildes in eine reduzierte, gleichverteilte Anzahl von Höhenschichten werden zwischen diesen die lokalen morphologischen Gradienten berechnet und herangezogen für die Rekonstruktion der ursprünglichen Spankonturen. Diese werden aus den Höhenschichten aufaddiert, wobei allerdings nur Teilflächen innerhalb eines für die gesuchten Spangrößen plausiblen Größenintervalls einbezogen werden, um Störungen zu unterdrücken. Das Ergebnis der Rekonstruktion wird zusätzlich verknüpft mit den bereits durch einen Canny-Operator im Originalbild detektierten deutlichen Kanten und morphologisch bereinigt. Diese erweiterte Höhenschichtanalyse ergibt ausreichend segmentierte Bilder, in denen die Objektgrenzen weitgehend den Spankonturen entsprechen. Bei der nachfolgenden Vermessung der Objekte werden Standard-Algorithmen eingesetzt, wobei sich die Approximation von Spankonturen durch momentengleiche Ellipsen als sinnvoll erwies. Verbliebene Fehldetektionen können bei der Vermessung unterdrückt werden durch Formfaktoren und zusätzliche Größenintervalle. Zur Darstellung und Charakterisierung der Größenverteilungen für die Länge und die Breite wurden die nach der Objektfläche gewichtete, linear skalierte Verteilungsdichte (q2-Verteilung), die Verteilungssumme und verschiedene Quantile verwendet. Zur Umsetzung und Demonstration des Zusammenwirkens der verschiedenen Algorithmen wurde auf der Basis von MATLAB das Demonstrationsprogramm „SizeBulk“ entwickelt, das Bildfolgen verarbeiten kann und mit dem die verschiedenen Varianten der Bildaufbereitung und Parametrierung durchgespielt werden können. Das Ergebnis des Detektionsverfahrens enthält allerdings nur die vollständigen Konturen der ganz oben liegenden Objekte; Objekte unterhalb der Außenlage sind teilweise verdeckt und können daher nur unvollständig vermessen werden. Zum Test wurden daher synthetische Bilder mit vereinzelten und überlagerten Objekten bekannter Größenverteilung erzeugt und dem Detektions- und Messverfahren unterworfen. Dabei zeigte sich, dass die Größenstatistiken durch den Überlagerungseffekt und auch die Spanorientierung zwar beeinflusst werden, dass aber zumindest die Modalwerte der wichtigsten Größenparameter Länge und Breite meist erkennbar bleiben. Als Versuchsmaterial dienten außer den synthetischen Bildern verschiedene Sortimente von OSB-Strands aus Industrie- und Laborproduktion. Sie wurden sowohl manuell vereinzelt als auch zu einem Vlies arrangiert vermessen. Auch bei realen Strands zeigten sich gleiche Einflüsse der Überlagerung auf die Größenverteilungen wie in der Simulation. Es gilt aber auch hier, dass die Charakteristika verschiedener Spankontingente bei gleichen Aufnahmebedingungen und Auswerteparametern gut messbar sind bzw. dass Änderungen in der gemessenen Größenverteilung eindeutig den geometrischen Eigenschaften der Späne zugeordnet werden können. Die Eignung der Verarbeitungsfolge zur Charakterisierung von Spangrößenverteilungen bestätigte sich auch an Bildern, die ausschließlich am Vlies auf einem Formstrang aufgenommen wurden. Zusätzlich wurde nachgewiesen, dass mit der erweiterten Höhenschichtanalyse auch Bilder von Spanplattenoberflächen ausgewertet werden könnten und daraus auf die Größenverteilung der eingesetzten Deckschichtspäne geschlossen werden kann. Das vorgestellte Verfahren ist daher eine gute und neuartige Möglichkeit, prozessnah an Teilflächen von OSB-Vliesen anhand von Grauwertbildern die Größenverteilungen der Strands zu charakterisieren und eignet sich grundsätzlich für den industriellen Einsatz. Geeignete Verfahren waren zumindest für Holzpartikel bisher nicht bekannt. Diese Möglichkeit, Trends in der Spangrößenverteilung automatisch zu erkennen, eröffnet daher neue Perspektiven für die Prozessüberwachung. / The strength of wood-based materials made of several layers of big and oriented particles like OSB (oriented strand board) is a superposition of the strengths of the layers according to the orientation of the particles and depending from their size distribution. It would be desirable to measure particle geometry and orientation close to the production process, e.g. with a “view onto the mat”. Currently, continuous on-line measurements of the particle geometry are not possible, while measurements of separated particles would be too costly and time-consuming. Before measuring particle shapes they have to be reconstructed in a multi-stage procedure which considers an image scene with strands as “gray value mountains”. Segmentation using a watershed algorithm is not sufficient. Also a two-step edge detector according to Canny does not yield closed object shapes. A multi-step procedure based on threshold decomposition and recombination however is successful: The gray values in the image are transformed into a reduced and uniformly distributed set of threshold levels. The local morphological gradients between these levels are used to re-build the original particle shapes by adding the threshold levels. Only shapes with a plausible size corresponding to real particle shapes are included in order to suppress noise. The result of the reconstruction from threshold levels is then matched with the result of the strong edges in the original image, which had been detected using a Canny operator, and is finally cleaned with morphological operators. This extended threshold analysis produces sufficiently segmented images with object shapes corresponding extensively to the particle shapes. Standard algorithms are used to measure geometric features of the objects. An approximation of particle shapes with ellipses of equal moments of inertia is useful. Remaining incorrectly detected objects are removed by form factors and size intervals. Size distributions for the parameters length and width are presented and characterized as density distribution histograms, weighted by the object area and linearly scaled (q2 distribution), as well as the cumulated distribution and different quantiles. A demonstration software “SizeBulk” based on MATLAB has been developed to demonstrate the computation and the interaction of algorithms. Image sequences can be processed and different variations of image preprocessing and parametrization can be tested. However, the detection procedure yields complete shapes only for those particles in the top layer. Objects in lower layers are partially hidden and cannot be measured completely. Artificial images with separated and with overlaid objects with a known size distribution were generated to study this effect. It was shown that size distributions are influenced by this covering effect and also by the strand orientation, but that at least the modes of the most important size parameters length and width remain in evidence. Artificial images and several samples with OSB strands from industrial and laboratory production were used for testing. They were measured as single strands as well as arrangements similar to an OSB mat. For real strands, the same covering effects to the size distributions revealed as in the simulation. Under stable image acquisition conditions and using similar processing parameters the characteristics of these samples can well be measured, and changes in the size distributions are definitely due to the geometric properties of the strands. The suitability of the processing procedure for the characterization of strand size distributions could also be confirmed for images acquired from OSB mats in a production line. Moreover, it could be shown that the extended threshold analysis is also suitable to evaluate images of particle board surfaces and to draw conclusions about the size distribution of the top layer particles. Therefore, the method presented here is a novel possibility to measure size distributions of OSB strands through the evaluation of partial gray value images of the mat surface. In principle, this method is suitable to be transferred to an industrial application. So far, methods that address the problem of detecting trends of the strand size distribution were not known, and this work shows new perspectives for process monitoring.
47

Alternative Mechanisms for Size Control in Synthesis of Nanoparticles - Population Balance Modelling and Experimental Studies

Perala, Siva Rama Krishna January 2013 (has links) (PDF)
The extensive growth of nanotechnology has necessitated the development of economical and robust methods for large scale production of nanomaterials. It requires detailed quantitative understanding of lab-scale processes to enable effective scale-up and development of new contacting strategies for their controlled synthesis. In this thesis, attempts are made in both the directions using experimental and modelling approaches for synthesis of different nanoparticles. The two-phase Brust--Schiffrin protocol for the synthesis of gold nanoparticles was investigated first. The mechanism of transfer of reactants from aqueous to organic phase using phase transfer catalyst (PTC) was investigated using the measurement of interfacial tension, viscosity, SLS, SAXS, 1H NMR, DOSY-NMR, and Karl-Fischer titration. The study shows that the reactants are transferred to organic phase through the formation of hydrated complexes between reactants and PTC rather than through the solubilization of reactants in water core of inverse micelles of PTC, proposed recently in the literature. The particle synthesis reactions thus occur in the bulk organic phase. The extensive body of seemingly disparate experimental findings on Brust--Schiffrin protocol were put together next. The emerging picture ruled out both thermodynamic considerations and kinetics based arguments as exemplified by the classical LaMer's mechanism with sequential nucleation growth capping for size control in Brust--Schiffrin protocol. A new model for particle synthesis was developed. The model brought out continued nucleation--growth--capping based size control, an hitherto unknown mechanistic route for the synthesis of monodisperse particles, as the main mechanism. The model not only captured the reported features of the synthesis but also helped to improve the uniformity of the synthesized particles, validated experimentally. The two-step mechanism of Finke--Watzky---first order nucleation from precursor and autocatalytic growth of particles---proposed as an alternative to LaMer model to explain an induction period followed by a sigmoidal decrease in precursor concentration for the synthesis of iridium nanoparticles was investigated next. The mechanism is tested using an equivalent population balance model for its ability to explain the experimentally observed near constant breadth of the evolving size distribution as well. The predictions show that while it captures precursor conversion well, it fails to explain particle synthesis on account of its inability to suppress nucleation. A minimal four-step mechanism with additional steps for nucleation from reduced iridium atoms and their scavenging using particle surface is proposed. The new mechanism when combined with the first or second order nucleation, or classical nucleation with no scavenging of reduced atoms also fails to suppress nucleation. A burst like onset of nuclei formation with homogeneous nucleation and the scavenging of reduced atoms by particles are simultaneously required to explain all the reported features of the synthesis of iridium nanoparticles. A new reactor is proposed for continuous production of CaCO3 nanoparticles in gas-liquid reaction route. The key feature of the new reactor is the control of flow pattern to ensure efficient mixing of reactants. A liquidliquid reaction route for production of CaCO3 nanoparticles is also optimized to produce nanoparticles at high loading. Optimum supersaturation combined with efficient breakup of initial gel-like structure by mechanical agitation and charge control played a crucial role in producing nano sized CaCO3 particles.
48

Effect of Micro-Particle Addition on Frictional Energy Dissipation and Strength of Concrete : Experiments and Modelling / Effet de l'addition de micro-particules sur la dissipation d'énergie et la résistance mécanique du béton : Essais et modélisation

Scerrato, Daria 07 November 2014 (has links)
Si un béton classique est constitué d'éléments de granulométrie décroissante, en commençant par les granulats, le spectre granulométrique se poursuit avec la poudre de ciment puis parfois avec un matériau de granulométrie encore plus fine comme une fumée de silice (récupérée par exemple au niveau des filtres électrostatiques dans l'industrie de l'acier). L'obtention d'un spectre granulométrique continu et étendu vers les faibles granulométries permet d'améliorer la compacité, donc les performances mécaniques. L'idée de base de cette thèse a été d'utiliser comme éléments de granulométrie fine des fillers à base de calcaire. Ces fillers ont des granulométries très fines qui leur permettent de remplir les micro-fissure généralement présentes à l'intérieur du béton. La surface rugueuse des grains de ces fillers permet de modifier le coefficient de frottement entre les lèvres de chaque fissure. Le résultat souhaité est celui de produire un béton qui dissipe par frottement plus d'énergie par rapport à un béton standard. Un béton de ce type pourrait avoir des applications importantes dans l'ingénierie civile, surtout pour ce qui concerne l'absorption des vibrations dans la ville et les constructions en régions séismiques. Les théories des milieux continus généralisés permettent de tenir compte de l’effet de la microstructure des matériaux sur leur comportement macroscopique et, en particulier, de décrire la dissipation d’énergie dans le béton sujet à des chargements cycliques. Un modèle continu généralisé avec une variable cinématique supplémentaire a été développé dans le cadre de cette thèse qui permet de décrire le glissement relatif des lèvres des fissures dans le béton à l'échelle microscopique. La relation entre ces micro-mouvements au niveau des lèvres de fissures et la dissipation d'énergie observée à l'échelle macroscopique a ensuite été étudiée. Les équations en forme forte qui dérivent de cette modélisation continue sont obtenues à l'aide d'un principe variationnel de Hamilton-Rayleigh dans lequel on a intégré la nature dynamique du problème ainsi que la possibilité de décrire des phénomènes de dissipation au niveau microscopique. Le modèle obtenu permet de décrire les cycles d'hystérésis typiques du béton sujet à des chargement cycliques et ses paramètres ont été calés sur des essais menés au LGCIE de l'INSA de Lyon. Des études paramétriques concernant les paramètres reliés à la microstructure du matériau ont permis d'identifier l'effet que l'addition des micro-fillers a sur le comportement mécanique global du béton lorsque il est sujet à des chargement dynamiques. / In this thesis, a two-degrees-of-freedom, non-linear model is introduced aiming to describe internal friction phenomena which have been observed in some modified concrete specimens undergoing slow dynamic compression loads and having various amplitudes but never inducing large strains. The motivation for the theoretical effort presented here arose because of the experimental evidence described in some papers in which dissipation loops for concrete-type materials are shown to have peculiar characteristics. Since viscoelastic models –linear or non-linear– do not seem suitable to describe either qualitatively or quantitatively the measured dissipation loops, it is proposed to introduce a micro-mechanism of Coulomb-type internal dissipation associated to the relative motion of the faces of the micro-cracks present in the material. In addition, numerical simulations, showing that the proposed model is suitable to describe some of the available experimental evidences, is presented. These numerical simulations motivate further developments of the considered model and supply a tool for the design of subsequent experimental campaigns. Furthermore, the effect of micro-particle additives such as calcium carbonate on internal dissipation of concrete was experimentally investigated. The damping performance of concrete can be improved by adding to the mixture different kinds of micro-particles with suitable size which fill the pores of the matrix and change the contact interaction between internal surfaces of voids. It was determined that the energy dissipation of the concrete increases with the increasing content of micro particles at least when the concrete matrix is “soft” enough to allow microscopic motions. On the other hand, the increasing percentage of micro-particles addition can affect the mechanical strength of the material. Thus, there is a reasonable compromise in incorporating these micro-particles to obtain higher damping with- out weakening the mechanical properties. Several concrete mixes were prepared by mixing cement powder with different percentages of micro-fillers. A concrete mix without addition of micro-particles was molded as a reference material for the sake of comparison. All these specimens were tested under cyclic loading in order to evaluate energy dissipation starting from the area of a dissipation loop detected in the diagram relative to a representative cycle. The experimental determination of the dissipated energy shows a significant increase in the damping capability of the cement-based materials with micro-filler compared to the standard concrete. The experimental results presented seem to indicate that the proposed model is suitable to describe the mechanical behavior of modified and unmodified concrete, provided that the introduced parameters are suitably tuned in order to best fit the available experimental data.
49

GRAIN SIZE ANALYSIS OF A PRECURSOR TO A FLYING SPIT IN THE WESTERN MAUMEE BASIN IN NW OHIO, AND COMPARISON TO THE PRESQUE ISLE FLYING SPIT

Smith, Courtney B. 24 August 2021 (has links)
No description available.
50

Größenanalyse an nicht separierten Holzpartikeln mit regionenbildenden Algorithmen am Beispiel von OSB-Strands

Plinke, Burkhard 02 October 2012 (has links)
Bei strukturorientierten, aus relativ großen Holzpartikeln aufgebauten Holzwerkstoffen wie z.B. OSB (oriented strand board) addieren sich die gerichteten Festigkeiten der einzelnen Lagen je nach Orientierung der Partikel und der Verteilung ihrer Größenparameter. Wünschenswert wäre eine Messung der Partikelgeometrie und Orientierung möglichst im Prozess, z.B. am Formstrang vor der Presse direkt durch den „Blick auf das Vlies“. Bisher sind regelmäßige on-line-Messungen der Spangeometrie aber nicht möglich, und Einzelspanmessungen werden nicht vorgenommen, weil sie zu aufwändig wären. Um die Partikelkonturen zunächst hinreichend für die Vermessung zu restaurieren und dann zu vermessen, muss ein mehrstufiges Verfahren angewendet werden, das eine Szene mit Strands und mehr oder weniger deutlichen Kanten zunächst als „Grauwertgebirge“ auffasst. Zur Segmentierung reicht ein Watershed-Algorithmus nicht aus. Auch ein zweistufiger Kantendetektor nach Canny liefert allein noch kein ausreichendes Ergebnis, weil sich keine geschlossenen Objektkonturen ergeben. Hinreichend dagegen ist ein komplexes Verfahren auf der Grundlage der Höhenschichtzerlegung und nachfolgenden Synthese: Nach einer Transformation der Grauwerte des Bildes in eine reduzierte, gleichverteilte Anzahl von Höhenschichten werden zwischen diesen die lokalen morphologischen Gradienten berechnet und herangezogen für die Rekonstruktion der ursprünglichen Spankonturen. Diese werden aus den Höhenschichten aufaddiert, wobei allerdings nur Teilflächen innerhalb eines für die gesuchten Spangrößen plausiblen Größenintervalls einbezogen werden, um Störungen zu unterdrücken. Das Ergebnis der Rekonstruktion wird zusätzlich verknüpft mit den bereits durch einen Canny-Operator im Originalbild detektierten deutlichen Kanten und morphologisch bereinigt. Diese erweiterte Höhenschichtanalyse ergibt ausreichend segmentierte Bilder, in denen die Objektgrenzen weitgehend den Spankonturen entsprechen. Bei der nachfolgenden Vermessung der Objekte werden Standard-Algorithmen eingesetzt, wobei sich die Approximation von Spankonturen durch momentengleiche Ellipsen als sinnvoll erwies. Verbliebene Fehldetektionen können bei der Vermessung unterdrückt werden durch Formfaktoren und zusätzliche Größenintervalle. Zur Darstellung und Charakterisierung der Größenverteilungen für die Länge und die Breite wurden die nach der Objektfläche gewichtete, linear skalierte Verteilungsdichte (q2-Verteilung), die Verteilungssumme und verschiedene Quantile verwendet. Zur Umsetzung und Demonstration des Zusammenwirkens der verschiedenen Algorithmen wurde auf der Basis von MATLAB das Demonstrationsprogramm „SizeBulk“ entwickelt, das Bildfolgen verarbeiten kann und mit dem die verschiedenen Varianten der Bildaufbereitung und Parametrierung durchgespielt werden können. Das Ergebnis des Detektionsverfahrens enthält allerdings nur die vollständigen Konturen der ganz oben liegenden Objekte; Objekte unterhalb der Außenlage sind teilweise verdeckt und können daher nur unvollständig vermessen werden. Zum Test wurden daher synthetische Bilder mit vereinzelten und überlagerten Objekten bekannter Größenverteilung erzeugt und dem Detektions- und Messverfahren unterworfen. Dabei zeigte sich, dass die Größenstatistiken durch den Überlagerungseffekt und auch die Spanorientierung zwar beeinflusst werden, dass aber zumindest die Modalwerte der wichtigsten Größenparameter Länge und Breite meist erkennbar bleiben. Als Versuchsmaterial dienten außer den synthetischen Bildern verschiedene Sortimente von OSB-Strands aus Industrie- und Laborproduktion. Sie wurden sowohl manuell vereinzelt als auch zu einem Vlies arrangiert vermessen. Auch bei realen Strands zeigten sich gleiche Einflüsse der Überlagerung auf die Größenverteilungen wie in der Simulation. Es gilt aber auch hier, dass die Charakteristika verschiedener Spankontingente bei gleichen Aufnahmebedingungen und Auswerteparametern gut messbar sind bzw. dass Änderungen in der gemessenen Größenverteilung eindeutig den geometrischen Eigenschaften der Späne zugeordnet werden können. Die Eignung der Verarbeitungsfolge zur Charakterisierung von Spangrößenverteilungen bestätigte sich auch an Bildern, die ausschließlich am Vlies auf einem Formstrang aufgenommen wurden. Zusätzlich wurde nachgewiesen, dass mit der erweiterten Höhenschichtanalyse auch Bilder von Spanplattenoberflächen ausgewertet werden könnten und daraus auf die Größenverteilung der eingesetzten Deckschichtspäne geschlossen werden kann. Das vorgestellte Verfahren ist daher eine gute und neuartige Möglichkeit, prozessnah an Teilflächen von OSB-Vliesen anhand von Grauwertbildern die Größenverteilungen der Strands zu charakterisieren und eignet sich grundsätzlich für den industriellen Einsatz. Geeignete Verfahren waren zumindest für Holzpartikel bisher nicht bekannt. Diese Möglichkeit, Trends in der Spangrößenverteilung automatisch zu erkennen, eröffnet daher neue Perspektiven für die Prozessüberwachung. / The strength of wood-based materials made of several layers of big and oriented particles like OSB (oriented strand board) is a superposition of the strengths of the layers according to the orientation of the particles and depending from their size distribution. It would be desirable to measure particle geometry and orientation close to the production process, e.g. with a “view onto the mat”. Currently, continuous on-line measurements of the particle geometry are not possible, while measurements of separated particles would be too costly and time-consuming. Before measuring particle shapes they have to be reconstructed in a multi-stage procedure which considers an image scene with strands as “gray value mountains”. Segmentation using a watershed algorithm is not sufficient. Also a two-step edge detector according to Canny does not yield closed object shapes. A multi-step procedure based on threshold decomposition and recombination however is successful: The gray values in the image are transformed into a reduced and uniformly distributed set of threshold levels. The local morphological gradients between these levels are used to re-build the original particle shapes by adding the threshold levels. Only shapes with a plausible size corresponding to real particle shapes are included in order to suppress noise. The result of the reconstruction from threshold levels is then matched with the result of the strong edges in the original image, which had been detected using a Canny operator, and is finally cleaned with morphological operators. This extended threshold analysis produces sufficiently segmented images with object shapes corresponding extensively to the particle shapes. Standard algorithms are used to measure geometric features of the objects. An approximation of particle shapes with ellipses of equal moments of inertia is useful. Remaining incorrectly detected objects are removed by form factors and size intervals. Size distributions for the parameters length and width are presented and characterized as density distribution histograms, weighted by the object area and linearly scaled (q2 distribution), as well as the cumulated distribution and different quantiles. A demonstration software “SizeBulk” based on MATLAB has been developed to demonstrate the computation and the interaction of algorithms. Image sequences can be processed and different variations of image preprocessing and parametrization can be tested. However, the detection procedure yields complete shapes only for those particles in the top layer. Objects in lower layers are partially hidden and cannot be measured completely. Artificial images with separated and with overlaid objects with a known size distribution were generated to study this effect. It was shown that size distributions are influenced by this covering effect and also by the strand orientation, but that at least the modes of the most important size parameters length and width remain in evidence. Artificial images and several samples with OSB strands from industrial and laboratory production were used for testing. They were measured as single strands as well as arrangements similar to an OSB mat. For real strands, the same covering effects to the size distributions revealed as in the simulation. Under stable image acquisition conditions and using similar processing parameters the characteristics of these samples can well be measured, and changes in the size distributions are definitely due to the geometric properties of the strands. The suitability of the processing procedure for the characterization of strand size distributions could also be confirmed for images acquired from OSB mats in a production line. Moreover, it could be shown that the extended threshold analysis is also suitable to evaluate images of particle board surfaces and to draw conclusions about the size distribution of the top layer particles. Therefore, the method presented here is a novel possibility to measure size distributions of OSB strands through the evaluation of partial gray value images of the mat surface. In principle, this method is suitable to be transferred to an industrial application. So far, methods that address the problem of detecting trends of the strand size distribution were not known, and this work shows new perspectives for process monitoring.

Page generated in 0.3152 seconds