• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 16
  • 5
  • Tagged with
  • 28
  • 27
  • 21
  • 17
  • 16
  • 16
  • 16
  • 16
  • 16
  • 16
  • 16
  • 16
  • 16
  • 16
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Konsequenzen des demographischen Wandels für zukünftige Produktions- und Technologieabläufe

Spanner-Ulmer, Birgit, Keil, Mathias 31 August 2009 (has links) (PDF)
Vor dem Hintergrund immer kürzer werdender Produktlebenszyklen sowie der Reduzierung der Halbwertszeit von Technologien sehen sich Unternehmen für den Erhalt ihrer Wettbewerbsfähigkeit dazu veranlasst, Produktions- und Technologieabläufe fortwährend zu überdenken. Angesichts der Geschwindigkeitdes sich vollziehenden Wandels der Arbeitswelt, speziell der Arbeitsinhalte und der dafür notwendigen Qualifikationen, stehen Unternehmen vor der Herausforderung, den technologiegetriebenen Veränderungen vor dem Hintergrund des demographischen Wandels Rechnung zu tragen. Der Beitrag stellt einen Ansatz vor, wie zukünftige Technologiewelten mit den sich im Alter verändernden Fähigkeiten des Mitarbeiters systematisch in Einklang gebracht werden können.
2

Konsequenzen des demographischen Wandels für zukünftige Produktions- und Technologieabläufe

Spanner-Ulmer, Birgit, Keil, Mathias 31 August 2009 (has links)
Vor dem Hintergrund immer kürzer werdender Produktlebenszyklen sowie der Reduzierung der Halbwertszeit von Technologien sehen sich Unternehmen für den Erhalt ihrer Wettbewerbsfähigkeit dazu veranlasst, Produktions- und Technologieabläufe fortwährend zu überdenken. Angesichts der Geschwindigkeitdes sich vollziehenden Wandels der Arbeitswelt, speziell der Arbeitsinhalte und der dafür notwendigen Qualifikationen, stehen Unternehmen vor der Herausforderung, den technologiegetriebenen Veränderungen vor dem Hintergrund des demographischen Wandels Rechnung zu tragen. Der Beitrag stellt einen Ansatz vor, wie zukünftige Technologiewelten mit den sich im Alter verändernden Fähigkeiten des Mitarbeiters systematisch in Einklang gebracht werden können.
3

Efficient hedging in incomplete markets under model uncertainty

Kirch, Michael 07 January 2002 (has links)
Wir betrachten einen Investor, der eine Option verkauft hat und den maximal erwarteten gewichteten Verlust minimieren möchte. Dabei wird das Maximum über eine Familie von Modellen, das heißt sogenannten objektiven Wahrscheinlichkeitsmaßen, gebildet. Die Minimierung erfolgt über alle zulässigen Absicherungsstrategien, welche einer vorgegebenen Kapitaleinschränkung genügen. Der Verlust wird vermöge einer strikt konvexen Verlustfunktion gewichtet. Die minimierende Strategie nennen wir robust-effizient. Das Problem, eine robust-effiziente Strategie zu bestimmen, ist eng mit dem statistischen Problem des Testens einer zusammengesetzten Hypothese gegen eine zusammengesetzte Alternative verbunden: Hat man eine Lösung für das statistische Problem, das heißt einen maximin-optimalen Test, so kann man eine modifizierte Option definieren, so daß die Superhedging-Strategie für die modifizierte Option robust-effizient ist, vgl. Theorem. Umgekehrt kann man einen maximin-optimalen Test vom Wert der robust-effizienten Strategie zum Auszahlungszeitpunkt ableiten. Das mathematische Kernstück dieser Arbeit ist die allgemeine Lösung des statistischen Testproblems mit Methoden der konvexen Dualität und Spieltheorie. Von dem bekannten klassischen Testproblem unterscheidet sich das in dieser Arbeit betrachtete Problem insofern als die Macht eines Tests anstelle durch die Identität durch eine strikt konkave zustandsabhängige Nutzenfunktion definiert ist. Zudem ist unsere einzige wesentliche Annahme, daß die Hypothese sowie die Alternative dominiert sind, das heißt die Hypothese und die Alternative sind weder stetig parametrisierbar noch notwendigerweise von der Form der Umgebungen wie sie typischerweise in der robusten Statistik verwendet werden vorausgesetzt. Die Lösung des Testproblems in dieser Arbeit erfolgt vermöge des zentralen Begriffs eines ungünstigsten Paares aus Hypothese und Alternative: Der maximin-optimale Test ist unter allen einfachen Tests für das ungünstigste Paar zu finden. Dies ist das zentrale Resultat des Kapitels über maximin-optimale Tests. Falls das ungünstigste Modell äquivalent zu der Familie aller Modelle ist, so ist der einfache Test für das ungünstigste Paar eindeutig und bereits maximin-optimal. Falls das ungünstigste Modell nicht äquivalent zur Familie ist, so approximieren wir den maximin-optimalen Test durch eine Folge von einfachen Tests, die durch eingebettete Teilprobleme definiert werden können. Die Anwendung unserer Resultate über maximin-optimale Tests auf den Spezialfall des zur robust-effizienten Absicherung assoziierten Testproblems erlaubt uns, die optimale modifizierte Option vermöge eines ungünstigsten Paares von Modell und Preisregel zu beschreiben. Ein ungünstigstes Modell maximiert das minimale Verlustrisiko über alle Modelle. Wir setzen Erreichbarkeit der modifizierten Option mit Äquivalenz der ungünstigsten Preisregel zum ungünstigsten Modell miteinander in Verbindung. Dies zeigt, daß die ungünstigste Preisregel im allgemeinen nicht Äquivalent zum Referenzmodell ist - ein Sachverhalt, den wir in den Anwendungen wieder aufgreifen. Im zweiten Teil dieser Arbeit konstruieren wir die robust-effiziente Strategie in verschiedenen Anwendungen. Um die allgemeinen Resultate des vorhergehenden Teils nutzen zu können, müssen wir die effiziente Strategie für jedes fixierte Modell sowie ein ungünstigstes Modell bestimmen. Nötigenfalls vergrößern wir dafür zunächst die Familie der Modelle in geeigneter Weise, um die Existenz eines ungünstigsten Modells zu garantieren. Wir wenden das Prinzip der dynamischen Programmierung in einer Weise an, die an das jeweils zugrundeliegende Modell angepasst ist und bestimmen so die effiziente Strategie. / We consider an investor who has sold a contingent claim and intends to minimize the maximal expected weighted shortfall. Here, the maximum is taken over a family of models and the minimum is taken over all admissible hedging strategies that satisfy a given cost constraint. We call the associated minimizing strategy robust-efficient. The problem to determine a robust-efficient strategy is closely related to the statistical problem of testing a composite hypothesis against a composite alternative. The hypothesis is given by the family of pricing rules and the alternative coincides with the family of models. The mathematical centerpiece of this thesis is the solution of the statistical testing problem on a general level by means of convex duality and game-theoretical methods. The problem differs from the classical testing problem in that the power of a test is defined in terms of a strictly concave state dependent utility function rather than the identity mapping. Furthermore, our only essential assumption is that the alternative and the hypothesis are dominated, i.e., the alternative and the hypothesis need neither be parameterized nor of the form of the neighborhoods typically considered in robust statistics. Similar to the classical notion of least-favorable pairs of prior-distributions on the hypothesis respectively alternative, we introduce the pivotal notion of a least-favorable pair of elements of the hypothesis respectively alternative. The main result of our analysis on maximin-optimal tests is that the maximin-optimal test can be found among the simple-optimal test for a least-favorable pair. If the least-favorable pair is equivalent to the dominating measure, the simple optimal test is the unique maximin-optimal test. If the latter condition is not fulfilled, we approximate the maximin-optimal test by a sequence of explicitly constructed simple optimal tests. These results clarify the general structure of the robust-efficient hedging strategy. We also show that a least-favorable pair can be decomposed into a worst-case model and a worst-case pricing rule for this model. The worst-case model has a very direct economic interpretation, whereas the worst-case pricing rule is a more mathematical auxiliary tool. If the worst-case model dominates all models, the efficient strategy associated to the fixed worst-case model is robust-efficient. For fixed model, the worst-case pricing rule yields the optimal modified claim and allows us to make some statements about its attainability. In the second part of this thesis, we explicitly construct the robust-efficient strategy in a series of applications. For this, the task remains to determine the efficient strategy for each fixed model and a worst-case model. First, we enlarge the family of models in order to establish existence of a worst-case model. Then we derive the dynamics of the price process, the efficient strategy and the associated risk under each (fixed) model. If the model is incomplete, we adapt the dynamic programming principle to the specific dynamics of the model to compute or approximate the efficient strategy.
4

Skeleton-based visualization of massive voxel objects with network-like architecture

Prohaska, Steffen January 2007 (has links)
This work introduces novel internal and external memory algorithms for computing voxel skeletons of massive voxel objects with complex network-like architecture and for converting these voxel skeletons to piecewise linear geometry, that is triangle meshes and piecewise straight lines. The presented techniques help to tackle the challenge of visualizing and analyzing 3d images of increasing size and complexity, which are becoming more and more important in, for example, biological and medical research. Section 2.3.1 contributes to the theoretical foundations of thinning algorithms with a discussion of homotopic thinning in the grid cell model. The grid cell model explicitly represents a cell complex built of faces, edges, and vertices shared between voxels. A characterization of pairs of cells to be deleted is much simpler than characterizations of simple voxels were before. The grid cell model resolves topologically unclear voxel configurations at junctions and locked voxel configurations causing, for example, interior voxels in sets of non-simple voxels. A general conclusion is that the grid cell model is superior to indecomposable voxels for algorithms that need detailed control of topology. Section 2.3.2 introduces a noise-insensitive measure based on the geodesic distance along the boundary to compute two-dimensional skeletons. The measure is able to retain thin object structures if they are geometrically important while ignoring noise on the object's boundary. This combination of properties is not known of other measures. The measure is also used to guide erosion in a thinning process from the boundary towards lines centered within plate-like structures. Geodesic distance based quantities seem to be well suited to robustly identify one- and two-dimensional skeletons. Chapter 6 applies the method to visualization of bone micro-architecture. Chapter 3 describes a novel geometry generation scheme for representing voxel skeletons, which retracts voxel skeletons to piecewise linear geometry per dual cube. The generated triangle meshes and graphs provide a link to geometry processing and efficient rendering of voxel skeletons. The scheme creates non-closed surfaces with boundaries, which contain fewer triangles than a representation of voxel skeletons using closed surfaces like small cubes or iso-surfaces. A conclusion is that thinking specifically about voxel skeleton configurations instead of generic voxel configurations helps to deal with the topological implications. The geometry generation is one foundation of the applications presented in Chapter 6. Chapter 5 presents a novel external memory algorithm for distance ordered homotopic thinning. The presented method extends known algorithms for computing chamfer distance transformations and thinning to execute I/O-efficiently when input is larger than the available main memory. The applied block-wise decomposition schemes are quite simple. Yet it was necessary to carefully analyze effects of block boundaries to devise globally correct external memory variants of known algorithms. In general, doing so is superior to naive block-wise processing ignoring boundary effects. Chapter 6 applies the algorithms in a novel method based on confocal microscopy for quantitative study of micro-vascular networks in the field of microcirculation. / Die vorliegende Arbeit führt I/O-effiziente Algorithmen und Standard-Algorithmen zur Berechnung von Voxel-Skeletten aus großen Voxel-Objekten mit komplexer, netzwerkartiger Struktur und zur Umwandlung solcher Voxel-Skelette in stückweise-lineare Geometrie ein. Die vorgestellten Techniken werden zur Visualisierung und Analyse komplexer drei-dimensionaler Bilddaten, beispielsweise aus Biologie und Medizin, eingesetzt. Abschnitt 2.3.1 leistet mit der Diskussion von topologischem Thinning im Grid-Cell-Modell einen Beitrag zu den theoretischen Grundlagen von Thinning-Algorithmen. Im Grid-Cell-Modell wird ein Voxel-Objekt als Zellkomplex dargestellt, der aus den Ecken, Kanten, Flächen und den eingeschlossenen Volumina der Voxel gebildet wird. Topologisch unklare Situationen an Verzweigungen und blockierte Voxel-Kombinationen werden aufgelöst. Die Charakterisierung von Zellpaaren, die im Thinning-Prozess entfernt werden dürfen, ist einfacher als bekannte Charakterisierungen von so genannten "Simple Voxels". Eine wesentliche Schlussfolgerung ist, dass das Grid-Cell-Modell atomaren Voxeln überlegen ist, wenn Algorithmen detaillierte Kontrolle über Topologie benötigen. Abschnitt 2.3.2 präsentiert ein rauschunempfindliches Maß, das den geodätischen Abstand entlang der Oberfläche verwendet, um zweidimensionale Skelette zu berechnen, welche dünne, aber geometrisch bedeutsame, Strukturen des Objekts rauschunempfindlich abbilden. Das Maß wird im weiteren mit Thinning kombiniert, um die Erosion von Voxeln auf Linien zuzusteuern, die zentriert in plattenförmigen Strukturen liegen. Maße, die auf dem geodätischen Abstand aufbauen, scheinen sehr geeignet zu sein, um ein- und zwei-dimensionale Skelette bei vorhandenem Rauschen zu identifizieren. Eine theoretische Begründung für diese Beobachtung steht noch aus. In Abschnitt 6 werden die diskutierten Methoden zur Visualisierung von Knochenfeinstruktur eingesetzt. Abschnitt 3 beschreibt eine Methode, um Voxel-Skelette durch kontrollierte Retraktion in eine stückweise-lineare geometrische Darstellung umzuwandeln, die als Eingabe für Geometrieverarbeitung und effizientes Rendering von Voxel-Skeletten dient. Es zeigt sich, dass eine detaillierte Betrachtung der topologischen Eigenschaften eines Voxel-Skeletts einer Betrachtung von allgemeinen Voxel-Konfigurationen für die Umwandlung zu einer geometrischen Darstellung überlegen ist. Die diskutierte Methode bildet die Grundlage für die Anwendungen, die in Abschnitt 6 diskutiert werden. Abschnitt 5 führt einen I/O-effizienten Algorithmus für Thinning ein. Die vorgestellte Methode erweitert bekannte Algorithmen zur Berechung von Chamfer-Distanztransformationen und Thinning so, dass diese effizient ausführbar sind, wenn die Eingabedaten den verfügbaren Hauptspeicher übersteigen. Der Einfluss der Blockgrenzen auf die Algorithmen wurde analysiert, um global korrekte Ergebnisse sicherzustellen. Eine detaillierte Analyse ist einer naiven Zerlegung, die die Einflüsse von Blockgrenzen vernachlässigt, überlegen. In Abschnitt 6 wird, aufbauend auf den I/O-effizienten Algorithmen, ein Verfahren zur quantitativen Analyse von Mikrogefäßnetzwerken diskutiert.
5

Scalable frequent itemset mining on many-core processors

Schlegel, Benjamin, Karnagel, Thomas, Kiefer, Tim, Lehner, Wolfgang 19 September 2022 (has links)
Frequent-itemset mining is an essential part of the association rule mining process, which has many application areas. It is a computation and memory intensive task with many opportunities for optimization. Many efficient sequential and parallel algorithms were proposed in the recent years. Most of the parallel algorithms, however, cannot cope with the huge number of threads that are provided by large multiprocessor or many-core systems. In this paper, we provide a highly parallel version of the well-known Eclat algorithm. It runs on both, multiprocessor systems and many-core coprocessors, and scales well up to a very large number of threads---244 in our experiments. To evaluate mcEclat's performance, we conducted many experiments on realistic datasets. mcEclat achieves high speedups of up to 11.5x and 100x on a 12-core multiprocessor system and a 61-core Xeon Phi many-core coprocessor, respectively. Furthermore, mcEclat is competitive with highly optimized existing frequent-itemset mining implementations taken from the FIMI repository.
6

Efficient parameterized algorithms on structured graphs

Nelles, Florian 27 July 2023 (has links)
In der klassischen Komplexitätstheorie werden worst-case Laufzeiten von Algorithmen typischerweise einzig abhängig von der Eingabegröße angegeben. In dem Kontext der parametrisierten Komplexitätstheorie versucht man die Analyse der Laufzeit dahingehend zu verfeinern, dass man zusätzlich zu der Eingabengröße noch einen Parameter berücksichtigt, welcher angibt, wie strukturiert die Eingabe bezüglich einer gewissen Eigenschaft ist. Ein parametrisierter Algorithmus nutzt dann diese beschriebene Struktur aus und erreicht so eine Laufzeit, welche schneller ist als die eines besten unparametrisierten Algorithmus, falls der Parameter klein ist. Der erste Hauptteil dieser Arbeit führt die Forschung in diese Richtung weiter aus und untersucht den Einfluss von verschieden Parametern auf die Laufzeit von bekannten effizient lösbaren Problemen. Einige vorgestellte Algorithmen sind dabei adaptive Algorithmen, was bedeutet, dass die Laufzeit von diesen Algorithmen mit der Laufzeit des besten unparametrisierten Algorithm für den größtmöglichen Parameterwert übereinstimmt und damit theoretisch niemals schlechter als die besten unparametrisierten Algorithmen und übertreffen diese bereits für leicht nichttriviale Parameterwerte. Motiviert durch den allgemeinen Erfolg und der Vielzahl solcher parametrisierten Algorithmen, welche eine vielzahl verschiedener Strukturen ausnutzen, untersuchen wir im zweiten Hauptteil dieser Arbeit, wie man solche unterschiedliche homogene Strukturen zu mehr heterogenen Strukturen vereinen kann. Ausgehend von algebraischen Ausdrücken, welche benutzt werden können, um von Parametern beschriebene Strukturen zu definieren, charakterisieren wir klar und robust heterogene Strukturen und zeigen exemplarisch, wie sich die Parameter tree-depth und modular-width heterogen verbinden lassen. Wir beschreiben dazu effiziente Algorithmen auf heterogenen Strukturen mit Laufzeiten, welche im Spezialfall mit den homogenen Algorithmen übereinstimmen. / In classical complexity theory, the worst-case running times of algorithms depend solely on the size of the input. In parameterized complexity the goal is to refine the analysis of the running time of an algorithm by additionally considering a parameter that measures some kind of structure in the input. A parameterized algorithm then utilizes the structure described by the parameter and achieves a running time that is faster than the best general (unparameterized) algorithm for instances of low parameter value. In the first part of this thesis, we carry forward in this direction and investigate the influence of several parameters on the running times of well-known tractable problems. Several presented algorithms are adaptive algorithms, meaning that they match the running time of a best unparameterized algorithm for worst-case parameter values. Thus, an adaptive parameterized algorithm is asymptotically never worse than the best unparameterized algorithm, while it outperforms the best general algorithm already for slightly non-trivial parameter values. As illustrated in the first part of this thesis, for many problems there exist efficient parameterized algorithms regarding multiple parameters, each describing a different kind of structure. In the second part of this thesis, we explore how to combine such homogeneous structures to more general and heterogeneous structures. Using algebraic expressions, we define new combined graph classes of heterogeneous structure in a clean and robust way, and we showcase this for the heterogeneous merge of the parameters tree-depth and modular-width, by presenting parameterized algorithms on such heterogeneous graph classes and getting running times that match the homogeneous cases throughout.
7

6. SAXON SIMULATION MEETING : Präsentationen und Vorträge des 6. Anwendertreffens am 01. April 2014 an der Technischen Universität Chemnitz / 6. SAXSIM - SAXON SIMULATION MEETING

09 May 2014 (has links) (PDF)
Das 6. Anwendertreffen SAXSIM fand am 01.04.2014 an der TU Chemnitz statt.
8

Improving the Depiction of Uncertainty in Simulation Models by Exploiting the Potential of Gaussian Quadratures

Stepanyan, Davit 12 March 2021 (has links)
Simulationsmodelle sind ein etabliertes Instrument zur Analyse von Auswirkungen exogener Schocks in komplexen Systemen. Die in jüngster Zeit gestiegene verfügbare Rechenleistung und -geschwindigkeit hat die Entwicklung detaillierterer und komplexerer Simulationsmodelle befördert. Dieser Trend hat jedoch Bedenken hinsichtlich der Unsicherheit solcher Modellergebnisse aufgeworfen und daher viele Nutzer von Simulationsmodellen dazu motiviert, Unsicherheiten in ihren Simulationen zu integrieren. Eine Möglichkeit dies systematisch zu tun besteht darin, stochastische Elemente in die Modellgleichungen zu integrieren, wodurch das jeweilige Modell zu einem Problem (mehrfacher) numerischer Integrationen wird. Da es für solche Probleme meist keine analytischen Lösungen gibt, werden numerische Approximationsmethoden genutzt. Die derzeit zur Quantifizierung von Unsicherheiten in Simulationsmodellen genutzt en Techniken, sind entweder rechenaufwändig (Monte Carlo [MC] -basierte Methoden) oder liefern Ergebnisse von heterogener Qualität (Gauß-Quadraturen [GQs]). In Anbetracht der Bedeutung von effizienten Methoden zur Quantifizierung von Unsicherheit im Zeitalter von „big data“ ist es das Ziel dieser Doktorthesis, Methoden zu entwickeln, die die Näherungsfehler von GQs verringern und diese Methoden einer breiteren Forschungsgemeinschaft zugänglich machen. Zu diesem Zweck werden zwei neuartige Methoden zur Quantifizierung von Unsicherheiten entwickelt und in vier verschiedene, große partielle und allgemeine Gleichgewichtsmodelle integriert, die sich mit Agrarumweltfragen befassen. Diese Arbeit liefert methodische Entwicklungen und ist von hoher Relevanz für angewandte Simulationsmodellierer. Obwohl die Methoden in großen Simulationsmodellen für Agrarumweltfragen entwickelt und getestet werden, sind sie nicht durch Modelltyp oder Anwendungsgebiet beschränkt, sondern können ebenso in anderen Zusammenhängen angewandt werden. / Simulation models are an established tool for assessing the impacts of exogenous shocks in complex systems. Recent increases in available computational power and speed have led to simulation models with increased levels of detail and complexity. However, this trend has raised concerns regarding the uncertainty of such model results and therefore motivated many users of simulation models to consider uncertainty in their simulations. One way is to integrate stochastic elements into the model equations, thus turning the model into a problem of (multiple) numerical integration. As, in most cases, such problems do not have analytical solutions, numerical approximation methods are applied. The uncertainty quantification techniques currently used in simulation models are either computational expensive (Monte Carlo [MC]-based methods) or produce results of varying quality (Gaussian quadratures [GQs]). Considering the importance of efficient uncertainty quantification methods in the era of big data, this thesis aims to develop methods that decrease the approximation errors of GQs and make these methods accessible to the wider research community. For this purpose, two novel uncertainty quantification methods are developed and integrated into four different large-scale partial and general equilibrium models addressing agro-environmental issues. This thesis provides method developments and is of high relevance for applied simulation modelers who struggle to apply computationally burdensome stochastic modeling methods. Although the methods are developed and tested in large-scale simulation models addressing agricultural issues, they are not restricted to a model type or field of application.
9

Efficient Query Processing for Dynamically Changing Datasets

Idris, Muhammad, Ugarte, Martín, Vansummeren, Stijn, Voigt, Hannes, Lehner, Wolfgang 11 August 2022 (has links)
The ability to efficiently analyze changing data is a key requirement of many real-time analytics applications. Traditional approaches to this problem were developed around the notion of Incremental View Maintenance (IVM), and are based either on the materialization of subresults (to avoid their recomputation) or on the recomputation of subresults (to avoid the space overhead of materialization). Both techniques are suboptimal: instead of materializing results and subresults, one may also maintain a data structure that supports efficient maintenance under updates and from which the full query result can quickly be enumerated. In two previous articles, we have presented algorithms for dynamically evaluating queries that are easy to implement, efficient, and can be naturally extended to evaluate queries from a wide range of application domains. In this paper, we discuss our algorithm and its complexity, explaining the main components behind its efficiency. Finally, we show experiments that compare our algorithm to a state-of-the-art (Higher-order) IVM engine, as well as to a prominent complex event recognition engine. Our approach outperforms the competitor systems by up to two orders of magnitude in processing time, and one order in memory consumption.
10

Gekrümmte Beton-Leichtbauelemente mit bionisch inspirierten Krafteinleitungssystemen durch Einsatz flexibler GFK-Schalungen

Funke, Henrik, Ulke-Winter, Lars, Petzoldt, Carolin, Müller, Christian, Gelbrich, Sandra, Kroll, Lothar 21 July 2022 (has links)
Die Architektur des 21. Jahrhunderts ist geprägt von der freien Formfindung, wobei Ressourceneinsparung in Kombination mit Funktionsintegration immer stärker in den Fokus effizienter Bauweisen rücken. Klassische Werkstoffe, wie z. B. Stahlbeton, stoßen hinsichtlich organischer Formen und Funktionalisierung schnell an ihre Grenzen. Darüber hinaus sind beim Stahlbeton aufgrund der Korrosionsneigung der Stahlbewehrung hohe Betonüberdeckungen gefordert, was der Umsetzung filigraner Bauweisen mit geringen Dicken entgegensteht (s. etwa [1], [2]). Daher ist die Erforschung von neuartigen Betonstrukturen mit Leichtbaueigenschaften unter Anwendung von textilen Bewehrungen seit einigen Jahren Gegenstand intensiver wissenschaftlicher Arbeiten, z. B. in den DFG-SFB 528 und 532, im BMBF-Vorhaben C³ und zahlreichen internationalen Projekten, z. B. [1], [3]–[5]). [Aus: Ausgangsfragen und Zielsetzung] / The architecture of the 21st century is characterized by free form finding, whereby saving resources in combination with functional integration are increasingly important for efficient construction methods. Classic materials, such as steel reinforced concrete, quickly reach their limits in terms of organic shapes and functionalization. In addition, due to the corrosion tendency of the steel reinforcement, high concrete coverings are required, which prevents the implementation of filigree construction methods with small thicknesses (see e.g. [1], [2]). Therefore, the research of new types of concrete structures with lightweight properties using textile reinforcement has been the subject of intensive scientific work for some years, e.g. DFG–SFB 528 and 532, BMBF project C³ and numerous international projects, e.g. [1], [3]–[5]). [Off: Initial questions and objectives]

Page generated in 0.0735 seconds