• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 68
  • 29
  • 18
  • 11
  • 6
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 146
  • 82
  • 76
  • 44
  • 44
  • 33
  • 32
  • 32
  • 21
  • 21
  • 20
  • 18
  • 16
  • 16
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Negative Lebensereignisse, depressive Gestimmtheit, Substanzkonsum und Delinquenz im Jugendalter : wie wird der Zusammenhang zwischen Lebensereignissen und Problemverhalten vermittelt? /

Wiesner, Margit F. January 1999 (has links)
Jena, Universiẗat, Diss., 1999.
22

Analyse de mélanges à partir de signaux de chromatographie gazeuse / Analysis of gaseous mixture from gas chromatography signal.

Bertholon, Francois 23 September 2016 (has links)
Les dispositifs dédiés à l’analyse de gaz ont de nombreuses applications, notamment le contrôle de la qualité de l’air et des gaz naturels ou industriels, ou l’étude des gaz respiratoires. Le LETI travaille en collaboration avec la société APIX sur une nouvelle génération de dispositifs microsystèmes combinant des étapes de préparation des échantillons, de séparation des composants gazeux par des dispositifs de microchromatographie intégrés sur silicium, et de transduction par des détecteurs NEMS (Nano Electro Mechanical Systems) à base de nanocantilevers utilisés comme des détecteurs dits gravimétriques. Ces capteurs NEMS sont constitués de nano poutres vibrantes dont la fréquence de résonance dépend de la masse de matière déposée sur la poutre. Ces poutres sont fonctionnalisées avec un matériau capable d’adsorber puis de désorber certains composants ciblés. Lors du passage d’une impulsion de matière dans la colonne chromatographique au niveau d’un NEMS, le signal, défini par sa fréquence de résonance instantanée en fonction du temps, varie. Le pic observé sur ce signal traduira le pic de matière dans la colonne et permettra d’estimer la concentration du composant. Partant de l’ensemble des signaux mesurés sur l’ensemble des capteurs, l’objectif du traitement du signal est de fournir le profil moléculaire, c’est-à-dire la concentration de chaque composant, et d’estimer le pouvoir calorifique supérieur (PCS) associé. Le défi est d’associer une haute sensibilité pour détecter de très petites quantités de composants, et des capacités de séparation efficaces pour s’affranchir de la complexité du mélange et identifier la signature des molécules ciblées. L’objectif de cette thèse en traitement du signal est de travailler sur la formalisation des problèmes d’analyse des signaux abordés et d’étendre notre méthodologie d’analyse reposant sur l’approche problème inverse associée à un modèle hiérarchique de la chaîne d’analyse, aux dispositifs de microchromatographie gazeuse intégrant des capteurs NEMS multiples. La première application visée est le suivi du pouvoir calorifique d’un gaz naturel. Les ruptures concernent notamment la décomposition de signaux NEMS, la fusion multi-capteurs, l’autocalibrage et le suivi dynamique temporel. Le travail comportera des phases d’expérimentation réalisées notamment sur le banc d’analyse de gaz du laboratoire commun APIX-LETI. / The chromatography is a chemical technique to separate entities from a mixture. In this thesis, we will focused on the gaseous mixture, and particularly on the signal processing of gas chromatography. To acquire those signal we use different sensors. However whatever the sensor used, we obtain a peaks succession, where each peak corresponds to an entity present in the mixture. Our aim is then to analyze gaseous mixtures from acquired signals, by characterizing each peaks. After a bibliographic survey of the chromatography, we chose the Giddings and Eyring distribution to describe a peak shape. This distribution define the probability that a molecule walking randomly through the chromatographic column go out at a given time. Then we propose analytical model of the chromatographic signal which corresponds to a peak shape mixture model. Also in first approximation, this model is considered as Gaussian mixture model. To process those signals, we studied two broad groups of methods, executed upon real data and simulated data. The first family of algorithms consists in a Bayesian estimation of unknown parameters of our model. The order of mixture model can be include in the unknown parameters. It corresponds also to the number of entity in the gaseous mixture. To estimate those parameters, we use a Gibbs sampler, and Markov Chain Monte Carlo sampling, or a variational approach. The second methods consists in a sparse representation of the signal upon a dictionary. This dictionary includes a large set of peak shapes. The sparsity is then characterized by the number of components of the dictionary needed to describe the signal. At last we propose a sparse Bayesian method.
23

Die assessering van die probleme wat onderwysers binne klasverband ervaar en hul behoefe aan die benutting van 'n spelterapeut (Afrikaans)

Jordaan, Yolandi Maria 25 October 2004 (has links)
This research is aimed at the nature of problems that teachers experience in class and their need for the utilisation of a play therapist. A lack of sufficient guidelines for this field has been identified in the relevant literature. This shortage has been confirmed by grade one to four teachers. To reach the required goal a number of objectives were set. This included setting up a knowledge framework by way of a literature study as well as consultation with experts in the field; studying the role of the teacher in respect of the child in the middle childhood phase, problems that teachers experience in class and the middle childhood as a life phase. An empirical study was undertaken during which focus group interviews were held with grade one to four teachers. Thirty-two participants took part in the focus groups. Applied research was undertaken as the researcher aimed at establishing the true needs of teachers of children in the middle childhood phase. The empirical data showed the following: · Teachers are of the opinion that children manifest a wide variety of problem behaviours in class and that they do not possess the necessary knowledge and skills to address these problems effectively. · Teachers are of the opinion that they possess limited coping strategies in which to address the problem behaviours that children manifest in class effectively. · Teachers have definite views on the problem behaviours that occur in class with which they experience difficulty handling effectively. · Teachers have listed definite needs and perceptions regarding the utilisation of a play therapist. The basic need for the establishing of a training program for teachers during which they will receive training regarding the handling of certain problem behaviours that children disclose in class, was one of the key findings of the study. / Dissertation (MSD (Play Therapy))--University of Pretoria, 2005. / Social Work / unrestricted
24

A dynamic heuristics approach for proactive production scheduling under robustness targets

Zahid, Taiba 19 June 2017 (has links) (PDF)
In den vergangenen Jahrzehnten konzentrierte sich das Operations Management auf Optimierungsstrategien, insbesondere wurden Meta-Heuristiken für das komplexe, kombinatorische Problem der ressourcenbegrenzten Ablaufplanung erforscht. In einfachen Worten gehört dieses Problem zu den NP-schweren Problemen, die einen derart großen Lösungsraum besitzen, der mittels Enumerationverfahren rechnerisch unlösbar ist. Daher erfordert die Exploration von optimalen Lösungen andere Methoden als Zufallssuchverfahren. Solche Suchalgorithmen in Meta-Heuristik starten mit einer oder mehreren Ausgangslösung und erkunden den Suchraum nach optimalen Lösungen. Jedoch stellen die existierenden Forschungsansätze zur Lösungssuche nur diejenigen Lösungen bereit, die ausschließlich unter den gegebenen Eingangsbedingungen optimal sind. Diese Eingabebedingungen definieren einen Lösungsraum, in dem alles nach Plan geht. Jedoch ist das in der Praxis sicherlich nicht der Fall. Wie wir sagen, der Wandel ist die einzige Konstante in dieser Welt. Risiken und Unsicherheiten begegnen stets im täglichen Leben. Die vorliegende Dissertation untersucht Optimierungsansätze unter Unsicherheit. Der Forschungsbeitrag ist zweigeteilt. Wie bereits gesagt, wurden Optimierungsstrategien zum Durchsuchen des Lösungsraums in den letzten Jahren stark erforscht. Obwohl es eine anerkannte Tatsache ist, dass die Verbesserung und die Leistung von Optimierungsstrategien stark mit den Initiallösungen korreliert, scheint die Literatur diesbezüglich inexistent, während zumeist auf die Entwicklung von meta-heuristischen Algorithmen wie Genetische Algorithmen und Particle-Swarm-Optimierung fokussiert wird. Die Initiallösungen werden durch simulationsbasierte Strategien entwickelt, die typischerweise gierige Regeln und ereignisbasierte Simulation nutzen. Allerdings verhalten sich kommerzielle Basis-Softwareprodukte meist als Black-Box und stellen keine Informationen über das interne Verhalten bereit. Außerdem erfordern derartige Softwareprodukte meist spezielle Architekturen und missachten Ressourcenbeschränkungen. Die vorliegende Studie diskutiert die ressourcenbeschränkte Projektplanung mit alternativen Modi und schlägt ein simulationsbasiertes Rahmenwerk vor, mit dem ein heuristisches Multi-Pass-Verfahren zur Verfügung gestellt wird. Das erweiterte Multi-Modus-Problem ist in der Lage, den Produktionsbereich in einer besseren Art und Weise nachzubilden, bei dem eine Aktivität von mehreren Ressourcen unterschiedlicher Qualifikation ausgeführt werden kann. Der vorgeschlagene Rahmen diskutiert die Leistung von Algorithmen und verwendet hierfür Benchmark-Instanzen. Das Verhalten verschiedener Projektnetze und deren Eigenschaften werden auch innerhalb des vorgeschlagenen Rahmenwerks bewertet. Darüber hinaus hilft das offene Rahmenwerk, besondere Eigenschaften von Aktivitäten zu analysieren, um deren Verhalten im Fall von Störungen zu prognostizieren. Die traditionellen Methoden der Risikoanalyse schlagen Slack-basierte Maßzahlen vor, um die Effizienz von Basisplänen zu bestimmen. Das Rahmenwerk wird weiter entwickelt, um mit diesem einen Prüfstand zu gestalten, mit dem nicht-reguläre Maßzahlen bestimmt werden können. Diese Maßnahmen werden als Robustheitsindikatoren bezeichnet und korrelieren mit der Verzögerung derartiger Multi-Modus-Probleme. Solche Leistungsmaße können genutzt werden, um die Wirksamkeit von Basisplänen zu bewerten und ihr Verhalten unter Unsicherheiten zu prognostizieren. Die Ergebnisse dieser Tests werden als modifizierte Zielfunktion verwendet, in der ein bi-objektives Leistungsmaß aus Durchlaufzeit und Robustheit eingesetzt wird, um die Effizienz der vorgeschlagenen Heuristiken zu testen. Da diese Leistungsmaße das Verhalten von Aktivitäten unter Störungen zeigen, werden diese auch genutzt, um die Formfaktoren und Puffergrößen für die Entwicklung eines stochastischen Modells zu bestimmen. Die Analyse der Projektergebnisse, durchgeführt mittels Monte-Carlo-Simulationen, unterstützt das Argument von Teilpuffern für die Modellierung von Aktivitätsdauern anstatt Ansätze mit Extrempuffern und PERT-beta-Schätzungen. / Over the past decades, researches in the field of operations management have focused on optimization strategies based on meta-heuristics for the complex-combinatorial problem of resource constrained scheduling. In simple terms, the solution for this particular problem categorized as NP-hard problem, exhibits a large search space, is computationally intractable, and requires techniques other than random search. Meta-heuristic algorithms start with a single or multiple solutions to explore and optimize using deterministic data and retrieve a valid optimum only under specified input conditions. These input conditions define a solution search space for a theoretical world undergoing no disturbance. But change is inherent to the real world; one is faced with risks and uncertainties in everyday life. The present study explores solution methodologies in the face of uncertainties. The contributions of this thesis are two-fold. As mentioned earlier, existing optimization strategies have been vigorously investigated in the past decade with respect to exploring large solution search space. Although, it is an established fact that the improvement and performance of optimization strategies is highly correlated with the initial solutions, existing literature regarding this area is not exhaustive and mostly focuses on the development of meta-heuristic algorithms such as genetic algorithms and particle swarm optimization. The initial solutions are developed through simulation based strategies mainly based on greedy rules and event based simulation. However, the available commercial softwares are primarily modeled as a black box and provide little information as to internal processing. Additionally, such planners require special architecture and disregard resource constraints. The present study discusses the multi-mode resource constrained scheduling problem and proposes a simulation-based framework to provide a multi-pass heuristic method. The extended version of multi-mode problem is able to imitate production floor in an improved manner where a task can be performed with multiple resources with certain qualifications. The performance of the proposed framework was analyzed using benchmark instances. The behavior of different project networks and their characteristics is also evaluated within the proposed framework. In addition, the open framework aids in determining the particular characteristic of tasks in order to analyze and forecast their behavior in case of disruptions. The traditional risk analysis techniques suggest slack-based measures in order to determine the efficiency of baseline schedules. The framework is further developed to design a test bench in order to determine non-regular performance measures named as robustness indicators which correlate with the delay of such cases as multi-mode problem. Such performance measures can be used to indicate the effectiveness of baseline schedules and forecast their behavior. The outputs of these tests are used to modify the objective function which uses makespan and robustness indicators as a bi-objective performance measure in order to test the efficiency of proposed heuristics. Furthermore, since these measures indicate the behavior of tasks under disruptions, they are utilized in order to determine the shape factors and buffers for the development of a stochastic model. The analysis of project outcomes performed through Monte-Carlo simulations supports the argument of partial buffer sizing for modeling activity duration estimates rather than extreme buffer approaches proposed via PERT-beta estimates.
25

Die Kategorie van die enkeling by Soren Kierkegaard en Max Stirner

Du Toit, Andrew Pieter January 1971 (has links)
Die tema van hierdie verhandeling is 'n vergelykende studie van die kategorie enkeling by Soren Kierkegaard en Max Stirner met die doel om punte van ooreenkoms en basiese verskille uit te wys. Daar word gepoog om deur 'n analise van begrippe wat binne die kategorie van die enkeling val, nuwe lig te werp op die twee denkers se filosofie. Hierdie probleemstelling bring mee dat daar gedurig vergelykend gewerk word, maar dat die uiteensetting ook beperk word tot daardie basiese begrippe wat die vergelyking duidelik na vore bring. So word in hoofsaak dan die volgende behandel: Die probleem van denke en syn soos dit by die twee denkers voorkom, word ondersoek. Beide Kierkegaard en Stirner stel die eksisterende enkeling as die sentrale begrip in die soeke na 'n relasie tussen denke en syn. Belangrike verwante eksistensiebegrippe kom voorts onder bespreking; die stel van die self en selfkeuse, selfbewussyn, moontlikheid en wording, eksistensie, essensie, reele en ideele syn. By die ontleding van hierdie begrippe word duidelik aangedui hoe verskillend die antwoorde was wat Kierkegaard en Stirner gegee het in die lig van die filosofiese probleme van hulle tyd. Wanneer Kierkegaard die enkeling stel as eindig-oneindig word die moontlikheid meteen gestel vir 'n relasie van die enkeling tot God, terwyl Stirner die enkeling slegs as oneindig sien. Die begrippe "sprong" en "oomblik" gee die sleutel tot die verstaan van Kierkegaard se filosofie en stel meteen ook die moontlikheid dat 'tiie enkeling voor God" kan staan. Stirner en Kierkegaard se beskouing van "gees" is wyd ui teenlopend en illustreer duidelik Stirner se negatiewe denke en Kierkegaard se positiewe siening. Kierkegaard stel die begrip subjektiwiteit as antwoord op die vraag na die waarheid, terwyl Stirner ook van hierdie prinsipe uitgaan, maar 'n heel ander resultaat bereik. Kierkegaard stel die moontlikheid van 'n etiese lewe waarin die enkeling hoër as die universele is. Be ide Stirner en Kierkegaard trek te velde teen die moraliteit van hulle tyd, maar op heel verskillende wyse - dit blyk veral uit die inhoud wat hul gee aan begrippe soos "vryheid" en "massa". Kortliks word aangedui hoe Kierkegaard se filosofie uitloop op die finale stadium van religieusiteit deur die stel van begrippe soos sonde, skuld, angs ens. Stirner verwerp alle vorme van godsdiens as blote verbeeldingsvlugte. Die resultaat van die studie is dat hoewel daar enkele ernstige besware ingebring kan word teen Kierkegaard se siening van die "enkeling", hy nogtans 'n baie belangrike bydrae tot die filosofie lewer. Die positiewe van sy siening lê juis daarin dat die "enkeling" oop is vir 'n relasie tot die jy en veral die U. Stirner se beskouing loop uit op 'n volslae skeptisisme en is volledig onvrugbaar. Stirner en Kierkegaard se uiteindelike siening van die "enkeling" is wyd uiteenlopend en die basiese verskil kan reeds aangetoon word in die gebruik van die terme "Einzige" en "Einzelne"; Kierkegaard se "enkeling" is uniek en enig op 'n heel ander wyse dan Stirner se "enkeling". / Dissertation (MA)--University of Pretoria, 1971. / gm2014 / Anthropology and Archaeology / unrestricted
26

Inverse Autoconvolution Problems with an Application in Laser Physics

Bürger, Steven 21 September 2016 (has links)
Convolution and, as a special case, autoconvolution of functions are important in many branches of mathematics and have found lots of applications, such as in physics, statistics, image processing and others. While it is a relatively easy task to determine the autoconvolution of a function (at least from the numerical point of view), the inverse problem, which consists in reconstructing a function from its autoconvolution is an ill-posed problem. Hence there is no possibility to solve such an inverse autoconvolution problem with a simple algebraic operation. Instead the problem has to be regularized, which means that it is replaced by a well-posed problem, which is close to the original problem in a certain sense. The outline of this thesis is as follows: In the first chapter we give an introduction to the type of inverse problems we consider, including some basic definitions and some important examples of regularization methods for these problems. At the end of the introduction we shortly present some general results about the convergence theory of Tikhonov-regularization. The second chapter is concerned with the autoconvolution of square integrable functions defined on the interval [0, 1]. This will lead us to the classical autoconvolution problems, where the term “classical” means that no kernel function is involved in the autoconvolution operator. For the data situation we distinguish two cases, namely data on [0, 1] and data on [0, 2]. We present some well-known properties of the classical autoconvolution operators. Moreover, we investigate nonlinearity conditions, which are required to show applicability of certain regularization approaches or which lead convergence rates for the Tikhonov regularization. For the inverse autoconvolution problem with data on the interval [0, 1] we show that a convergence rate cannot be shown using the standard convergence rate theory. If the data are given on the interval [0, 2], we can show a convergence rate for Tikhonov regularization if the exact solution satisfies a sparsity assumption. After these theoretical investigations we present various approaches to solve inverse autoconvolution problems. Here we focus on a discretized Lavrentiev regularization approach, for which even a convergence rate can be shown. Finally, we present numerical examples for the regularization methods we presented. In the third chapter we describe a physical measurement technique, the so-called SD-Spider, which leads to an inverse problem of autoconvolution type. The SD-Spider method is an approach to measure ultrashort laser pulses (laser pulses with time duration in the range of femtoseconds). Therefor we first present some very basic concepts of nonlinear optics and after that we describe the method in detail. Then we show how this approach, starting from the wave equation, leads to a kernel-based equation of autoconvolution type. The aim of chapter four is to investigate the equation and the corresponding problem, which we derived in chapter three. As a generalization of the classical autoconvolution we define the kernel-based autoconvolution operator and show that many properties of the classical autoconvolution operator can also be shown in this new situation. Moreover, we will consider inverse problems with kernel-based autoconvolution operator, which reflect the data situation of the physical problem. It turns out that these inverse problems may be locally well-posed, if all possible data are taken into account and they are locally ill-posed if one special part of the data is not available. Finally, we introduce reconstruction approaches for solving these inverse problems numerically and test them on real and artificial data.
27

Le développement de pratiques professionnelles inclusives : le cas d'une équipe-cycle de l'ordre d'enseignement secondaire engagée dans une recherche-action-formation

Bergeron, Geneviève January 2014 (has links) (PDF)
No description available.
28

Mobilitätsbudget und digitalisiertes Parkraummanagement als Befähiger für inter- und multimodale Mobilität: AG 3 - Sechster Zwischenbericht

Bundesministerium für Verkehr und digitale Infrastruktur (BMVI) 24 March 2023 (has links)
Den Schlüssel zur Erreichung der AG3-Ziele1 bietet ein inter- und multimodales Mobilitätssystem. Inter- und multimodale Mobilität2 kann einen wesentlichen Beitrag leisten die ökologische Nachhaltigkeit des Verkehrs zu steigern. Dies wird erreicht durch die konsequente Vernetzung der Verkehrsmittel und -teilnehmer:innen sowie durch die bessere Anbindung insbesondere umweltfreundlicher Verkehrsmittel. Zentral ist dafür, die Umsteigewiderstände zu umwelt- und klimafreundlichen Alternativen zu senken und deutliche Anreize für die Verkehrsteilnehmenden zu setzen, ihr Mobilitätsverhalten zu ändern.3 Über die diesbezüglich bisher empfohlenen Maßnahmen hinaus sollen in diesem Bericht zwei weitere Hebel dargestellt werden mit denen inter- und multimodales Mobilitätsverhalten der Bürger:innen gefördert werden sollte: Das Mobilitätsbudget und die Digitalisierung des Parkraummanagements. Es werden für beide Maßnahmen zentrale Handlungsfelder identifiziert und entsprechende Empfehlungen abgeleitet. Ziel des Mobilitätsbudgets sowie der Digitalisierung des Parkraummanagements ist es, wirkungsvolle Anreize für Nutzer:innen zu setzen, sich vermehrt multi- und intermodal fortzubewegen. Hinsichtlich der Umsetzung ist das Ziel, mithilfe eines digitalen Tools (etwa eines plattformbasierten Services o. Ä.) eine allgemeine und einfache Verfügbarkeit von Mobilitätsbudgetangeboten und Abrechnungsmodalitäten für jeden Arbeitgeber zu erreichen. Des Weiteren sind steuerliche Anreize notwendig. Die Ausgestaltung ist dabei noch genauer zu spezifizieren Weiterhin ist das Ziel, den Parksuchverkehr deutlich zu reduzieren und ökologische Effekte im Verkehrsverhalten zu erreichen, um Emissionen einzusparen. Ziel ist zudem, die zunehmende Raumkonkurrenz in Städten durch ein digitales Flächenmanagement zu adressieren. Hinsichtlich der Umsetzung ist das Ziel, dass mindestens umfassende statische und dynamische Park-Informationen öffentlich vorliegen. Darüber hinaus ist die Integration von Diensten zur Buchung beziehungsweise Reservierung und Bezahlung wichtig.:Kurzfassung Executive Summary 1 Maßnahme Mobilitätsbudget 1.1 Definition und Erläuterung der Maßnahme 1.2 Ökologische Lenkungswirkung und zusätzliche Nutzungsanreize 1.3 Status quo und Problemstellung 1.4 Handlungsbedarfe und -empfehlungen 2 Maßnahme digitalisiertes Parkraummanagement 2.1 Problemstellung und Anforderungen aus unterschiedlichen Perspektiven 2.2 Definition, Erläuterung und Zweck der Maßnahme 2.3 Ökologische Lenkungswirkung und Rebound-Effekte 2.4 Handlungsbedarf und -empfehlungen Impressum / An inter- and multimodal mobility system is key for achieving the goals set by WG 3.4 Inter- and multimodal mobility can make a significant contribution to increasing ecological sustainability in transport. This can be achieved by consistently interlinking modes of transport and transport users and by integrating ecological modes of transport in particular. It is essential in this context to lower the hurdles that prevent users from switching to environmentand climate-friendly alternatives and to provide strong incentives for users to change their mobility behaviour. On top of the measures recommended so far, this report presents two further mechanisms that should help promote citizens’ inter- and multimodal mobility behaviour: mobility budget and digitising parking management. Both measures are underpinned by key action points and relevant recommendations. Both the mobility budget and digitalisation of parking management aim at providing meaningful incentives for users to increasingly use multi- and intermodal mobility. In terms of their implementation, the aim is to achieve general and simple availability of mobility budget offers and billing modalities for every employer via a digital tool (e. g. a platform-based service). Moreover, tax incentives are necessary, however, their exact shape and size is yet to be specified. Another aim is to reduce traffic caused by people searching for car parking spaces and to gain ecological effects from mobility behaviour in order to save emissions. Increasing competition for space in cities is to be addressed through digital space management. When it comes to implementation, one aim is the availability of comprehensive static and dynamic parking data at least. The integration of booking, reservation and payment services is also important.:Kurzfassung Executive Summary 1 Maßnahme Mobilitätsbudget 1.1 Definition und Erläuterung der Maßnahme 1.2 Ökologische Lenkungswirkung und zusätzliche Nutzungsanreize 1.3 Status quo und Problemstellung 1.4 Handlungsbedarfe und -empfehlungen 2 Maßnahme digitalisiertes Parkraummanagement 2.1 Problemstellung und Anforderungen aus unterschiedlichen Perspektiven 2.2 Definition, Erläuterung und Zweck der Maßnahme 2.3 Ökologische Lenkungswirkung und Rebound-Effekte 2.4 Handlungsbedarf und -empfehlungen Impressum
29

Tensor product methods in numerical simulation of high-dimensional dynamical problems

Dolgov, Sergey 08 September 2014 (has links) (PDF)
Quantification of stochastic or quantum systems by a joint probability density or wave function is a notoriously difficult computational problem, since the solution depends on all possible states (or realizations) of the system. Due to this combinatorial flavor, even a system containing as few as ten particles may yield as many as $10^{10}$ discretized states. None of even modern supercomputers are capable to cope with this curse of dimensionality straightforwardly, when the amount of quantum particles, for example, grows up to more or less interesting order of hundreds. A traditional approach for a long time was to avoid models formulated in terms of probabilistic functions, and simulate particular system realizations in a randomized process. Since different times in different communities, data-sparse methods came into play. Generally, they aim to define all data points indirectly, by a map from a low amount of representers, and recast all operations (e.g. linear system solution) from the initial data to the effective parameters. The most advanced techniques can be applied (at least, tried) to any given array, and do not rely explicitly on its origin. The current work contributes further progress to this area in the particular direction: tensor product methods for separation of variables. The separation of variables has a long history, and is based on the following elementary concept: a function of many variables may be expanded as a product of univariate functions. On the discrete level, a function is encoded by an array of its values, or a tensor. Therefore, instead of a huge initial array, the separation of variables allows to work with univariate factors with much less efforts. The dissertation contains a short overview of existing tensor representations: canonical PARAFAC, Hierarchical Tucker, Tensor Train (TT) formats, as well as the artificial tensorisation, resulting in the Quantized Tensor Train (QTT) approximation method. The contribution of the dissertation consists in both theoretical constructions and practical numerical algorithms for high-dimensional models, illustrated on the examples of the Fokker-Planck and the chemical master equations. Both arise from stochastic dynamical processes in multiconfigurational systems, and govern the evolution of the probability function in time. A special focus is put on time propagation schemes and their properties related to tensor product methods. We show that these applications yield large-scale systems of linear equations, and prove analytical separable representations of the involved functions and operators. We propose a new combined tensor format (QTT-Tucker), which descends from the TT format (hence TT algorithms may be generalized smoothly), but provides complexity reduction by an order of magnitude. We develop a robust iterative solution algorithm, constituting most advantageous properties of the classical iterative methods from numerical analysis and alternating density matrix renormalization group (DMRG) techniques from quantum physics. Numerical experiments confirm that the new method is preferable to DMRG algorithms. It is as fast as the simplest alternating schemes, but as reliable and accurate as the Krylov methods in linear algebra.
30

Modelisation et Simulation en Photo-acoustique

Jugnon, Vincent 09 December 2010 (has links) (PDF)
Cette these traite du probleme de l'imagerie photo-acoustique. Dans ce systeme d'imagerie, on chauffe un milieu avec une onde electromagnetique. Le milieu se dilate et emet une onde ultrasonique qu'on mesure. Le but est de reconstruire les caracteristiques internes du milieu a partir des mesures de l'onde acoustique sur son bord. C'est un probleme inverse sur la condition initiale pour l'equation des ondes. Dans un cadre idealise, la procedure de reconstruction est connue et a ete etudiee en profondeur. Le but premier de cette these est de s'eloigner du cadre standard en considerant des hypotheses moins restrictives. Pour chaque hypothese (conditions de bord, vue partielle, attenuation, vitesse non-homogene ) la these propose une correction basee sur des outils mathematiques adaptes (analyse asymptotique, approche duale, correlation...). La reconstruction de la condition initiale de l'equation des ondes n'est cependant pas suffisante. Elle depend de l'illumination electromagnetique. Un second probleme inverse doit etre resolu sur la propagation de l'onde electromagnetique pour avoir acces aux coefficients physiques d'interet. La these presente des resultats algorithmiques dans le cadre de l'equation de de diffusion et des estimations theoriques dans le cadre de l'equation de transfert radiatif. La these presente aussi un resultat d'amelioration d'une approche d'imagerie par derivee topologique.

Page generated in 0.0415 seconds