141 |
Modélisation stochastique pour la sûreté de fonctionnement des systèmes commandés / Stochastic modeling for dependability assessment of control systemsLangeron, Yves 08 January 2015 (has links)
Dans le contexte des systèmes commandés, l’effort de recherche est principalement porté sur la reconfiguration d’une loi de commande à l’apparition d’une situation de défaut. La reconfiguration a pour objectif de pallier au défaut et donc de maintenir les performances du système. La problématique principale de nos travaux est d’étudier ces systèmes du point de vue de leur sûreté de fonctionnement en s’interrogeant sur les causes qui engendrent une situation de défaut. Pour cela, il est supposé l’existence d’une relation étroite entre la commande d’un système, sa dégradation et ses défauts. Un cadre de modélisation stochastique de la dégradation est proposé intégrant l’usage du système ainsi que les différents modes de détérioration. Le pronostic de la durée de vie résiduelle RUL de l’actionneur -élément critique de ces systèmes- est dérivé de l’ensemble des modèles. La RUL est alors utilisée comme un outil de reconfiguration de la loi LQR (Linear Quadratic Regulator) d’un système mono-actionné dans le cadre d’une maintenance prédictive. L’impact de cette nouvelle politique de maintenance sur les performances statiques et dynamiques du système est évalué. Enfin, le comportement stochastique d’un système tolérant aux fautes basé sur une redondance d’actionneurs est étudié au travers des modèles développés / In the context of control systems, the research effort is focused on how to reconfigure the control law upon the occurrence of a faulty situation. The reconfiguration procedure aims to overcome the fault and thus to maintain system performances. The main issue of this thesis is to study these systems in terms of their dependability by questioning the causes that generate a fault. Then it is assumed a close relationship between the control of a system, its degradation and its faults. A stochastic modelling framework is proposed combining the use of the system and the various modes of deterioration. The actuator is assumed to be the most critical part of a system. The prognosis of its remaining life RUL is derived from these models. This RUL is then used as a tool for reconfiguring the LQR law (Linear Quadratic Regulator) of a system with a single actuator in the context of a predictive maintenance. The impact of this new maintenance policy on static and dynamic performances is assessed. Finally the stochastic behavior of a fault tolerant control system is studied by means of the achieved models
|
142 |
Condition-based maintenance policies for multi-component systems considering stochastic dependences / Politiques de maintenance conditionnelle pour des systèmes multi-composant avec dépendances stochastiquesLi, Heping 04 October 2016 (has links)
De nos jours, les systèmes industriels sont de plus en plus complexes tant du point de vue de leur structure logique que des diverses dépendances (dépendances économique, stochastiques et structurelles) entre leurs composants qui peuvent influencer l'optimisation de la maintenance. La Maintenance conditionnelle qui permet de gérer les activités de maintenance en fonction de l’information de surveillance a fait l’objet de beaucoup d'attention au cours des dernières années, mais les dépendances stochastiques sont rarement utilisées dans le processus de prise de décision. Par conséquent, cette thèse a pour objectif de proposer des politiques de maintenance conditionnelle tenant compte des dépendances économiques et stochastiques pour les systèmes multi-composant. En termes de dépendance économique, les politiques proposées sont conçues pour permettre de favoriser les opportunités de grouper des actions de maintenance. Une règle de décision est établie qui permet le groupement de maintenances avec des périodes d'inspection différentes. La dépendance stochastique causée par une part de dégradation commune est modélisée par copules de Lévy. Des politiques de maintenance conditionnelle sont proposées pour profiter de la dépendance stochastique.Nos travaux montrent la nécessité de tenir compte des dépendances économiques et stochastiques pour la prise de décision de maintenance. Les résultats numériques confirment l’avantage de nos politiques par rapport à d’autres politiques existant dans la littérature / Nowadays, industrial systems contain numerous components so that they become more and more complex regarding the logical structures as well as the various dependences (economic, stochastic and structural dependences) between components. The dependences between components have an impact on the maintenance optimization as well as the reliability analysis. Condition-based maintenance which enables to manage maintenance activities based on information collected through monitoring has gained a lot of attention over recent years but stochastic dependences are rarely used in the decision making process. Therefore, this thesis is devoted to propose condition-based maintenance policies which take advantage of both economic and stochastic dependences for multi-component systems. In terms of economic dependence, the proposed maintenance policies are designed to be maximally effective in providing opportunities for maintenance grouping. A decision rule is established to permit the maintenance grouping with different inspection periods. Stochastic dependence due to a common degradation part is modelled by Lévy and Nested Lévy copulas. Condition-based maintenance policies with non-periodic inspection scheme are proposed to make use of stochastic dependence. Our studies show the necessity of taking account of both economic and stochastic dependences in the maintenance decisions. Numerical experiments confirm the advantages of our maintenance policies when compared with other existing policies in the literature
|
143 |
Bifurcations dans des systèmes avec bruit : applications aux sciences sociales et à la physique / Bifurcations and noisy systems : social and physical applicationsMora Gómez, Luis Fernando 14 December 2018 (has links)
La théorie des bifurcations est utilisée pour étudier certains aspects des systèmes dynamiques qui intervient lorsqu'un petit changement d'un paramètre physique produit un changement majeur dans l'organisation du système. Ces phénomènes ont lieu dans les systèmes physiques, chimiques, biologiques, écologiques, économiques et sociaux. Cette idée unificatrice a été appliquée pour modéliser et explorer à la fois tant les systèmes sociaux que les systèmes physiques. Dans la première partie de cette thèse, nous appliquons les outils de la physique statistique et de la théorie des bifurcations pour modéliser le problème des décisions binaires dans les sciences sociales. Nous avons mis au point un schéma permettant de prédire l’apparition de sauts extrêmes dans ces systèmes en se basant sur la notion de précurseurs, utilisés comme signal d'alerte d'apparition de ces événements catastrophiques. Nous avons également résolu un modèle mathématique d’effondrement social fondé sur une équation de "régression logistique" utilisée pour décrire la croissance d’une population et la façon dont celle-ci peut être influencée par des ressources limitées. Ce modèle présente des bifurcations sous-critiques et nous avons étudié sa relation avec le phénomène social du « sunk-cost effect » (effet de coût irrécupérable). Ce dernier phénomène explique l’influence des investissements passés sur les décisions présentes, et la combinaison de ces deux phénomènes est utilisé comme modèle pour expliquer la désintégration de certaines sociétés anciennes (basés sur des témoignages archéologiques). Dans la deuxième partie de cette thèse, nous étudions les systèmes macroscopiques décrits par des équations différentielles stochastiques multidimensionnelles ou, de manière équivalente, par les équations multidimensionnelles de Fokker-Planck. Afin de calculer la fonction de distribution de probabilité (PDF), nous avons introduit un nouveau schéma alternatif de calcul basé sur les intégrales de chemin (« Path Integral ») lié aux processus stochastiques. Les calculs basés sur les intégrales de chemin sont effectués sur des systèmes uni et bidimensionnels et successivement comparés avec certains modèles dont on connaît la solution pour confirmer la validité de notre méthode. Nous avons également étendu ce schéma pour estimer le temps d’activation moyen (« Mean Exit Time »), ce qui a donné lieu à une nouvelle expression de calcul pour les systèmes à dimension arbitraire. A` noter que pour le cas des systèmes dynamiques à deux dimensions, les calculs de la fonction de distribution de probabilité ainsi que du temps de sortie moyen ont validé le schéma des intégrales du chemin. Ça vaut la peine de souligner que la perspective de poursuivre cette ligne de recherche repose sur le fait que cette méthode est valable pour les « non gradient systems » assujettis à des bruits d'intensité arbitraires. Cela ouvre la possibilité d'analyser des situations plus complexes où, à l'heure actuelle, il n'existe aucune méthode permettant de calculer les PDFs et/ou les METs. / Bifurcations in continuous dynamical systems, i.e., those described by ordinary differential equations, are found in a multitude of models such as those used to study phenomena related to physical, chemical, biological, ecological, economic and social systems. Using this concept as a unifying idea, in this thesis, we apply it to model and explore both Social as well as Physical systems. In the first part of this thesis we apply tools of statistical physics and bifurcation theory to model a problem of binary decision in Social Sciences. We find an scheme to predict the appearance of extreme jumps in these systems based on the notion of precursors which act as a kind of warning signal for the upcoming appearance of these catastrophic events. We also solve a mathematical model of social collapse based on a logistic re-growing equation used to model population grow and how limited resources change grow patterns. This model exhibits subcritical bifurcations and its relation to the social phenomenon of sunk-cost effect is studied. This last phenomenon explains how past investments affect current decisions and the combination of both phenomena is used as a model to explain the disintegration of some ancient societies, based on evidence from archeological records. In the second part of this thesis, we study macroscopic systems described by multidimensional stochastic differential equations or equivalently by their deterministic counterpart, the multidimensional FokkerPlanck equation. A new and alternative scheme of computation based on Path Integrals, related to stochastic processes is introduced in order to calculate the Probability Distribution Function. The computations based on this Path Integral scheme are performed on systems in one and two dimensions and contrasted to some soluble models completely validating this method. We also extended this scheme to the case of computation of Mean Exit Time, finding a new expression for each computation in systems in arbitrary dimensions. It is worth noting that in case of two-dimensional dynamical systems, the computations of both the probability distribution function as well as of the mean exit time validated the Path Integral scheme and the perspective for continuing this line of work are based on the fact that this method is valid for both arbitrary non gradient systems and noise intensities. This opens the possibility to explore new cases, for which no methods are known to obtain them.
|
144 |
Detecting anomalies in data streams driven by ajump-diffusion process / Anomalidetektion i dataströmmar för hopp-diffusionsprocesserPaulin, Carl January 2021 (has links)
Jump-diffusion processes often model financial time series as they can simulate the random jumps that they frequently exhibit. These jumps can be seen as anomalies and are essential for financial analysis and model building, making them vital to detect.The realized variation, realized bipower variation, and realized semi-variation were tested to see if one could use them to detect jumps in a jump-diffusion process and if anomaly detection algorithms can use them as features to improve their accuracy. The algorithms tested were Isolation Forest, Robust Random Cut Forest, and Isolation Forest Algorithm for Streaming Data, where the latter two use streaming data. This was done by generating a Merton jump-diffusion process with a varying jump-rate and tested using each algorithm with each of the features. The performance of each algorithm was measured using the F1-score to compare the difference between features and algorithms. It was found that the algorithms were improved from using the features; Isolation Forest saw improvement from using one, or more, of the named features. For the streaming algorithms, Robust Random Cut Forest performed the best for every jump-rate except the lowest. Using a combination of the features gave the highest F1-score for both streaming algorithms. These results show one can use these features to extract jumps, as anomaly scores, and improve the accuracy of the algorithms, both in a batch and stream setting. / Hopp-diffusionsprocesser används regelbundet för att modellera finansiella tidsserier eftersom de kan simulera de slumpmässiga hopp som ofta uppstår. Dessa hopp kan ses som anomalier och är viktiga för finansiell analys och modellbyggnad, vilket gör dom väldigt viktiga att hitta. Den realiserade variationen, realiserade bipower variationen, och realiserade semi-variationen är faktorer av en tidsserie som kan användas för att hitta hopp i hopp-diffusionprocesser. De används här för att testa om anomali-detektionsalgoritmer kan använda funktionerna för att förbättra dess förmåga att detektera hopp. Algoritmerna som testades var Isolation Forest, Robust Random Cut Forest, och Isolation Forest Algoritmen för Strömmande data, där de två sistnämnda använder strömmande data. Detta gjordes genom att genera data från en Merton hopp-diffusionprocess med varierande hoppfrekvens där de olika algoritmerna testades med varje funktion samt med kombinationer av funktioner. Prestationen av varje algoritm beräknades med hjälp av F1-värde för att kunna jämföra algoritmerna och funktionerna med varandra. Det hittades att funktionerna kan användas för att extrahera hopp från hopp-diffusionprocesser och även använda de som en indikator för när hopp skulle ha hänt. Algoritmerna fick även ett högre F1-värde när de använde funktionerna. Isolation Forest fick ett förbättrat F1-värde genom att använda en eller fler utav funktionerna och hade ett högre F1-värde än att bara använda funktionerna för att detektera hopp. Robust Random Cut Forest hade högst F1-värde av de två algoritmer som använde strömmande data och båda fick högst F1-värde när man använde en kombination utav alla funktioner. Resultatet visar att dessa funktioner fungerar för att extrahera hopp från hopprocesser, använda dem för att detektera hopp, och att algoritmernas förmåga att detektera hoppen ökade med hjälp av funktionerna.
|
145 |
Predictive Modeling and Statistical Inference for CTA returns : A Hidden Markov Approach with Sparse Logistic RegressionFransson, Oskar January 2023 (has links)
This thesis focuses on predicting trends in Commodity Trading Advisors (CTAs), also known as trend-following hedge funds. The paper applies a Hidden Markov Model (HMM) for classifying trends. Additionally, by incorporating additional features, a regularized logistic regression model is used to enhance prediction capability. The model demonstrates success in identifying positive trends in CTA funds, with particular emphasis on precision and risk-adjusted return metrics. In the context of regularized regression models, techniques for statistical inference such as bootstrap resampling and Markov Chain Monte Carlo are applied to estimate the distribution of parameters. The findings suggest the model's effectiveness in predicting favorable CTA performance and mitigating equity market drawdowns. For future research, it is recommended to explore alternative classification models and extend the methodology to different markets and datasets.
|
146 |
Modélisation des modèles autorégressifs vectoriels avec variables exogènes et sélection d’indicesOscar, Mylène 05 1900 (has links)
Ce mémoire porte sur l’étude des modèles autorégressifs avec variables exogènes et sélection d’indices. La littérature classique regorge de textes concernant la sélection d’indices dans les modèles autorégressifs. Ces modèles sont particulièrement utiles pour des données macroéconomiques mesurées sur des périodes de temps modérées à longues. Effectivement, la lourde paramétrisation des modèles complets peut souvent être allégée en utilisant la sélection d’indices aboutissant ainsi à des modèles plus parcimonieux. Les modèles à variables exogènes sont très intéressants dans le contexte où il est connu que les variables à l’étude sont affectées par d’autres variables, jouant le rôle de variables explicatives, que l’analyste ne veut pas forcément modéliser. Ce mémoire se propose donc d’étudier les modèles autorégressifs vectoriels avec variables exogènes et sélection d’indices. Ces modèles ont été explorés, entre autres, par Lütkepohl (2005), qui se contente cependant d’esquisser les développements mathématiques. Nous concentrons notre étude sur l’inférence statistique sous des conditions précises, la modélisation ainsi que les prévisions. Notre objectif est de comparer les modèles avec sélection d’indices aux modèles autorégressifs avec variables exogènes complets classiques. Nous désirons déterminer si l’utilisation des modèles avec sélection d’indices est marquée par une différence favorable au niveau du biais et de l’écart-type des estimateurs ainsi qu’au niveau des prévisions de valeurs futures. Nous souhaitons également comparer l’efficacité de la sélection d’indices dans les modèles autorégressifs ayant des variables exogènes à celle dans les modèles autorégressifs. Il est à noter qu’une motivation première dans ce mémoire est l’estimation dans les modèles autorégressifs avec variables exogènes à sous-ensemble d’indices.
Dans le premier chapitre, nous présentons les séries temporelles ainsi que les diverses notions qui y sont rattachées. De plus, nous présentons les modèles linéaires classiques multivariés, les modèles à variables exogènes puis des modèles avec sélection d’indices. Dans le deuxième chapitre, nous exposons le cadre théorique de l’estimation des moindres carrés dans les modèles autorégressifs à sous-ensemble d’indices ainsi que le comportement asymptotique de l’estimateur. Ensuite, nous développons la théorie pour l’estimation des moindres carrés (LS) ainsi que la loi asymptotique des estimateurs pour les modèles autorégressifs avec sélection d’indices (SVAR) puis nous faisons de même pour les modèles
autorégressifs avec variables exogènes et tenant compte de la sélection des indices (SVARX). Spécifiquement, nous établissons la convergence ainsi que la distribution asymptotique pour l’estimateur des moindres carrés d’un processus autorégressif vectoriel à sous-ensemble d’indices et avec variables exogènes. Dans le troisième chapitre, nous appliquons la théorie spécifiée précédemment lors de simulations de Monte Carlo. Nous évaluons de manière empirique les biais et les écarts-types des coefficients trouvés lors de l’estimation ainsi que la proportion de fois que le modèle ajusté correspond au vrai modèle pour différents critères de sélection, tailles échantillonnales et processus générateurs des données. Dans le quatrième chapitre, nous appliquons la théorie élaborée aux chapitres 1 et 2 à un vrai jeu de données provenant du système canadien d’information socioéconomique (CANSIM), constitué de la production mensuelle de fromage mozzarella, cheddar et ricotta au Canada, expliquée par les prix mensuels du lait de bovin non transformé dans les provinces de Québec, d’Ontario et de la Colombie-Britannique pour la période allant de janvier 2003 à juillet 2021. Nous ajustons ces données à un modèle autorégressif avec variables exogènes complet puis à un modèle autorégressif avec variables exogènes et sélection d’indices. Nous comparons ensuite les résultats obtenus avec le modèle complet à ceux obtenus avec le modèle restreint.
Mots-clés : Processus autorégressif à sous-ensemble d’indices, variables exogènes, esti mation des moindres carrés, sélection de modèle, séries chronologiques multivariées, processus
stochastiques, séries chronologiques. / This Master’s Thesis focuses on the study of subset autoregressive models with exoge nous variables. Many texts from the classical literature deal with the selection of indexes in autoregressive models. These models are particularly useful for macroeconomic data measured over moderate to long periods of time. Indeed, the heavy parameterization of full models can often be simplified by using the selection of indexes, thus resulting in more parsimonious models. Models with exogenous variables are very interesting in the context where it is known that the variables under study are affected by other variables, playing the role of explanatory variables, not necessarily modeled by the analyst. This Master’s
Thesis therefore proposes to study vector subset autoregressive models with exogenous variables. These models have been explored, among others, by Lütkepohl (2005), who merely sketches proofs of the statistical properties. We focus our study on statistical inference under precise conditions, modeling and forecasting for these models. Our goal is to compare
restricted models to full classical autoregressive models with exogenous variables. We want to determine whether the use of restricted models is marked by a favorable difference in the bias and standard deviation properties of the estimators as well as in forecasting future values. We also compare the efficiency of index selection in autoregressive models with exogenous variables to that in autoregressive models. It should be noted that a primary motivation in this Master’s Thesis is the estimation in subset autoregressive models with exogenous variables.
In the first chapter, we present time series as well as the various concepts which are attached to them. In addition, we present the classical multivariate linear models, models with exogenous variables and then we present subset models. In the second chapter, we present the theoretical framework for least squares estimation in subset autoregressive models as well as the asymptotic behavior of the estimator. Then, we develop the theory for the estimation of least squares (LS) as well as the asymptotic distribution of the estimators for the subset autoregressive models (SVAR), and we do the same for the subset autoregressive models with exogenous variables (SVARX). Specifically, we establish the convergence as well as the asymptotic distribution for the least squares estimator of a subset autoregressive process with exogenous variables. In the third chapter, we apply the theory specified above in Monte Carlo simulations. We evaluate empirically the biases
and the standard deviations of the coefficients found during the estimation as well as the proportion of times that the adjusted model matches the true model for different selection criteria, sample size and data generating processes. In the fourth chapter, we apply the theory developed in chapters 1 and 2 to a real dataset from the Canadian Socio-Economic
Information System (CANSIM) consisting of the monthly production of mozzarella, cheddar and ricotta cheese in Canada, explained by the monthly prices of unprocessed bovine milk in the provinces of Quebec, Ontario and British Columbia from January 2003 to July 2021. We fit these data with a full autoregressive model with exogenous variables and then to a
subset autoregressive model with exogenous variables. Afterwards, we compare the results obtained with the complete model to those obtained with the subset model.
Keywords : Subset autoregressive process, exogenous variables, least squares estimation,
model selection, multivariate time series, stochastic process, time series.
|
147 |
Untersuchung der Strukturdynamik von offenporigen SchäumenKirchhof, Stephan 07 November 2022 (has links)
Ziel der Dissertation war die Schaffung einer Simulationskette, die auf Basis der Charakteristika eines Schaumes eine Vorhersage über die Verteilung der Eigenkreisfrequenzen dieser Schaumsorte ermöglicht. Zur Validierung der Simulationskette dienen an verschiedenen Schaumproben gemessene Eigenkreisfrequenzen für Längs- und Biegeschwingungen.
Die Modellierung erfolgte als räumlicher stochastischer Prozess mithilfe
der harmonischen Synthese. Notwendige Eingangsgrößen konnten anhand von CT-Scans der Proben bestimmt werden.
Zur Bestimmung der Eigenkreisfrequenzen wurden eindimensionale Ansätze wie der Rayleigh-Quotient und die Finite Cell Method (FCM) als dreidimensionaler Ansatz getestet. Es konnte gezeigt werden, dass die FCM in Verbindung mit den modellierten räumlichen Prozessen die gemessenen Verteilungen der Eigenkreisfrequenzen gut abbilden kann. Der eindimensionale Berechnungsansatz eignet sich ebenfalls, jedoch nur für homogene und isotrope Schäume.:Einleitung
1.1 Einordnung
1.2 Charakterisierung von Schäumen
1.3 Motivation
1.4 Aufgaben und Aufbau der Arbeit
2 Wahrscheinlichkeitsrechnung und stochastische Prozesse
2.1 Wahrscheinlichkeitsrechnung und Zufallsvariablen
2.1.1 Wahrscheinlichkeitsrechnung
2.1.2 Zufallsvariablen
2.2 Stochastische Prozesse
2.2.1 Kenngrößen stochastischer Prozesse
2.2.2 Eigenschaften stochastischer Prozesse
2.2.3 Spektralanalyse stationärer stochastischer Prozesse
2.2.4 Schätztheorie
3 Analyse der Schaumproben
3.1 Probekörper
3.2 Auswertung der CT-Daten
3.2.1 Kalibrierung der Grauwerte
3.2.2 Verteilungsfunktion und Mittelwert
3.2.3 Varianz des Schwankungsanteils und mittlerer Füllgrad
3.2.4 Leistungsdichtespektrum und Autokorrelation
3.2.5 Porendurchmesser und Anisotropie
3.2.6 Flächeninhalt und Flächenträgheitsmoment
3.3 Messung des dynamischen Verhaltens
3.3.1 Theoretische Grundlagen zur Auswertung
3.3.2 Vorbereitung der Proben
3.3.3 Längseigenkreisfrequenzen
3.3.4 Biegeeigenkreisfrequenzen
3.3.5 Fazit
4 Simulationsmodelle zur Nachbildung von Schäumen
4.1 Vorüberlegungen zur Modellierung
4.2 Theoretische Grundlagen zur Erzeugung eindimensionaler stochastischer
Prozesse
4.2.1 Karhunen-Loeve-Transformation .
4.2.2 Harmonische Synthese
4.2.3 Ergebnisse für Flächeninhaltsprozesse
4.3 Simulation mehrdimensionaler stochastischer Prozesse
4.3.1 Bewertungskriterien für die Qualität der Simulation
4.3.2 Ergebnisse für die virtuellen Schäume
4.3.3 Verbesserter Algorithmus
4.4 Vergleich von virtuellen Schäumen und CT-Daten
4.4.1 Keramikschäume
4.4.2 Metallschäume
4.4.3 Anmerkungen und Fazit
4.5 Erweiterung um den Mittelwert
4.6 Konzept zur Simulation von Prozessen größerer Abmessungen
4.7 Fazit
5 Bestimmung der Eigenkreisfrequenzen
5.1 Materialmodelle für die Betrachtung als eindimensionales Kontinuum
5.2 Eindimensionale Modelle
5.2.1 Modell mit konstantem Querschnitt
5.3 Eindimensionales Modell mit Berücksichtigung der Mikrostruktur
5.4 Dreidimensionales Modell mit der Finite Cell Method
5.4.1 Theoretische Grundlagen
5.4.2 Anpassung und Optimierung der verwendeten Toolbox
5.4.3 Konvergenz und Festlegung der Zellgröße
5.5 Diskussion der Ergebnisse
6 Zusammenfassung und Ausblick
Literatur
A Daten zu Geometrie und Material der verwendeten Probekörper
B Sensoren und Parameter für die Messung / The aim of this thesis was to create a simulation chain which, on the basis of the characteristics of a foam, enables a prediction of the distribution of the eigenfrequencies for this type of foam.
Eigenfrequencies measured on different foam samples for longitudinal and flexural vibrations were used to validate the simulation chain. The modeling was done as a spatial stochastic process using harmonic synthesis. Necessary input parameters were determined from CT scans of the specimens.
One-dimensional approaches such as the Rayleigh quotient, and the Finite Cell Method (FCM) as a three-dimensional approach were tested in order to determine the eigenfrequencies. It could be shown that the FCM, in conjunction with the modeled spatial processes, is able to reproduce the measured distributions of the eigenfrequencies. The one-dimensional calculation approach is also suitable, but only for homogeneous and isotropic foams.:Einleitung
1.1 Einordnung
1.2 Charakterisierung von Schäumen
1.3 Motivation
1.4 Aufgaben und Aufbau der Arbeit
2 Wahrscheinlichkeitsrechnung und stochastische Prozesse
2.1 Wahrscheinlichkeitsrechnung und Zufallsvariablen
2.1.1 Wahrscheinlichkeitsrechnung
2.1.2 Zufallsvariablen
2.2 Stochastische Prozesse
2.2.1 Kenngrößen stochastischer Prozesse
2.2.2 Eigenschaften stochastischer Prozesse
2.2.3 Spektralanalyse stationärer stochastischer Prozesse
2.2.4 Schätztheorie
3 Analyse der Schaumproben
3.1 Probekörper
3.2 Auswertung der CT-Daten
3.2.1 Kalibrierung der Grauwerte
3.2.2 Verteilungsfunktion und Mittelwert
3.2.3 Varianz des Schwankungsanteils und mittlerer Füllgrad
3.2.4 Leistungsdichtespektrum und Autokorrelation
3.2.5 Porendurchmesser und Anisotropie
3.2.6 Flächeninhalt und Flächenträgheitsmoment
3.3 Messung des dynamischen Verhaltens
3.3.1 Theoretische Grundlagen zur Auswertung
3.3.2 Vorbereitung der Proben
3.3.3 Längseigenkreisfrequenzen
3.3.4 Biegeeigenkreisfrequenzen
3.3.5 Fazit
4 Simulationsmodelle zur Nachbildung von Schäumen
4.1 Vorüberlegungen zur Modellierung
4.2 Theoretische Grundlagen zur Erzeugung eindimensionaler stochastischer
Prozesse
4.2.1 Karhunen-Loeve-Transformation .
4.2.2 Harmonische Synthese
4.2.3 Ergebnisse für Flächeninhaltsprozesse
4.3 Simulation mehrdimensionaler stochastischer Prozesse
4.3.1 Bewertungskriterien für die Qualität der Simulation
4.3.2 Ergebnisse für die virtuellen Schäume
4.3.3 Verbesserter Algorithmus
4.4 Vergleich von virtuellen Schäumen und CT-Daten
4.4.1 Keramikschäume
4.4.2 Metallschäume
4.4.3 Anmerkungen und Fazit
4.5 Erweiterung um den Mittelwert
4.6 Konzept zur Simulation von Prozessen größerer Abmessungen
4.7 Fazit
5 Bestimmung der Eigenkreisfrequenzen
5.1 Materialmodelle für die Betrachtung als eindimensionales Kontinuum
5.2 Eindimensionale Modelle
5.2.1 Modell mit konstantem Querschnitt
5.3 Eindimensionales Modell mit Berücksichtigung der Mikrostruktur
5.4 Dreidimensionales Modell mit der Finite Cell Method
5.4.1 Theoretische Grundlagen
5.4.2 Anpassung und Optimierung der verwendeten Toolbox
5.4.3 Konvergenz und Festlegung der Zellgröße
5.5 Diskussion der Ergebnisse
6 Zusammenfassung und Ausblick
Literatur
A Daten zu Geometrie und Material der verwendeten Probekörper
B Sensoren und Parameter für die Messung
|
148 |
[en] A HYBRID SOLUTION USING STOCHASTIC AND NEURAL NETWORKS MODELING FOR THE CONSIDERATION OF SAFETY UNCERTAINTIES IN CONSTRUCTION PLANNING METHODS / [pt] UMA SOLUÇÃO HÍBRIDA UTILIZANDO MODELAGEM ESTOCÁSTICA E DE REDES NEURAIS PARA A CONSIDERAÇÃO DE INCERTEZAS DE SEGURANÇA EM MÉTODOS DE PLANEJAMENTO DE CONSTRUÇÃOCRISTIANO SAAD TRAVASSOS DO CARMO 24 January 2024 (has links)
[pt] Na indústria da construção, conhecida por sua natureza dinâmica e caótica, muitas vezes há acidentes de trabalho. Os métodos de planejamento existentes que abordam incertezas, no entanto, frequentemente ignoram as variáveis de segurança, e a literatura relevante é escassa. Este estudo introduz um novo método de planejamento de obras focado na influência de ocorrências de segurança na duração do projeto, especificamente em projetos de construção de usinas de energia. A principal hipótese é que eventos de segurança durante a construção afetam significativamente a duração do projeto, levando a cronogramas deficientes quando não considerados no processo de planejamento. Utilizando a teoria de processos estocásticos, particularmente o processo de quase-nascimento e morte, o estudo explora como os estados de segurança influenciam os estados de atraso. Modelos de redes neurais complementam o modelo estocástico para previsão de séries temporais bivariadas derivadas dos estados estocásticos. Dados reais de projetos demonstram que os eventos de segurança, supondo eventos de atraso planejados, são mais do que o dobro do valor dos estados de atraso. A aplicação do modelo estocástico a um projeto real com um atraso planejado de 8 dias indica um estado de segurança mais provável de 19. Os modelos de memória de curto prazo de longo prazo superam os métodos estatísticos na previsão de séries temporais bivariadas, com uma métrica de estimação quadrática média raiz significativamente menor. A abordagem de planejamento de construção híbrida proposta mostra-se adequada para as fases de pré-construção e construção, oferecendo melhores indicadores de tomada de decisão e apoiando a gestão de segurança reativa. / [en] The construction industry, known for its dynamic and chaotic nature, often experiences work accidents. Existing planning methods addressing uncertainties, however, frequently overlook safety variables, and the relevant literature is scarce. This study introduces a novel construction planning method focused on investigating the impact of safety incidents on project duration, specifically in energy infrastructure construction projects. The main hypothesis is that safety events during construction significantly affect project duration, leading to deficient schedules when not considered in the planning process. Utilizing stochastic process theory, particularly the quasi birth and death process, the study explores how safety states influence delay states. Neural network models complement the stochastic model for forecasting bivariate time series derived from safety and delay stochastic states. Real-life project data demonstrates that safety events, assuming planned delay events, are over double the delay states value. Applying the stochastic model to a real project with a planned 8-day delay indicates a most probable safety state of 19. Long short-term memory models outperform statistical methods in bivariate time series forecasting, with a significantly smaller root mean square estimation metric. The proposed hybrid construction planning approach proves suitable for both pre-construction and construction phases, offering improved decision-making indicators and supporting reactive safety management.
|
149 |
Non-equilibrium strongly-correlated dynamicsJohnson, Tomi Harry January 2013 (has links)
We study non-equilibrium and strongly-correlated dynamics in two contexts. We begin by analysing quantum many-body systems out of equilibrium through the lens of cold atomic impurities in Bose gases. Such highly-imbalanced mixtures provide a controlled arena for the study of interactions, dissipation, decoherence and transport in a many-body quantum environment. Specifically we investigate the oscillatory dynamics of a trapped and initially highly-localised impurity interacting with a weakly-interacting trapped quasi low-dimensional Bose gas. This relates to and goes beyond a recent experiment by the Inguscio group in Florence. We witness a delicate interplay between the self-trapping of the impurity and the inhomogeneity of the Bose gas, and describe the dissipation of the energy of the impurity through phononic excitations of the Bose gas. We then study the transport of a driven, periodically-trapped impurity through a quasi one-dimensional Bose gas. We show that placing the weakly-interacting Bose gas in a separate periodic potential leads to a phononic excitation spectrum that closely mimics those in solid state systems. As a result we show that the impurity-Bose gas system exhibits phonon-induced resonances in the impurity current that were predicted to occur in solids decades ago but never clearly observed. Following this, allowing the bosons to interact strongly, we predict the effect of different strongly-correlated phases of the Bose gas on the motion of the impurity. We show that, by observing the impurity, properties of the excitation spectrum of the Bose gas, e.g., gap and bandwidth, may be inferred along with the filling of the bosonic lattice. In other words the impurity acts as a probe of its environment. To describe the dynamics of such a strongly-correlated system we use the powerful and near-exact time-evolving block decimation (TEBD) method, which we describe in detail. The second part of this thesis then analyses, for the first time, the performance of this method when applied to simulate non-equilibrium classical stochastic processes. We study its efficacy for a well-understood model of transport, the totally-asymmetric exclusion process, and find it to be accurate. Next, motivated by the inefficiency of sampling-based numerical methods for high variance observables we adapt and apply TEBD to simulate a path-dependent observable whose variance increases exponentially with system size. Specifically we calculate the expected value of the exponential of the work done by a varying magnetic field on a one-dimensional Ising model undergoing Glauber dynamics. We confirm using Jarzynski's equality that the TEBD method remains accurate and efficient. Therefore TEBD and related methods complement and challenge the usual Monte Carlo-based simulators of non-equilibrium stochastic processes.
|
150 |
Aléatoire et variabilité dans l’embryogenèse animale, une approche multi-échelle / Randomness and variability in animal embryogenesis, a multi-scale approachVilloutreix, Paul 03 July 2015 (has links)
Nous proposons dans cette thèse de caractériser quantitativement la variabilité à différentes échelles au cours de l'embryogenèse. Pour ce faire, nous utilisons une combinaison de modèles mathématiques et de résultats expérimentaux. Dans la première partie, nous utilisons une petite cohorte d'oursins digitaux pour construire une représentation prototypique du lignage cellulaire, reliant les caractéristiques des cellules individuelles avec les dynamiques à l'échelle de l'embryon tout entier. Ce modèle probabiliste multi-niveau et empirique repose sur les symétries des embryons et sur les identités cellulaires; cela permet d'identifier un niveau de granularité générique pour observer les distributions de caractéristiques cellulaires individuelles. Le prototype est défini comme le barycentre de la cohorte dans la variété statistique correspondante. Parmi plusieurs résultats, nous montrons que la variabilité intra-individuelle est impliquée dans la reproductibilité du développement embryonnaire. Dans la seconde partie, nous considérons les mécanismes sources de variabilité au cours du développement et leurs relations à l'évolution. En nous appuyant sur des résultats expérimentaux montrant une pénétrance incomplète et une expressivité variable de phénotype dans une lignée mutante du poisson zèbre, nous proposons une clarification des différents niveaux de variabilité biologique reposant sur une analogie formelle avec le cadre mathématique de la mécanique quantique. Nous trouvons notamment une analogie formelle entre l'intrication quantique et le schéma Mendélien de transmission héréditaire. Dans la troisième partie, nous étudions l'organisation biologique et ses relations aux trajectoires développementales. En adaptant les outils de la topologie algébrique, nous caractérisons des invariants du réseaux de contacts cellulaires extrait d'images de microscopie confocale d'épithéliums de différentes espèces et de différents fonds génétiques. En particulier, nous montrons l'influence des histoires individuelles sur la distribution spatiales des cellules dans un tissu épithélial. / We propose in this thesis to characterize variability quantitatively at various scales during embryogenesis. We use a combination of mathematical models and experimental results. In the first part, we use a small cohort of digital sea urchin embryos to construct a prototypical representation of the cell lineage, which relates individual cell features with embryo-level dynamics. This multi-level data-driven probabilistic model relies on symmetries of the embryo and known cell types, which provide a generic coarse-grained level of observation for distributions of individual cell features. The prototype is defined as the centroid of the cohort in the corresponding statistical manifold. Among several results, we show that intra-individual variability is involved in the reproducibility of the developmental process. In the second part, we consider the mechanisms sources of variability during development and their relations to evolution. Building on experimental results showing variable phenotypic expression and incomplete penetrance in a zebrafish mutant line, we propose a clarification of the various levels of biological variability using a formal analogy with quantum mechanics mathematical framework. Surprisingly, we find a formal analogy between quantum entanglement and Mendel’s idealized scheme of inheritance. In the third part, we study biological organization and its relations to developmental paths. By adapting the tools of algebraic topology, we compute invariants of the network of cellular contacts extracted from confocal microscopy images of epithelia from different species and genetic backgrounds. In particular, we show the influence of individual histories on the spatial distribution of cells in epithelial tissues.
|
Page generated in 0.0357 seconds