Spelling suggestions: "subject:"quasi"" "subject:"cuasi""
201 |
High dimensional Bayesian computation / Computation bayésienne en grande dimensionBuchholz, Alexander 22 November 2018 (has links)
La statistique bayésienne computationnelle construit des approximations de la distribution a posteriori soit par échantillonnage, soit en construisant des approximations tractables. La contribution de cette thèse au domaine des statistiques bayésiennes est le développement de nouvelle méthodologie en combinant des méthodes existantes. Nos approches sont mieux adaptées à la dimension ou entraînent une réduction du coût de calcul par rapport aux méthodes existantes.Notre première contribution améliore le calcul bayésien approximatif (ABC) en utilisant le quasi-Monte Carlo (QMC). ABC permet l'inférence bayésienne dans les modèles avec une vraisemblance intractable. QMC est une technique de réduction de variance qui fournit des estimateurs plus précis d’intégrales. Notre deuxième contribution utilise le QMC pour l'inférence variationnelle(VI). VI est une méthode pour construire des approximations tractable à la distribution a posteriori . La troisième contribution développe une approche pour adapter les échantillonneurs Monte Carlo séquentiel (SMC) lorsque on utilise des noyaux de mutation Hamiltonian MonteCarlo (HMC). Les échantillonneurs SMC permettent une estimation non biaisée de l’évidence du modèle, mais ils ont tendance à perdre en performance lorsque la dimension croit. HMC est une technique de Monte Carlo par chaîne de Markov qui présente des propriétés intéressantes lorsque la dimension de l'espace cible augmente mais elle est difficile à adapter. En combinant les deux,nous construisons un échantillonneur qui tire avantage des deux. / Computational Bayesian statistics builds approximations to the posterior distribution either bysampling or by constructing tractable approximations. The contribution of this thesis to the fieldof Bayesian statistics is the development of new methodology by combining existing methods. Ourapproaches either scale better with the dimension or result in reduced computational cost com-pared to existing methods. Our first contribution improves approximate Bayesian computation(ABC) by using quasi-Monte Carlo (QMC). ABC allows Bayesian inference in models with in-tractable likelihoods. QMC is a variance reduction technique that yields precise estimations ofintegrals. Our second contribution takes advantage of QMC for Variational Inference (VI). VIis a method for constructing tractable approximations to the posterior distribution. The thirdcontribution develops an approach for tuning Sequential Monte Carlo (SMC) samplers whenusing Hamiltonian Monte Carlo (HMC) mutation kernels. SMC samplers allow the unbiasedestimation of the model evidence but tend to struggle with increasing dimension. HMC is aMarkov chain Monte Carlo technique that has appealing properties when the dimension of thetarget space increases but is difficult to tune. By combining the two we construct a sampler thattakes advantage of the two.
|
202 |
Strukturované multisystémy a multiautomaty indukované časovými procesy / Structured Multisystems and Multiautomata Induced by Times ProcessesKřehlík, Štěpán January 2015 (has links)
In the thesis we discuss binary hyperstructures of linear differential operators of the second order both in general and (inspired by models of specific time processes) in a special case of the Jacobi form. We also study binary hyperstructures constructed from distributive lattices and suggest transfer of this construction to n-ary hyperstructures. We use these hyperstructures to construct multiautomata and quasi-multiautomata. The input sets of all these automata structures are constructed so that the transfer of information for certain specific modeling time functions is facilitated. For this reason we use smooth positive functions or vectors components of which are real numbers or smooth positive functions. The above hyperstructures are state-sets of these automata structures. Finally, we investigate various types of compositions of the above multiautomata and quasi-multiautomata. In order to this we have to generalize the classical definitions of Dörfler. While some of the concepts can be transferred to the hyperstructure context rather easily, in the case of Cartesian composition the attempt to generalize it leads to some interesting results.
|
203 |
Erfolgsfaktor Team!?Schmid, Simone Rita 01 August 2016 (has links) (PDF)
Die übergeordnete Zielstellung der vorliegenden Arbeit ist es, Bedingungsfaktoren erfolgreicher Teamarbeit anhand von Forschungsarbeiten aus unterschiedlichen Fachrichtungen herauszuarbeiten und diese anhand eigener Studien zu sogenannten Actionteams empirisch zu überprüfen. Hierfür wird auf Grundlage einer umfangreichen Literaturanalyse ein Rahmenforschungsmodell zur Teamarbeit synthetisiert sowie ein Verhaltensmarker Ansatz zur Erfassung und Bewertung von Team(arbeits)prozessen in kritischen Situationen entwickelt und erprobt. Demzufolge ist die Arbeit in zwei Teile aufgebaut: Im ersten Schritt wird theoriegeleitet ein Forschungsmodell zur Teamarbeit abgeleitet und durch sekundäranalytische Auswertungen von elitären Actionteams überprüft. Darauf aufbauend, wird ein Verhaltensmarker-Ansatz zur Messung und Bewertung von potentiell trainierbaren Team(arbeits)prozessen konzipiert und an Rettungsdienstteams in einer high-fidelity-Simulation experimentell evaluiert.
Der Fokus im ersten Teil der Arbeit liegt auf der theoriegeleiteten Entwicklung des Forschungsmodells, welches Teamarbeit in folgende analytisch unterscheidbare Dimensionen differenziert: emergent states (shared mental models, mutual trust und group potency) und Teamprozesse (team orientation, team leadership, mutual performance monitoring, backup behavior, adaptability und closed loop communication). Dieses Forschungsmodell wurde mit einer Sekundäranalyse von Fragebogen- und Interviewdaten zu einer Stichprobe von elitären Actionteammitgliedern geprüft und empirisch bestätigt. Die quantitative Analyse von Fragebogendaten zeigt bei den elitären Actionteammitgliedern (n = 132) positive signifikante Zusammenhänge zwischen den emergent states und Teamprozessen. Im direkten Abgleich mit nichtelitären Actionteammitgliedern (n = 133) zeigten sich bei den elitären Actionteammitgliedern durchweg höhere Ausprägungen in den Teamarbeitsdimensionen (erste Forschungsfrage). Des Weiteren wurde untersucht, ob eine Beziehung zwischen Teamarbeitsdimensionen und verschiedenen Teamtypen (contending teams, critical teams und performing teams) besteht. Die inhaltsanalytische Auswertung von qualitativen Interviewdaten elitärer Actionteammitglieder (n = 51) wie auch statistische Analysen standardisierter Fragebogendaten elitärer Actionteammitglieder (n = 132) legen eine Beziehung nahe. Die Ergebnisse belegen, dass sich die beiden Teamtypen contending teams und performing teams am stärksten in den Teamarbeitsdimensionen team leadership und adaptability unterscheiden (zweite Forschungsfrage).
Das Hauptanliegen des zweiten Teils der Arbeit besteht darin, zu testen, ob die im ersten Arbeitsteil als erfolgskritisch identifizierten Team(arbeits)prozesse, nach einer Schulungs- und Trainingsintervention mit einer erhöhten Leistungsfähigkeit einhergehen. Dazu wird aus den Erkenntnissen des ersten Teils und unter Rückgriff auf aktuelle Forschungsergebnisse ein Verhaltensmarker-Ansatz entwickelt. Zur Überprüfung, ob und wie durch eine Verbesserung der Team(arbeits)prozesse die Leistungsfähigkeit von Actionteams gesteigert werden kann, wurde eine quasi-experimentelle Simulations-Studie mit einem Experimental- und Kontrollgruppen-Design durchgeführt. Um mit dem entwickelten prozessanalytischen Messinstrument die Team(arbeits)prozesse praktizierender Rettungsdienstmitglieder in kritischen Situationen zu erfassen, wurde eine Simulation als Zwischenform einer Labor- und Felduntersuchung gewählt. Insgesamt nahmen 96 Teilnehmer an der Studie teil, die in zwei Gruppen aufgeteilt wurden. Der Teilnehmerkreis eins (T1; n = 47) erhielt vor der Simulation eine Schulungs- und Trainingsmaßnahme und der Teilnehmerkreis zwei (T2; n = 49) erhielt diese nachher. Anschließend wurde eine Teilstichprobe mit jeweils 10 Personen aus dem Teilnehmerkreis eins (T1) als Experimentalgruppenteilnehmer (n = 10) und aus dem Teilnehmerkreis zwei (T2) als Kontrollgruppenteilnehmer (n =10) zufällig ausgewählt. Die Experimental- und Kontrollgruppenteammitglieder absolvierten in einer high-fidelity-Simulation ein komplexes und mit kritischen Situationen konzipiertes Fallbeispiel. Die Bewertung der Team(arbeits)prozesse und des Teamerfolges erfolgte durch eine offene, passiv teilnehmende Beobachtung und wurde mittels Beobachtungsbogen von sechs Experten während der Simulation protokolliert. Des Weiteren wurde das Verhalten der Teammitglieder anhand aufgezeichneter Videodateien mit einer Videointeraktionsanalyse bewertet. Die Ratingübereinstimmung zwischen den Beobachtungsdaten der teilnehmenden Forscher vor Ort mit den Videoauswertungen der unabhängigen Experten im Nachgang lassen erkennen, dass das entwickelte prozessanalytische Verfahren zur Messung und Bewertung von Team(arbeits)prozessen geeignet ist, reliabel und objektiv die Leistungsfähigkeit von Rettungsdienstteams in kritischen Situationen zu erfassen. Die Befunde zeigen, dass die als erfolgskritisch und potentiell trainierbar identifizierten Team(arbeits)prozesse durch eine Schulungs- und Trainingsmaßnahme gesteigert werden konnten. Hierbei verdeutlichen die Ergebnisse des Experimental- und Kontrollgruppenvergleichs, dass insbesondere die Reflexions-, Teamführungs- und Koordinationsprozesse verbessert werden konnten. Auch lag der Teamerfolg, gemessen an der Anzahl richtig gewählter und ausgeführter Maßnahmen, die in einem zeitlich vorgegebenen Rahmen durchgeführt wurden, bei den Experimentalgruppen etwas höher als bei den Kontrollgruppen.
Zusammenfassend liegen mit dieser Arbeit erste empirische Befunde eines quasi-experimentellen und multi-methodischen Forschungs- bzw. Evaluationsdesigns vor, die aufzeigen, welche erfolgskritischen Team(arbeits)prozesse die Leistungsfähigkeit von Actionteams in kritischen Situationen steigern können.
|
204 |
Analyse théorique et numérique de l'endommagement par micro-fissuration descomposites à matrice quasi-fragile / Theoretical and numerical analysis of damage by micro-cracking composite materials of quasi-brittle matrixDib, Dayana 22 October 2015 (has links)
Le problème initial traité dans cette thèse relève du cadre général de la modélisation des tunnels profonds. Pour cela, on a adopté l'approche basée sur la mécanique linéaire de la rupture. L'étude s'est appuyée sur le critère mixte de Leguillon. Suite à cette étude, on a pu tirer que ce n'est pas le critère mixte qui est insuffisant mais plutôt la façon d'aborder le problème. D'où le passage à la prise en compte de l'hétérogénéité du matériau constitutif et la possibilité d'amorçage d'une fissure sous une contrainte de compression. Une première approche a été entreprise par l'étude d'une bicouche périodique sous contrainte de compression verticale. La couche de grande raideur s'est apparue le siège d'une traction transversale. Effectivement la possibilité d'amorçage d'une fissure est tout à fait probable grâce toujours à la vérification des critères d'énergie et de contrainte. Une deuxième approche consistait à observer au plus près la microstructure du matériau ; on a considéré le problème d'une inclusion elliptique dans une matrice infinie. Par la méthode des variables complexes et la technique de la transformation conforme, on a analysé le champ de contrainte autour de l'inclusion et on a mis en évidence la présence d'une traction qui dépend fortement des paramètres choisis. Par la méthode des éléments finis étendus, on a calculé la variation de l'énergie potentielle mise en jeu par la création d'une fissure. Par une démarche semblable à l'approche précédente, à savoir la vérification des critères d'énergie et de contrainte, on a conclu à la possibilité d'amorçage d'une fissure. Mots clefs : mécanique linéaire de la rupture, critère mixte de Leguillon, énergie potentielle, taux de restitution d'énergie, méthode des éléments finis étendus, bicouche périodique, méthode des variables complexes / The initial problem treated in this thesis falls within the general framework of modeling deep tunnels. For this reason, the approach based on linear fracture mechanics was adopted. The study was based on the mixed criterion of Leguillon. Following This study, the mixed criterion was not insufficient but the way to approach the problem was. Where the transition to the consideration of the heterogeneity of the material component and the possibility of initing a crack under a compressive stress. A first approach was undertaken the study of periodic bilayer under the stress of vertical compression. The layer of the highest stiffness has appeared the seat of a transverse traction. Indeed the possibility to initiate a crack is quite likely always through the verification of the energy and the stress criteria. A second approach was to observe more closer the microstructure of the material; we have considered the problem of elliptic inclusion in an infinite matrix. By the method of complex variables and the technique of conformal mapping, we analyzed the stress field around the inclusion and were revealed the presence of a traction which depends strongly of the selected parameters. By the extended finite element method, we calculated the variation of the potential energy involved by creating a fracture. In a similar approach to the previous one, namely verification of the energy and the stress criteria, we concluded the possibility of initiating a crack. Keywords: linear fracture mechanics, mixed criterion of Leguillon, potential energy, energy release rate, extended finite element method, periodic bilayer, method of complex variables
|
205 |
Minimisation d'une fonction quasi-convexe aléatoire : applicationsIdée, Edwige 24 November 1973 (has links) (PDF)
.
|
206 |
Évaluation de la biomécanique cardiovasculaire par élastographie ultrasonore non-invasivePorée, Jonathan 09 1900 (has links)
L’élastographie est une technique d’imagerie qui vise à cartographier in vivo les propriétés mécaniques des tissus biologiques dans le but de fournir des informations diagnostiques additionnelles. Depuis son introduction en imagerie ultrasonore dans les années 1990, l’élastographie a trouvé de nombreuses applications. Cette modalité a notamment été utilisée pour l’étude du sein, du foie, de la prostate et des artères par imagerie ultrasonore, par résonance magnétique ou en tomographie par cohérence optique. Dans le contexte des maladies cardiovasculaires, cette modalité a un fort potentiel diagnostique puisque l’athérosclérose modifie la structure des tissus biologiques et leurs propriétés mécaniques bien avant l’apparition de tout symptôme. Quelle que soit la modalité d’imagerie utilisée, l’élastographie repose sur : l’excitation mécanique du tissu (statique ou dynamique), la mesure de déplacements et de déformations induites, et l’inversion qui permet de recouvrir les propriétés mécaniques des tissus sous-jacents. Cette thèse présente un ensemble de travaux d’élastographie dédiés à l’évaluation des tissus de l’appareil cardiovasculaire. Elle est scindée en deux parties. La première partie intitulée « Élastographie vasculaire » s’intéresse aux pathologies affectant les artères périphériques. La seconde, intitulée « Élastographie cardiaque », s’adresse aux pathologies du muscle cardiaque. Dans le contexte vasculaire, l’athérosclérose modifie la physiologie de la paroi artérielle et, de ce fait, ses propriétés biomécaniques. La première partie de cette thèse a pour objectif principal le développement d’un outil de segmentation et de caractérisation mécanique des composantes tissulaires (coeur lipidique, tissus fibreux et inclusions calciques) de la paroi artérielle, en imagerie ultrasonore non invasive, afin de prédire la vulnérabilité des plaques. Dans une première étude (Chapitre 5), nous présentons un nouvel estimateur de déformations, associé à de l’imagerie ultrarapide par ondes planes. Cette nouvelle méthode d’imagerie permet d’augmenter les performances de l’élastographie non invasive. Dans la continuité de cette étude, on propose une nouvelle méthode d’inversion mécanique dédiée à l’identification et à la quantification des propriétés mécaniques des tissus de la paroi (Chapitre 6). Ces deux méthodes sont validées in silico et in vitro sur des fantômes d’artères en polymère. Dans le contexte cardiaque, les ischémies et les infarctus causés par l’athérosclérose altèrent la contractilité du myocarde et, de ce fait, sa capacité à pomper le sang dans le corps (fonction myocardique). En échocardiographie conventionnelle, on évalue généralement la fonction myocardique en analysant la dynamique des mouvements ventriculaires (vitesses et déformations du myocarde). L’abscence de contraintes physiologiques agissant sur le myocarde (contrairement à la pression sanguine qui contraint la paroi vasculaire) ne permet pas de résoudre le problème inverse et de retrouver les propriétés mécaniques du tissu. Le terme d’élastographie fait donc ici référence à l’évaluation de la dynamique des mouvements et des déformations et non à l’évaluation des propriétés mécanique du tissu. La seconde partie de cette thèse a pour principal objectif le développement de nouveaux outils d’imagerie ultrarapide permettant une meilleure évaluation de la dynamique du myocarde. Dans une première étude (Chapitre 7), nous proposons une nouvelle approche d’échocardiographie ultrarapide et de haute résolution, par ondes divergentes, couplée à de l'imagerie Doppler tissulaire. Cette combinaison, validée in vitro et in vivo, permet d’optimiser le contraste des images mode B ainsi que l’estimation des vitesses Doppler tissulaires. Dans la continuité de cette première étude, nous proposons une nouvelle méthode d’imagerie des vecteurs de vitesses tissulaires (Chapitre 8). Cette approche, validée in vitro et in vivo, associe les informations de vitesses Doppler tissulaires et le mode B ultrarapide de l’étude précédente pour estimer l’ensemble du champ des vitesses 2D à l’intérieur du myocarde. / Elastography is an imaging technique that aims to map the in vivo mechanical properties of biological tissues in order to provide additional diagnostic information. Since its introduction in ultrasound imaging in the 1990s, elastography has found many applications. This method has been used for the study of the breast, liver, prostate and arteries by ultrasound imaging, magnetic resonance imaging (MRI) or optical coherence tomography (OCT). In the context of cardiovascular diseases (CVD), this modality has a high diagnostic potential as atherosclerosis, a common pathology causing cardiovascular diseases, changes the structure of biological tissues and their mechanical properties well before any symptoms appear. Whatever the imaging modality, elastography is based on: the mechanical excitation of the tissue (static or dynamic), the measurement of induced displacements and strains, and the inverse problem allowing the quantification of the mechanical properties of underlying tissues.
This thesis presents a series of works in elastography for the evaluation of cardiovascular tissues. It is divided into two parts. The first part, entitled « Vascular elastography » focuses on diseases affecting peripheral arteries. The second, entitled « Cardiac elastography » targets heart muscle pathologies.
In the vascular context, atherosclerosis changes the physiology of the arterial wall and thereby its biomechanical properties. The main objective of the first part of this thesis is to develop a tool that enables the segmentation and the mechanical characterization of tissues (necrotic core, fibrous tissues and calcium inclusions) in the vascular wall of the peripheral arteries, to predict the vulnerability of plaques. In a first study (Chapter 5), we propose a new strain estimator, associated with ultrafast plane wave imaging. This new imaging technique can increase the performance of the noninvasive elastography. Building on this first study, we propose a new inverse problem method dedicated to the identification and quantification of the mechanical properties of the vascular wall tissues (Chapter 6). These two methods are validated in silico and in vitro on polymer phantom mimicking arteries.
In the cardiac context, myocardial infarctions and ischemia caused by atherosclerosis alter myocardial contractility. In conventional echocardiography, the myocardial function is generally evaluated by analyzing the dynamics of ventricular motions (myocardial velocities and deformations). The abscence of physiological stress acting on the myocardium (as opposed to the blood pressure which acts the vascular wall) do not allow the solving the inverse problem and to find the mechanical properties of the fabric. Elastography thus here refers to the assessment of motion dynamics and deformations and not to the evaluation of mechanical properties of the tissue.
The main objective of the second part of this thesis is to develop new ultrafast imaging tools for a better evaluation of the myocardial dynamics. In a first study (Chapter 7), we propose a new approach for ultrafast and high-resolution echocardiography using diverging waves and tissue Doppler. This combination, validated in vitro and in vivo, optimize the contrast in B-mode images and the estimation of myocardial velocities with tissue Doppler. Building on this study, we propose a new velocity vector imaging method (Chapter 8). This approach combines tissue Doppler and ultrafast B-mode of the previous study to estimate 2D velocity fields within the myocardium. This original method was validated in vitro and in vivo on six healthy volunteers.
|
207 |
Application des codes cycliques tordus / Application of skew cyclic codesYemen, Olfa 19 January 2013 (has links)
Le sujet porte sur une classe de codes correcteurs d erreurs dits codes cycliques tordus, et ses applications a l'Informatique quantique et aux codes quasi-cycliques. Les codes cycliques classiques ont une structure d'idéaux dans un anneau de polynômes. Ulmer a introduit en 2008 une généralisation aux anneaux dits de polynômes tordus, une classe d'anneaux non commutatifs introduits par Ore en 1933. Dans cette thèse on explore le cas du corps a quatre éléments et de l'anneau produit de deux copies du corps a deux éléments. / The topic of the thesis is the study of skew cyclic codes, with application to Quantum Computing and quasi-cyclic codes. Classical cyclic codes have a natural structure of ideals in a polynomial ring. This was generalized by Ulmer in 2008 to skew polynomial rings, a class of non commutative rings introduced by Ore in 1933. The latter codes are not classically cyclic if the alphabet ring admits a non trivial automorphism. In this work is explored the cases of the finite field of order four and of a product ring of two copies of the finite field of order two.
|
208 |
Approche multi-échelle de la rupture des structures en béton : Influence des agrégats sur la longueur interne du matériau / Multiscale approach of concrete structure failure : Influence of aggregates on material internal lengthBui, Huu Phuoc 21 November 2013 (has links)
Pour l'analyse de durabilité et la conception économique (moins de matériel) de structures en matériaux ressemblant à du béton, la modélisation de la rupture est essentielle. Dans le cadre de la mécanique des milieux continus, une longueur interne est introduite dans les modèles non locaux pour remédier au problème lié à la sensibilité du maillage qui est une pathologie des modèles d'endommagement classiques , lorsqu'il s'agit de matériaux adoucissantes. Toutefois, l'évaluation de la longueur interne de hétérogénéités du matériau est toujours une question difficile, ce qui rend un problème obscur en utilisant des modèles non locaux. Nos travaux portent sur le développement d'un outil numérique basée sur la méthode des éléments en treillis (LEM) qui est un modèle discret pour la simulation et la prévision de la rupture des structures en béton. En utilisant le modèle de réseau à l'échelle mésoscopique, il n'est pas nécessaire d'introduire une longueur interne dans la loi de comportement, comme cela se fait dans les modèles non locaux, et nous pouvons affranchir ce paramètre en introduisant explicitement la mesotructure matérielle via une description géométrique. Basé sur l'outil numérique développé, nous avons étudié, en effectuant des tests numériques de traction uniaxiale, l'influence géométrique de la mesotructure du matériau ainsi que l'influence des conditions aux limites et de tailles d'échantillons (qui se traduisent par le gradient de sollicitation et le champ de rotation de matériel différents) sur le taille de la FPZ (fracture process zone) et sur la longueur caractéristique du matériau quasi-fragile homogénéisé. Ces études fournissent des recommandations/avertissements lors de l'extraction d'une longueur interne nécessaire pour les modèles nonlocaux à partir de la microstructure du matériau. Par ailleurs, les études contribuent un aperçu direct de l'origine mésoscopic de la taille FPZ et la longueur de la caractéristique du matériau, et par conséquent sur l'origine et la nature du comportement non linéaire du matériau. Ensuite, nous avons implanté le modèle du treillis dans la bibliothèque de SOFA développé par l'INRIA pour réaliser le couplage avec la méthode des éléments finis (MEF) afin de faire face avec des structures à grande échelle. Nous avons proposé un algorithme de couplage entre une approche macroscopique représentée par MEF et une approche mésoscopique infligés par LEM au sein d'une manière adaptative. Le modèle de couplage est d'abord utilisée pour valider l'approche multi-échelle proposée sur des simulations heuristiques. Et à long terme, il fournit un outil prometteur pour des simulations de grandes structures en matériaux quasi-fragiles de la vie réelle. / For durability analysis and economic design (less material) of structures made of concrete-like materials, modeling of cracking process and failure is essential. In the framework of continuum mechanics, an internal length is introduced in nonlocal models to remedy the problem related to mesh sensitivity which is a pathology of classical damage models, when dealing with softening materials. However, the assessment of the internal length from heterogeneities of the material is still a difficult question, which makes an obscure issue in using nonlocal models. Our work concerns developing of a numerical tool based on the Lattice Element Method (LEM) which is a discrete model for simulating and predicting fracture in concrete(-like) material. Using the lattice model at the mesoscopic scale, there is no need to introduce any internal length in the constitutive law, as done in nonlocal models, and we can enfranchise this parameter by explicitly introducing the material mesotructure via geometric description. Based on the developed numerical tool, we studied, by performing numerical uniaxial tensile tests, the geometric influence of the material mesotructure as well as the influence of the boundary conditions and specimen sizes (that result in different stress gradient and material rotation field) on the size of the FPZ (Fracture Process Zone) and on the characteristic length of the homogenized quasi-brittle material. These studies provide recommendations/warnings when extracting an internal length required for nonlocal damage models from the material microstructure. Moreover, the studies contribute a direct insight into the mesoscale origin of the FPZ size and the material characteristic length, and consequently into the origin and nature of the nonlinear behavior of the material. Then, we implemented the lattice model into SOFA library developed by INRIA for realizing the coupling with the Finite Element Method (FEM) in order to deal with large-scale structures. We proposed a strong coupling algorithm between a macroscopic approach represented by FEM and a mesoscopic approach dealt by LEM within an adaptive manner. The coupling model is first used to validate the multiscale approach proposed on heuristic simulations. And in the long term, it provides a promising tool for simulations of large-scale structures made of quasi-brittle materials of real life.
|
209 |
Quasi stationary distributions when infinity is an entrance boundary : optimal conditions for phase transition in one dimensional Ising model by Peierls argument and its consequences / Distributions quasi-stationnaires quand l'infini est une frontière d'entrée : conditions optimales pour une transition de phase dans le modèle d'Ising en une dimension par un argument de Peierls et diverses conséquencesLittin Curinao, Jorge Andrés 16 December 2013 (has links)
Cette thèse comporte deux chapitres principaux. Deux problèmes indépendants de Modélisation Mathématique y sont étudiés. Au chapitre 1, on étudiera le problème de l’existence et de l’unicité des distributions quasi-stationnaires (DQS) pour un mouvement Brownien avec dérive, tué en zéro dans le cas où la frontière d’entrée est l’infini et la frontière de sortie est zéro selon la classification de Feller.Ce travail est lié à l’article pionnier dans ce sujet par Cattiaux, Collet, Lambert, Martínez, Méléard, San Martín; où certaines conditions suffisantes ont été établies pour prouver l’existence et l’unicité de DQS dans le contexte d’une famille de Modèles de Dynamique des Populations.Dans ce chapitre, nous généralisons les théorèmes les plus importants de ce travail pionnier, la partie technique est basée dans la théorie de Sturm-Liouville sur la demi-droite positive. Au chapitre 2, on étudiera le problème d’obtenir des bornes inférieures optimales sur l’Hamiltonien du Modèle d’Ising avec interactions à longue portée, l’interaction entre deux spins situés à distance d décroissant comme d^(2-a), où a ϵ[0,1).Ce travail est lié à l’article publié en 2005 par Cassandro, Ferrari, Merola, Presutti où les bornes inférieures optimales sont obtenues dans le cas où a est dans [0,(log3/log2)-1) en termes de structures hiérarchiques appelées triangles et contours.Les principaux théorèmes obtenus dans cette thèse peuvent être résumés de la façon suivante:1. Il n’existe pas de borne inférieure optimale pour l’Hamiltonien en termes de triangles pour a dans ϵ[log2/log3,1). 2. Il existe une borne optimale pour l’Hamiltonien en termes de contours pour a dans a ϵ [0,1). / This thesis contains two main Chapters, where we study two independent problems of Mathematical Modelling : In Chapter 1, we study the existence and uniqueness of Quasi Stationary Distributions (QSD) for a drifted Browian Motion killed at zero, when $+infty$ is an entrance Boundary and zero is an exit Boundary according to Feller's classification. The work is related to the previous paper published in 2009 by { Cattiaux, P., Collet, P., Lambert, A., Martínez, S., Méléard, S., San Martín, where some sufficient conditions were provided to prove the existence and uniqueness of QSD in the context of a family of Population Dynamic Models. This work generalizes the most important theorems of this work, since no extra conditions are imposed to get the existence, uniqueness of QSD and the existence of a Yaglom limit. The technical part is based on the Sturm Liouville theory on the half line. In Chapter 2, we study the problem of getting quasi additive bounds on the Hamiltonian for the Long Range Ising Model when the interaction term decays according to d^{2-a}, a ϵ[0,1). This work is based on the previous paper written by Cassandro, Ferrari, Merola, Presutti, where quasi-additive bounds for the Hamiltonian were obtained for a in [0,(log3/log2)-1) in terms of hierarchical structures called triangles and Contours. The main theorems of this work can be summarized as follows: 1 There does not exist a quasi additive bound for the Hamiltonian in terms of triangles when a ϵ [0,(log3/log2)-1), 2. There exists a quasi additive bound for the Hamiltonian in terms of Contours for a in [0,1).
|
210 |
Heuristiques optimisées et robustes de résolution du problème de gestion d'énergie pour les véhicules électriques et hybrides / Optimized and robust heuristics for solving the problem of energy management for hybrid electric vehiclesGuemri, Mouloud 16 December 2013 (has links)
Le système étudié durant cette thèse est un véhicule électrique hybride avec deux sources d’énergies (Pile à combustible et Super-capacité). L’objectif fixé est de minimiser la consommation du carburant tout en satisfaisant la demande instantanée en puissance sous des contraintes de puissance et de capacité et de stockage. Le problème a été modélisé sous la forme d’un problème d’optimisation globale. Nous avons développé de nouvelles méthodes heuristiques pour le résoudre et proposé le calcul d’une borne inférieure de consommation, en apportant de meilleurs résultats que ceux trouvés dans la littérature. En plus, une étude de robustesse a été réalisée afin de minimiser la consommation de pire-cas suite à une perturbation ou du fait d’incertitudes sur les données d’entrée, précisément sur la puissance demandée. Le but de cette étude est de prendre en compte les perturbations dès la construction des solutions afin d’éviter l’infaisabilité des solutions non robustes en situation perturbée. Les heuristiques de résolution du problème robuste modélisé sous la forme d’un problème de Minimax ont fourni des solutions moins sensibles aux perturbations que les solutions classiques. / The system studied in this thesis is a hybrid electrical vehicle with two energy sources (fuel cell system and super-capacitor). The first goal is to minimize the fuel consumption whilst satisfying the requested power for each instant, taking into account constraints on the availability and the state of charge of the storage element. The system was modeled as a global optimization problem. The heuristics developped for obtaining the best power split between the two sources and the lower bound consumption computation proposed provide better results than those found in the literature. The second goal of the thesis is the study of the robustness of the solutions in order to minimize the worst-case consumption when perturbation happens or uncertainty is added to the input data. In this study the uncertainty concerns the power required for traction. The objective is to maintain the feasibility of solutions and limit the worst consumption that can happen due to a demand fluctuation. Dedicated heuristics are proposed for solving the identified robust variant of the problem, modeled as a Minimax problem. The solutions provided are less sensitive to the perturbations than the previous ones.
|
Page generated in 0.0328 seconds