Spelling suggestions: "subject:"champs aléatoire."" "subject:"âchamps aléatoire.""
41 |
Microstructural optimization of Solid Oxide Cells : a coupled stochastic geometrical and electrochemical modeling approach applied to LSCF-CGO electrode / Optimisation microstructurale des cellules à oxydes solides : approche numérique couplant modélisation géométrique et électrochimique appliquée à l'électrode LSCF-CGOMoussaoui, Hamza 29 April 2019 (has links)
Ce travail porte sur la compréhension de l’impact de la microstructure sur les performances des Cellules à Oxyde Solide (SOC), avec une illustration sur l’électrode à oxygène en LSCF-CGO. Une approche couplant de la modélisation géométrique et électrochimique a été adoptée pour cet effet. Le modèle des champs aléatoires plurigaussiens et un autre basé sur des empilements de sphères ont été développés et adaptés pour les microstructures des SOCs. Ces modèles 3D de géométrie stochastique ont été ensuite validés sur différentes électrodes reconstruites par nano-holotomographie aux rayons X au synchrotron ou par tomographie avec un microscope électronique à balayage couplé à une sonde ionique focalisée. Ensuite, des corrélations semi-analytiques ont été proposées et validées sur une large base de microstructures synthétiques. Ces relations permettent de relier les paramètres ‘primaires’ de l’électrode (la composition, la porosité et les diamètres des phases) aux paramètres qui pilotent les réactions électrochimiques (la densité de points triples, les surfaces spécifiques interphases) et sont particulièrement pertinents pour les équipes de mise-en-forme des électrodes qui ont plus de contrôle sur ce premier ensemble de paramètres. Concernant la partie portant sur l’électrochimie, des tests sur une cellule symétrique en LSCF-CGO ont permis de valider un modèle déjà développé au sein du laboratoire, et qui permet de simuler la réponse électrochimique d’une électrode à oxygène à partir des données thermodynamiques et de microstructure. Finalement, le couplage des deux modèles validés a permis d’étudier l’impact de la composition des électrodes, leur porosité ou encore taille des grains sur leurs performances. Ces résultats pourront guider les équipes de mise-en-forme des électrodes vers des électrodes plus optimisées. / This work aims at better understanding the impact of Solid Oxide Cells (SOC) microstructure on their performance, with an illustration on an LSCF-CGO electrode. A coupled 3D stochastic geometrical and electrochemical modeling approach has been adopted. In this frame, a plurigaussian random field model and an in-house sphere packing algorithm have been adapted to simulate the microstructure of SOCs. The geometrical models have been validated on different electrodes reconstructed by synchrotron X-ray nano-holotomography or focused ion-beam tomography. Afterwards, semi-analytical microstructural correlations have been proposed and validated on a large dataset of representative synthetic microstructures. These relationships allow establishing the link between the electrode ‘basic’ parameters (composition, porosity and grain size), to the ‘key’ electrochemical parameters (Triple Phase Boundary length density and Specific surface areas), and are particularly useful for cell manufacturers who can easily control the first set of parameters. Concerning the electrochemical part, a reference symmetrical cell made of LSCF-CGO has been tested in a three-electrode setup. This enabled the validation of an oxygen electrode model that links the electrode morphological parameters to its polarization resistance, taking into account the thermodynamic data. Finally, the coupling of the validated models has enabled the investigation of the impact of electrode composition, porosity and grain size on the cell electrochemical performance, and thus providing useful insights to cell manufacturers.
|
42 |
Segmentation d'images de documents manuscrits composites : application aux documents de chimie / Heterogenous handwritten document image segmentation : application to chemistry documentGhanmi, Nabil 30 September 2016 (has links)
Cette thèse traite de la segmentation structurelle de documents issus de cahiers de chimie. Ce travail est utile pour les chimistes en vue de prendre connaissance des conditions des expériences réalisées. Les documents traités sont manuscrits, hétérogènes et multi-scripteurs. Bien que leur structure physique soit relativement simple, une succession de trois régions représentant : la formule chimique de l’expérience, le tableau des produits utilisés et un ou plusieurs paragraphes textuels décrivant le déroulement de l’expérience, les lignes limitrophes des régions portent souvent à confusion, ajouté à cela des irrégularités dans la disposition des cellules du tableau, rendant le travail de séparation un vrai défi. La méthodologie proposée tient compte de ces difficultés en opérant une segmentation à plusieurs niveaux de granularité, et en traitant la segmentation comme un problème de classification. D’abord, l’image du document est segmentée en structures linéaires à l’aide d’un lissage horizontal approprié. Le seuil horizontal combiné avec une tolérance verticale avantage le regroupement des éléments fragmentés de la formule sans trop fusionner le texte. Ces structures linéaires sont classées en Texte ou Graphique en s’appuyant sur des descripteurs structurels spécifiques, caractéristiques des deux classes. Ensuite, la segmentation est poursuivie sur les lignes textuelles pour séparer les lignes du tableau de celles de la description. Nous avons proposé pour cette classification un modèle CAC qui permet de déterminer la séquence optimale d’étiquettes associées à la séquence des lignes d’un document. Le choix de ce type de modèle a été motivé par sa capacité à absorber la variabilité des lignes et à exploiter les informations contextuelles. Enfin, pour le problème de la segmentation de tableaux en cellules, nous avons proposé une méthode hybride qui fait coopérer deux niveaux d’analyse : structurel et syntaxique. Le premier s’appuie sur la présence des lignes graphiques et de l’alignement de texte et d’espaces ; et le deuxième tend à exploiter la cohérence de la syntaxe très réglementée du contenu des cellules. Nous avons proposé, dans ce cadre, une approche contextuelle pour localiser les champs numériques dans le tableau, avec reconnaissance des chiffres isolés et connectés. La thèse étant effectuée dans le cadre d’une convention CIFRE, en collaboration avec la société eNovalys, nous avons implémenté et testé les différentes étapes du système sur une base conséquente de documents de chimie / This thesis deals with chemistry document segmentation and structure analysis. This work aims to help chemists by providing the information on the experiments which have already been carried out. The documents are handwritten, heterogeneous and multi-writers. Although their physical structure is relatively simple, since it consists of a succession of three regions representing: the chemical formula of the experiment, a table of the used products and one or more text blocks describing the experimental procedure, several difficulties are encountered. In fact, the lines located at the region boundaries and the imperfections of the table layout make the separation task a real challenge. The proposed methodology takes into account these difficulties by performing segmentation at several levels and treating the region separation as a classification problem. First, the document image is segmented into linear structures using an appropriate horizontal smoothing. The horizontal threshold combined with a vertical overlapping tolerance favor the consolidation of fragmented elements of the formula without too merge the text. These linear structures are classified in text or graphic based on discriminant structural features. Then, the segmentation is continued on text lines to separate the rows of the table from the lines of the raw text locks. We proposed for this classification, a CRF model for determining the optimal labelling of the line sequence. The choice of this kind of model has been motivated by its ability to absorb the variability of lines and to exploit contextual information. For the segmentation of table into cells, we proposed a hybrid method that includes two levels of analysis: structural and syntactic. The first relies on the presence of graphic lines and the alignment of both text and spaces. The second tends to exploit the coherence of the cell content syntax. We proposed, in this context, a Recognition-based approach using contextual knowledge to detect the numeric fields present in the table. The thesis was carried out in the framework of CIFRE, in collaboration with the eNovalys campany.We have implemented and tested all the steps of the proposed system on a consequent dataset of chemistry documents
|
43 |
Champs aléatoires de Markov cachés pour la cartographie du risque en épidémiologie / Hidden Markov random fields for risk mapping in epidemiologyAzizi, Lamiae 13 December 2011 (has links)
La cartographie du risque en épidémiologie permet de mettre en évidence des régionshomogènes en terme du risque afin de mieux comprendre l’étiologie des maladies. Nousabordons la cartographie automatique d’unités géographiques en classes de risque commeun problème de classification à l’aide de modèles de Markov cachés discrets et de modèlesde mélange de Poisson. Le modèle de Markov caché proposé est une variante du modèle dePotts, où le paramètre d’interaction dépend des classes de risque.Afin d’estimer les paramètres du modèle, nous utilisons l’algorithme EM combiné à une approche variationnelle champ-moyen. Cette approche nous permet d’appliquer l’algorithmeEM dans un cadre spatial et présente une alternative efficace aux méthodes d’estimation deMonte Carlo par chaîne de Markov (MCMC).Nous abordons également les problèmes d’initialisation, spécialement quand les taux de risquesont petits (cas des maladies animales). Nous proposons une nouvelle stratégie d’initialisationappropriée aux modèles de mélange de Poisson quand les classes sont mal séparées. Pourillustrer ces solutions proposées, nous présentons des résultats d’application sur des jeux dedonnées épidémiologiques animales fournis par l’INRA. / The analysis of the geographical variations of a disease and their representation on a mapis an important step in epidemiology. The goal is to identify homogeneous regions in termsof disease risk and to gain better insights into the mechanisms underlying the spread of thedisease. We recast the disease mapping issue of automatically classifying geographical unitsinto risk classes as a clustering task using a discrete hidden Markov model and Poisson classdependent distributions. The designed hidden Markov prior is non standard and consists of avariation of the Potts model where the interaction parameter can depend on the risk classes.The model parameters are estimated using an EM algorithm and the mean field approximation. This provides a way to face the intractability of the standard EM in this spatial context,with a computationally efficient alternative to more intensive simulation based Monte CarloMarkov Chain (MCMC) procedures.We then focus on the issue of dealing with very low risk values and small numbers of observedcases and population sizes. We address the problem of finding good initial parameter values inthis context and develop a new initialization strategy appropriate for spatial Poisson mixturesin the case of not so well separated classes as encountered in animal disease risk analysis.We illustrate the performance of the proposed methodology on some animal epidemiologicaldatasets provided by INRA.
|
44 |
Reconnaissance d’activités humaines à partir de séquences vidéo / Human activity recognition from video sequencesSelmi, Mouna 12 December 2014 (has links)
Cette thèse s’inscrit dans le contexte de la reconnaissance des activités à partir de séquences vidéo qui est une des préoccupations majeures dans le domaine de la vision par ordinateur. Les domaines d'application pour ces systèmes de vision sont nombreux notamment la vidéo surveillance, la recherche et l'indexation automatique de vidéos ou encore l'assistance aux personnes âgées. Cette tâche reste problématique étant donnée les grandes variations dans la manière de réaliser les activités, l'apparence de la personne et les variations des conditions d'acquisition des activités. L'objectif principal de ce travail de thèse est de proposer une méthode de reconnaissance efficace par rapport aux différents facteurs de variabilité. Les représentations basées sur les points d'intérêt ont montré leur efficacité dans les travaux d'art; elles ont été généralement couplées avec des méthodes de classification globales vue que ses primitives sont temporellement et spatialement désordonnées. Les travaux les plus récents atteignent des performances élevées en modélisant le contexte spatio-temporel des points d'intérêts par exemple certains travaux encodent le voisinage des points d'intérêt à plusieurs échelles. Nous proposons une méthode de reconnaissance des activités qui modélise explicitement l'aspect séquentiel des activités tout en exploitant la robustesse des points d'intérêts dans les conditions réelles. Nous commençons par l'extractivité des points d'intérêt dont a montré leur robustesse par rapport à l'identité de la personne par une étude tensorielle. Ces primitives sont ensuite représentées en tant qu'une séquence de sac de mots (BOW) locaux: la séquence vidéo est segmentée temporellement en utilisant la technique de fenêtre glissante et chacun des segments ainsi obtenu est représenté par BOW des points d'intérêt lui appartenant. Le premier niveau de notre système de classification séquentiel hybride consiste à appliquer les séparateurs à vaste marge (SVM) en tant que classifieur de bas niveau afin de convertir les BOWs locaux en des vecteurs de probabilités des classes d'activité. Les séquences de vecteurs de probabilité ainsi obtenues sot utilisées comme l'entrées de classifieur séquentiel conditionnel champ aléatoire caché (HCRF). Ce dernier permet de classifier d'une manière discriminante les séries temporelles tout en modélisant leurs structures internes via les états cachés. Nous avons évalué notre approche sur des bases publiques ayant des caractéristiques diverses. Les résultats atteints semblent être intéressant par rapport à celles des travaux de l'état de l'art. De plus, nous avons montré que l'utilisation de classifieur de bas niveau permet d'améliorer la performance de système de reconnaissance vue que le classifieur séquentiel HCRF traite directement des informations sémantiques des BOWs locaux, à savoir la probabilité de chacune des activités relativement au segment en question. De plus, les vecteurs de probabilités ont une dimension faible ce qui contribue à éviter le problème de sur apprentissage qui peut intervenir si la dimension de vecteur de caractéristique est plus importante que le nombre des données; ce qui le cas lorsqu'on utilise les BOWs qui sont généralement de dimension élevée. L'estimation les paramètres du HCRF dans un espace de dimension réduite permet aussi de réduire le temps d'entrainement / Human activity recognition (HAR) from video sequences is one of the major active research areas of computer vision. There are numerous application HAR systems, including video-surveillance, search and automatic indexing of videos, and the assistance of frail elderly. This task remains a challenge because of the huge variations in the way of performing activities, in the appearance of the person and in the variation of the acquisition conditions. The main objective of this thesis is to develop an efficient HAR method that is robust to different sources of variability. Approaches based on interest points have shown excellent state-of-the-art performance over the past years. They are generally related to global classification methods as these primitives are temporally and spatially disordered. More recent studies have achieved a high performance by modeling the spatial and temporal context of interest points by encoding, for instance, the neighborhood of the interest points over several scales. In this thesis, we propose a method of activity recognition based on a hybrid model Support Vector Machine - Hidden Conditional Random Field (SVM-HCRF) that models the sequential aspect of activities while exploiting the robustness of interest points in real conditions. We first extract the interest points and show their robustness with respect to the person's identity by a multilinear tensor analysis. These primitives are then represented as a sequence of local "Bags of Words" (BOW): The video is temporally fragmented using the sliding window technique and each of the segments thus obtained is represented by the BOW of interest points belonging to it. The first layer of our hybrid sequential classification system is a Support Vector Machine that converts each local BOW extracted from the video sequence into a vector of activity classes’ probabilities. The sequence of probability vectors thus obtained is used as input of the HCRF. The latter permits a discriminative classification of time series while modeling their internal structures via the hidden states. We have evaluated our approach on various human activity datasets. The results achieved are competitive with those of the current state of art. We have demonstrated, in fact, that the use of a low-level classifier (SVM) improves the performance of the recognition system since the sequential classifier HCRF directly exploits the semantic information from local BOWs, namely the probability of each activity relatively to the current local segment, rather than mere raw information from interest points. Furthermore, the probability vectors have a low-dimension which prevents significantly the risk of overfitting that can occur if the feature vector dimension is relatively high with respect to the training data size; this is precisely the case when using BOWs that generally have a very high dimension. The estimation of the HCRF parameters in a low dimension allows also to significantly reduce the duration of the HCRF training phase
|
45 |
Asymptotiques dans des modèles de boules aléatoires poissoniennes et non-poissoniennes / Asymptotics in poissonian and non-poissonian random balls modelsClarenne, Adrien 11 July 2019 (has links)
Dans cette thèse, on étudie le comportement asymptotique de modèles de boules aléatoires engendrées selon différents processus ponctuels, après leur avoir appliqué un changement d’échelle qui peut être vu comme un dézoom. Des théorèmes limites existent pour des processus de Poisson et on généralise ces résultats en considérant tout d’abord des boules engendrées par des processus déterminantaux, qui induisent de la répulsion entre les points. Cela permet de modéliser de nombreux phénomènes, comme par exemple la répartition des arbres dans une forêt. On s’intéresse ensuite à un cas particulier des processus de Cox, les processus shot-noise, qui présentent des amas de points, modélisant notamment la présence de corpuscules dans des nano-composites. / In this thesis, we study the asymptotic behavior of random balls models generated by different point processes, after performing a zoom-out on the model. Limit theorems already exist for Poissonian random balls and we generalize the existing results first by studying determinantal random balls models, which induce repulsion between the centers of the balls. It models many phenomena, for example the distribution of trees in a forest. We are then interested in a particular case of Cox processes, the shot-noise Cox processes, which exhibit clusters, modeling the presence of corpuscles in nano composites.
|
46 |
Contributions à la statistique des processus et à l'estimation fonctionnelleRachdi, Mustapha 07 November 2006 (has links) (PDF)
Dans cette HDR, notre objectif premier est de présenter nos travaux sur la statistique non paramétrique des processus stochastiques et sur l'estimation fonctionnelle. Plutôt que de vouloir insister sur les détails mathématiques de nos résultats, que l'on pourra toujours retrouver dans les articles correspondants, nous avons choisi de les présenter d'une façon synthétique. Sans prétendre à l'exhaustivité, nous nous sommes attachés à indiquer les articles historiques et à faire un choix de certains articles nous paraîssant les plus intéressants. Les techniques non paramétriques ont pris une importance de plus en plus grande depuis une trentaine d'années dans la recherche en statistique mathématique. Le nombre toujours croissant d'articles sur ce thème en témoigne. Il faut également signaler que le développement des moyens informatiques et la puissance actuelle de calcul des ordinateurs permettent d'élargir toujours plus le champs d'application de ces méthodes. Ce document est organisé en respectant des thématiques. En fait, nous avons classifié l'ensemble de nos travaux en six chapitres. Dans chacun de ces chapitres, nous indiquons les travaux concernés avant un bref historique, ensuite nous résumons les principaux résultats, les idées sous-jacentes, et ce qui a motivé ce travail. Nous scindons nos recherches en deux grandes parties : d'abord, l'estimation fonctionnelle et la statistique des processus en dimension finie (chapitres 1, 2, 3 et 4), et puis, l'analyse statistique des données fonctionnelles (chapitre 5). Le dernier chapitre de ce mémoire est le fruit de nos investigations avec l'équipe de Telecom Lille 1 sur la modélisation statistique du canal de transmission à 60 GHz dans les milieux confinés.
|
47 |
Alignement temporel musique-sur-partition par modèles graphiques discriminatifsJoder, Cyril 29 September 2011 (has links) (PDF)
Cette thèse étudie le problème de l'alignement temporel d'un enregistrement musical et de la partition correspondante. Cette tâche peut trouver de nombreuses applications dans le domaine de l'indexation automatique de documents musicaux. Nous adoptons une approche probabiliste et nous proposons l'utilisation de modèles graphiques discriminatifs de type champs aléatoires conditionnels pour l'alignement, en l'exprimant comme un problème d'étiquetage de séquence. Cette classe de modèles permet d'exprimer des modèles plus flexibles que les modèles de Markov cachés ou les modèles semi-markoviens cachés, couramment utilisés dans ce domaine. En particulier, elle rend possible l'utilisation d'attributs (ou descripteurs acoustiques) extraits de séquences de trames audio qui se recouvrent, au lieu d'observations disjointes. Nous tirons parti de cette propriété pour introduire des attributs qui réalisent une modélisation implicite du tempo au plus bas niveau du modèle. Nous proposons trois structures de modèles différentes de complexité croissant, correspondant à différents niveaux de précision dans la modélisation de la durées des évènements musicaux. Trois types de descripteurs acoustiques sont utilisés, pour caractériser localement l'harmonie, les attaques de notes et le tempo de l'enregistrement. Une série d'expériences réalisées sur une base de données de piano classique et de musique pop permet de valider la grande précision de nos modèles. En effet, avec le meilleur des systèmes proposés, plus de 95 % des attaques de notes sont détectées à moins de 100 ms de leur position réelle. Plusieurs attributs acoustiques classiques, calculés à partir de différentes représentation de l'audio, sont utiliser pour mesurer la correspondance instantanée entre un point de la partition et une trame de l'enregistrement. Une comparaison de ces descripteurs est alors menée sur la base de leurs performances d'alignement. Nous abordons ensuite la conception de nouveaux attributs, grâce à l'apprentissage d'une transformation linéaire de la représentation symbolique vers une représentation temps-fréquence quelconque de l'audio. Nous explorons deux stratégies différentes, par minimum de divergence et maximum de vraisemblance, pour l'apprentissage de la transformation optimale. Les expériences effectuées montrent qu'une telle approche peut améliorer la précision des alignements, quelle que soit la représentation de l'audio utilisée. Puis, nous étudions différents ajustements à effectuer afin de confronter les systèmes à des cas d'utilisation réalistes. En particulier, une réduction de la complexité est obtenue grâce à une stratégie originale d'élagage hiérarchique. Cette méthode tire parti de la structure hiérarchique de la musique en vue d'un décodage approché en plusieurs passes. Une diminution de complexité plus importante que celle de la méthode classique de recherche par faisceaux est observée dans nos expériences. Nous examinons en outre une modification des modèles proposés afin de les rendre robustes à d'éventuelles différences structurelles entre la partition et l'enregistrement. Enfin, les propriétés de scalabilité des modèles utilisés sont étudiées.
|
48 |
Identification de la variabilité spatiale des champs de contraintes dans les agrégats polycristallins et application à l'approche locale de la ruptureDang, Xuan Hung 11 October 2012 (has links) (PDF)
Cette thèse est une contribution à la construction de l'Approche Locale de la rupture à l'échelle microscopique à l'aide de la modélisation d'agrégats polycristallins. Elle consiste à prendre en compte la variabilité spatiale de la microstructure du matériau. Pour ce faire, la modélisation micromécanique du matériau est réalisée par la simulation d'agrégats polycristallins par éléments finis. Les champs aléatoires de contrainte (principale maximale et de clivage) dans le matériau qui représentent la variabilité spatiale de la microstructure sont ensuite modélisés par un champ aléatoire gaussien stationnaire ergodique. Les propriétés de variabilité spatiale de ces champs sont identifiés par une méthode d'identification, e.g. méthode du périodogramme, méthode du variogramme, méthode du maximum de vraisemblance. Des réalisations synthétiques des champs de contraintes sont ensuite simulées par une méthode de simulation, e.g. méthode Karhunen-Loève discrète, méthode "Circulant Embedding", méthode spectrale, sans nouveau calcul aux éléments finis. Enfin, le modèle d'Approche Locale de la rupture par simulation de champ de contrainte de clivage permettant d'y intégrer les réalisations simulées du champ est construit pour estimer la probabilité de rupture du matériau.
|
49 |
Inférence topologiquePrévost, Noémie 02 1900 (has links)
Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique).
Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni.
Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat. / Data coming from a fine sampling of a continuous process (random field) can be represented as images. A statistical test aiming at detecting a difference between two images can be seen as a group of tests in which each pixel is compared to the corresponding pixel in the other image. We then use a method to control the type I error over all the tests, such as the Bonferroni correction or the control of the false discovery rate (FDR). Methods of data analysis have been developped in the field of medical imaging, mainly by Keith Worsley, using the geometry of random fields in order to build a global statistical test over the whole image. The expected Euler characteristic of the excursion set of the random field underlying the sample over a given threshold is used in order to determine the probability that the random field exceeds this same threshold under the null hypothesis (topological inference).
We present some notions relevant to random fields, in particular isotropy (the covariance function between two given points of a field depends only on the distance between them). We discuss two methods for the analysis of non\-isotropic random fields. The first one consists in deforming the field and then using the intrinsic volumes and the Euler characteristic densities. The second one uses the Lipschitz-Killing curvatures. We then perform a study of sensitivity and power of the topological inference technique comparing it to the Bonferonni correction. Finally, we use topological inference in order to describe the evolution of climate change over Quebec territory between 1991 and 2100 using temperature data simulated and published by the Climate Simulation Team at Ouranos, with the Canadian Regional Climate Model CRCM4.2.
|
50 |
Effets des hétérogénéités du béton sur le comportement mécanique des structures à plusieurs échelles / Effects of heterogeneity of concrete on the mechanical behavior of structures at different scalesGhannoum, Maria 18 September 2017 (has links)
Cette thèse contribue à la modélisation de la variabilité spatiale de la résistance à la traction des structures en béton, à différentes échelles, et son influence sur la fissuration du béton. En particulier, une loi d'effet d'échelle et des champs aléatoires sont utilisés à l'aide de deux approches:D'une part, une approche analytique probabiliste de la méthode Weakest Linkand Localization (WL2) est proposée. Cette méthode estime la distribution de la résistance à la traction, à différentes échelles, en tenant compte des redistributions des contraintes autour du point le plus faible. Cela dépend d'une longueur d'échelle, dont l'identification est discutée. Cette longueur d'échelle explique le caractère aléatoire de la résistance à la traction du béton.D'autre part, une autre contribution de cette thèse est le développement d'une méthode Élément Fini Stochastique (EFS), utilisée pour modéliser l'effet d'échelle et la variabilité spatiale de la résistance à la traction. La méthode consiste d'abord à définir un champ aléatoire, en utilisant la résistance à la traction réduite estimée à partir de l'approche analytique de WL2. Ensuite, des réalisations de champs aléatoires autocorrélées discrétisées sont générées. En outre, le choix des paramètres d'autocorrélations, utilisés pour définir les champs aléatoires, est discuté.L'applicabilité des deux méthodes est évaluée à l'aide de différentes séries expérimentales présentant des effets d'échelle particulièrement statistique. En outre, la méthode EFS est utilisée pour compléter le modèle EF simplifié de la maquette d'enceinte à double paroi VeRCoRs (échelle 1/3). Les incertitudes sur la résistance à la traction, à cette échelle, sont modélisées à l'aide d'un champ aléatoire autocorrelé indépendant à chaque levée. La propagation des incertitudes, à l'état initial, montre sa pertinence dans l'estimation des positions de fissures. / This thesis is a contribution to the modeling of the spatial variability of tensile strength of concrete structures, at different scales, and its influence on concrete cracking pattern. Particularly, a size effect law and random fields are used through two approaches:On the one hand, an analytical probabilistic approach of the Weakest Link and Localization (WL2) method is proposed. This method estimates the distribution of the tensile strength, at different scales, accounting for the stress redistributions around the weakest point.It depends on a scale length, whose identification is discussed. This scale length accounts for spatial randomness of the concrete tensile strengthOn the other hand, another contribution of this thesis is the development of a Stochastic Finite Element (SFE) method, used to model both size effect and the spatial variability of the tensile strength. The method consists first on defining a random field, using the mean tensile strength estimated from the analytical approach of WL2. Then, discretized autocorrelated random field realizations are generated. Moreover, the choice of autocorrelation parameters, used to define the random fields, is discussed.The applicability of both methods is evaluated using various experimental series exhibiting particularly statistical size effect. Furthermore, the SFE method is used to complete the simplified FE model of a 1/3 mock-up of a double-wall containment building. The uncertainties on the tensile strength, at this scale, are modeled using independent autocorrelated random field at each scale. Uncertainties propagation, at initial state, shows its pertinence in the estimation of crack positions.
|
Page generated in 0.1172 seconds