• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 503
  • 220
  • 97
  • 4
  • 3
  • 1
  • Tagged with
  • 825
  • 342
  • 198
  • 126
  • 121
  • 120
  • 109
  • 95
  • 91
  • 90
  • 87
  • 83
  • 80
  • 76
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
351

Etude de l’isospin dans les collisions 40,48Ca+40,48Ca à 35 AMeV / Study of the isospin in 40,48Ca+40,48Ca collisions at 35 AMeV

Fable, Quentin 09 February 2018 (has links)
Dans ce travail nous étudions les collisions 40,48 Ca + 40,48 Ca à E = 35 AMeV , mesurées au GANIL avec le couplage unique du spectromètre VAMOS et du multi-détecteur INDRA. Lors de telles collisions les modèles dynamiques prédisent la formation d’un col à basse densité entre deux fragments chauds cinématiquement proches du projectile et de la cible. L’identification isotopique du projectile désexcité (PLF) apportée par VAMOS, et la topologie des espèces détectées en coïncidence dans INDRA, montrent que l’ évolution du rapport N/Z des produits est influencée par le N/Z du système (projectile et cible). Les multiplicités moyennes des particules légères chargées (LCP, Z ≤ 2) suivent en particulier une hiérarchie selon le N/Z du système, et celles des deutons et particules alphas semblent refléter une production dynamique. Une étude des rapports isotopiques a ensuite mis en exergue les mécanismes de transport de l’isospin : la migration et la diffusion de l’isospin, tous deux liés au terme d’ énergie de symétrie de l’ équation d’ état nucléaire. Un objectif de ce travail a été notamment de contraindre les modèles théoriques grâce à l’expérience. Nous avons ainsi appliqué une étude comparative entre les données, le modèle géométrique ELIE et le modèle de transport AMD, désexcités par le code GEMINI++ et filtrés. Cette étude a mis en exergue que le modèle AMD avec un potentiel effectif Gogny asysoft reproduit mieux l’ évolution expérimentale du N/Z du PLF et la hiérarchie des multiplicités des LCP. Enfin nous avons observé que les rapports isotopiques issus des modèles ne reproduisent pas d’enrichissement en neutrons à la mi-rapidité contrairement à l’expérience. / In this work we study the 40,48 Ca+ 40,48 Ca collisions at E = 35 AM eV , measured at GANIL with the coupling of the large acceptance spectrometer VAMOS and the multi-detector array INDRA. During such collisions transport models predict the formation of a low-density neckbetween two hot fragments kinematicaly close to the projectile and the target. The isotopic identification of the projectile-like fragment (PLF) provided by VAMOS, coupled to the topology of the light-charged particles (LCP) detected in coincidence with INDRA, show that the N/Z ratio of the products is influenced by the N/Z of the system (projectile and target). The mean multiplicities associated to the LCP follow a hierarchy according to the system, and the one associated to deuterons and α particles may well reflect a dynamical production. A studyof the isotopic ratios have highlighted isospin transport mechanisms : the isospin drift and the isospin diffusion, both linked to the symmetry energy term of the nuclear equation of state. A goal of this work was also to constrain theoretical models using experiment. We have thenapplied a systematic study to compare data with the geometrical model elie and the transport model amd, both filtered, and using gemini++ as after-burner. This study have highlighted that the amd model with an asysoft equation of state better fits the experimental evolutionof the N/Z of the PLF and also the LCP mean multiplicites shapes. Finally we have observed that the isotopic ratios don’t reproduce the neutron-enrichment of the mid-rapidity observed in the data.
352

Modèles statistiques réduits de la croissance cardiaque, du mouvement et de la circulation sanguine : application à la tétralogie de Fallot / Reduced-order statistical models of cardiac growth, motion and blood flow : application to the tetralogy of Fallot heart

Mcleod, Kristin 08 November 2013 (has links)
Cette thèse présente les travaux réalisés en vue de l’élaboration d’un modèle cardiaque associant croissance, mouvement et circulation sanguine pour permettre ensuite la construction d’un modèle patient à partir d’un modèle de population. Le premier axe de ce travail est la simulation de la croissance bi-ventriculaire. Un modèle existant de surface unique, calculé à l’aide de méthodes statistiques, a été généralisé à un modèle bi-ventriculaire puis appliqué à la tétralogie de Fallot (ToF). Le deuxième axe concerne la modélisation du mouvement cardiaque au niveau de la population. Un modèle d’ordre réduit basé sur un modèle Polyaffine et LogDemons a été proposé. Il simule la dynamique cardiaque avec peu de paramètres. Les paramètres de transformation sont analysés par des méthodes statistiques. Un modèle de mouvement moyen a été calculé pour représenter le mouvement standard de la population. Le troisième axe s'intéresse à la simulation de l’écoulement sanguin à l’échelle de la population. La complexité des simulations spécifiques à un patient a été réduite grâce à l’utilisation de méthodes d’analyse d’image, de dynamique des fluides numérique et de réduction d’ordre de modèle. La simulation du flux sanguin dans l’artère pulmonaire pour des patients ToF a permis de mieux comprendre l’impact du sang régurgité sur la pression et la vitesse. Étant donné nos contributions sur ces trois axes, nous sommes maintenant en bonne position pour élaborer le modèle couplé des contributions interdépendantes de la croissance, du mouvement et de l'écoulement sanguin. Ce modèle pourrait être utilisé afin d'aider la planification de la thérapie chez les patients atteints de maladies cardiaques. / This thesis presents work towards a coupled model of cardiac growth, motion, and blood flow to enable predictive patient-specific models to be built from a population-based model. The first axis of this work is to simulate bi-ventricular growth through aging. A previously proposed single surface model computed using statistical methods was extended to a bi-ventricular model and applied to Tetralogy of Fallot patients to model the complex evolution of the ventricles due to the pathology. The second axis concerns the development of a model to simulate cardiac motion at a population level. A reduced-order cardiac-specific motion model was proposed to simulate the motion dynamics with a small number of parameters using a Polyaffine and LogDemons based model. From the computed transformations, the parameters were analysed using statistical methods to obtain population-based measures of normality. A mean motion model was derived to represent the normal motion for a given population. The third axis is to develop a model of population-based flow dynamics. The complexity of patient-specific simulations was reduced by combining image analysis, computational fluid dynamics and model order reduction techniques. Blood flow through the pulmonary artery in Tetralogy of Fallot patients was simulated to better understand the impact of regurgitated blood on pressure and velocity. Given our contributions on these three axes, we are now in a good position to couple the models in order to capture the interrelated contributions of growth, motion and flow. Such a model could be used to aid in therapy planning and decision making for patients with heart disease.
353

Interfaces fragiles des ouvrages hydrauliques : morphologie et comportement mécanique

Rousseau, Baptiste 05 May 2010 (has links)
Au Québec, les barrages poids en béton de plus de cinquante ans sont particulièrement étudiés depuis le séisme du Saguenay (1988, 6,2 sur l’échelle de Richter) car ils n’avaient pas été dimensionnés pour de tels aléas. Dans les codes de calculs de fiabilité d’Hydro-Québec, différents paramètres relatifs à la morphologie de l’ouvrage ainsi que des paramètres physiques et mécaniques sont nécessaires. Parmi ces derniers, la résistance au cisaillement des interfaces (béton-béton, béton-roche et roche-roche) du barrage est particulièrement importante car elle conditionne en grande partie le coefficient de sécurité. De plus, il est communément admis que la rugosité des épontes des discontinuités rocheuses conditionne le comportement mécanique en cisaillement. Cette étude se décompose en deux volets : une étude d’échantillons prélevés sur deux barrages et la réalisation d’un contact roche-béton artificiel. Tout d’abord, à partir d’essais de cisaillement sous contrainte normale constante, réalisés sur des contacts provenant de deux barrages d’hydro-Québec, l’étude en composantes principales des paramètres mécaniques et de rugosité a été menée afin de déterminer les paramètres prépondérants (Z2, Z4, Étendue). De plus, une classification de terrain des discontinuités est proposée. Cette dernière repose sur différents paramètres tels que l’angularité de la surface, le remplissage ou encore l’oxydation des épontes. Le contact roche-béton artificiel, réalisé au cours de ce travail, a été étudié dans sa globalité par différents moyens statistique et géostatistique, afin de décrire le plus précisément possible sa rugosité de surface. Une fois cette dernière connue, un plan de carottage au carottier de 150 mm de diamètre a été décidé. Les zones prélevées sont celles présentant des particularités de rugosité, comme par exemple, une angularité forte. Une fois le carottage effectué, les échantillons ont été soumis à un essai de cisaillement sous contrainte normale constante. Il en résulte une étude des paramètres mécaniques et de rugosité ainsi qu’une prise en compte de l’effet d’échelle. / In Quebec, the concrete dams over fifty years are systematically studied since the Saguenay earthquake (1988, 6.2 on the Richter scale) because they were not sized for such hazards. For calculation of the reliability codes for Hydro-Quebec structures, different parameters on the morphology of structure and the physical and mechanical parameters are needed. Among these, the shear strength of interfaces (concrete-concrete, concrete-rock rock-rock) is particularly important because it determines the safety factor in large part. Moreover, it is commonly accepted that the roughness of the surfaces of rock discontinuities determines the mechanical behavior in shear. This study is divided into two parts: a study of taking samples from two dams of Hydro-Quebec and the conception of an artificial rock-concrete contact. Firstly, from shear tests realized under constant normal load, achieved on contacts from two dams, the principal component study of mechanical and roughness parameters was conducted to determine the parameters dominate (Z2, Z4, Extent). In addition, a field classification of discontinuities is proposed. The latter depends on various parameters such as the angularity of the surface, filling or oxidation of the surfaces of the discontinuity. Artificial rock-concrete contact has been studied in its entirety by various statistical and geostatistical methods in order to describe as precisely as possible its surface roughness. Once the last known, a map of coring with a 150 mm diameter core sampler has been decided. The collected areas are those with features of roughness, for example, a high angularity. Once the coring performed, samples were tested for shear resistance under a constant normal load. It follows a study of mechanical and roughness parameter and an underline of scale effect.
354

Probabilistic approaches to the adaptive immune repertoire : a data-driven approach / Approches probabilistes du répertoire immunitaire adaptatif : une approche guidée par les données

Marcou, Quentin 28 September 2017 (has links)
Le système immunitaire de chaque individu doit faire face à des agressions répétées d'un environnement en constante évolution, constituant ainsi un nombre de menaces virtuellement infini. Afin de mener ce rôle à bien, le système immunitaire adaptatif s'appuie sur une énorme diversité de lymphocytes T et B. Chacune de ces cellules exhibe à sa surface un récepteur unique, créé aléatoirement via le processus de recombinaison V(D)J, et spécifique à un petit nombre de pathogènes seulement. La diversité initiale générée lors de ce processus de recombinaison est ensuite réduite par une étape de sélection fonctionnelle basée sur les propriétés de repliement du récepteur ainsi que ses capacités à interagir avec des protéines du soi. Pour les cellules B, cette diversité peut être à nouveau étendue après rencontre d'un pathogène lors du processus de maturation d'affinité durant lequel le récepteur subit des cycles successifs d'hypermutation et sélection. Ces travaux présentent des approches probabilistes visant à inférer les distributions de probabilités sous-tendant les processus de recombinaison et d'hypermutation à partir de données de séquençage haut débit. Ces approches ont donné naissance à IGoR, un logiciel polyvalent dont les performances dépassent celles des outils existants. En utilisant les modèles obtenus comme base, je présenterai comment ces derniers peuvent être utilisés afin d'étudier le vieillissement et évolution du répertoire immunitaire, la présence d'emprunte parentale lors de la recombinaison V(D)J ou encore pour démontrer que les jumeaux échangent des lymphocytes au cours de la vie fœtale. / An individual’s adaptive immune system needs to face repeated challenges of a constantly evolving environment with a virtually infinite number of threats. To achieve this task, the adaptive immune system relies on large diversity of B-cells and T-cells, each carrying a unique receptor specific to a small number of pathogens. These receptors are initially randomly built through the process of V(D)J recombination. This initial generated diversity is then narrowed down by a step of functional selection based on the receptors' folding properties and their ability to recognize self antigens. Upon recognition of a pathogen the B-cell will divide and its offsprings will undergo several rounds of successive somatic hypermutations and selection in an evolutionary process called affinity maturation. This work presents principled probabilistic approaches to infer the probability distribution underlying the recombination and somatic hypermutation processes from high throughput sequencing data using IGoR - a flexible software developed throughout the course of this PhD. IGoR has been developed as a versatile research tool and can encode a variety of models of different biological complexity to allow researchers in the field to characterize evermore precisely immune receptor repertoires. To motivate this data-driven approach we demonstrate that IGoR outperforms existing tools in accuracy and estimate the sample sizes needed for reliable repertoire characterization. Finally, using obtained model predictions, we show potential applications of these methods by demonstrating that homozygous twins share T-cells through cord blood, that the public core of the T cell repertoire is formed in the pre-natal period and finally estimate naive T cell clone lifetimes in human.
355

Estimation adaptative pour les modèles de Markov cachés non paramétriques / Adaptative estimation for nonparametric hidden Markov models

Lehéricy, Luc 14 December 2018 (has links)
Dans cette thèse, j'étudie les propriétés théoriques des modèles de Markov cachés non paramétriques. Le choix de modèles non paramétriques permet d'éviter les pertes de performance liées à un mauvais choix de paramétrisation, d'où un récent intérêt dans les applications. Dans une première partie, je m'intéresse à l'estimation du nombre d'états cachés. J'y introduis deux estimateurs consistants : le premier fondé sur un critère des moindres carrés pénalisés, le second sur une méthode spectrale. Une fois l'ordre connu, il est possible d'estimer les autres paramètres. Dans une deuxième partie, je considère deux estimateurs adaptatifs des lois d'émission, c'est-à-dire capables de s'adapter à leur régularité. Contrairement aux méthodes existantes, ces estimateurs s'adaptent à la régularité de chaque loi au lieu de s'adapter seulement à la pire régularité. Dans une troisième partie, je me place dans le cadre mal spécifié, c'est-à-dire lorsque les observations sont générées par une loi qui peut ne pas être un modèle de Markov caché. J'établis un contrôle de l'erreur de prédiction de l'estimateur du maximum de vraisemblance sous des conditions générales d'oubli et de mélange de la vraie loi. Enfin, j'introduis une variante non homogène des modèles de Markov cachés : les modèles de Markov cachés avec tendances, et montre la consistance de l'estimateur du maximum de vraisemblance. / During my PhD, I have been interested in theoretical properties of nonparametric hidden Markov models. Nonparametric models avoid the loss of performance coming from an inappropriate choice of parametrization, hence a recent interest in applications. In a first part, I have been interested in estimating the number of hidden states. I introduce two consistent estimators: the first one is based on a penalized least squares criterion, and the second one on a spectral method. Once the order is known, it is possible to estimate the other parameters. In a second part, I consider two adaptive estimators of the emission distributions. Adaptivity means that their rate of convergence adapts to the regularity of the target distribution. Contrary to existing methods, these estimators adapt to the regularity of each distribution instead of only the worst regularity. The third part is focussed on the misspecified setting, that is when the observations may not come from a hidden Markov model. I control of the prediction error of the maximum likelihood estimator when the true distribution satisfies general forgetting and mixing assumptions. Finally, I introduce a nonhomogeneous variant of hidden Markov models : hidden Markov models with trends, and show that the maximum likelihood estimators of such models is consistent.
356

Réguler par l'épreuve : outils de gestion et cogestion sectorielle du cinéma français / Regulation through trial : management tools and co-regulation of the french movie industry

Viard, Alexandre 16 December 2019 (has links)
Le contexte empirique dans lequel s’inscrit ce travail concerne les changements à l’œuvre dans l’industrie du cinéma français liés à l’impact des NTIC. Nous y étudions la construction collective du processus de régulation entre les acteurs du secteur et le CNC (le Centre National du Cinéma l’Image Animée) de l’autre, c’est à dire la cogestion du secteur. Nous nous intéressons à deux phénomènes. Nous cherchons à comprendre le déroulé de différents débats dans la presse qui se constituent autour des années 2012–2014. Deuxièmement, nous menons une réflexion portant sur le type d’outils de gestion mobilisés par l’organisation en charge de la régulation du secteur, le CNC.Nous proposons de représenter le processus de régulation du secteur du cinéma français au travers de l’évolution des épreuves organisées par le CNC auxquelles les acteurs du secteur décident de participer. L’évolution de ces épreuves passe alors par le développement de critiques à l’égard de ces épreuves, venant des acteurs du secteur ou des équipes du CNC.La cogestion du secteur se construit alors à la fois de manière encadrée (les épreuves sont créées et organisées) et émergente au travers des activités de critiques des acteurs. Nous y étudions la place des outils de gestion, et en particulier celle des indicateurs statistiques.Nous construisons un modèle de cogestion par l’épreuve qui nous permet de mettre en avant les risques liés aux changements dans l’industrie. Le fonctionnement régulier de la cogestion, où les critiques viennent nourrir la cogestion tout en permettant son adaptation, permet l’intégration des retours des acteurs du secteur. Le risque lié aux NTIC se caractérise par la possibilité de remise en cause des principes d’évaluation à l’origine des épreuves. / The empirical context for this work concerns the changes in the movie industry due to the NTIC. We study the collective regulation process of the sector by industry stakeholders and the CNC (National Center for Cinema). We look at two phenomena. We study the debates in the press during the 2012-2014 period. Second, we look at the types of management tools used by the CNC as the organization in charge of regulating the French movie industry.We propose to represent the regulation process in the French movie industry as the organisation and evolution of trials to which actors of the sector participate.This co-regulation process is seen here as both framed and emergent. We study the role of management tools, especially statistical indicators in this co-regulation process.We build a co-regulation model based on the trial notion, allowing us to illustrate the risks linked to the changes occurring in the industry. In the regular functioning of the model, critics can be formulated an integrated to the trial system and allow for its adaptation. The risk linked to NTIC is characterized by the possibility of questioning the evaluation principles at the very foundation of the trial system.
357

Modèles à noyaux à structure locale

Vincent, Pascal January 2003 (has links)
No description available.
358

Etude phénoménologique des processus d‟allumage et de stabilisation dans les chambres de combustion turbulente swirlées. / Phenomenological study of ignition and stabilization processes for turbulent swirled flames

Frenillot, Jean-Philippe 08 April 2011 (has links)
Ce travail de recherche est consacré à l'étude des processus d'allumage et de stabilisation des flammes turbulentes en configuration aéronautique. Cette thèse, entièrement expérimentale, se base dans une première partie sur l'étude et la compréhension de l'effet des paramètres locaux (vitesse et concentration en combustible) et de l'historique du noyau de flamme au cours de sa propagation sur les statistiques d'allumage. Pour expliquer ces statistiques, des scénarios sont proposés et validés pour différentes configurations opératoires. La deuxième partie de la thèse est dédiée à l'amélioration de la stabilité des flammes kérosène/air par dopage en hydrogène. Nous avons montré qu'à même structure de flamme, l'amplitude des fluctuations de pression était abaissée par la présence d'hydrogène. / This research is dedicated to the study of turbulent flames ignition and stabilization processes in representatives' aircraft combustion chambers. This PHD thesis, fully experimental, is based on studying and understanding local parameters (velocity and fuel concentration) and historical effects of the flame kernel's environment during its propagation on ignition statistics. To explain this statistics, various scenarios arre proposed and discussed. In this way, we justify the existence of high and low efficiency areas thanks to a time development criterion of the flame kernel. The second part of this thesis is dedicated to flame stabilization improvment by using H2 enrichment. Turbulent kerosene/air flames have been doped in gaseous hydrogen. We demonstrate a reduction of pressure oscillations' amplitude for the same flame structure.
359

Extreme value statistics of strongly correlated systems : fermions, random matrices and random walks / Statistique d'extrême de systèmes fortement corrélés : fermions, matrices aléatoires et marches aléatoires

Lacroix-A-Chez-Toine, Bertrand 04 June 2019 (has links)
La prévision d'événements extrêmes est une question cruciale dans des domaines divers allant de la météorologie à la finance. Trois classes d'universalité (Gumbel, Fréchet et Weibull) ont été identifiées pour des variables aléatoires indépendantes et de distribution identique (i.i.d.).La modélisation par des variables aléatoires i.i.d., notamment avec le modèle d'énergie aléatoire de Derrida, a permis d'améliorer la compréhension des systèmes désordonnés. Cette hypothèse n'est toutefois pas valide pour de nombreux systèmes physiques qui présentent de fortes corrélations. Dans cette thèse, nous étudions trois modèles physiques de variables aléatoires fortement corrélées : des fermions piégés,des matrices aléatoires et des marches aléatoires. Dans la première partie, nous montrons plusieurs correspondances exactes entre l'état fondamental d'un gaz de Fermi piégé et des ensembles de matrices aléatoires. Le gaz Fermi est inhomogène dans le potentiel de piégeage et sa densité présente un bord fini au-delà duquel elle devient essentiellement nulle. Nous développons une description précise des statistiques spatiales à proximité de ce bord, qui va au-delà des approximations semi-classiques standards (telle que l'approximation de la densité locale). Nous appliquons ces résultats afin de calculer les statistiques de la position du fermion le plus éloigné du centre du piège, le nombre de fermions dans un domaine donné (statistiques de comptage) et l'entropie d'intrication correspondante. Notre analyse fournit également des solutions à des problèmes ouverts de valeurs extrêmes dans la théorie des matrices aléatoires. Nous obtenons par exemple une description complète des fluctuations de la plus grande valeur propre de l'ensemble complexe de Ginibre.Dans la deuxième partie de la thèse, nous étudions les questions de valeurs extrêmes pour des marches aléatoires. Nous considérons les statistiques d'écarts entre positions maximales consécutives (gaps), ce qui nécessite de prendre en compte explicitement le caractère discret du processus. Cette question ne peut être résolue en utilisant la convergence du processus avec son pendant continu, le mouvement Brownien. Nous obtenons des résultats analytiques explicites pour ces statistiques de gaps lorsque la distribution de sauts est donnée par la loi de Laplace et réalisons des simulations numériques suggérant l'universalité de ces résultats. / Predicting the occurrence of extreme events is a crucial issue in many contexts, ranging from meteorology to finance. For independent and identically distributed (i.i.d.) random variables, three universality classes were identified (Gumbel, Fréchet and Weibull) for the distribution of the maximum. While modelling disordered systems by i.i.d. random variables has been successful with Derrida's random energy model, this hypothesis fail for many physical systems which display strong correlations. In this thesis, we study three physically relevant models of strongly correlated random variables: trapped fermions, random matrices and random walks.In the first part, we show several exact mappings between the ground state of a trapped Fermi gas and ensembles of random matrix theory. The Fermi gas is inhomogeneous in the trapping potential and in particular there is a finite edge beyond which its density vanishes. Going beyond standard semi-classical techniques (such as local density approximation), we develop a precise description of the spatial statistics close to the edge. This description holds for a large universality class of hard edge potentials. We apply these results to compute the statistics of the position of the fermion the farthest away from the centre of the trap, the number of fermions in a given domain (full counting statistics) and the related bipartite entanglement entropy. Our analysis also provides solutions to open problems of extreme value statistics in random matrix theory. We obtain for instance a complete description of the fluctuations of the largest eigenvalue in the complex Ginibre ensemble.In the second part of the thesis, we study extreme value questions for random walks. We consider the gap statistics, which requires to take explicitly into account the discreteness of the process. This question cannot be solved using the convergence of the process to its continuous counterpart, the Brownian motion. We obtain explicit analytical results for the gap statistics of the walk with a Laplace distribution of jumps and provide numerical evidence suggesting the universality of these results.
360

Analyse et interprétation de la pression d'eau en fondation des barrages-voûtes à partir des mesures d'auscultation / Analysis and interpretation of piezometric levels in the foundation of arch dams using monitoring data

De Bigault de Granrut, Mathilde 28 October 2019 (has links)
L’ouverture du contact béton-rocher des barrages-voûtes est un phénomène fréquemment observé, qui se traduit par une piézométrie locale caractérisée par des effets non-linéaires : effet de seuil et couplage de ses facteurs explicatifs (effets hydrostatiques, thermiques, et temporels). Afin d’interpréter les mesures d’auscultation correspondantes, il est nécessaire de tenir compte de la non-additivité de ces influences, ce que ne permettent pas les modèles physico-statistiques de type régression linéaire multiple actuellement utilisés par l’ingénierie. Dans ce contexte, les objectifs de cette thèse sont d’aboutir à une meilleure compréhension des phénomènes hydrauliques ayant lieu à l’interface béton-rocher grâce à l’analyse et interprétation des mesures d’auscultation, et de caractériser l’état de dégradation du contact, en particulier son extension spatiale, à partir de ces mesures. À cet effet, deux modèles ont été développés, l’un basé sur les réseaux de neurones artificiels, l’autre sur une formulation non-linéaire du modèle HST, permettant d’expliciter l’effet des différentes charges sur l’écoulement. L’interprétation de la piézométrie en termes d’effets réversibles et irréversibles a permis de proposer une caractérisation d’ordre géométrique de l’état du contact dans un profil amont-aval, basée uniquement sur la lecture de ces effets. Puis, un modèle analytique d’écoulement a été formulé et investigué, construit à partir de cette description géométrique du contact, qui permet d’interpréter le champ de pression en plusieurs points de mesure d’un même profil. / The aperture of the rock-concrete interface of arch dams is a frequently observed phenomenon that shows through the non-linear features it induces in the local piezometry: threshold effects, couplings between its explanatory factors (hydrostatic effects, thermal effects, temporal effects). In order to interpret the corresponding monitoring measurements, it is necessary to take into account the non-additivity of those influences. This is not feasible with the multi-linear regression models that are commonly used in engineering. In that context, the aim of this thesis is to come to a better understanding of the hydraulic phenomena that occur at the rock-concrete interface based on the analysis and interpretation of monitoring measurements. In parallel, the objective is to characterise the state of deterioration of the contact, and more particularly its spatial extent, thanks to those measurements. To that end, two models were developed, the first one based on artificial neural networks, the second one based on a non-linear formulation of HST, enabling to make explicit the effects of the different loads on the flow. The interpretation of the piezometry in terms of reversible and irreversible effects made it possible to propose a geometrical characterisation of the contact state in an upstream-downstream profile, based only on the analysis of those effects. Then, an analytical flow model was expressed and investigated, built on this geometrical description of the contact. It permits to interpret the pressure field in several measuring points in one profile.

Page generated in 0.0331 seconds