• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 132
  • 66
  • 22
  • 1
  • Tagged with
  • 222
  • 100
  • 60
  • 57
  • 52
  • 41
  • 38
  • 34
  • 33
  • 28
  • 26
  • 23
  • 21
  • 20
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Vers une représentation du contexte thématique en Recherche d'Information

Deveaud, Romain 29 November 2013 (has links) (PDF)
Quand des humains cherchent des informations au sein de bases de connaissancesou de collections de documents, ils utilisent un système de recherche d'information(SRI) faisant office d'interface. Les utilisateurs doivent alors transmettre au SRI unereprésentation de leur besoin d'information afin que celui-ci puisse chercher des documentscontenant des informations pertinentes. De nos jours, la représentation du besoind'information est constituée d'un petit ensemble de mots-clés plus souvent connu sousla dénomination de " requête ". Or, quelques mots peuvent ne pas être suffisants pourreprésenter précisément et efficacement l'état cognitif complet d'un humain par rapportà son besoin d'information initial. Sans une certaine forme de contexte thématiquecomplémentaire, le SRI peut ne pas renvoyer certains documents pertinents exprimantdes concepts n'étant pas explicitement évoqués dans la requête.Dans cette thèse, nous explorons et proposons différentes méthodes statistiques, automatiqueset non supervisées pour la représentation du contexte thématique de larequête. Plus spécifiquement, nous cherchons à identifier les différents concepts implicitesd'une requête formulée par un utilisateur sans qu'aucune action de sa part nesoit nécessaire. Nous expérimentons pour cela l'utilisation et la combinaison de différentessources d'information générales représentant les grands types d'informationauxquels nous sommes confrontés quotidiennement sur internet. Nous tirons égalementparti d'algorithmes de modélisation thématique probabiliste (tels que l'allocationde Dirichlet latente) dans le cadre d'un retour de pertinence simulé. Nous proposonspar ailleurs une méthode permettant d'estimer conjointement le nombre de conceptsimplicites d'une requête ainsi que l'ensemble de documents pseudo-pertinent le plusapproprié afin de modéliser ces concepts. Nous évaluons nos approches en utilisantquatre collections de test TREC de grande taille. En annexes, nous proposons égalementune approche de contextualisation de messages courts exploitant des méthodesde recherche d'information et de résumé automatique
132

Analyse des trains de spike à large échelle avec contraintes spatio-temporelles : application aux acquisitions multi-électrodes rétiniennes

Nasser, Hassan 14 March 2014 (has links) (PDF)
L'évolution des techniques d'acquisition de l'activité neuronale permet désormais d'enregistrer simultanément jusqu'à plusieurs centaines de neurones dans le cortex ou dans la rétine. L'analyse de ces données nécessite des méthodes mathématiques et numériques pour décrire les corrélations spatiotemporelles de la population neuronale. Une méthode couramment employée est basée sur le principe d'entropie maximale. Dans ce cas, le produit N×R, où N est le nombre de neurones et R le temps maximal considéré dans les corrélations, est un paramètre crucial. Les méthodes de physique statistique usuelles sont limitées aux corrélations spatiales avec R = 1 (Ising) alors que les méthodes basées sur des matrices de transfert, permettant l'analyse des corrélations spatio-temporelles (R > 1), sont limitées à N×R≤20. Dans une première partie, nous proposons une version modifiée de la méthode de matrice de transfert, basée sur un algorithme de Monte-Carlo parallèle, qui nous permet d'aller jusqu'à N×R=100. Dans la deuxième partie, nous présentons la bibliothèque C++ Enas, dotée d'une interface graphique développée pour les neurobiologistes. Enas offre un environnement hautement interactif permettant aux utilisateurs de gérer les données, effectuer des analyses empiriques, interpoler des modèles statistiques et visualiser les résultats. Enfin, dans une troisième partie, nous testons notre méthode sur des données synthétiques et réelles (rétine, fournies par nos partenaires biologistes). Notre analyse non exhaustive montre l'avantage de considérer des corrélations spatio-temporelles pour l'analyse des données rétiniennes; mais elle montre aussi les limites des méthodes d'entropie maximale.
133

Contribution à l'évaluation des risques liés au TMD (transport de matières dangereuses) en prenant en compte les incertitudes / Contribution to the risk assessment related to DGT (dangerous goods transportation) by taking into account uncertainties

Safadi, El Abed El 09 July 2015 (has links)
Le processus d'évaluation des risques technologiques, notamment liés au Transport de Matières Dangereuses (TMD), consiste, quand un événement accidentel se produit, à évaluer le niveau de risque potentiel des zones impactées afin de pouvoir dimensionner et prendre rapidement des mesures de prévention et de protection (confinement, évacuation...) dans le but de réduire et maitriser les effets sur les personnes et l'environnement. La première problématique de ce travail consiste donc à évaluer le niveau de risque des zones soumises au transport des matières dangereuses. Pour ce faire, un certain nombre d'informations sont utilisées, comme la quantification de l'intensité des phénomènes qui se produisent à l'aide de modèles d'effets (analytique ou code informatique). Pour ce qui concerne le problème de dispersion de produits toxiques, ces modèles contiennent principalement des variables d'entrée liées à la base de données d'exposition, de données météorologiques,… La deuxième problématique réside dans les incertitudes affectant certaines entrées de ces modèles. Pour correctement réaliser une cartographie en déterminant la zone de de danger où le niveau de risque est jugé trop élevé, il est nécessaire d'identifier et de prendre en compte les incertitudes sur les entrées afin de les propager dans le modèle d'effets et ainsi d'avoir une évaluation fiable du niveau de risque. Une première phase de ce travail a consisté à évaluer et propager l'incertitude sur la concentration qui est induite par les grandeurs d'entrée incertaines lors de son évaluation par les modèles de dispersion. Deux approches sont utilisées pour modéliser et propager les incertitudes : l'approche ensembliste pour les modèles analytiques et l'approche probabiliste (Monte-Carlo) qui est plus classique et utilisable que le modèle de dispersion soit analytique ou défini par du code informatique. L'objectif consiste à comparer les deux approches pour connaitre leurs avantages et inconvénients en termes de précision et temps de calcul afin de résoudre le problème proposé. Pour réaliser les cartographies, deux modèles de dispersion (Gaussien et SLAB) sont utilisés pour évaluer l'intensité des risques dans la zone contaminée. La réalisation des cartographies a été abordée avec une méthode probabiliste (Monte Carlo) qui consiste à inverser le modèle d'effets et avec une méthode ensembliste générique qui consiste à formuler ce problème sous la forme d'un ensemble de contraintes à satisfaire (CSP) et le résoudre ensuite par inversion ensembliste. La deuxième phase a eu pour but d'établir une méthodologie générale pour réaliser les cartographies et améliorer les performances en termes de temps du calcul et de précision. Cette méthodologie s'appuie sur 3 étapes : l'analyse préalable des modèles d'effets utilisés, la proposition d'une nouvelle approche pour la propagation des incertitudes mixant les approches probabiliste et ensembliste en tirant notamment partie des avantages des deux approches précitées, et utilisable pour n'importe quel type de modèle d'effets spatialisé et statique, puis finalement la réalisation des cartographies en inversant les modèles d'effets. L'analyse de sensibilité présente dans la première étape s'adresse classiquement à des modèles probabilistes. Nous discutons de la validité d'utiliser des indices de type Sobol dans le cas de modèles intervalles et nous proposerons un nouvel indice de sensibilité purement intervalle cette fois-ci. / When an accidental event is occurring, the process of technological risk assessment, in particular the one related to Dangerous Goods Transportation (DGT), allows assessing the level of potential risk of impacted areas in order to provide and quickly take prevention and protection actions (containment, evacuation ...). The objective is to reduce and control its effects on people and environment. The first issue of this work is to evaluate the risk level for areas subjected to dangerous goods transportation. The quantification of the intensity of the occurring events needed to do this evaluation is based on effect models (analytical or computer code). Regarding the problem of dispersion of toxic products, these models mainly contain inputs linked to different databases, like the exposure data and meteorological data. The second problematic is related to the uncertainties affecting some model inputs. To determine the geographical danger zone where the estimated risk level is not acceptable, it is necessary to identify and take in consideration the uncertainties on the inputs in aim to propagate them in the effect model and thus to have a reliable evaluation of the risk level. The first phase of this work is to evaluate and propagate the uncertainty on the gas concentration induced by uncertain model inputs during its evaluation by dispersion models. Two approaches are used to model and propagate the uncertainties. The first one is the set-membership approach based on interval calculus for analytical models. The second one is the probabilistic approach (Monte Carlo), which is more classical and used more frequently when the dispersion model is described by an analytic expression or is is defined by a computer code. The objective is to compare the two approaches to define their advantages and disadvantages in terms of precision and computation time to solve the proposed problem. To determine the danger zones, two dispersion models (Gaussian and SLAB) are used to evaluate the risk intensity in the contaminated area. The risk mapping is achieved by using two methods: a probabilistic method (Monte Carlo) which consists in solving an inverse problem on the effect model and a set-membership generic method that defines the problem as a constraint satisfaction problem (CSP) and to resolve it with an set-membership inversion method. The second phase consists in establishing a general methodology to realize the risk mapping and to improve performance in terms of computation time and precision. This methodology is based on three steps: - Firstly the analysis of the used effect model. - Secondly the proposal of a new method for the uncertainty propagationbased on a mix between the probabilistic and set-membership approaches that takes advantage of both approaches and that is suited to any type of spatial and static effect model. -Finally the realization of risk mapping by inversing the effect models. The sensitivity analysis present in the first step is typically addressed to probabilistic models. The validity of using Sobol indices for interval models is discussed and a new interval sensitivity indiceis proposed.
134

Modélisation de la montée vers un état critique de la situation de basses eaux sous forçages naturel et anthropique en région méditerranéenne / Modeling the rise of a critical state of the low flows situation under natural and anthropogenic presures in the mediterranean basin

Canovas, Ingrid 12 December 2016 (has links)
L’eau et la vie sont inégalement réparties. Ceci entrave le développement des sociétés, et fait apparaître des situations de tension,dont l’intensité et la fréquence varient selon le contexte climatique, la densité des populations et donc de la demande. Avec le changement climatique en cours et la hausse des besoins en eau (dont la « réserve » à laisser aux milieux naturels), le niveau des tensions est susceptible de s’élever, et la fréquence des très basses eaux de s’accroître. Dans le sud-est de la France, l’aire soumise au climat méditerranéen est particulièrement concernée par la fragilité des ressources en eau en période estivale (une saison très peu arrosée et une forte attractivité touristique, etc.). De plus, une modification du régime climatique (diminution des apports pluviométriques, extrêmes plus marqués, etc.) affectera nécessairement davantage les bassins alimentés par des ressources très locales, tels les cours d’eau et les bassins de vie ne bénéficiant pas de l’influence des grands fleuves allogènes à l’aire climatique méditerranéenne (Rhône, Durance, etc.). La réflexion sur le manque ou la pénurie en eau, de qualité propre pour satisfaire les usages sur ces territoires, peut dès lors être portée sur la façon dont un tel risque se construit (succession des étapes, retentissement d’un facteur sur les autres, etc.), et sur la façon dont l’évolution des éléments structurels et des forçages extérieurs conduit ou non à s’approcher d’une situation indésirable.La démarche engagée ici propose de décliner cette approche particulière aux basses eaux. Il s’agit alors de répondre à un triple objectif : (1) identifier et compiler au sein d’une base de données spécifique les informations essentielles pour appréhender le phénomène ; (2) caractériser l’état moyen des basses eaux à partir de situations locales et par le biais de descripteurs statistiques robustes ; (3) déterminer les modalités de son évolution vers des états critiques. Ce travail conduit dans un premier temps au développement d’une modélisation probabiliste, laquelle est conçue pour être déployée dans différentes échelles spatiales et dans différentes temporalités. La réflexion est ensuite étendue aux modalités méthodologiques et techniques pour l’élaboration d’indicateurs analytiques et d’indices synthétiques d’évaluation de la situation de tension sur la ressource.La démarche aboutit enfin à des outils numériques simples et intuitifs, mobilisables à des fins opérationnelles comme support d’aide à la décision pour la mise en place de mesures d’anticipation et de régulation, et transposables à tout territoire méditerranéen. / Water and life are unequally distributed. This hinders the development of societies, and leads to situations of tension, whoseintensity and frequency vary according to climatic conditions, population density and according therefore to demand. With theongoing climate change and the rising water requirements (the stock dedicated to the natural environment), the level of tensionis likely to rise, such as the frequency of very low water. The French Mediterranean territories are particularly concerned withthe fragility of water resources during summertime (a little watered season, a strong tourist appeal, etc.). In addition, everymodification in the climate regime (the decreasing of rainfall inputs, etc.) would necessarily affect more the small catchmentwith very local resources, such as rivers and living areas which don’t benefit from the influence of major rivers (Rhone, Durance,etc.).The reflection on water scarcity can therefore be focused on the structure of such a risk (sequence of steps, the impact of onefactor on the others, etc.), and on the conditions that make the system reach an undesirable situation.The approach adopted here suggests to decline this particular approach to low water. Three objectives are here stated: (1) identifyand compile, within a specific database, the essential information to understand the phenomenon; (2) characterize the meanstate of low water from local situations and through robust statistical descriptors; (3) determine the terms of its evolution tocritical states.The whole work leads first to the development of a probabilistic modeling, which is designed to be deployed in different spatialscales and in dfferent times. The reflection is then extended to the methodological and technical arrangements that would allowthe development of analytical indicators and synthetic indexes for assessing the resource level of tension.The approach finally results in simple and intuitive digital tools, that can be mobilized for operational purposes such asdecision-making support for the implementation of anticipatory measures and regulation, and that can transferable to anyMediterranean territory.
135

Vers un modèle à double voie dynamique et hodotopique de l'organisation anatomo-fonctionnelle de la mentalisation : étude par cartographie cérébrale multimodale chez les patients porteurs d'un gliome diffus de bas-grade / Towards a dynamic and hodotopical dual-stream model of the anatomo-functional organization of mentalizing processes : evidence provided by multimodal brain mapping in patients harboring a diffuse low-grade glioma

Herbet, Guillaume 03 June 2014 (has links)
Comprendre comment le cerveau humain engendre les formes les plus élaborées de comportements est profondément lié à nos connaissances générales sur son organisation anatomique et fonctionnelle. Jusqu'à récemment encore, on pensait que les fonctions cognitives n'étaient rien d'autre que le sous-produit de l'activité neurale de régions corticales discrètes et hyper-fonctionnalisées. Les découvertes majeures obtenues ces dix dernières années dans le champ de la neuro-imagerie, et plus particulièrement de la connectomique, invitent cependant à complexifier nos représentations sur les liens qu'entretiennent structures et fonctions cérébrales. Le cerveau semble en effet être organisé en systèmes neurocognitifs complexes, hautement distribués et plastiques. C'est dans cet esprit qu'a été réalisé ce travail de thèse dont l'ambition première a été de repenser les modèles actuels de la cognition sociale, et en particulier ceux ayant trait à la fonction de mentalisation, à travers l'étude comportementale des patients porteurs d'un gliome diffus de bas-grade. Cette tumeur neurologique rare constitue un excellent modèle physiopathologique en vue du démasquage des structures maîtresses des systèmes cognitifs complexes, en ce qu'elle induit des phénomènes majeurs de réorganisation fonctionnelle, et s'infiltre préférentiellement le long de la connectivité axonale associative. Des corrélations anatomo-cliniques ont été réalisées suivant une approche topologique classique (analyse de groupe en régions d'intérêt, cartographie voxel-based lesion-symptom, stimulation électrique corticale intra-opératoire) mais également hodologique (degré de déconnection des faisceaux d'association, stimulation électrique de la connectivité axonale). Les résultats principaux de nos différents travaux nous permettent de jeter les premières bases d'un modèle à double voie dynamique (plastique) et hodotopique (contraint par la réalité anatomique) de l'organisation anatomo-fonctionnelle des processus de mentalisation. Spécifiquement, une voie dorsale, interconnectant le aires corticales fronto-pariétales « miroirs » via le système périsylvien de substance blanche associative (faisceau arqué et faisceau longitudinal supérieur latéral), sous-tendrait les processus perceptifs de « bas-niveau » nécessaires à l'identification préréflexive des états mentaux ; une voie cingulo-médiane, interconnectant les régions préfrontales médiales et rostro-cingulaires aux régions pariétales postérieures médiales via le faisceau cingulaire, sous-tendrait les processus de «haut-niveau » nécessaires aux inférences mentalistiques conscientes. Ces découvertes constituent une avancée substantielle en neurosciences sociales, ont des implications importantes pour la prise en charge clinique des patients, et peuvent permettre de mieux comprendre certaines psychopathologies caractérisées à la fois par un trouble de la mentalisation et des anomalies structurales de la connectivité associative (troubles du spectre autistique). / Understanding how the brain produces sophisticated behaviours strongly depends of our knowledge on its anatomical and functional organization. Until recently, it was believed that high-level cognition was merely the by-product of the neural activity of discrete and highly specialized cortical areas. Major findings obtained in the past decade from neuroimaging, particularly from the field of connectomics, prompt now researchers to revise drastically their conceptions about the links between brain structures and functions. The brain seems indeed organized in complex, highly distributed and plastic neurocognitive networks. This is in this state of mind that our work has been carried out. Its foremost ambition was to rethink actuals models of social cognition, especially mentalizing, through the behavioural study of patients harbouring a diffuse low-grade glioma. Because this rare neurological tumour induces major functional reorganization phenomena and migrates preferentially along axonal associative connectivity, it constitutes an excellent pathophysiological model for unmasking the core structures subserving complex cognitive systems. Anatomo-clinical correlations were conducted according to both a classical topological approach (region of interest analyses, voxel-based lesion-symptom mapping, intraoperative cortical electrostimulation) and a hodological approach (degree of disconnection of associative white matter fasciculi, intraoperative axonal connectivity mapping). The main results of our different studies enable us to lay the foundation of a dynamic (plastic) and hodotopical (connectivity) dual-stream model of mentalizing. Specifically, a dorsal stream, interconnecting mirror frontoparietal areas via the perisylvian network (arcuate fasciculus and lateral superior longitudinal fasciculus), may subserve low-level perceptual processes required in rapid and pre-reflective identification of mental states; a cingulo-medial stream, interconnecting medial prefrontal and rostro-cingulated areas with medial posterior parietal areas via the cingulum, may subserve higher-level processes required in reflective mentalistic inferences. These original findings represents a great step in social neuroscience, have major implications in clinical practice, and opens new opportunities in understanding certain pathological conditions characterized by both mentalizing deficits and aberrant structural connectivity (e.g. autism spectrum disorders).
136

Approche probabiliste de la propagation des incertitudes dans le modèle mécano-numérique du système couplé "fémur-prothèse non cimentée" / Probabilistic approach to the propagation of uncertainties in the mechano-numerical model of the coupled "non-cemented femur-prothesis" system

Hu, XiaoSu 15 November 2010 (has links)
L' arthroplastie de la hanche par prothèse non cimentée est une solution couramment employée pour les patients rencontrant des problèmes du système locomoteur. Une telle solution présente toutefois un inconvénient majeur, souligné par tous les utilisateurs : le manque de stabilité primaire de la prothèse. Or, cette faiblesse peut provoquer des complications graves, voire l'échec de l'opération chirurgicale. Par conséquent, parvenir à une bonne fixation primaire est un point crucial de ce type d'opération chirurgicale pour assurer cliniquement une satisfaction à court et long terme.Dans le but de mieux appréhender cette problématique centrale, une piste préopératoire a été adoptée. Un modèle éléments finis permettant de décrire le comportement mécanique du système couplé « os-prothèse non cimentée : DePuy Corail® » a été développé et validé par des expérimentations in vitro. Puis, pour tenir compte de la forte variabilité des paramètres du modèle, inhérente à la nature même du problème, une modélisation stochastique de ces derniers a été introduite et une stratégie mécano-probabiliste proposée, destinée d'une part à quantifier en termes probabilistes l'effet sur la réponse des incertitudes affectant les paramètres du modèle, et d'autre part à évaluer la stabilité primaire du système os-prothèse en contexte fiabiliste. La mise en oeuvre pratique de cette approche a été réalisée à l'aide d'outils numériques basés sur la méthode de Monte-Carlo standard et une procédure de collocation stochastique.L'originalité du travail présenté réside avant tout dans la proposition d'une méthodologie probabiliste capable de prendre en compte les incertitudes dans la problématique de la stabilité primaire des prothèses de hanche non cimentées. Elle tient également dans la potentialité de cette méthodologie à être facilement transplantable en contexte industriel. / The hip arthroplasty with cementless hip prosthesis is a solution usually used for the patients suffering the problems of the musculoskeletal system. However, such a solution has a major disadvantage, pointed by all users : the lack of primary stability of the prosthesis. This weakness can cause serious complications or failure of the surgery. Therefore, to achieve a good primary fixation is a crucial point of this type of surgery to ensure a short and a long term clinical satisfaction. In order to better understand this central issue, a preoperative track is adopted. A finite element model to describe the mechanical behavior of the coupled system " femur-cementless prosthesis : DePuy Corail® "has been created and validated by the experiments in vitro. Then, in order to take into account the high variability of model parameters, inherent to the nature of the problem, the stochastic modeling of random input parameters has been introduced and a mechanical-probabilistic strategy has been proposed, on the one hand to quantify, in probabilistic terms, the effect, on the response, of the uncertainties affecting the input parameters of the model, and on the other hand to evaluate the primary stability of the bone-prosthesis system in reliability context. The practical implementation of this approach is realized by using the numerical tools based on the standard Monte Carlo method and the stochastic collocation procedure. The originality of the work presented is primarily in the proposition of a probabilistic methodology capable of taking into account the uncertainties in the problem of primary stability of cementless hip prostheses. It also lies in the potentiality of this methodology to be transplantable easily in industrial context.
137

Ground motion intensity measures for seismic probabilistic risk analysis / Indicateurs de nocivité pour l'analyse probabiliste du risque sismique

De Biasio, Marco 17 October 2014 (has links)
Une question fondamentale qui surgit dans le cadre de l’analyse probabiliste du risque sismique est le choix des indicateurs de nocivité des signaux sismiques. En plus de réduire la variabilité de la réponse structurelle (ou non structurelle),un indicateur amélioré (i.e. capable de mieux capturer les caractéristiques de nocivité des mouvements sismiques, aussi bien que l’alea sismique) fournit des critères moins stricts pour la sélection des signaux sismiques.Deux nouveaux indicateurs sont proposés dans cette étude: le premier, nommé ASAR (i.e. Relative Average Spectral Acceleration), est conçu pour la prévision de la demande structurelle, le second, nommé E-ASAR (i.e.Equipment Relative Average Spectral Acceleration), vise à prévoir la demande des composants non structuraux. Les performances des indicateurs proposés sont comparées avec celles des indicateurs de la littérature, sur la base de: a)milliers d’enregistrements sismiques ; b) analyses numériques conduites avec des modèles représentants différents types de bâtiments; et c) analyses statistiques rigoureuses des résultats. Selon l'étude comparative, les indicateurs développés s'avèrent être plus “efficaces” que les indicateurs couramment utilisés. D'ailleurs, l’ASAR et l’E-ASAR ont montré au propre la caractéristique de la “suffisance” en ce qui concerne la magnitude, la distance source-site, et le type de sol (VS30). De plus, les deux indicateurs originaux peuvent être calculés simplement avec la connaissance de la fréquence fondamentale du bâtiment. Cette caractéristique rend l’ASAR et l’E-ASAR facilement exploitables dans les études probabilistes d’alea sismique.Par conséquent, en raison de leur efficacité, suffisance, robustesse et formulation simple, l’ASAR et l’E-ASAR peuvent être considérés comme des candidats prometteurs pour la définition de l’alea sismique dans les cadres de l'analyse probabiliste et déterministe du risque sismique. / A fundamental issue that arises in the framework of Probabilistic Seismic Risk Analysis is the choice of groundmotion Intensity Measures (IMs). In addition to reducing record-to-record variability, an improved IM (i.e. one able tobetter capture the damaging features of a record, as well as the site hazard) provides criteria for selecting input groundmotions to loosen restrictions.Two new structure-specific IMs are proposed in this study: the first, namely ASAR (i.e. Relative Average SpectralAcceleration), is conceived for Structural demand prediction, the second namely, E-ASAR (i.e. Equipment-RelativeAverage Spectral Acceleration), aims to predict Non-Structural components acceleration demand. The performance ofthe proposed IMs are compared with the ones of current IMs, based on: a) a large dataset of thousands recordedearthquake ground motions; b) numerical analyses conducted with state-of-the-art FE models, representing actualload-bearing walls and frame structures, and validated against experimental tests; and c) systematic statistical analysesof the results. According to the comparative study, the introduced IMs prove to be considerably more “efficient” withrespect to the IMs currently used. Likewise, both ASAR and E-ASAR have shown to own the characteristic of“sufficiency” with respect to magnitude, source-to-site distance and soil-type (Vs30). Furthermore, both the introducedIMs possess the valuable characteristics to need (in order to be computed) merely the knowledge of the building’sfundamental frequency, exactly as it is for the wide-spread spectral acceleration Spa(f1). This key characteristic makesboth ASAR and E-ASAR easily exploitable in Probabilistic Seismic Hazard Analysis.Therefore, due to their proven efficiency, sufficiency, robustness and applicable formulation, both ASAR and EASARcan be considered as worthy candidates for defining seismic hazard within the frameworks of both Probabilisticand Deterministic Seismic Risk Analysis.
138

Intégration des effets de site dans les méthodes d'estimation probabiliste de l'aléa sismique / Integration of Site Effects into Probabilistic Seismic Hazard Assessment.Integration of site effects into probabilistic seismic hazard methods.

Aristizabal, Claudia 19 March 2018 (has links)
Les travaux de cette thèse s'inscrivent dans l'objectif général de fournir des recommandations sur la façon d'intégrer les effets du site dans l'évaluation probabiliste des risques sismiques, mieux connue sous le nom de PSHA, une méthodologie connue et utilisée à l'échelle mondiale pour estimer l'aléa et le risque sismiques à l'échelle régionale et locale. Nous passons donc en revue les méthodes disponibles dans la littérature pour obtenir la courbe d'aléa sismique en surface d'un site non-rocheux, en commençant par les méthodes les plus simples et plus génériques (partiellement probabiliste), jusqu'aux méthodes site-spécifiques (partiellement et entièrement probabilistes) qui nécessitent une caractérisation du site de plus en plus poussée, rarement disponible sauf cas exceptionnel comme par exemple le site test d'Euroseistest. C'est justement sur l'exemple de ce site que sont donc comparées un certain nombre de ces méthodes, ainsi qu'une nouvelle.La spécificité et la difficulté de ces études PSHA "site-spécifiques" vient du caractère non-linéaire de la réponse des sites peu rigides, ainsi que du fait que le rocher de référence contrôlant cette réponse est souvent très rigide. Les aspects "ajustement rocher dur" et "convolution" de l'aléa sismique au rocher avec la fonction d'amplification ou la fonction transfert (empirique ou numérique) d’un site font donc l'objet d'une attention particulière dans ces études comparatives. Un cadre général est présenté sur la façon de prendre en compte simultanément les caractéristiques spécifiques au site, la variabilité aléatoire complète ou réduite ("single station sigma"), les ajustements hôte-cible et le comportement linéaire / non linéaire d'un site, où nous expliquons toutes les étapes, corrections, avantages et difficultés que nous avons trouvés dans le processus et les différentes façons de les mettre en oeuvre.Cette étude comparative est divisée en deux parties: la première porte sur les méthodes non site-spécifiques et les méthodes hybrides site-spécifique (évaluation probabiliste de l'aléa au rocher et déterministe de la réponse de site), la seconde porte sur deux approches prenant en compte la convolution aléa rocher / réponse de site de façon probabiliste. Un des résultats majeurs de la première est l'augmentation de l'incertitude épistémique sur l'aléa en site meuble comparé à l'aléa au rocher, en raison du cumul des incertitudes associées à chaque étape. Un autre résultat majeur commun aux deux études est l'impact très important de la non-linéarité du sol dans les sites souples, ainsi que de la façon de les prendre en compte: la variabilité liée à l'utilisation de différents codes de simulation NL apparaît plus importante que la variabilité liée à différentes méthodes de convolution 100% probabilistes. Nous soulignons l'importance d'améliorer la manier d’inclure les effets du site dans les méthodes de l’estimation de l’aléa sismique probabiliste ou PSHA, et nous soulignons aussi l'importance d'instrumenter des sites actifs avec des sédiments meubles, comme l'Euroseistest, afin de tester et valider les modèles numériques.Finalement, on présente un résumé des résultats, des conclusions générales, de la discussion sur les principaux problèmes méthodologiques et des perspectives d'amélioration et de travail futur.Mots-clés: Effets du site, incertitude épistémique, PSHA, single station sigma, ajustements hôte-cible, effets linéaires et non linéaires, réponse de site / The overall goal of this research work is of provide recommendations on how to integrate site effects into Probabilistic Seismic Hazard Assessment, better known as PSHA, a well-known and widely used methodology. Globally used to estimate seismic hazard and risk at regional and local scales. We therefore review the methods available in the literature to obtain the seismic hazard curve at the surface of a soft soil site, starting with the simplest and most generic methods (partially probabilistic), up to the full site-specific methods (partially and fully probabilistic), requiring an excellent site-specific characterization, rarely available except exceptional cases such as the case of Euroseistest site. It is precisely on the example of this site that are compared a number of these methods, as well as a new one. And it is precisely at the Euroseistest that we performed an example of application of the different methods as well as a new one that we propose as a result of this work.The specificity and difficulty of these "site-specific" PSHA studies comes from the non-linear nature of the response of the soft sites, as well as from the fact that the reference rock controlling this response is often very rigid. The "rock to hard rock adjustment" and "convolution" aspects of the rock seismic hazard, together with the amplification function or the transfer function (empirical or numerical) of a site are therefore the subject of particular attention in these studies. comparative studies. A general framework is presented on how to simultaneously take into account the site-specific characteristics, such as the complete or reduced random variability ("single station sigma"), host-to -target adjustments and the linear / nonlinear behavior of a site, where we explain all the followed steps, the different corrections performed, the benefits and difficulties that we found in the process and the ways we sort them and discussing them when the answer was not straight forward.This comparative study is divided into two parts: the first deals with non-site-specific methods and site-specific hybrid methods (probabilistic evaluation of rock hazard and deterministic of the site response). The second deals with two approaches taking into account the convolution of rock hazard and the site response in a probabilistically way. One of the major results of the first is the increase of the epistemic uncertainty on the soft site hazard compared to the rock hazard, due to acumulation of uncertainties associated to each step. Another major common result to both studies is the very important impact of non-linearity on soft sites, as well as the complexity on how to account for them: the variability associated with the use of different non-linear simulation codes appears to be greater than the method-to-method variability associated with the two different full convolution probabilistic methods. We emphasize on the importance of improving the way in which the site effects are included into probabilistic seismic hazard methods, PSHA. And we also emphasize on the importance of instrumenting active sites with soft sediments, such as the Euroseistest, to test and validate numerical models.Finally, a summary of the results, the general conclusions, discussion of key methodological issues, and perspectives for improvement and future work are presented.Keywords: Site Effects, Epistemic Uncertainty, PSHA, single station sigma, host to target adjustments, linear and nonlinear site effects, soil site response.
139

Modélisation de la fragmentation dynamique par la méthode des éléments discrets / Modeling of the dynamic fragmentation using a discrete element method

Michaut, Vincent 31 January 2011 (has links)
L'objectif de ce travail de thèse a été de modéliser avec une méthode aux éléments discrets la fracturation en tension, et plus particulièrement la fragmentation dynamique, sur des matériaux fragiles pour de hautes vitesses de déformation. La fragmentation est un phénomène irréversible, non linéaire et aléatoire. Elle intervient dans de nombreux domaines de la vie courante, quelque soit l'échelle considérée. La modélisation numérique de ce phénomène permettrait une prédiction de certains paramètres statistiques de la fragmentation, comme le nombre de fragments, la taille des fragments, la distribution de la taille des fragments, etc. Pour cette thèse, la Méthode des Éléments Discrets (DEM) s'est révélée être un excellent moyen pour simuler la fracturation en raison de sa nature discrète. Toutefois, une bonne méthode de simulation numérique ne suffit pas à elle seule pour modéliser la fragmentation dynamique. Un critère de rupture doit également être inséré, afin d'introduire un endommagement. Ce critère de rupture s'écrit au niveau d'un lien entre deux particules et il engendre un dommage, en faisant décroître la contrainte locale jusqu'à l'obtention d'une fissuration discrète. Dans un premier temps, un critère de rupture de Camacho-Ortiz |24| a été introduit dans une méthode aux éléments discrets. Ce critère se traduit par un endommagement en fonction d'une ouverture de fissure. Ce premier critère a donné de bons résultats comparé à ceux de |69, 88, 97, 143-147| sur la convergence des paramètres de la fragmentation sur des cas simples, mais nécessite un grand nombre de particules. Dans un second temps, afin d'envisager la modélisation de la fragmentation sur des cas plus complexes en trois dimensions à de hautes vitesses de déformation, un second critère de rupture a été introduit. Ce critère de rupture s'appuie sur une approche physique différente, qui prend en compte l'hétérogénéité des matériaux fragiles avec leurs défauts susceptibles d'évoluer et de provoquer une rupture locale. Pour cela, il fait intervenir une loi probabiliste de Weibull afin d'introduire des défauts par élément de volume. Ce critère a été développé par C. Denoual, P. Forquin et F. Hild |29, 33, 42-44|. Tout d'abord, ce second critère de rupture a été testé sur des cas simples en obtenant une convergence des paramètres statistiques de la fragmentation avec un nombre environ $10$ fois moins important de particules que pour la première méthode. Un cas plus complexe en trois dimensions de modélisation de barre d'Hopkinson en trois dimensions a permis de tester de manière « qualitative » la méthode. / The objective of this thesis work is to model the high-strain rate and dynamic fragmentation of brittle materials using the Discrete Element Method. Fragmentation is an irreversible, nonlinear and random phenomenon.It can be found in many practical applications in engineering and can take place at various length scales. This research work takes advantages of computer simulations to model this phenomenon and to predict a few statistical parameters related to fragmentation including number, size, and size distribution of fragments. To this effect, the Discrete Element Method was found to simulate efficiently fracturing, which is a discrete phenomenon by nature. However, an efficient computer simulation is not sufficient for representing fragmentation. It also needs to account for a rupture criterion and a damage criterion. This rupture criterion is defined at the contact points between particles where it generates a local damage that decreases the local stress until a discrete crack appears. In a first step, the rupture criterion of Camacho-Ortiz |24| has been introduced in the Discrete Element Method. This criterion expresses damage as a function of crack opening. When the local stress reaches a rupture threshold, it decreases linearly with the crack opening until the rupture is obtained. This first criterion gives good results on the convergence of fragmentation parameters in simple cases |69, 88, 97, 143-147|, but requires a great number of particles. In a second step, another rupture criterion has been introduced for simulating the fragmentation of more complex three-dimensional structures for high-strain rates. This rupture criterion is based on a different physical approach that accounts for heterogeneous brittle materials with defects. These defects can evolve and cause local failure. They are introduced per unit volume elementusing a Weibull probability distribution |29, 33, 42-44|. This distribution depends on the local stress until the local stress reaches an activation threshold. After that, the defects propagate and form areas of relaxation in which defect cannot evolve. The damage evolves as these areas of relaxation evolve. This second rupture criterion has been validated in simple cases by examining the convergence of the statistical parameters of fragmentation. Compared to the first criterion, the second criterion requires ten times fewer particles. After, a more complex three-dimensional case, dynamic tensile tests in Hopkinson bars, has been treated.
140

Caractérisation et prédiction probabiliste des variations brusques et importantes de la production éolienne / Characterization and probabilistic forecasting of wind power production ramps

Bossavy, Arthur 06 December 2012 (has links)
L'énergie éolienne est aujourd'hui la source d'énergie renouvelable en plus forte expansion. Le caractère variable et partiellement contrôlable de sa production complexifie la gestion du système électrique. L'utilisation dans divers processus de décision, de prédictions du niveau de production à des horizons de 2-3 jours, permet une meilleure intégration de cette ressource. Certaines situations donnent néanmoins lieu à des performances de prédiction insatisfaisantes. Des erreurs dans la prédiction de l'instant d'apparition de variations brusques et importantes de la production, peuvent être responsables d'importants déséquilibres énergétiques, et avoir un impact négatif sur la gestion du système électrique. L'objectif de cette thèse est de proposer des approches permettant d'une part de caractériser ces variations, et d'autre part de prédire et d'estimer l'incertitude dans l'instant de leur apparition. Dans un premier temps, nous étudions différentes formes de caractérisation de ces variations. Nous proposons un modèle de rupture permettant de représenter le caractère aléatoire dans la proximité des ruptures d'un signal, tout en tenant compte des aspects borné et non-stationnaire du processus de production. A partir de simulations issues de ce modèle, nous réalisons une étude paramétrique destinée à évaluer et comparer les performances de différents filtres et approches multi-échelles de détection. Dans un deuxième temps, nous proposons une approche de prédiction probabiliste de l'instant d'apparition d'une rupture, reposant sur l'utilisation de prévisions météorologiques ensemblistes. Leur conversion en puissance fournit différents scénarii de la production, à partir desquels sont agrégées les prédictions de l'instant d'apparition d'une rupture. L'incertitude associée est représentée à l'aide d'intervalles de confiance temporels et de probabilités estimées conditionnellement. Nous évaluons la fiabilité et la finesse de ces estimations sur la base de mesures de production provenant de différentes fermes éoliennes. / Today, wind energy is the fastest growing renewable energy source. The variable and partially controllable nature of wind power production causes difficulties in the management of power systems. Forecasts of wind power production 2-3 days ahead can facilitate its integration. Though, particular situations result in unsatisfactory prediction accuracy. Errors in forecasting the timing of large and sharp variations of wind power can result in large energy imbalances, with a negative impact on the management of a power system. The objective of this thesis is to propose approaches to characterize such variations, to forecast their timing, and to estimate the associated uncertainty. First, we study different alternatives in the characterization of wind power variations. We propose an edge model to represent the random nature of edge occurrence, along with representing appropriately the bounded and non-stationary aspects of the wind power production process. From simulations, we make a parametric study to evaluate and compare the performances of different filters and multi-scale edge detection approaches. Then, we propose a probabilistic forecasting approach of edge occurrence and timing, based on numerical weather prediction ensembles. Their conversion into power provides an ensemble of wind power scenarios from which the different forecast timings of an edge are combined. The associated uncertainty is represented through temporal confidence intervals with conditionally estimated probabilities of occurrence. We evaluate the reliability and resolution of those estimations based on power measurements from various real world case studies.

Page generated in 0.0933 seconds