• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 282
  • 109
  • 24
  • 1
  • 1
  • Tagged with
  • 424
  • 205
  • 98
  • 42
  • 39
  • 38
  • 38
  • 37
  • 36
  • 35
  • 32
  • 31
  • 30
  • 29
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Contribution à l'étude de la prise de décision partagée dans les contextes de haute incertitude en oncologie

Canivet, Delphine 22 June 2016 (has links)
L’incertitude est constamment présente en oncologie, et plus particulièrement depuis cette dernière décennie, en raison des avancées médicales qui entrainent des prises de décision de plus en plus complexes. Afin de mieux gérer l’anxiété des patients associée à l’incertitude médicale, des compétences en prise de décision partagée sont recommandées. Toutefois, la plupart des professionnels de la santé éprouvent des difficultés à y recourir. Ce travail de thèse a pour finalité d’apporter une meilleure compréhension des processus de prise de décision partagée dans les contextes de haute incertitude en oncologie et de proposer des perspectives futures en vue de les améliorer. Dans ce but, trois chapitres remplissant des objectifs distincts seront abordés dans le cadre d’un entretien de prise de décision avec une patiente simulée: (1) étudier les prédicteurs des compétences en communication des médecins; (2) étudier les prédicteurs de la satisfaction des médecins par rapport à leur capacité à gérer l’incertitude; (3) évaluer l’efficacité d’une formation à la communication de base en oncologie sur les compétences en prise de décision partagée du personnel infirmier. Le premier chapitre de cette thèse a mis en évidence qu’un plus haut niveau de conflit décisionnel des médecins facilite leurs compétences en communication au cours d’un entretien de prise de décision en situation simulée, tandis que de plus fortes réactions négatives à l’incertitude inhibent leurs compétences. Le second chapitre a montré que ces médecins sont satisfaits de leur capacité à avoir géré l’incertitude au cours de l’entretien, malgré de faibles compétences en communication. Ce niveau de satisfaction est en revanche expliqué par leurs caractéristiques psychologiques, telles que leur niveau d’anxiété associée à l’incertitude et leur sentiment d’empathie. Enfin, le dernier chapitre a permis de mettre en évidence qu’une formation à la communication de base destinée aux infirmiers travaillant en oncologie est efficace, d’une part, pour augmenter leurs stratégies d’évaluation des préoccupations d’une patiente simulée associées au traitement, et d’autre part, pour diminuer leurs comportements paternalistes. Cependant, cette formation n’est pas suffisante pour améliorer l’entièreté d’un processus simulé de prise de décision partagée.Ce travail de thèse permet de sensibiliser les soignants travaillant en oncologie à la nécessité d’améliorer leurs compétences en communication dans les contextes hautement incertains de prise de décision. Il souligne également l’importance de développer des formations à la communication spécifiques à ces contextes, et adaptées aux caractéristiques psychologiques des soignants. / Doctorat en Sciences psychologiques et de l'éducation / info:eu-repo/semantics/nonPublished
112

Comment quantifier l’incertitude prédictive en modélisation hydrologique ? : Travail exploratoire sur un grand échantillon de bassins versants / How to quantify predictive uncertainty in hydrological modelling? : Explorative study based on a large catchment set

Bourgin, François 07 April 2014 (has links)
La modélisation hydrologique permet de quantifier la transformation pluie-débit au sein d’un bassin versant. Bien que les modèles parviennent généralement à représenter de manière acceptable le fonctionnement des bassins versants, cette représentation, nécessairement simplifiée, reste imparfaite, et une quantification des incertitudes est souhaitable. Cette thèse s’intéresse à la quantification de l’incertitude prédictive en modélisation hydrologique. Le principal objectif de nos travaux est d’explorer différentes méthodes qui permettent d’associer à des simulations ou des prévisions de débits déterministes des distributions probabilistes. Nous distinguons le contexte de simulation du contexte de prévision et adoptons dans ces deux cas une démarche comparative et pragmatique qui permet d’évaluer différentes approches sur un large échantillon de bassins versants français, à l’aide de critères d’évaluation adaptés. En simulation, nos travaux ont porté sur deux méthodes liées à l'estimation des paramètres des modèles hydrologiques, la méthode GLUE et le calage bayésien, ainsi que sur deux approches plus pragmatiques, l'approche multi-modèles, et le post-traitement statistique. Nos résultats suggèrent que les approches telles que GLUE qui ne s'appuient que sur un ensemble de différents jeux de paramètres ne parviennent pas, en général, à représenter de manière adéquate l'incertitude prédictive totale. L'utilisation d'un modèle d'erreur extérieur au fonctionnement interne du modèle hydrologique est nécessaire. Les méthodes de post-traitement suffisamment flexibles pour caractériser les erreurs résiduelles obtenues en calage parviennent à refléter de manière plus satisfaisante les marges d'erreurs du modèle hydrologique utilisé. Nous proposons également une méthode qui permet d'obtenir une estimation de l'incertitude prédictive pour les bassins non jaugés, au moyen d'un transfert des marges d'erreurs constatées sur les bassins jaugés. Les résultats indiquent que la méthode est prometteuse et fournit dans la plupart des cas des intervalles de confiance fiables et fins sur les sites non-jaugés. En prévision, nos travaux ont porté d'une part sur la comparaison de différentes méthodes de post-traitement statistique, et d'autre part sur l'interaction entre l'assimilation de données et le post-traitement au sein d'une chaîne de prévision hydrologique d'ensemble. Les résultats obtenus montrent l'importance de la prise en compte de l'évolution de l'incertitude prédictive en fonction de l'échéance de prévision et mettent en évidence les gains de performance qui peuvent être obtenus quand la quantification de l'incertitude s'appuie sur une meilleure caractérisation de la situation de la situation de prévision. Enfin, nos travaux indiquent que l'utilisation conjointe de l'assimilation de données et d'une méthode de post-traitement permet d'améliorer les performances d'une chaîne de prévision hydrologique d'ensemble. / Hydrological modelling aims to quantify the rainfall-runoff relationship at the catchment scale. Although hydrological models are generally able to provide an acceptable representation of the catchment behaviour, this representation is necessarily simplified and imperfect, as a consequence an evaluation of uncertainties is desirable. This thesis focuses on the quantification of predictive uncertainty in hydrological modelling. Our main objective was to explore several methods that can be used to complete the deterministic predictions of a rainfall-runoff model with probabilistic distributions. Two prediction cases were distinguished, namely simulation and forecast. We set up a comparative framework to evaluate different uncertainty quantification methods on a large set of French catchments. In simulation mode, we focused on two methods related to the parameter estimation issue, the GLUE uncertainty method and the Bayesian framework, as well as two more pragmatic approaches, a multi-model approach and the post-processing method. Our results suggest that the GLUE-like methods based on ensembles of various parameter sets do not provide an adequate representation of the total predictive uncertainty. An external model error is necessary. Post-processing methods that are flexible enough to adequately describe the residual errors of the hydrological model obtained during calibration give more satisfactory estimates of the modelling uncertainty. We also present a method able to transfer model uncertainty estimates from gauged to ungauged catchments. Our results demonstrate that the method holds interesting perspectives, providing in most cases reliable and sharp uncertainty bounds at ungauged locations. In a forecasting context, we compared several post-processing methods and evaluated the interactions between data assimilation and post-processing in an ensemble forecasting modelling chain. Results show the crucial role of the lead time on the estimates of predictive uncertainty. They also suggest that some improvement can be achieved when the evolution of flows is better taken into account by a post-processing method. Last, we investigated the interactions between data assimilation and post-processing in hydrological ensemble forecasting and showed the benefits of using both in an ensemble forecast system.
113

Belief relational clustering and its application to community detection / Classification relationnelle crédibiliste : application à la détection de communautés

Zhou, Kuang 05 July 2016 (has links)
Les communautés sont des groupes de nœuds (sommets) qui partagent probablement des propriétés communes et/ou jouent des rôles similaires dans le graphe. Ils peuvent extraire des structures spécifiques des réseaux complexes, et par conséquent la détection de ces communautés a été étudiée dans de nombreux domaines où les systèmes sont souvent représentés sous forme de graphes. La détection de communautés est en fait un problème de classification (ou clustering) sur les graphes, et l'information disponible dans ce problème est souvent sous la forme de similitudes ou de différences (entre les nœuds). Nous commençons par une situation de base où les nœuds dans le graphe sont regroupés selon leurs similarités et proposons une nouvelle approche de clustering enc-partition nommée algorithme Median Evidential C-Means (MECM). Cette approche étend la méthode de classification par médiane dans le cadre de la théorie des fonctions de croyance. En outre, une détection de communautés fondée sur l'approche MECM est également présentée. L'approche proposée permet de fournir des partitions crédales selon des similarités avec seulement des données connues. La mesure de dissimilarité pourrait être ni symétrique et même ne comporter aucune exigences de métriques.Elle est simplement intuitive. Ainsi, elle élargit la portée d'applications des partitions crédales. Afin de saisir les divers aspects des structures de communautés, nous pouvons avoir besoin de plusieurs nœuds plutôt qu'un seul pour représenter un prototype représentant un groupe d'individus. Motivée par cette idée, une approche de détection de communautés fondée sur le Similarity-based Multiple Prototype (SMP) est proposée.Les valeurs de centralité sont utilisées comme critère pour sélectionner plusieurs nœuds(prototypes) pour caractériser chaque communauté, et les poids des prototypes sont considérés pour décrire le degré de représentativité des objets liés à leur propre communauté. Ensuite, la similarité entre chaque nœud et les communautés est définie. Les nœuds sont divisés pour former des communautés selon leurs similarités. Les partitions nettes et floues peuvent être obtenues par l'approche SMP. Ensuite, nous étendons l'approche SMP au cadre des fonctions de croyance pour obtenir des partitions crédales de sorte que l'on puisse obtenir une meilleure compréhension de la structure des données. Les poids du prototype sont incorporés dans la fonction d’objectif de la communauté. La composition de masse et les poids des prototypes ont pu être mis à jour alternativement pendant le processus d'optimisation. Dans ce cas,chaque groupe peut être décrit en utilisant de multiples prototypes pondérés. Comme nous allons le montrer, les poids des prototypes peuvent également nous fournir des informations utiles pour l'analyse des données. la règle de mise à jour et le critère de propagation du LPA sont étendus aux fonctions de croyance. Une nouvelle approche de détection de communautés, appelée Semisupervised Evidential Label Propagation (SELP) est proposée comme une version améliorée de la méthode LPA conventionnelle. L'un des avantages de l'approche SELP est quelle permet de tenir compte de la connaissance préalable disponible sur les étiquettes des communautés de certains individus. Ceci est tr` es courant dans la pratique réelle. Dans la méthode SELP, les nœuds sont divisés en deux partis. Certains contiennent des nœuds labellisés et les autres des nœuds non labellisés. Les labels sont propagés depuis les nœuds labellisés à ceux non labellisés, étape par étape en utilisant la règle crédibiliste de propagation de labels proposée. Les performances des approches proposées sont évaluées en utilisant les graphes de référence des ensembles de données et des graphes générés. Nos résultats expérimentaux illustrent l'efficacité des algorithmes de classification proposés et des méthodes de détection de communautés. / Communities are groups of nodes (vertices) which probably share common properties and/or play similar roles within the graph. They can extract specific structures from complex networks, and consequently community detection has attracted considerable attention crossing many areas where systems are often represented as graphs. We consider in this work to represent graphs as relational data, and propose models for the corresponding relational data clustering. Four approaches are brought forward to handle the community detection problem under different scenarios. We start with a basic situation where nodes in the graph are clustered based on the dissimilarities and propose a new c-partition clustering approach named Median Evidential C-Means (MECM) algorithm. This approach extends the median clustering methods in the framework of belief function theory. Moreover, a community detection scheme based on MECM is presented. The proposed approach could provide credal partitions for data sets with only known dissimilarities. The dissimilarity measure could be neither symmetric nor fulfilling any metric requirements. It is only required to be of intuitive meaning. Thus it expands application scope of credal partitions. In order to capture various aspects of the community structures, we may need more members rather than one to be referred as the prototypes of an individual group. Motivated by this idea, a Similarity-based Multiple Prototype (SMP) community detection approach is proposed. The centrality values are used as the criterion to select multiple prototypes to characterize each community. The prototype weights are derived to describe the degree of representativeness of objects for their own communities. Then the similarity between each node and community is defined, and the nodes are partitioned into divided communities according to these similarities. Crisp and fuzzy partitions could be obtained by the application of SMP. Following, we extend SMP in the framework of belief functions to get credal partitions so that we can gain a better understanding of the data structure. The prototype weights are incorporate into the objective function of evidential clustering. The mass membership and the prototype weights could be updated alternatively during the optimization process. In this case, each cluster could be described using multiple weighted prototypes. As we will show, the prototype weights could also provide us some useful information for structure analysis of the data sets. Lastly, the original update rule and propagation criterion of LPA are extended in the framework of belief functions. A new community detection approach, called Semi-supervised Evidential Label Propagation (SELP), is proposed as an enhanced version of the conventional LPA. One of the advantages of SELP is that it could take use of the available prior knowledge about the community labels of some individuals. This is very common in real practice. In SELP, the nodes are divided into two parts. One contains the labeled nodes, and the other includes the unlabeled ones. The community labels are propagated from the labeled nodes to the unlabeled ones step by step according to the proposed evidential label propagation rule. The performance of the proposed approaches is evaluated using benchmark graph data sets and generated graphs. Our experimental results illustrate the effectiveness of the proposed clustering algorithms and community detection approaches.
114

Gestion de l'incertitude dans le processus d'extraction de connaissances à partir de textes / Uncertainty management in the knowledge extraction process from text

Kerdjoudj, Fadhela 08 December 2015 (has links)
La multiplication de sources textuelles sur le Web offre un champ pour l'extraction de connaissances depuis des textes et à la création de bases de connaissances. Dernièrement, de nombreux travaux dans ce domaine sont apparus ou se sont intensifiés. De ce fait, il est nécessaire de faire collaborer des approches linguistiques, pour extraire certains concepts relatifs aux entités nommées, aspects temporels et spatiaux, à des méthodes issues des traitements sémantiques afin de faire ressortir la pertinence et la précision de l'information véhiculée. Cependant, les imperfections liées au langage naturel doivent être gérées de manière efficace. Pour ce faire, nous proposons une méthode pour qualifier et quantifier l'incertitude des différentes portions des textes analysés. Enfin, pour présenter un intérêt à l'échelle du Web, les traitements linguistiques doivent être multisources et interlingue. Cette thèse s'inscrit dans la globalité de cette problématique, c'est-à-dire que nos contributions couvrent aussi bien les aspects extraction et représentation de connaissances incertaines que la visualisation des graphes générés et leur interrogation. Les travaux de recherche se sont déroulés dans le cadre d'une bourse CIFRE impliquant le Laboratoire d'Informatique Gaspard Monge (LIGM) de l'Université Paris-Est Marne la Vallée et la société GEOLSemantics. Nous nous appuyons sur une expérience cumulée de plusieurs années dans le monde de la linguistique (GEOLSemantics) et de la sémantique (LIGM).Dans ce contexte, nos contributions sont les suivantes :- participation au développement du système d'extraction de connaissances de GEOLSemantics, en particulier : (1) le développement d'une ontologie expressive pour la représentation des connaissances, (2) le développement d'un module de mise en cohérence, (3) le développement d'un outil visualisation graphique.- l'intégration de la qualification de différentes formes d'incertitude, au sein du processus d'extraction de connaissances à partir d'un texte,- la quantification des différentes formes d'incertitude identifiées ;- une représentation, à l'aide de graphes RDF, des connaissances et des incertitudes associées ;- une méthode d'interrogation SPARQL intégrant les différentes formes d'incertitude ;- une évaluation et une analyse des résultats obtenus avec notre approche / The increase of textual sources over the Web offers an opportunity for knowledge extraction and knowledge base creation. Recently, several research works on this topic have appeared or intensified. They generally highlight that to extract relevant and precise information from text, it is necessary to define a collaboration between linguistic approaches, e.g., to extract certain concepts regarding named entities, temporal and spatial aspects, and methods originating from the field of semantics' processing. Moreover, successful approaches also need to qualify and quantify the uncertainty present in the text. Finally, in order to be relevant in the context of the Web, the linguistic processing need to be consider several sources in different languages. This PhD thesis tackles this problematic in its entirety since our contributions cover the extraction, representation of uncertain knowledge as well as the visualization of generated graphs and their querying. This research work has been conducted within a CIFRE funding involving the Laboratoire d'Informatique Gaspard Monge (LIGM) of the Université Paris-Est Marne la Vallée and the GEOLSemantics start-up. It was leveraging from years of accumulated experience in natural language processing (GeolSemantics) and semantics processing (LIGM).In this context, our contributions are the following:- the integration of a qualifation of different forms of uncertainty, based on ontology processing, within the knowledge extraction processing,- the quantification of uncertainties based on a set of heuristics,- a representation, using RDF graphs, of the extracted knowledge and their uncertainties,- an evaluation and an analysis of the results obtained using our approach
115

Investigation électrophysiologique de la boucle méso-cortico-limbique dans des contextes de stress et d'incertitude. / Electrophysiological investigation of meso-cortico-limbic circuit in stressful situations and uncertainty

Takillah, Samir 24 June 2016 (has links)
On constate un regain d’intérêt pour l’étude des potentiels de champs extracellulaires (EFP). Trois principaux rôles fonctionnels des oscillations enregistrées dans le système nerveux ont été proposés : i) le codage d’informations spécifiques ii) la modulation des états attentionnels du cerveau, mais aussi iii) la création d’assemblées dynamiques. Je me suis intéressé aux EFP enregistrés dans les régions du néocortex, de l’hippocampe et de la VTA dans deux cadres expérimentaux dits “contrôlés” - afin de déceler des “motifs” oscillatoires spécifiques dans les mécanismes de mémorisations d’une situation stressante d’une part et dans les prises de décision sous incertitude d’autre part. Nous avons dans un premier temps enregistré et analysé l’activité dans les circuits dopaminergiques de la VTA, le PFC et l’OFC dans un paradigme permettant d’analyser le comportement de souris dans un cadre de prise de décision sous incertitude. Nous avons pu montrer dans un premier temps, que les circuits PFC, OFC et la VTA montrent des séquences d’activations et de synchronisations spécifiques selon le choix de l’individu, en condition incertaine. Dans un second temps, je me suis intéressé à mesurer, chez l’animal éveillé, les effets que pouvait engendrer une situation stressante sur le PFC et l’HPC en fonction de l’âge. Nos résultats mettent en évidence que les principaux effets mesurables aux niveaux des spectres de puissances s’expliquent par l’apparition d’activités électriques de fortes amplitudes dans la gamme (7-12 Hz), dont l’apparition varie en fonction de l’âge et du contexte (repos, stress). / Currently, there is a renewed interest in studying extracellular field potentials (EFP). This signal and the oscillations associated with it are the basis of many studies on the mechanisms underlying cognitive processes in cortical networks. Three key functional roles of oscillations recorded in the nervous system have been proposed: i) encoding specific information ii) modulation of attentional states of the brain, but also iii) creating dynamic assemblies. Although the interest for EFP continues to grow, the interpretation of these signals are sparse. During my prject I focused on the interpretation of EFP patterns under stress and uncertainty and specifically studied neocortex, hippocampus (HPC) and the ventral tegmental area (VTA) signals in these two experimental settings.Firstly, we recorded and analyzed the activity in the dopaminergic circuits including the VTA, PFC (prefrontal cortex) and OFC (orbitofrontal cortex) in a probabilistic decision-making paradigm for mice. We demonstrated that the PFC, OFC and VTA circuit shows specific time-dependent activation sequences depending on the anticipated choice per trial. Secondly, I was interested to measure, in awake animals, the effects caused by a stressful situation at different ages on the PFC and HPC signals. Our results demonstrate major effects at the level of the power spectral analysis. We identified that particularly high amplitudes in the range (7-12 Hz) vary according age and context (rest, stress).
116

Prise de décision sous incertitude et raisonnement probabiliste chez l’enfant : aspects développementaux et différentiels / Decision Making under uncertainty and probabilistic reasoning in children : developmental and differential aspects

Audusseau, Jean 13 May 2016 (has links)
L’étude de la prise de décision sous incertitude en psychologie vise à identifier les processus permettant à l’individu d’atteindre un but en sélectionnant une conduite parmi plusieurs alternatives, lorsqu’il existe une incertitude quant aux conséquences respectives de ces différentes conduites. Nos hypothèses se centrent sur le rôle des fonctions exécutives et du raisonnement logico-mathématique chez l’enfant de 5 à 11 ans. Nous abordons cette thématique sous l’angle des approches différentielle (variabilité inter- et intra-individuelle) et développementale (changement micro- et macrogénétique). Quatre études sont présentées. Les deux premières soulignent le rôle de la mémoire de travail dans la résolution de la tâche du casino chez l’enfant de 8 à 11 ans, et émettent quelques réserves quant au rôle des fonctions exécutives à cette même épreuve chez les enfants de 5 à 7 ans (approche longitudinale). La troisième étude vise à étudier les stratégies des enfants de 5 et 6 ans à l’épreuve de quantification des probabilités à partir d’une analyse conjointe des variations individuelles et situationnelles. Nous identifions plusieurs stratégies correspondant à des niveaux de développement distincts, et nous montrons que les enfants les plus âgés témoignent d’une plus grande flexibilité stratégique en réponse aux variations situationnelles. Enfin, la dernière étude cherche à rendre compte des conduites des enfants de 6 à 11 ans à la tâche du casino à partir du modèle de la valence espérée. La perspective est idiographique et se focalise d’abord sur un modèle individuel, avant d’aboutir à une comparaison des seuls individus chez lesquels ce modèle individuel semble pertinent. / The study of decision making under uncertainty in psychology attempts to identify the various processes by which individuals select a course of action among several alternative possibilities in order to reach a particular goal, when the outcomes of this course of action are uncertain. We hypothesize that executive function and logical-mathematical reasoning may play a role in decision making under uncertainty in children aged 5 to 11. We adopt an individual differences approach (between- end within-individual variability) combined with a developmental approach (micro- ans macrogenetic change). Four studies have been conducted. The first two studies underline working memory role in a gambling task in children aged 8 to 11, and cast some doubts on executive function implication in this gambling task in children aged 5 to 7 (test/retest approach). The third study aims to identify the strategies children aged 5 to 6 use in a probability quantification task. By considering both individual and situational variations, we identify various strategies that relates to distinct developmental levels. We show that older children display a greater strategic flexibility in response to situational variations. Finally, the fourth study seeks to investigate decision making in a gambling task with the Expected Valence model in children aged 6 to 11. Our idiographic approach first focuses on an individual model, and then compares the only children whose decisions were appropriately captured by the individual model.
117

Perceptions et réponses du public aux incertitudes associées aux risques de santé publique: Une investigation par méthodes mixtes

Lalande-Markon, Marie-Pierre January 2011 (has links)
Le but principal de la thèse est de mettre en lumière une conceptualisation heuristique de l’incertitude qui permette d’expliquer la manière dont elle est interprétée par les citoyens dans le contexte des risques de santé publique et quelles stratégies de gestion (coping) sont déployées afin d’y faire face. L’emploi de méthodes mixtes est privilégié. La première étude, testant un schème psychométrique sur les données d’une enquête nationale documentant le risque et l’acceptabilité perçue d’un enjeu de santé publique (N= 1517), révèle que l’incertitude perçue se distingue d’autres évaluations cognitives de la menace, telle que la probabilité. Elle est associée à une augmentation de l’inquiétude ressentie seulement lorsque l’impact perçu du risque sur la santé est élevé. La deuxième étude, testant un devis de recherche expérimental auprès de Canadiens du grand public (N= 434), démontre que l’effet sur l’adhérence au message, de différents types d’avertissements à propos d’un risque varie selon les sources d’incertitude communiquées. En particulier, la communication d’ambiguïté (divergence entre experts ou données contradictoires) diminue l’adhérence au message, alors que la communication d’incertitude épistémique (manque de données scientifiques) ne diminue pas l’adhérence au message ni la confiance envers la source. Les dernières études explorent la construction du sens donné à l’incertitude par les citoyens à travers une approche qualitative, avec trois entrevues individuelles et neuf groupes de discussion réalisés auprès d’adultes provenant de villes canadiennes (N= 47). La troisième étude analyse la portion des entrevues mettant l’accent sur les attentes des citoyens à propos de qui devraient être impliqués dans la communication gouvernementale du risque, pourquoi les incertitudes devraient être communiquées, lesquelles sont désirables, et comment et quand les discuter. La quatrième étude emprunte la méthode de la théorie ancrée afin d’élaborer un schéma conceptuel explicatif des réactions à l’incertitude. Celui-ci identifie et met en lien les principaux facteurs d’importance, soit: la source d’incertitude, les caractéristiques situationnelles et individuelles, le contrôle perçu et la confiance envers la source d’information et les gestionnaires du risque. Ces résultats permettent de mieux comprendre et d’anticiper les réactions du public dans la communication et la gestion du risque.
118

Estimation d'incertitudes d'identification modale avec et sans entrées connues : théorie, validation, application / Uncertainty estimation of Input / Output and Output-Only modal identification : theory, validation and application

Mellinger, Philippe 16 December 2014 (has links)
La détermination des caractéristiques vibratoires est une étape cruciale lors du processus de certification d'une structure ou lors de l'évaluation de sa détérioration. Quelle que soit la technique utilisée, l'identification des modes d'une structure nécessite d'effectuer des essais de vibration. Durant ces essais, on effectue des mesures qui permettent d'observer la réponse du système à une excitation connue, partiellement connue ou inconnue. Les méthodes d'identification modale sont des méthodes globales. Elles permettent de déterminer les modes de la structure à partir d'un post-traitement des données mesurées. Certaines techniques d'identification modale, telles que les méthodes basées sur la minimisation d'erreur de modélisation ARX ou les méthodes sous-espaces, se sont fortement répandues dans le monde industriel ces quinze dernières années. Cependant, malgré ce succès, ces méthodes ne fourniront jamais les paramètres modaux exacts de la structure étudiée. En effet, à cause de nombreuses sources d'erreurs (e.g. bruits sur les capteurs, bruits environnementaux), l'identification modale à partir de données réelles ne peut mener qu'à des estimations des paramètres modaux. Une estimation est par définition entachée d'une erreur statistique, la variance. Le but de cette thèse est l'étude approfondie de l'estimation de cette erreur statistique. Le manuscrit est découpé en trois partie. La première concerne la description détaillée de deux familles d'identification modale (minimisation d'erreur de modélisation ARX et méthodes sous-espace). La seconde partie décrit le principe de l'estimation des incertitudes et fournit les chaînes de propagation des variances. La troisième partie présente une validation poussée de ces méthodes dans le but d'une utilisation opérationnelle. / Determinination of vibration characteristics is a crucial step for structure certification or health monitoring. Whatever the method, modes identification of a structure requires vibration tests. During these tests, measurements are made in order to observe responses of the system to known, partially known or unknown excitations. Modal identification methods are global methods. They allow the determination of modes from data post-treatment. Some modal identification methods, such as those based on ARX modelisation error minimisation or subspace methods, have been largely spread into the industry for about fifteen years. Despite this succes, these methods will never provide exact results. Indeed, due to numerous error sources (e.g. sensor noises, environmental noises), modal identifications based on measured data can only lead to modal parameters estimations. By definition, an estimation is subject to statistical errors, also called variances. The purpose of this thesis is to give an in-depth study of these statistical errors estimation. This document is divided in three parts. Firstly, a description of two kind of modal identification methods (ARX modelisation error minimisation and subspace methods) is given. Secondly, the uncertainty estimation principle is explained and propagation schemes of variances are given. Finally, the third part provides an in-depth validation of these methods in order to proceed to industrial utilisations.
119

Modélisation du comportement, de l'endommagement et de la rupture de matériaux composites à renforts tissés pour le dimensionnement robuste de structures

Marcin, Lionel 29 January 2010 (has links)
De par leur bonne tenue à l’impact, les matériaux composites tissés sont de bons candidats pour la conception de pièces aéronautiques. Toutefois, le manque de confiance dans les modèles se traduit par de lourdes campagnes expérimentales. L’augmentation de la part de simulation numérique et donc la réduction des coûts de certification passent par le développement d’outils permettant de dimensionner au plus juste les structures composites tissées à matrice organique (CMO) ou céramique (CMC). C’est dans ce cadre que s’inscrit cette thèse. Les formulations proposées par l’Onera a?n de décrire l’e?et de l’endommagement matriciel ont été adaptées et étendues pour prendre en compte les spéci?cités des matériaux de notre étude, en particulier la viscosité pour les CMO. Des essais sur pièces génériques ont été simulés et confrontés à l’expérience dans le but d’évaluer la pertinence des modèles développés. Ces comparaisons en partie validantes ont mis en évidence les limites des modèles dans le cadre de l’analyse de la tenue d’une structure présentant un gradient de contrainte. A?n d’améliorer les prévisions des simulations, les effets de la rupture progressive ont été pris en compte dans les formulations. Pour s’affranchir de la localisation numérique de l’endommagement, une approche originale de régularisation couplant modélisation non locale de l’endommagement et taux d’endommagement limité a été développée. Les confrontations essai/calcul ont mis en évidence l’apport d’une modélisation plus ?ne des mécanismes d’endommagement et de rupture sur l’étude de la tenue de la structure. Compte tenu des nombreuses sources d’incertitudes, quelle confiance accorder à la simulation ? Pour répondre à cette question, l’effet des incertitudes sur des quantités d’intérêts (contrainte à rupture) a été évalué. Par ailleurs, une analyse de sensibilité (décomposition de variance) a été entreprise pour l’étude de faisabilité d’une démarche de capitalisation. Dans l’optique d’une démarche d’analyse de la tolérance aux défauts, l’efficacité de notre approche à traiter diverses singularités (taille, forme) est démontrée. En?n, les limites de la modélisation macroscopique sont discutées. / Due to their high specific properties, the use of woven composite materials has become an important commercial issue in the aeronautical applications. However, the lack of confidence in classic simulation tools used for design and conception of new structures leads to huge experimental campaigns. The increase of simulations and so the decrease of certification costs requires tools development allowing a more accurate design of woven composite structures with polymer (PMC) or ceramic matrix (CMC). This present thesis is focused on that point. The current formulations are extensions of the damage approach developed at Onera to describe matrix damage. Particularly, the nonlinearity due to viscosity for PMC is taken into account. Various structural tests on generic parts has been simulated and compared to experimental results in order to evaluate the efficiency of the models. The simulations are in good agreement with the experiments except for structure with high stress gradient. In order to improve the simulations accuracy, the effect of progressive failures are introduced. To avoid the numerical problems such as damage localization or mesh sensitivity associated with the softening behavior, an original method coupling delay effect and non local approach is proposed. A good agreement between experimental and finite element calcultion results was shown. Given many uncertainties, how much can the simulation be trusted ? In order to answer this question, the influence of uncertainties on given quantities of interest (stress failure for example) has been evaluated. Moreover, a sensivity analysis has been performed for the study of an experiment capitalisation approach. In the prospect of a reliable damage tolerance analysis, the efficiency of our approach to deal with various singularities (size, form) is shown. The limits of a macroscopic modelling are ?nally discussed.
120

Integrating top-down and bottom-up approaches to design a cost-effective and equitable programme of measures for adaptation of a river basin to global change. / Intégrer les approches "top-down" et "bottom-up" pour définir un programme de mesures cout-efficace et équitable pour s'adapter au changement global à l'échelle d'un bassin versant

Girard, Corentin 22 December 2015 (has links)
L’adaptation au changement global à l’échelle des bassins versants requiert la sélection des mesures d’adaptation efficace dans un contexte d’incertitudes élevées concernant les conditions futures. Étant donné l’interdépendance entre les usagers de l’eau à l’échelle d’un bassin versant, des accords sont nécessaires pour mettre en place les mesures d’adaptation les plus efficaces. Cette thèse développe une approche pour : sélectionner un programme de mesures d’adaptation coût-efficace dans un contexte d’incertitudes liées au changement climatique ; et pour définir une répartition équitable du coût d’un tel programme de mesures entre les différentes parties prenantes. Le cadre méthodologique développé intègre les deux principales approches habituellement utilisées pour la planification de l’adaptation. La première, intitulée « Top-down» (Descendante), évalue l’impact de différents scénarios climatiques au niveau global sur les ressources en eau à l’échelle locale. La deuxième approche, appelée « Bottom-up » (Ascendante), commence par évaluer la vulnérabilité au niveau local pour ensuite identifier des mesures d’adaptation qui permettront de faire face à un futur incertain. Les résultats des approches précédentes, appliquées dans le bassin versant de l’Orb (France), ont été intégrés au moyen d’un modèle d’optimisation pour sélectionner une combinaison coût-efficace de mesures d’adaptation, considérant la possibilité de développer de nouvelles infrastructures, mais aussi de mettre en place des mesures d’économie d’eau dans les ménages ou d’amélioration de l’efficacité de l’irrigation. Le modèle est ensuite utilisé pour explorer les arbitrages possibles entre différents objectifs de planification et identifier des mesures d’adaptation robustes et de moindre regret. La question de la répartition du coût du plan d’adaptation est ensuite considérée depuis deux perspectives complémentaires. Le processus de négociation entre les acteurs impliqués est modélisé au moyen de la théorie des jeux coopératifs pour définir des scénarios de répartition des coûts équitables. Ces scénarios sont ensuite comparés avec des règles de répartition des coûts basées sur différents principes de justice sociale évaluées avec les acteurs locaux pour apporter des éléments de discussion au processus de négociation. Le cadre méthodologique interdisciplinaire développé durant cette thèse contribue à combler l’écart entre les méthodes Top-down (descendantes) et Bottom-up (ascendantes) pour informer la définition de plan d’adaptation coût-efficace et équitable à l’échelle locale. / Adaptation to global change challenges at the river basin scale requires selecting from demand and supply management measures in a context of high uncertainty on future conditions. Given the interdependency of water users, agreements need to be found at the local level to implement the most effective adaptation measures. Therefore, this thesis develops an approach combining economics and water resources engineering to: select a cost-effective programme of adaptation measures in the context of climate change uncertainty; and define an equitable allocation of the cost of the adaptation plan between the stakeholders involved. The framework developed integrates inputs from the two main approaches commonly used to plan for adaptation. The first, referred to as “top-down”, estimates the impact on the local water resources from different climate change scenarios at the global level. Conversely, the second, called “bottom-up”, starts by assessing vulnerability at the local level to then identify adaptation measures to face an uncertain future. Outcomes from the previous approaches applied in the Orb River basin (France) are integrated to select a cost-effective combination of adaptation measures through a least-cost optimization model developed at the river basin scale. Supply-side infrastructure development measures are considered, as well as demand-side household water conservation measures or irrigation efficiency improvement. The model is then used to investigate the trade-offs between different planning objectives and to identify robust and least-regret adaptation measures. The issue of allocating the cost of the adaptation plan is considered from two complementary perspectives. The outcome of a negotiation process between the stakeholders is modelled through the implementation of cooperative game theory to define cost allocation scenarios. These results are then compared with cost allocation rules based on social justice principles to provide contrasted insights into a negotiation process. The interdisciplinary framework developed during this thesis combines economics and water resources engineering methods, creating a promising means of bridging the gap between bottom-up and top-down approaches and supporting the definition of cost-effective and equitable adaptation plans at the local level.

Page generated in 0.0423 seconds