• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 282
  • 109
  • 25
  • 1
  • 1
  • Tagged with
  • 425
  • 205
  • 99
  • 42
  • 39
  • 38
  • 38
  • 37
  • 36
  • 35
  • 32
  • 31
  • 30
  • 29
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Processus décisionnel de fin de vie en réanimation néonatale : arbitrer entre le certain et l'incertain / End-of-life Decision-Making Process in Neonatology : to Adjudicate Between the Certainty and the Uncertainty

Mokhtari, Mostafa 16 December 2019 (has links)
Le processus décisionnel est un évènement particulier qui confronte les soignants à leurs doutes et à leurs incertitudes. Chaque décision comporte inéluctablement une part de doute et d’incertitude, sinon elle ne mérite pas d’être appelée « décision », car elle ne serait que le résultat de l’application d’un savoir acquis à l’avance, à une situation connue. C’est cette part d’incertitude qui est le lieu de la réflexion et qui offre à chacun la possibilité de se questionner, c’est-à-dire de se mettre dans la situation où il faut vaincre l’indécidable pour pouvoir décider. Au cours de ce travail, j’aborde le rôle du médecin en tant qu’arbitre entre le certain et l’incertain en situation de fin de vie chez le nouveau-né. Afin de cerner cette problématique, je rapporte six observations cliniques, toutes tirées de ma propre expérience et qui illustrent mieux qu’un long discours les notions du certain et de l’incertain, et permettent de donner à chacune de ces notions son véritable sens pratique de manière concrète.Vouloir aborder la notion de l’incertain au cours du processus décisionnel en situation de fin de vie, consiste à accepter d’aller à l’encontre de la culture médicale dominante, qui valorise la certitude, car l’incertitude véhicule une image négative dans l’imaginaire des soignants. Pourtant, le doute peut avoir un effet salvateur sur le processus décisionnel, car il incite les soignants à se concerter avant de décider. Ainsi, celui qui doute n’est pas un ignorant, mais quelqu’un de prudent au sens aristotélicien, c’est-à-dire qui soumet son choix à la critique des autres, dans le cadre d’une procédure de délibération collégiale. Ainsi, l’incertitude met en tension les convictions qui relèvent de l’éthique déontologique, et la responsabilité qui relève de l’éthique téléologique. C’est la confrontation entre ces deux éthiques qui permet au soignant de décider en ayant la paix dans l’âme. / The end-of-life (EOL) decision-making process remains a particular event that confronts health care teams with their doubts and uncertainties. Indeed, for such a decision to made, there must be some doubt and uncertainty, otherwise, instead of being a conscious “decision”, it becomes a simple application of prior knowledge. EOL decisions are not simply a case of the decision-maker overcoming his or her indecisiveness. In this work, I examine the role of the doctor as an arbitrator in the conflict between the certain and the uncertain in EOL situations in the neonatal period. I have based my work on the analysis of the trajectories of six clinical observations drawn from my own experience, which illustrate, better than a long speech, the notion of the certain and the uncertain, and give these abstract concepts a concrete and practical meaning.To explore the notion of the uncertain during the decision-making process in EOL situations, is to accept to go against the dominant medical culture that values certainty, because uncertainty is negatively perceived amongst caregivers. However, doubt can have a beneficial effect on the decision-making process itself, and on the consequences of the decision taken, since it encourages discussion between caregivers and allows time for decision-making. Thus, he or she who doubts is not ignorant, but cautious in the Aristotelian sense, when trying to deliberate a choice by subjecting it to the criticism of others as part of a procedure of collegial reflection.In this work, I also show that doubt and uncertainty compel the decision-maker to confront his or her personal convictions, which constitutes ethical ethics, with his or her responsibility, which is teleological ethics. It is only in the tension between these two ethics that the caregiver can decide with peace of mind.
212

Estimation temporelle avec interruption : les effets de localisation et de durée d'interruption sont-ils sensibles à l'incertitude ?

Blier, Mylène 16 April 2018 (has links)
Lors d'études portant sur la production d'intervalles temporels avec interruption, deux principaux effets sont généralement retrouvés lorsque la localisation et la durée de l'interruption varient: les productions temporelles sont plus courtes 1) lorsque l'interruption arrive tôt dans l'intervalle de temps et 2) lorsque la durée de l'interruption est plus longue. L'effet de localisation s'explique principalement par un partage attentionnel lors de la période qui précède l'interruption, mais peut aussi refléter en partie l'effet de processus préparatoires précédant l'interruption. L'effet de durée d'interruption est expliqué par les processus de préparation qui prennent place durant l'interruption. Une façon de réduire les effets préparatoires est d'augmenter l'incertitude quant au moment d'arrivée du signal auquel on doit réagir. L'objectif principal du mémoire doctoral est de tester la sensibilité des effets de localisation et de durée d'interruption à l'incertitude dans trois expériences. Les deux premières expériences portent sur la production d'intervalle temporelle avec interruption. La dernière expérience vérifie l'effet de l'incertitude sur la préparation dans un paradigme de temps de réaction. Pour chaque expérience, deux conditions sont utilisées, soient un groupe où l'incertitude est faible et un autre où l'incertitude est élevée. Dans la première expérience, l'effet de localisation est plus fort dans le groupe où l'incertitude est faible. Aucun effet significatif n'est retrouvé dans l'expérience où la durée de l'interruption est manipulée, ce qui est expliqué principalement par la taille de l'effet de durée d'interruption. Dans la tâche de temps de réaction, l'effet de la période préparatoire est plus prononcé dans le groupe où l'incertitude est faible contrairement au groupe où l'incertitude est élevée. Les résultats permettent de conclure que l'incertitude affecte le partage attentionnel dans l'effet de localisation, mais affecte surtout l'effet de préparation qui serait impliqué dans les trois expériences. Ces résultats s'expliquent du fait que les participants montrent une meilleure préparation lorsque l'incertitude est faible.
213

Évaluation de l'incertitude liée à la modélisation hydraulique au sein d'un système de prévision d'ensemble des niveaux d'eau

Bessar, Mohammed Amine 19 November 2021 (has links)
Les inondations présentent une grande menace à la sécurité humaine et matérielle. Les effets associés à ces phénomènes naturels risquent d'augmenter encore plus avec les tendances liées aux changements climatiques. Il est donc important de disposer d'outils de prévision et de prévention des crues fiables afin de mitiger les conséquences dévastatrices reliées. La mise en œuvre de ces outils implique des processus physiques assez complexes et nécessite beaucoup de données avec toute l'incertitude associée. Dans cette thèse, on explore les différentes sources d'incertitudes liée à la détermination des niveaux d'eau en rivières principalement dans un contexte de prévision où l'incertitude liée aux données de forçage est très importante. Les analyses conduites sont appliquées à la rivière Chaudière au Québec. En premier lieu, nous avons exploré les différentes sources paramétriques d'incertitude associées à la modélisation hydraulique dans un contexte de simulation avec un accent sur l'amélioration de la calibration du modèle hydraulique. Par la suite, dans un contexte de prévision opérationnel, on a évalué la propagation des sources d'incertitude de la prévision atmosphérique au modèle de rivière en passant par les prévisions hydrologiques avec des techniques probabilistes d'ensemble. La quantification de l'incertitude a montré que les données de forçage sont celles qui contribuent le plus à la description de l'incertitude dans la détermination des niveaux d'eau. L'incertitude paramétrique, dans un contexte de prévision, est quant à elle négligeable. Le recours à des prévisions d'ensemble a permis de produire une prévision de niveau d'eau assez fiable et a montré que celle-ci est fortement liée à la qualité des données qui proviennent de la chaine de prévision hydrométéorologique à l'amont du système de prévision proposé. / Floods are a major threat to human and infrastructure security. The impacts of these natural hazards are likely to increase further with climate change trends. It is therefore important to develop reliable flood forecasting and mitigation tools to help reduce their devastating consequences. The implementation of these tools involves quite complex physical processes and requires a lot of data with all the associated uncertainty. In this thesis, we explore and evaluate the different sources of uncertainty related to the determination of water levels in rivers mainly in a forecasting context where the uncertainty related to forcing data is very important. The analysis carried out is applied to the Chaudière River in Quebec. First, we explored the various parametric sources of uncertainty associated with hydraulic modelling in a simulation context with a focus on improving the calibration of the hydraulic model. Then, in an operational forecasting context, we evaluated the propagation of uncertainty sources from climate forecast to the river model through hydrological forecasting using ensemble driven techniques. Quantification of uncertainty showed that forcing data contribute the most to the description of uncertainty in water level determination and the parametric uncertainty, in a forecasting context, is very negligible. The adoption of ensemble forecasts allowed us to provide reliable water level forecasts and showed that they are highly dependent on the quality of the data produced by the hydrometeorological forecast chain upstream of the proposed forecasting system.
214

Approche communicationnelle de l'incertitude dans les projets innovants en phase de lancement / Communicational approach of the uncertainty in the initial phase of innovative projects

Camin, Jean-Michel 03 December 2014 (has links)
Alors que les principales activités d’un chef de projet s’effectuent à travers le processus de communication, on observe que de nombreux projets font l'objet de retards, dérives ou défauts de spécifications. Excès de mesures pour prévenir le risque ou gestion déficiente de la communication laissant trop de place à l’incertitude ? La Théorie de la Réduction de l’Incertitude développée par Berger et Calabrese (1975) dans le champ de la communication ne permet pas de totalement saisir comment un chef de projet dissipe l’incertitude existante entre les acteurs. En revisitant un projet opérationnel dans le cadre d’une recherche-action, nous nous employons à identifier comment incertitude et communication s’influencent et se structurent mutuellement. Nous avons convoqué l’approche constructiviste et la théorie de l’acteur-réseau de Callon et Latour pour accéder au sens de cette relation circulaire. Nous avançons les hypothèses selon lesquelles : - L’incertitude est un actant qui intervient dans la construction du réseau (au sens de Bruno Latour (2007) « ce qui est tracé par les traductions »).- Le processus de communication diffère suivant la nature de l’incertitude rencontrée ou ressentie. - Le processus de communication performe et scelle les relations en les rendant si coûteuses à défaire et si économiques à maintenir, qu’elles deviennent irréversibles. L’approche communicationnelle de l’incertitude mettra en évidence plusieurs caractéristiques de cet actant, comme sa capacité à peupler un « réseau de manques », la façon dont le réseau se hiérarchise pour faire sens, la description du processus d’estimation continue dont il fait l’objet (l’Incertus). Si nous concevons l’incertitude comme l’attribut d’un phénomène alors la « communication-incertitude » fabrique le sens en même temps qu’elle détermine la valeur de cet attribut. En positionnant l’incertitude comme un phénomène socialement construit, nous présentons un modèle constructiviste de « communication-incertitude » où l’observateur est un acteur intentionnel limité par des contraintes (Boudon, 2009) et proposons de distinguer la nature de l’incertitude suivant une typologie : l’incertitude de variabilité (inhérente à la variabilité des choses), l’incertitude épistémique ambiguë ou non (due à l’imperfection de nos connaissances) et l’incertitude d'échelle (en rapport avec l’imperfection de nos modèles de représentations). Dans ce mouvement vers l’irréversibilité, les processus de communication participent au remplacement des médiateurs (qui transforment, redonnent du sens, font faire des choses inattendues) par des intermédiaires (qui transmettent, transfèrent sans modifier) et les actants les plus réversibles sont évacués vers la périphérie du réseau. / While the main activities of a project manager are done through the communication process, it is observed that many projects are subject to delays, excesses or defects specifications. Excess of measurements to prevent the risk ? Defective management of the communication which leaves too much place to uncertainty ? The Theory of Uncertainty Reduction developed by Berger and Calabrese (1975) in the field of communication does not fully understand how a project dissipates the existing uncertainty between actors. By revisiting an operational project within the framework of action research, we strive to identify how uncertainty and communication influence and form themselves mutually. We used the constructivist approach and the actor-network theory of Callon and Latour to reach the meaning of this circular relationship. We advance the following hypotheses: - Uncertainty is a nonhuman actor involved in the construction of the network (as defined by Bruno Latour (2007) "which is drawn by translations"). - The communication process differs according to the nature of the uncertainty encountered or felt. - The communication process performs and seals relationships by making them so expensive to undo and so economic to maintain, that they become irreversible. The communicational approach of the uncertainty will highlight several features of this nonhuman actor, as its ability to populate a "network of gaps", the way the network ranks into a hierarchy to make sense, the description of the continuous process of estimation (the Incertus). If we conceive uncertainty as an attribute of a phenomenon, then "communication-uncertainty" makes sense at the same time it determines the value of this attribute. By positioning uncertainty as a socially constructed phenomenon, we present a constructivist model of "communication-uncertainty" where the observer is an intentional actor limited by constraints (Boudon, 2009). We propose to distinguish the nature of uncertainty following a typology: the variability uncertainty (inherent variability of things), the epistemic uncertainty ambiguous or not (due to the imperfection of our knowledge) and the scale uncertainty (in touch with the imperfection of our models of representations). In this movement towards irreversibility, the communication processes involved in replacing mediators (which transform, give meaning, make unexpected things do) by intermediaries (which transmit, transfer without changing) and the most reversible nonhumans actors are evacuated to the network edge.
215

QUELQUES LIENS ENTRE LA THÉORIE DE L'INTÉGRATION NON-ADDITIVE ET LES DOMAINES DE LA FINANCE ET DE L'ASSURANCE

Grigorova, Miryana 18 October 2013 (has links) (PDF)
Cette thèse de doctorat fait quelques liens entre la théorie de l'intégration non-additive et les notions d'ordre stochastique et de mesure du risque utilisées en finance et en assurance. Nous faisons un usage extensif des fonctions d'ensembles monotones normalisées, appelées également capacités, ou encore probabilités non-additives, ainsi que des intégrales qui leur sont associées, appelées intégrales de Choquet. Dans le premier chapitre, nous établissons une généralisation des inégalités de Hardy-Littlewood au cas d'une capacité. Nous y faisons également quelques compléments sur les fonctions quantiles par rapport à une capacité. Dans le deuxième chapitre, nous généralisons la notion de dominance stochastique croissante convexe au cas d'une capacité, et nous résolvons un problème d'optimisation dont la contrainte est donnée en termes de cette relation généralisée. Dans le troisième chapitre, nous nous intéressons à la généralisation de la notion de dominance stochastique croissante. Nous étudions également les classes de mesures du risque satisfaisant aux propriétés d'additivité comonotone et de consistance par rapport à l'une des relations de dominance stochastique "généralisées" précédemment considérées. Nous caractérisons ces mesures du risque en termes d'intégrales de Choquet par rapport à une "distorsion" de la capacité initiale. Le quatrième chapitre est consacré à des mesures du risque admettant une représentation "robuste" en termes de maxima (sur un ensemble de fonctions de distorsion) d'intégrales de Choquet par rapport à des capacités distordues.
216

L'investissement dans l'environnement : essais sur l'efficacité énergétique et sur la substitution des ressources

Mosino, Alejandro 21 September 2012 (has links) (PDF)
Les gaz à effet de serre (GES) sont en partie responsables du changement climatique. L'humanité est donc confrontée à un choix : soit de réduire les émissions des gaz qui sont la cause du problème, ou bien de prendre de mesures pour permettre aux populations de surmonter les conséquences de ces changements. Dans cette thèse, nous nous concentrons sur la première solution sous la prémisse selon laquelle une grande partie de l'effet de serre provient des activités humaines. Plus précisément, nous proposons quelques essais sur la modélisation des déterminants des investissements ayant pour objet la réduction des GES, en particulier des investissements dans l'amélioration de l'efficacité énergétique, et des investissements dans la substitution de ressources (fossiles) non-renouvelables par des ressources renouvelables. Tout d'abord nous essayons et expliquons la lente diffusion de certains investissements dans l'efficacité énergétique dans un cadre d'équilibre général. Ensuite, nous étudions les déterminants de la substitution des ressources non-renouvelables par des ressources renouvelables lorsque celles-ci sont des substituts parfaits. Enfin, nous tenons compte de la nécessité permanente de ressources sales, même si des technologies plus propres sont disponibles. Toutes ces questions sont basées sur des modèles qui ne peuvent être entièrement résolus analytiquement. Par conséquent, nous proposons dans cette thèse une méthodologie basée sur les propriétés des polynômes de Chebyshev pour calculer les solutions.
217

Les impacts du changement climatique sur les ressources en eaux en Méditerranée

Nassopoulos, Hypatia, Nassopoulos, Hypatia 13 March 2012 (has links) (PDF)
Le changement climatique pourrait avoir des conséquences importantes pour les ressources en eaux et les infrastructures hydrauliques. Le dimensionnement et le fonctionnement des réservoirs devraient ainsi être modifiés en prenant en compte des scénarios de changement climatique. Un modèle de dimensionnement coût-bénéfice d'un réservoir à l'échelle du bassin versant est appliqué en Grèce afin d'évaluer le coût de l'incertitude sur le climat futur et les dommages du changement climatique. Dans cette étude de cas, le coût de l'erreur est faible, et l'adaptation n'est pas efficace. Une méthodologie sur toute la région méditerranéenne, avec une modélisation générique à l'échelle des bassins versant est ensuite développée. Les réseaux de réservoirs et les liens réservoirs-demandes sont reconstruits et le fonctionnement coordonné des réseaux de réservoirs est déterminé, en utilisant uniquement des données disponibles à l'échelle globale. La méthodologie de reconstruction des liens est appliquée à l'irrigation et validée qualitativement sur l'Algérie. Le changement de fiabilité, avec adaptation des règles opérationnelles, sous changement climatique, semble être plus influencé par les changements de ruissellement que par les changements de demande. Les changements obtenus pour le Nil, l'Europe et le Moyen Orient ne sont pas très marqués, alors que les pays d'Afrique du Nord sous influence méditerranéenne comme la Tunisie ou l'Algérie voient une diminution importante de la fiabilité des apports d'eau pour l'irrigation
218

La cohérence conceptuelle d’étudiants collégiaux en mécanique newtonienne et en métrologie

Périard, Martin 12 1900 (has links)
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée. / This thesis evaluates the coherence of the conceptual network demonstrated by college students in life and applied sciences. This evaluation was based on the analysis of Burt tables issuing from multiple choice questionnaires, on the creation and careful examination of a novel tool, the matrix of specific discrimination coefficients, which will be described in the main text, and on the qualitative analysis of actual laboratory work of students doing an experimentation. At the completion of this project, four research axis have been explored. 1) What is the conceptual coherence demonstrated in Newtonian mechanics? 2) Is the mastery of uncertainty quantification related to the development of logical thinking or to mathematical competency? 3) What is the conceptual coherence demonstrated in the quantification of experimental uncertainty? 4) What are the concrete procedures utilized by students to quantify experimental uncertainty in a semi-directed laboratory context? The main conclusions that emerged from each axis of research can be summerized as follow. 1) The most prevalent erroneous conceptions are not solidly set in a rigid conceptual network. For example, a student successful in a question about Newton’s third law (the most difficult subject of the Force Concept Inventory) is just slightly more likely to succeed in another related question than the other participants. Many pairs of questions displays a negative specific discrimination coefficient demonstrating a weak conceptual coherence in pre-test and a somewhat ameliorated conceptual coherence in post-test. 2) If a small proportion of students has demonstrated marked deficiencies in questions related with control of variable and in those related to the relationship between the graphical display of experimental data and a mathematical model, the majority of students can be considered as adequately mastering those subjects. However, almost every student demonstrated a lack of mastery of concepts underlying the quantification of experimental uncertainty and the propagation of uncertainty (heretofore referred to as metrology). No statistically significant correlation has been observed between the three main topics suggesting that they are largely independent cognitive abilities. Burt table has demonstrated a greater degree of conceptual coherence between control of variables questions than suggested by Pearson correlation coefficients. Equivalent question in the topic of metrology did not permit to demonstrate a clear conceptual coherence. 3) Analysis of a questionnaire entirely devoted to metrology has shown erroneous conceptions caused by prior learning (didactical obstacles), erroneous conceptions based on intuitive models and a lack of global comprehension of metrological concepts although some appear to be almost acquired. 4) When doing real experiments in semi-directed laboratory, students demonstrated the same difficulty identified in the questionnaire of 3) which could interpreted as corroborating previously obtaine results. However, many unanticipated behaviors related to measurement were observed that could not have been anticipated solely by analyzing answers in the multiple-choice questionnaire. Interviews immediately following each semi-directed laboratory permitted the participants to detail certain aspects of their metrological methodology. Most notably, the use of repeated measurement strategies, their « spontaneous » strategies to quantify uncertainty, and their explanation of numerical estimates of reading uncertainties. Overall, uncertainty propagation algorithms were adequately employed. Many erroneous metrological conceptions seem to resist strongly to be modified by learning. Among others, assignation of the resolution of a digital scale as the uncertainty value and the lack of stacking strategies to diminish uncertainty. The conception that a numerical value cannot be more precise than the tolerance of an instrument seems firmly set.
219

Essais en microéconomie appliquée

Agbo, Maxime 05 1900 (has links)
La thèse comporte trois essais en microéconomie appliquée. En utilisant des modèles d’apprentissage (learning) et d’externalité de réseau, elle étudie le comportement des agents économiques dans différentes situations. Le premier essai de la thèse se penche sur la question de l’utilisation des ressources naturelles en situation d’incertitude et d’apprentissage (learning). Plusieurs auteurs ont abordé le sujet, mais ici, nous étudions un modèle d’apprentissage dans lequel les agents qui consomment la ressource ne formulent pas les mêmes croyances a priori. Le deuxième essai aborde le problème générique auquel fait face, par exemple, un fonds de recherche désirant choisir les meilleurs parmi plusieurs chercheurs de différentes générations et de différentes expériences. Le troisième essai étudie un modèle particulier d’organisation d’entreprise dénommé le marketing multiniveau (multi-level marketing). Le premier chapitre est intitulé "Renewable Resource Consumption in a Learning Environment with Heterogeneous beliefs". Nous y avons utilisé un modèle d’apprentissage avec croyances hétérogènes pour étudier l’exploitation d’une ressource naturelle en situation d’incertitude. Il faut distinguer ici deux types d’apprentissage : le adaptive learning et le learning proprement dit. Ces deux termes ont été empruntés à Koulovatianos et al (2009). Nous avons montré que, en comparaison avec le adaptive learning, le learning a un impact négatif sur la consommation totale par tous les exploitants de la ressource. Mais individuellement certains exploitants peuvent consommer plus la ressource en learning qu’en adaptive learning. En effet, en learning, les consommateurs font face à deux types d’incitations à ne pas consommer la ressource (et donc à investir) : l’incitation propre qui a toujours un effet négatif sur la consommation de la ressource et l’incitation hétérogène dont l’effet peut être positif ou négatif. L’effet global du learning sur la consommation individuelle dépend donc du signe et de l’ampleur de l’incitation hétérogène. Par ailleurs, en utilisant les variations absolues et relatives de la consommation suite à un changement des croyances, il ressort que les exploitants ont tendance à converger vers une décision commune. Le second chapitre est intitulé "A Perpetual Search for Talent across Overlapping Generations". Avec un modèle dynamique à générations imbriquées, nous avons étudié iv comment un Fonds de recherche devra procéder pour sélectionner les meilleurs chercheurs à financer. Les chercheurs n’ont pas la même "ancienneté" dans l’activité de recherche. Pour une décision optimale, le Fonds de recherche doit se baser à la fois sur l’ancienneté et les travaux passés des chercheurs ayant soumis une demande de subvention de recherche. Il doit être plus favorable aux jeunes chercheurs quant aux exigences à satisfaire pour être financé. Ce travail est également une contribution à l’analyse des Bandit Problems. Ici, au lieu de tenter de calculer un indice, nous proposons de classer et d’éliminer progressivement les chercheurs en les comparant deux à deux. Le troisième chapitre est intitulé "Paradox about the Multi-Level Marketing (MLM)". Depuis quelques décennies, on rencontre de plus en plus une forme particulière d’entreprises dans lesquelles le produit est commercialisé par le biais de distributeurs. Chaque distributeur peut vendre le produit et/ou recruter d’autres distributeurs pour l’entreprise. Il réalise des profits sur ses propres ventes et reçoit aussi des commissions sur la vente des distributeurs qu’il aura recrutés. Il s’agit du marketing multi-niveau (multi-level marketing, MLM). La structure de ces types d’entreprise est souvent qualifiée par certaines critiques de système pyramidal, d’escroquerie et donc insoutenable. Mais les promoteurs des marketing multi-niveau rejettent ces allégations en avançant que le but des MLMs est de vendre et non de recruter. Les gains et les règles de jeu sont tels que les distributeurs ont plus incitation à vendre le produit qu’à recruter. Toutefois, si cette argumentation des promoteurs de MLMs est valide, un paradoxe apparaît. Pourquoi un distributeur qui désire vraiment vendre le produit et réaliser un gain recruterait-il d’autres individus qui viendront opérer sur le même marché que lui? Comment comprendre le fait qu’un agent puisse recruter des personnes qui pourraient devenir ses concurrents, alors qu’il est déjà établi que tout entrepreneur évite et même combat la concurrence. C’est à ce type de question que s’intéresse ce chapitre. Pour expliquer ce paradoxe, nous avons utilisé la structure intrinsèque des organisations MLM. En réalité, pour être capable de bien vendre, le distributeur devra recruter. Les commissions perçues avec le recrutement donnent un pouvoir de vente en ce sens qu’elles permettent au recruteur d’être capable de proposer un prix compétitif pour le produit qu’il désire vendre. Par ailleurs, les MLMs ont une structure semblable à celle des multi-sided markets au sens de Rochet et Tirole (2003, 2006) et Weyl (2010). Le recrutement a un effet externe sur la vente et la vente a un effet externe sur le recrutement, et tout cela est géré par le promoteur de l’organisation. Ainsi, si le promoteur ne tient pas compte de ces externalités dans la fixation des différentes commissions, les agents peuvent se tourner plus ou moins vers le recrutement. / This thesis includes three essays in applied microeconomics. Using learning and network effects models, we study agents’ behavior in various environments through three chapters. The first chapter examines natural resource exploitation under uncertainty with learning and heterogeneous priors. In the second chapter, we examine the problem of research Foundation concerned with finding good quality researchers for today and the future. The third chapter studies the Multi-level marketing organizations. The first chapter is entitled "Renewable Resource Consumption in a Learning Environment with Heterogeneous beliefs". This work uses a learning model with heterogeneity of beliefs to study natural resources consumption under uncertainty. Following Koulovatianos et al (2009), we distinguish two types of learning process: adaptive learning and learning. I find that learning decreases the total consumption of the resource in comparison with adaptive learning. However, individually and under some conditions, some exploiters could consume more in learning than in adaptive learning. In learning, the exploiter faces two kinds of incentive to invest in the resource: self-incentive which is always positive and heterogeneity incentive which may be negative. The effect of learning on individual consumption depends on the sign and the extent of the heterogeneity incentive. Using absolute change and relative change of consumption due to a change in beliefs, we find that the exploiters tend to converge to a common behaviour. The second chapter is entitled "A perpetual Search for Talent across Overlapping Generations". We use a dynamic discrete time model with overlapping generations to study how a research Fund should optimally rank and select which researchers to give a grant. The optimal decision rule depends on both the perceived quality of researchers based on past success histories and on age. Between two researchers of equal perceived qualities the Fund should select the youngest. This work contributes to the understanding of the bandit problems sometime known to be untractable and pspace-hard. Here, instead of looking for an index characterization, we propose to rank or eliminate progressively the researchers by comparing them two by two. The third chapter is entitled "Paradox about the Multi-Level Marketing". Over the past 50 years, the Multi-level Marketing (MLM) has become an important business strategy. vi MLM is a marketing method in which independent distributors of a product get profits not only from their own sales, but also from recruiting other distributors. According to the promoters of this organization, the purpose of the business and the will of the distributors are to sell the product and not to set up a scam. The question is the following: if the real intention is to sell, why does a distributor recruit other distributors who will become his competitors? It is well known in classical industrial organization that people avoid competition as well as possible. Why is it not the case in the MLM organization? We explain this paradox by the particular economic structure of the MLM. Distributor could not sell enough if he did not recruit. Recruiting provides a price leading power and allows to sell more and make more profit (in some respect). Moreover, the MLM is similar to the multi-sided market structure a la Rochet and Tirole (2003, 2006) and Weyl (2010). There is network effect between recruitment and selling activity. Thus, the extent of the paradox can also be explained by the different commissions set by the MLM promoters.
220

An adaptive neighborhood search algorithm for optimizing stochastic mining complexes

Grogan, Sean 09 1900 (has links)
Les métaheuristiques sont très utilisées dans le domaine de l'optimisation discrète. Elles permettent d’obtenir une solution de bonne qualité en un temps raisonnable, pour des problèmes qui sont de grande taille, complexes, et difficiles à résoudre. Souvent, les métaheuristiques ont beaucoup de paramètres que l’utilisateur doit ajuster manuellement pour un problème donné. L'objectif d'une métaheuristique adaptative est de permettre l'ajustement automatique de certains paramètres par la méthode, en se basant sur l’instance à résoudre. La métaheuristique adaptative, en utilisant les connaissances préalables dans la compréhension du problème, des notions de l'apprentissage machine et des domaines associés, crée une méthode plus générale et automatique pour résoudre des problèmes. L’optimisation globale des complexes miniers vise à établir les mouvements des matériaux dans les mines et les flux de traitement afin de maximiser la valeur économique du système. Souvent, en raison du grand nombre de variables entières dans le modèle, de la présence de contraintes complexes et de contraintes non-linéaires, il devient prohibitif de résoudre ces modèles en utilisant les optimiseurs disponibles dans l’industrie. Par conséquent, les métaheuristiques sont souvent utilisées pour l’optimisation de complexes miniers. Ce mémoire améliore un procédé de recuit simulé développé par Goodfellow & Dimitrakopoulos (2016) pour l’optimisation stochastique des complexes miniers stochastiques. La méthode développée par les auteurs nécessite beaucoup de paramètres pour fonctionner. Un de ceux-ci est de savoir comment la méthode de recuit simulé cherche dans le voisinage local de solutions. Ce mémoire implémente une méthode adaptative de recherche dans le voisinage pour améliorer la qualité d'une solution. Les résultats numériques montrent une augmentation jusqu'à 10% de la valeur de la fonction économique. / Metaheuristics are a useful tool within the field of discrete optimization that allow for large, complex, and difficult optimization problems to achieve a solution with a good quality in a reasonable amount of time. Often metaheuristics have many parameters that require a user to manually define and tune for a given problem. An adaptive metaheuristic aims to remove some parameters from being tuned or defined by the end user by allowing the method to specify and/or adapt a parameter or set of parameters based on the problem. The adaptive metaheuristic, using advancements in understanding of the problem being solved, machine learning, and related fields, aims to provide this more generalized and automatic toolkit for solving problems. Global optimization of mining complexes aims to schedule material movement in mines and processing streams to maximize the economic value of the system. Often due to the large number of integer variables within the model, complicated constraints, and non-linear constraints, it becomes prohibitive to solve these models using commercially available optimizers. Therefore, metaheuristics are often employed in solving mining complexes. This thesis builds upon a simulated annealing method developed by Goodfellow & Dimitrakopoulos (2016) to optimize the stochastic global mining complex. The method outlined by the authors requires many parameters to be defined to operate. One of these is how the simulated annealing algorithm searches the local neighborhood of solutions. This thesis illustrates and implements an adaptive way of searching the neighborhood for increasing the quality of a solution. Numerical results show up to a 10% increase in objective function value.

Page generated in 0.0842 seconds