Spelling suggestions: "subject:"probabilités"" "subject:"probabilitées""
171 |
Topics in the mathematics of disordered mediaDuerinckx, Mitia 21 December 2017 (has links)
Cette thèse est consacrée à l’étude mathématique des effets de désordre dans divers systèmes physiques. On commence par trois problèmes d’homogénéisation stochastique en lien avec des questions statiques de physique classique. Premièrement, en vue de la déduction rigoureuse de l’élasticité non-linéaire à partir de la physique statistique de réseaux de chaînes de polymères, on établit l’existence de propriétés effectives pour des matériaux hyperélastiques hétérogènes aléatoires sous des hypothèses générales de croissance. Deuxièmement, dans un cadre linéarisé simplifié, on étudie les formules de Clausius-Mossotti pour les propriétés effectives d’alliages binaires dilués: on donne la première preuve générale et rigoureuse de ces formules, ainsi qu’une extension aux ordres supérieurs. Troisièmement, encore pour des systèmes linéarisés, on propose d’étudier les déviations par rapport aux propriétés effectives et on établit la première théorie générale des fluctuations en homogénéisation stochastique. Dans la seconde partie de cette thèse, on se focalise sur la compétition entre désordre et interactions, et on étudie plus particulièrement la dynamique des vortex de Ginzburg-Landau dans des supraconducteurs 2D de type II en présence d’impuretés. Bien que la compréhension mathématique des propriétés vitreuses complexes de ces systèmes semble hors de portée, on établit rigoureusement la limite de champ moyen pour la dynamique d’un grand nombre de vortex, et on étudie l’homogénéisation de ces équations limites et leurs propriétés. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
172 |
Lambdas-théories probabilistes / Probabilistic lambda-theoriesLeventis, Thomas 08 December 2016 (has links)
Le lambda-calcul est un formalisation de la notion de calcul. Dans cette thèse nous nous intéresserons à certaines variantes non déterministes, et nous nous pencherons plus particulièrement sur le cas probabiliste.L'étude du lambda-calcul probabiliste n'est pas nouvelle, mais les travaux précédents considéraient le comportement probabiliste comme un effet de bord. Notre objectif est de présenter ce calcul d'une manière plus équationnelle, en intégrant le comportement probabiliste à la réduction.Tout d'abord nous définissons une sémantique opérationnelle déterministe et contextuelle pour le lambda-calcul probabiliste en appel par nom. Afin de traduire la signification de la somme nous définissons une équivalence syntaxique dans notre calcul, dont nous démontrons qu'il ne déforme pas la réduction: considérer une réduction modulo équivalence revient à considérer simplement le résultat du calcul modulo équivalence. Nous prouvons également un résultat de standardisation.Dans ce cadre nous définissons une notion de théorie équationnelle pour le lambda-calcul probabiliste. Nous étendons certaines notions usuelles, et en particulier celle de bon sens. Cette dernière se formalise facilement dans un cadre déterministe mais est bien plus complexe dans le cas probabiliste.Pour finir nous prouvons une correspondance entre l'équivalence observationnelle, l'égalité des arbres de Böhm et la théorie cohérente sensée maximale. Nous définissons une notion d'arbres de Böhm probabilistes dont nous prouvons qu'elle forme un modèle. Nous démontrons ensuite un résultat de séparabilité disant que deux termes avec des arbres de Böhm distincts ne sont pas observationnellement équivalents. / The lambda-calculus is a way to formalize the notion of computation. In this thesis we will be interested in some of these variants introducing non deterministim, and we will focus mostly on a probabilistic calculus.The probabilistic lambda-calculus has been studied for some time, but the probabilistic behaviour has always been treated as a side effect. Our purpose is to give a more equational representation of this calculus, by handling the probabilities inside the reduction rather than as a side effect.To begin with we give a deterministic and contextual operational semantics for the call-by-name probabilistic lambda-calculus. To express the probabilistic behaviour of the sum we introduce a syntactic equivalence in our calculus, and we show it has little consequence on the calculus: reducing modulo equivalence amount to reducing and then looking at the result modulo equivalence. We also prove a standardization theorem.Then using this operational semantics we define a notion of equational theories for the probabilistic lambda-calculus. We extend some usual notions to this setting, and in particular the sensibility of a theory. This notion is quite simple in a deterministic setting but becomes more complicated when we have a probabilistic computation.Finally we prove a generalization of the equality between the observational equivalence, the Böhm tree equality and the maximal coherent sensible lambda-theory. We give a notion of probabilistic Böhm trees, and prove that this forms a model of the probabilistic lambda-calculus. Then we prove a separability result stating that two terms with different Böhm trees are separable, i.e. are not observationally equivalent.
|
173 |
Contributions to robust methods in nonparametric frontier modelsBruffaerts, Christopher 10 September 2014 (has links)
Les modèles de frontières sont actuellement très utilisés par beaucoup d’économistes, gestionnaires ou toute personne dite « decision-maker ». Dans ces modèles de frontières, le but du chercheur consiste à attribuer à des unités de production (des firmes, des hôpitaux ou des universités par exemple) une mesure de leur efficacité en terme de production. Ces unités (dénotées DMU-Decision-Making Units) utilisent-elles à bon escient leurs « inputs » et « outputs »? Font-elles usage de tout leur potentiel dans le processus de production? <p>L’ensemble de production est l’ensemble contenant toutes les combinaisons d’inputs et d’outputs qui sont physiquement réalisables dans une économie. De cet ensemble contenant p inputs et q outputs, la notion d’efficacité d ‘une unité de production peut être définie. Celle-ci se définie comme une distance séparant le DMU de la frontière de l’ensemble de production. A partir d’un échantillon de DMUs, le but est de reconstruire cette frontière de production afin de pouvoir y évaluer l’efficacité des DMUs. A cette fin, le chercheur utilise très souvent des méthodes dites « classiques » telles que le « Data Envelopment Analysis » (DEA).<p><p>De nos jours, le statisticien bénéficie de plus en plus de données, ce qui veut également dire qu’il n’a pas l’opportunité de faire attention aux données qui font partie de sa base de données. Il se peut en effet que certaines valeurs aberrantes s’immiscent dans les jeux de données sans que nous y fassions particulièrement attention. En particulier, les modèles de frontières sont extrêmement sensibles aux valeurs aberrantes et peuvent fortement influencer l’inférence qui s’en suit. Pour éviter que certaines données n’entravent une analyse correcte, des méthodes robustes sont utilisées.<p><p>Allier le côté robuste au problème d’évaluation d’efficacité est l’objectif général de cette thèse. Le premier chapitre plante le décor en présentant la littérature existante dans ce domaine. Les quatre chapitres suivants sont organisés sous forme d’articles scientifiques. <p>Le chapitre 2 étudie les propriétés de robustesse d’un estimateur d’efficacité particulier. Cet estimateur mesure la distance entre le DMU analysé et la frontière de production le long d’un chemin hyperbolique passant par l’unité. Ce type de distance très spécifique s’avère très utile pour définir l’efficacité de type directionnel. <p>Le chapitre 3 est l’extension du premier article au cas de l’efficacité directionnelle. Ce type de distance généralise toutes les distances de type linéaires pour évaluer l’efficacité d’un DMU. En plus d’étudier les propriétés de robustesse de l’estimateur d’efficacité de type directionnel, une méthode de détection de valeurs aberrantes est présentée. Celle-ci s’avère très utile afin d’identifier les unités de production influençantes dans cet espace multidimensionnel (dimension p+q). <p>Le chapitre 4 présente les méthodes d’inférence pour les efficacités dans les modèles nonparamétriques de frontière. En particulier, les méthodes de rééchantillonnage comme le bootstrap ou le subsampling s’avère être très utiles. Dans un premier temps, cet article montre comment améliorer l’inférence sur les efficacités grâce au subsampling et prouve qu’il n’est pas suffisant d’utiliser un estimateur d’efficacité robuste dans les méthodes de rééchantillonnage pour avoir une inférence qui soit fiable. C’est pourquoi, dans un second temps, cet article propose une méthode robuste de rééchantillonnage qui est adaptée au problème d’évaluation d’efficacité. <p>Finalement, le dernier chapitre est une application empirique. Plus précisément, cette analyse s’intéresse à l ‘efficacité des universités américaines publiques et privées au niveau de leur recherche. Des méthodes classiques et robustes sont utilisées afin de montrer comment tous les outils étudiés précédemment peuvent s’appliquer en pratique. En particulier, cette étude permet d’étudier l’impact sur l’efficacité des institutions américaines de certaines variables telles que l’enseignement, l’internationalisation ou la collaboration avec le monde de l’industrie.<p> / Doctorat en sciences, Orientation statistique / info:eu-repo/semantics/nonPublished
|
174 |
Quantile-based inference and estimation of heavy-tailed distributionsDominicy, Yves 18 April 2014 (has links)
This thesis is divided in four chapters. The two first chapters introduce a parametric quantile-based estimation method of univariate heavy-tailed distributions and elliptical distributions, respectively. If one is interested in estimating the tail index without imposing a parametric form for the entire distribution function, but only on the tail behaviour, we propose a multivariate Hill estimator for elliptical distributions in chapter three. In the first three chapters we assume an independent and identically distributed setting, and so as a first step to a dependent setting, using quantiles, we prove in the last chapter the asymptotic normality of marginal sample quantiles for stationary processes under the S-mixing condition.<p><p><p>The first chapter introduces a quantile- and simulation-based estimation method, which we call the Method of Simulated Quantiles, or simply MSQ. Since it is based on quantiles, it is a moment-free approach. And since it is based on simulations, we do not need closed form expressions of any function that represents the probability law of the process. Thus, it is useful in case the probability density functions has no closed form or/and moments do not exist. It is based on a vector of functions of quantiles. The principle consists in matching functions of theoretical quantiles, which depend on the parameters of the assumed probability law, with those of empirical quantiles, which depend on the data. Since the theoretical functions of quantiles may not have a closed form expression, we rely on simulations.<p><p><p>The second chapter deals with the estimation of the parameters of elliptical distributions by means of a multivariate extension of MSQ. In this chapter we propose inference for vast dimensional elliptical distributions. Estimation is based on quantiles, which always exist regardless of the thickness of the tails, and testing is based on the geometry of the elliptical family. The multivariate extension of MSQ faces the difficulty of constructing a function of quantiles that is informative about the covariation parameters. We show that the interquartile range of a projection of pairwise random variables onto the 45 degree line is very informative about the covariation.<p><p><p>The third chapter consists in constructing a multivariate tail index estimator. In the univariate case, the most popular estimator for the tail exponent is the Hill estimator introduced by Bruce Hill in 1975. The aim of this chapter is to propose an estimator of the tail index in a multivariate context; more precisely, in the case of regularly varying elliptical distributions. Since, for univariate random variables, our estimator boils down to the Hill estimator, we name it after Bruce Hill. Our estimator is based on the distance between an elliptical probability contour and the exceedance observations. <p><p><p>Finally, the fourth chapter investigates the asymptotic behaviour of the marginal sample quantiles for p-dimensional stationary processes and we obtain the asymptotic normality of the empirical quantile vector. We assume that the processes are S-mixing, a recently introduced and widely applicable notion of dependence. A remarkable property of S-mixing is the fact that it doesn't require any higher order moment assumptions to be verified. Since we are interested in quantiles and processes that are probably heavy-tailed, this is of particular interest.<p> / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished
|
175 |
Modèles prudents en apprentissage statistique supervisé / Cautious models in supervised machine learningYang, Gen 22 March 2016 (has links)
Dans certains champs d’apprentissage supervisé (e.g. diagnostic médical, vision artificielle), les modèles prédictifs sont non seulement évalués sur leur précision mais également sur la capacité à l'obtention d'une représentation plus fiable des données et des connaissances qu'elles induisent, afin d'assister la prise de décisions de manière prudente. C'est la problématique étudiée dans le cadre de cette thèse. Plus spécifiquement, nous avons examiné deux approches existantes de la littérature de l'apprentissage statistique pour rendre les modèles et les prédictions plus prudents et plus fiables: le cadre des probabilités imprécises et l'apprentissage sensible aux coûts. Ces deux domaines visent tous les deux à rendre les modèles d'apprentissage et les inférences plus fiables et plus prudents. Pourtant peu de travaux existants ont tenté de les relier, en raison de problèmes à la fois théorique et pratique. Nos contributions consistent à clarifier et à résoudre ces problèmes. Sur le plan théorique, peu de travaux existants ont abordé la manière de quantifier les différentes erreurs de classification quand des prédictions sous forme d'ensembles sont produites et quand ces erreurs ne se valent pas (en termes de conséquences). Notre première contribution a donc été d'établir des propriétés générales et des lignes directrices permettant la quantification des coûts d'erreurs de classification pour les prédictions sous forme d'ensembles. Ces propriétés nous ont permis de dériver une formule générale, le coût affaiblie généralisé (CAG), qui rend possible la comparaison des classifieurs quelle que soit la forme de leurs prédictions (singleton ou ensemble) en tenant compte d'un paramètre d'aversion à la prudence. Sur le plan pratique, la plupart des classifieurs utilisant les probabilités imprécises ne permettent pas d'intégrer des coûts d'erreurs de classification génériques de manière simple, car la complexité du calcul augmente de magnitude lorsque des coûts non unitaires sont utilisés. Ce problème a mené à notre deuxième contribution, la mise en place d'un classifieur qui permet de gérer les intervalles de probabilités produits par les probabilités imprécises et les coûts d'erreurs génériques avec le même ordre de complexité que dans le cas où les probabilités standards et les coûts unitaires sont utilisés. Il s'agit d'utiliser une technique de décomposition binaire, les dichotomies emboîtées. Les propriétés et les pré-requis de ce classifieur ont été étudiés en détail. Nous avons notamment pu voir que les dichotomies emboîtées sont applicables à tout modèle probabiliste imprécis et permettent de réduire le niveau d'indétermination du modèle imprécis sans perte de pouvoir prédictif. Des expériences variées ont été menées tout au long de la thèse pour appuyer nos contributions. Nous avons caractérisé le comportement du CAG à l’aide des jeux de données ordinales. Ces expériences ont mis en évidence les différences entre un modèle basé sur les probabilités standards pour produire des prédictions indéterminées et un modèle utilisant les probabilités imprécises. Ce dernier est en général plus compétent car il permet de distinguer deux sources d'indétermination (l'ambiguïté et le manque d'informations), même si l'utilisation conjointe de ces deux types de modèles présente également un intérêt particulier dans l'optique d'assister le décideur à améliorer les données ou les classifieurs. De plus, des expériences sur une grande variété de jeux de données ont montré que l'utilisation des dichotomies emboîtées permet d'améliorer significativement le pouvoir prédictif d'un modèle imprécis avec des coûts génériques. / In some areas of supervised machine learning (e.g. medical diagnostics, computer vision), predictive models are not only evaluated on their accuracy but also on their ability to obtain more reliable representation of the data and the induced knowledge, in order to allow for cautious decision making. This is the problem we studied in this thesis. Specifically, we examined two existing approaches of the literature to make models and predictions more cautious and more reliable: the framework of imprecise probabilities and the one of cost-sensitive learning. These two areas are both used to make models and inferences more reliable and cautious. Yet few existing studies have attempted to bridge these two frameworks due to both theoretical and practical problems. Our contributions are to clarify and to resolve these problems. Theoretically, few existing studies have addressed how to quantify the different classification errors when set-valued predictions are produced and when the costs of mistakes are not equal (in terms of consequences). Our first contribution has been to establish general properties and guidelines for quantifying the misclassification costs for set-valued predictions. These properties have led us to derive a general formula, that we call the generalized discounted cost (GDC), which allow the comparison of classifiers whatever the form of their predictions (singleton or set-valued) in the light of a risk aversion parameter. Practically, most classifiers basing on imprecise probabilities fail to integrate generic misclassification costs efficiently because the computational complexity increases by an order (or more) of magnitude when non unitary costs are used. This problem has led to our second contribution, the implementation of a classifier that can manage the probability intervals produced by imprecise probabilities and the generic error costs with the same order of complexity as in the case where standard probabilities and unitary costs are used. This is to use a binary decomposition technique, the nested dichotomies. The properties and prerequisites of this technique have been studied in detail. In particular, we saw that the nested dichotomies are applicable to all imprecise probabilistic models and they reduce the imprecision level of imprecise models without loss of predictive power. Various experiments were conducted throughout the thesis to illustrate and support our contributions. We characterized the behavior of the GDC using ordinal data sets. These experiences have highlighted the differences between a model based on standard probability framework to produce indeterminate predictions and a model based on imprecise probabilities. The latter is generally more competent because it distinguishes two sources of uncertainty (ambiguity and the lack of information), even if the combined use of these two types of models is also of particular interest as it can assist the decision-maker to improve the data quality or the classifiers. In addition, experiments conducted on a wide variety of data sets showed that the use of nested dichotomies significantly improves the predictive power of an indeterminate model with generic costs.
|
176 |
Méthodes probabilistes pour l'analyse des algorithmes sur les tesselations aléatoires / Probabilistic methods for the analysis of algorithms on random tessellationsHemsley, Ross 16 December 2014 (has links)
Dans cette thèse, nous exploitons les outils de la théorie des probabilités et de la géométrie stochastique pour analyser des algorithmes opérant sur les tessellations. Ce travail est divisé entre deux thèmes principaux, le premier traite de la navigation dans une tessellation de Delaunay et dans son dual, le diagramme de Voronoï avec des implications pour les algorithmes de localisation spatiales et de routage dans les réseaux en ligne. Nous proposons deux nouveaux algorithmes de navigation dans la triangulation de Delaunay, que nous appelons Pivot Walk et Cone Walk. Pour Cone Walk, nous fournissons une analyse en moyenne détaillée avec des bornes explicites sur les propriétés de la pire marche possible effectuée par l'algorithme sur une triangulation de Delaunay aléatoire d'une région convexe bornée. C'est un progrès significatif car dans l'algorithme Cone Walk, les probabilités d'utiliser un triangle ou un autre au cours de la marche présentent des dépendances complexes, dépendances inexistantes dans d'autres marches. La deuxième partie de ce travail concerne l'étude des propriétés extrémales de tessellations aléatoires. En particulier, nous dérivons les premiers et derniers statistiques d'ordre pour les boules inscrites dans les cellules d'un arrangement de droites Poissonnien; ce résultat a des implications par exemple pour le hachage respectant la localité. Comme corollaire, nous montrons que les cellules minimisant l'aire sont des triangles. / In this thesis, we leverage the tools of probability theory and stochastic geometry to investigate the behavior of algorithms on geometric tessellations of space. This work is split between two main themes, the first of which is focused on the problem of navigating the Delaunay tessellation and its geometric dual, the Voronoi diagram. We explore the applications of this problem to point location using walking algorithms and the study of online routing in networks. We then propose and investigate two new algorithms which navigate the Delaunay triangulation, which we call Pivot Walk and Cone Walk. For Cone Walk, we provide a detailed average-case analysis, giving explicit bounds on the properties of the worst possible path taken by the algorithm on a random Delaunay triangulation in a bounded convex region. This analysis is a significant departure from similar results that have been obtained, due to the difficulty of dealing with the complex dependence structure of localized navigation algorithms on the Delaunay triangulation. The second part of this work is concerned with the study of extremal properties of random tessellations. In particular, we derive the first and last order-statistics for the inballs of the cells in a Poisson line tessellation. This result has implications for algorithms involving line tessellations, such as locality sensitive hashing. As a corollary, we show that the cells minimizing the area are triangles.
|
177 |
Vers un modèle d’élaboration de la dissonance cognitive : changement des attitudes selon un continuum de choix perçu / Towards a model of elaborated cognitive dissonance : attitude change on a continuum of perceived choiceAkinyemi, Alexis 15 January 2019 (has links)
Cette thèse traite de l’étude du changement d’attitude dans un contexte de dissonance cognitive (Festinger, 1957), et plus précisément dans le cadre du paradigme de l’essai contre-attitudinal (Brehm & Cohen, 1962). L’objectif de ce travail est triple. Premièrement, nous opérons une remise en question de l’induction de choix des paradigmes de dissonance, en utilisant, au sein de nos expérimentations, la perception de choix des participants comme variable continue permettant de prédire le changement d’attitude. Notre second objectif est de mobiliser, dans le cadre de la dissonance, des variables issues du modèle des probabilités d’élaboration (Petty & Cacioppo, 1986) liées au changement d’attitude. Ces variables permettent notamment de recueillir les pensées positives et négatives (i.e., l’élaboration) que les participants produisent vis-à-vis d’un argumentaire. Nous émettons ainsi l’hypothèse que la rédaction d’un essai contre attitudinal sous perception élevée de choix entraînera conjointement de l’élaboration et du changement d’attitude chez les participants. Le dernier objectif de cette thèse est de tester l’impact de variables, autres que le choix perçu, permettant d’augmenter l’élaboration des participants. Nous nous sommes ainsi intéressés à la résistance de l’attitude initiale, ainsi qu’au délai de réflexion, afin d’étudier leurs effets sur le changement d’attitude. / This thesis covers the study of attitude change in the area of cognitive dissonance (Festinger, 1957), and more precisely in the context of the counter-attitudinal advocacy paradigm (Brehm & Cohen, 1962). The aim of this work is triple. First, we challenge the induction of choice adopted within dissonance paradigms using, in our studies, perception of choice as a discrete variable suitable to predict attitude change. Our second goal is to borrow - for a use into dissonance paradigms - variables implied in attitude change within the elaboration likelihood model (Petty & Cacioppo, 1986) than can be used in order to gather the positive and negative thoughts (i.e., elaboration) that participants can produce regarding to an advocacy. We thus hypothesize that a counter-attitudinal advocacy will, under high perceived-choice, lead participants to produce elaboration and attitude change. Our last goal is to assess the impact of other variables than perceived choice that can have an impact on participants’ elaboration. Therefore, we took interest in attitude resistance and reflection delays in order to observe their effect on attitude change.
|
178 |
Sequential stopping under different environments of weak informationDendievel, Rémi 10 November 2016 (has links) (PDF)
Notre thèse s’articule autour du thème de l’utilisation optimale de l’information contenue dans un modèle probabiliste flexible. Dans le premier chapitre, nous couvrons des résultats bien connus des martingales comme le théorème de convergence dit L1 des martingales et le théorème d’arrêt. Nous discutons de problèmes ouverts similaires au «last arrival problem» (Bruss et Yor, 2012) qui sont des vrais défis du point de vue théorique et nous ne pouvons que conjecturer la stratégie optimale.Dans les chapitres suivants, nous résolvons des extensions de problèmes d’arrêt optimal proposés par R. R. Weber (U. Cambridge), basés sur le «théorème des odds» (Bruss, 2000). En résumé, il s’agit d’effectuer une seule action (un seul arrêt) lorsque deux suites d’observations indépendantes sont observées simultanément. Nous donnons la solution à ces problèmes pour un nombre (fixé) choisi de processus.Le chapitre suivant passe en revue la plupart des développements récents (depuis 2000) réalisés autour du «théorème des odds» (Bruss, 2000). Le matériel présenté fut publié (2013), il a donc été mis à jour dans cette thèse pour inclure les derniers résultats depuis cette date.Puis nous réservons un chapitre pour une solution explicite pour un cas particulier du Problème d’arrêt optimal de Robbins. Ce chapitre est basé sur un article publié par l’auteur en collaboration avec le professeur Swan (Université de Liège). Ce chapitre offre une belle illustration des difficultés rencontrées lorsque trop d’information sur les variables est contenue dans le modèle. La solution optimale de ce problème dans le cas général n’est pas connue. Par contre, contre-intuitivement, dans le «last arrival problem» mentionné plus haut, moins d’information permet, comme nous le montrons, de trouver en effet la solution optimale.La thèse contient un dernier chapitre sur un problème de nature plus combinatoire que nous pouvons lier à la théorie des graphes dans une certaine mesure. Nous étudions le processus de création d’un graphe aléatoire particulier et les propriétés des cycles créés par celui-ci. Le problème est séquentiel et permet d’envisager des problèmes d’arrêt intéressants. Cette étude a des conséquences en théorie des graphes, en analyse combinatoire ainsi qu’en science de la chimie combinatoire pour les applications. Un de nos résultats est analogue au résultat de Janson (1987) relatif au premier cycle créé pendant la création de graphes aléatoires. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
179 |
Nosologie et probabilités. Une histoire épistémologique de la méthode numérique en médecine / Nosology and Probability. A Historical Epistemology of the Numerical Method in MedicineCorteel, Mathieu 13 December 2017 (has links)
Dans Naissance de la clinique, Michel Foucault mit en évidence l’émergence au XIXe siècle d’un regard médical qui, en faisant taire la théorie au lit du malade, tâche de parler la langue étrangère de la maladie dans la profondeur des tissus. En opposition aux nosographies essentialistes du XVIIIe siècle, une forme de nominalisme médical apparaît progressivement à travers le développement de l’anatomo-pathologie. Cette médecine clinique est parcourue par un concept souvent oublié qui se trame, pourtant, dans l’ombre de son savoir et préfigure son dépassement. Il s’agit du concept de « probabilité ». Bien que celui-ci s’inscrit dans la clinique, l’application du calcul de probabilités ne parvient pas à s’y intégrer. Le XIXe siècle sera le théâtre d’un véritable conflit sur la conjecture qui oppose « les numéristes » et les cliniciens d’obédience hippocratique. L’orthodoxie de l’Ecole de Paris se trouve confrontée à l’émergence de la méthode numérique. La dispute théorique qui en résulte problématise l’application du calcul de probabilités en la médecine : du probable peut-on connaître autre chose que du probable ? Durant tout le XIXe siècle, on s’accorde à rejeter épistémologiquement cette méthode. Elle ne cadre pas avec la positivité des sciences médicales. Ce sera l’hygiène publique qui en fera usage pour pallier à l’inanité clinique dans le traitement des épidémies, des endémies et des épizooties. Cette rencontre conflictuelle de l’individuel et du collectif dans le médical fera naître une nouvelle forme de nosologie au XXe siècle. Il s’agit d’en comprendre l’émergence. / In The Birth of The Clinic, Michel Foucault highlights the emergence of a medical gaze in the 19th-century that – by vanishing the theory at the patient's bedside – tries to speak the foreign language of the disease in the depth of organic tissues. With the development of anatomo-pathology, a form of medical nominalism progressively appears in opposition to the essentialist nosography of the 18th-century. This clinical medicine is shot-through by a concept often forgotten that is framed, however in the shadow of clinical medical knowledge and that prefigures its disappearance. This is the concept of "probability". Even though this concept is part of clinical medicine, the application of probability calculation fails to be part of medical knowledge. The 19th-century was the scene of a conflict over numerical conjecture that opposes "Numerists" and Hippocratic’s Clinician. The Ecole de Paris’s orthodoxy was then confronted with the emergence of the numerical method. The theoretical dispute that results from the application of the calculation of probabilities in medicine gives rise to this question: from what is only probable, can we know anything else than what is probable? Throughout the 19th-century, the numerical method is rejected on epistemological grounds. It is held not to fit with the positivity of medical science. In the treatment of epidemics, endemic diseases, and epizootics, public health services make use of it still. This confrontation between the individual and the collective in medicine gives rise to a new form of nosology in the 20th-century.
|
180 |
Approche probabiliste du diagnostic de l'état de santé des véhicules militaires terrestres en environnement incertain / Probabilistic approach to the diagnosis of the health status of military land vehicles in an uncertain environmentSallin, Mathieu 30 January 2018 (has links)
Ce travail de thèse est une contribution à l’analyse de santé structurale de la caisse de véhicules militaires terrestres à roues. Appartenant à la gamme 20 - 30 tonnes, de tels véhicules sont déployés dans des contextes opérationnels variés où les conditions de roulage sont sévères et difficilement caractérisables. De plus, faisant face à la concurrence, la fonction mobilité des véhicules est acquise auprès de fournisseurs et n’est plus développée par Nexter Systems. De ce fait, la définition complète de cette fonction n’est plus connue. S’appuyant sur ce contexte, l’objectif principal de la thèse est d’aborder l’état de santé de la structure porteuse par approche probabiliste, afin de maitriser les techniques de calcul permettant la prise en compte de l’aléa intrinsèque des chargements liés à la diversité d’emploi des véhicules militaires terrestres. En particulier, les stratégies les plus pertinentes pour propager les incertitudes de roulage au sein d’un modèle mécanique d’un véhicule terrestre sont définies. Ces travaux décrivent comment il est possible d’exploiter une grandeur d’intérêt au sein du véhicule dans un objectif d’évaluation de la fiabilité par rapport à un critère de dommage donné. Une application sur un démonstrateur entièrement conçu par Nexter Systems illustre l’approche proposée. / This thesis is a contribution to the structural health analysis of the body of ground military vehicles. Belonging to the 20 - 30 tons range, such vehicles are deployed in a variety of operational contexts where driving conditions are severe and difficult to characterize. In addition, due to a growing industrial competition, the mobility function of vehicles is acquired from suppliers and is no longer developed by Nexter Systems. As a result, the complete definition of this function is unknown. Based on this context, the main objective of this thesis is to analyze the health of the vehicle body using a probabilistic approach in order to control the calculation techniques allowing to take into account the random nature of loads related to the use of ground military vehicles. In particular, the most relevant strategies for propagating uncertainties due to the terrain within a vehicle dynamics model are defined. This work describes how it is possible to manage an observation data measured in the vehicle for the purpose of assessing the reliability with respect to a given damage criterion. An application on a demonstrator entirely designed by Nexter Systems illustrates the proposed approach.
|
Page generated in 0.0649 seconds