• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 157
  • 46
  • 9
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 218
  • 96
  • 50
  • 31
  • 26
  • 26
  • 25
  • 24
  • 22
  • 21
  • 20
  • 20
  • 20
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Contribution à la définition des caractéristiques d'un radar hydrologique urbain. Prévision de la pluie à très courte échéance

Boudevillain, Brice 21 March 2003 (has links) (PDF)
L'intensité pluvieuse est une information essentielle en hydrologie, notamment pour les bassins versants situés en zone urbaine ou montagneuse. Il est donc nécessaire de disposer, sur ces bassins, d'estimations fiables des précipitations ainsi que de prévisions de la pluie à très courte échéance. Le radar météorologique constitue une solution à ces besoins. Toutefois les radars existants aujourd'hui ne sont pas totalement adaptés à toutes les applications hydrologiques en terme de souplesse d'utilisation et de résolution spatiale et temporelle. L'utilisation de radars de configuration légère en bande X, est envisagée pour les besoins de l'hydrologie urbaine. Les conditions d'utilisation de tels radars sont à définir. Ces études proposent d'évaluer l'intérêt de l'information radar volumique et Doppler pour la prévision des précipitations à très courte échéance. La première partie de la thèse s'intéresse à la mesure du VIL par radar. Elle présente également une méthode de restitution du champ de vitesse horizontale tirant parti de la mesure Doppler. La deuxième partie de la thèse concerne la formulation et l'évaluation d'une méthode de prévision de la pluie à très courte échéance reposant sur le VIL. Cette méthode est d'abord testée à l'aide de données radar simulées afin de mettre en évidence l'intérêt des données volumiques indépendamment des erreurs de mesure. Une étude de cas réel a été ensuite menée sur des événements pluvieux de la période spéciale d'observation de MAP (Mesoscale Alpine Programme).
162

Analyse et mesure de l'incertitude dans un modèle de simulation. Les principes, une méthode et l'exemple de l'affectation bicritère du trafic

Leurent, Fabien 29 January 1997 (has links) (PDF)
Un modèle représente un système, ses composants et les interactions entre composants. Il sert à analyser et simuler les interactions, en déduisant les conséquences logiques d'hypothèses sur les variables d'état du système, ou sur des variables de contrôle ou de perturbation. Comment juger, ou mieux mesurer, si le modèle est proche de la réalité ? La thèse établit les principes d'un tel examen, appelé audit technique d'un modèle. Il s'agit de détecter, identifier, et si possible réduire, les erreurs et les incertitudes, que nous décomposons en quatre classes : (i) erreur de conception (quels mécanismes explicatifs constituent la composition conceptuelle, quelles schématisations ?), (ii) erreur formelle (la synthèse mathématique des mécanismes explicatifs dans une formule caractéristique, doit être conforme au contenu conceptuel et cohérente), (iii) erreur algorithmique (le dispositif de résolution fournit-il vraiment une solution ? Avec quelle précision ?), (iv) enfin une incertitude de type économétrique qui englobe l'erreur d'estimation et l'erreur exogène a priori sur les inputs. Chaque classe d'erreur relève d'une discipline spécifique, ce qui confère autant de dimensions à l'audit : audit conceptuel à base d'analyse systémique, audit formel à caractère mathématique, audit algorithmique de caractère physique ou informatique, audit économétrique. Nous proposons une méthode systématique d'audit. Nous l'appliquons à un modèle d'équilibre entre offre et demande, précisément un modèle de choix d'itinéraire sur un réseau avec une offre sujette à congestion et une demande qui arbitre de façon diversifiée entre prix et temps. Nous établissons une formule caractéristique (inéquation variationnelle en dimension finie) dont la solution jouit de propriétés d'existence et d'unicité ; nous proposons et testons plusieurs algorithmes et critères de convergence ; nous effectuons l'analyse de sensibilité pour propager l'erreur économétrique exogène à travers le modèle.
163

Construction de solutions exactes en élastoplasticité. Application à l'estimation d'erreur par apprentissage

Hablot, Jean-Michel 21 June 1990 (has links) (PDF)
Le calcul par éléments finis des structures en élastoplasticité classique conduit à des dépenses informatiques très élevées, sans qu'on puisse estimer de façon correcte les erreurs commises. Dans notre travail, nous proposons une nouvelle méthode d'estimation a priori des erreurs. Nous construisons d'abord les solutions exactes de problèmes mécaniques par une méthode inverse. Ensuite, nous utilisons ces solutions exactes pour évaluer l'erreur commise lors d'une analyse numérique, avec des discrétisations spatiale et temporelle données. Enfin, nous utilisons cette base d'exemples de deux manières: 1) la recherche de règles simples de remaillage quasi optimal; 2) la construction, par des techniques d'apprentissage automatique, de règles générales donnant a priori la discrétisation nécessaire pour respecter une erreur fixée.
164

Inversion probabiliste bayésienne en analyse d'incertitude

Fu, Shuai 14 December 2012 (has links) (PDF)
Ce travail de recherche propose une solution aux problèmes inverses probabilistes avec des outils de la statistique bayésienne. Le problème inverse considéré est d'estimer la distribution d'une variable aléatoire non observée X a partir d'observations bruitées Y suivant un modèle physique coûteux H. En général, de tels problèmes inverses sont rencontrés dans le traitement des incertitudes. Le cadre bayésien nous permet de prendre en compte les connaissances préalables d'experts surtout avec peu de données disponibles. Un algorithme de Metropolis-Hastings-within-Gibbs est proposé pour approcher la distribution a posteriori des paramètres de X avec un processus d'augmentation des données. A cause d'un nombre élevé d'appels, la fonction coûteuse H est remplacée par un émulateur de krigeage (méta-modèle) H chapeau. Cette approche implique plusieurs erreurs de nature différente et, dans ce travail, nous nous attachons a estimer et réduire l'impact de ces erreurs. Le critère DAC a été proposé pour évaluer la pertinence du plan d'expérience (design) et le choix de la loi a priori, en tenant compte des observations. Une autre contribution est la construction du design adaptatif adapté a notre objectif particulier dans le cadre bayésien. La principale méthodologie présentée dans ce travail a été appliquée a un cas d' étude d'ingénierie hydraulique.
165

Les rétractations et leurs conséquences sur la carrière des coauteurs : analyse bibliométrique des fraudes et des erreurs dans le domaine biomédical

Mongeon, Philippe 09 1900 (has links)
Ces dernières années, la découverte de fraudes scientifiques majeures a créé des ondes de choc dans la communauté scientifique. Le nombre annuel de rétractations a considérablement augmenté, et la plupart sont dues à des cas de fraude. Bien qu’il soit généralement pris pour acquis que tous les coauteurs sont affectés par ces rétractations, l’objectif de cette étude est de vérifier cette présupposition empiriquement. Nous avons recensé toutes les rétractations du domaine biomédical (443) de 1996 à 2006 dans PubMed et mesuré, à l’aide du Web of Science (WOS), la productivité, l’impact et les pratiques de collaboration des coauteurs (1 818) sur une période de cinq ans avant et après la rétractation. Nos résultats montrent que les rétractations ont des conséquences sur la carrière des coauteurs, surtout au niveau du nombre de publications des années subséquentes. Cet impact est plus grand dans les cas de fraude, et pour les premiers auteurs. / Over the last few years, major cases of scientific fraud shocked the scientific community, and the number of retractions each year increased considerably. Scientific misconduct accounts for approximately more than half of those retractions. It is assumed that co-authors of retracted papers are affected by their colleagues’ misconduct, and the aim of this study is to provide empirical evidence of how researchers’ careers are affected by a retraction. We retrieved all (443) publications retracted from 1996 to 2006 from PubMed, signed by 1818 authors. Using the Web of Science (WOS), we measured the productivity, impact and collaboration of each of those authors for a period of five years before and after the retraction. Our results show that retractions affect the career of co-authors, mostly in terms of scientific output. This impact is felt more strongly in cases of fraud and for first authors.
166

L'observation thermique de l'atmosphère en France et dans les pays proches aux dix-septième et dix-huitième siècles : L'invention du thermomètre. Le traitement des données anciennes.

Beaurepaire, Michel 26 April 1994 (has links) (PDF)
L'utilisation des données thermiques anciennes nécessite une connaissance de l'histoire des thermomètres, des recherches effectuées par les savants, de leur exploitation et de la manière dont ils étaient reproduits et utilisés. L'histoire des thermomètres précise pour la première fois que le thermoscope fut inventé en 1608 par le médecin Sanctorius et que le thermomètre florentin apparut vers 1649-1650 à la suite de recherches souterraines. L'apparition de l'abri au milieu du dix-neuvième siècle modifia les conditions d'observation. Une étude statistique comparative des deux modes d'observation de la température de l'air, dégage les causes des principales différences. L'examen des manuscrits de la Société Royale de Médecine contenant les observations thermiques de 1776 à 1792 montre que malgré tout le sérieux des médecins, les températures ne peuvent être utilisées avant une analyse métrologique. L'esquisse du climat de cette époque faite par Le Roy Ladurie mérite d'être revue en utilisant la méthodologie proposée dans la thèse.
167

Recherche de Nouvelle Physique dans les événements à quatre quarks top avec le détecteur ATLAS du LHC

Paredes Hernandez, D. 13 September 2013 (has links) (PDF)
Cette thèse a pour but la recherche de Nouvelle Physique dans les événements à quatre quarks top en utilisant les données collectées dans les collisions proton-proton par l'expérience ATLAS au LHC. L'ensemble des données correspond à celui enregistré pendant tout 2011 à √s = 7 TeV et une partie de l'année 2012 à √s = 8 TeV. L'analyse est concentrée sur un état final avec deux leptons (des électrons et des muons) avec la même charge électrique. Cette signature est expérimentalement privilégiée puisque la présence de deux leptons avec le même signe dans l'état final permet de réduire le bruit du fond qui vient des processus du Modèle Standard. Les résultats sont interprétés dans le contexte d'une théorie effective à basse énergie, qui suppose que la Nouvelle Physique peut se manifester à basse énergie comme une interaction de contact à quatre tops droits. Dans ce contexte, cette analyse permet de prouver un type de théorie au delà du Modèle Standard qui, à basse énergie, peut se manifester de cette manière. Les bruits du fond pour cette recherche ont été estimés en utilisant des échantillons simulés et des techniques axées sur les données. Différentes sources d'incertitudes systématiques ont été considérées. La sélection finale des événements a été optimisée en visant à minimiser la limite supérieure attendue sur la section efficace de production des quatre tops si aucun événement de signal n'est trouvé. La région du signal a été ensuite examinée à la recherche d'un excès d'événement en comparaison avec le bruit du fond prévu. Aucun excès d'événement n'a été observé, et la limite supérieure observée sur la section efficace de production de quatre quarks top a été calculée. Ceci a permis de calculer la limite supérieure sur la constante de couplage C/lambda 2 du modèle. Une limite supérieure sur la section efficace de production de quatre tops dans le Modèle Standard a été aussi calculée dans l'analyse à √s = 8 TeV. En plus de l'analyse physique du signal de quatre tops, des études concernant le système d'étalonnage LASER du calorimètre Tile ont été présentées. Ces études sont liées au système des photodiodes utilisé pour mesurer l'intensité de la lumière dans le système LASER.
168

Perception, jugement et erreur dans les Quaestiones De anima de Nicole Oresme

Lapointe-Beaudoin, Laurie 08 1900 (has links)
Dans la question 10 du livre II de son commentaire au traité De l’âme d’Aristote, Nicole Oresme soulève la question suivante : est-ce que le sens se trompe relativement à son objet propre? S’attaquant à la problématique de l’illusion sensible, il soutient qu’il y a effectivement place pour l’erreur dans la connaissance sensible puisque les facultés sensitives de l’âme ont la capacité de former des jugements. Influencé par le modèle perspectiviste de la vision, Oresme met l’accent sur le rôle des sens internes, plutôt que les sens externes, dans la perception. Ce mémoire de maîtrise a pour but d’élucider les notions de « concept » (conceptus), « jugement » (iudicium) et « discours » (discursus) telles qu’Oresme les emploie dans le deuxième livre de ses Quaestiones De anima et est accompagné d’une traduction des questions I.4, II.8-15 et II.21 des Quaestiones De anima. / In question 10 of book II of his commentary on Aristotle’s De anima, Nicole Oresme asks whether the senses can be deceived about their proper objects. Tackling the issue of sense illusion, he maintains that there is indeed error in sense cognition since the sensitive faculties of the soul can form judgments. Influenced by the perspectivist account of vision, Oresme highlights the role of the internal senses, rather than the external senses, in perception. This master’s thesis aims to elucidate the notions of « concept » (conceptus), « judgment » (iudicium) and « discourse » (discursus) as Oresme uses them in book II of his Quaestiones De anima and includes a French translation of questions I.4, II.8-15 and II.21 of the Quaestiones De anima.
169

Prise en compte des erreurs de mesure dans l'analyse du risque associe a l'exposition aux rayonnements ionisants dans une cohorte professionnelle : application à la cohorte française des mineurs d'uranium

Allodji, Setcheou Rodrigue 09 December 2011 (has links) (PDF)
Dans les études épidémiologiques, les erreurs de mesure de l'exposition étudiée peuvent biaiser l'estimation des risques liés à cette exposition. Un grand nombre de méthodes de correction de l'effet de ces erreurs a été développé mais en pratique elles ont été rarement appliquées, probablement à cause du fait que leur capacité de correction et leur mise en œuvre sont peu maîtrisées. Une autre raison non moins importante est que, en l'absence de données répétées ou de données de validation, ces méthodes de correction exigent la connaissance détaillée des caractéristiques (taille, nature, structure et distribution) des erreurs de mesure. L'objectif principal de cette thèse est d'étudier l'impact de la prise en compte des erreurs de mesure dans les analyses du risque de décès par cancer du poumon associé à l'exposition au radon à partir de la cohorte française des mineurs d'uranium (qui ne dispose ni de données répétées, ni de données de validation). Les objectifs spécifiques étaient (1) de caractériser les erreurs de mesure associées aux expositions radiologiques (radon et ses descendants, poussières d'uranium et rayonnements gamma), (2) d'étudier l'impact des erreurs de mesure de l'exposition au radon et à ses descendants sur l'estimation de l'excès de risque relatif (ERR) de décès par cancer du poumon et (3) d'étudier et comparer la performance des méthodes de correction de l'effet de ces erreurs. La cohorte française des mineurs d'uranium comprend plus de 5000 individus exposés de manière chronique au radon et à ses descendants qui ont été suivis en moyenne pendant 30 ans. Les erreurs de mesure ont été caractérisées en prenant en compte l'évolution des méthodes d'extraction et de la surveillance radiologique des mineurs au fil du temps. Une étude de simulation basée sur la cohorte française des mineurs d'uranium a été mise en place pour étudier l'impact de ces erreurs sur l'ERR ainsi que pour comparer la performance des méthodes de correction. Les résultats montrent que les erreurs de mesure de l'exposition au radon et à ses descendants ont diminué au fil des années. Pour les premières années, avant 1970, elles dépassaient 45 % et après 1980 elles étaient de l'ordre de 10 %. La nature de ces erreurs a aussi changé au cours du temps ; les erreurs essentiellement de nature Berkson ont fait place à des erreurs de nature classique après la mise en place des dosimètres individuels à partir de 1983. Les résultats de l'étude de simulation ont montré que les erreurs de mesure conduisent à une atténuation de l'ERR vers la valeur nulle, avec un biais important de l'ordre de 60 %. Les trois méthodes de correction d'erreurs considérées ont permis une réduction notable mais partielle du biais d'atténuation. Un avantage semble exister pour la méthode de simulation extrapolation (SIMEX) dans notre contexte, cependant, les performances des trois méthodes de correction sont fortement tributaires de la détermination précise des caractéristiques des erreurs de mesure.Ce travail illustre l'importance de l'effet des erreurs de mesure sur les estimations de la relation entre l'exposition au radon et le risque de décès par cancer du poumon. L'obtention d'estimation de risque pour laquelle l'effet des erreurs de mesure est corrigé devrait s'avérer d'un intérêt majeur en support des politiques de protection contre le radon en radioprotection et en santé publique.
170

Exploitation des mesures "vapeur d'eau" du satellite Megha-Tropiques pour l'élaboration d'un algorithme de restitution de profils associés aux fonctions de densité de probabilité de l'erreur conditionnelle

Sivira, Ramses 16 December 2013 (has links) (PDF)
La place de la vapeur d'eau est centrale dans le système climatique : à l'échelle globale, elle participe à la redistribution de l'excédent d'énergie des régions tropicales vers les régions polaires via les grandes cellules de circulation, à méso-échelle elle participe au développement (maturation, dissipation) des systèmes nuageux, précipitants ou non, et à plus petite échelle, ce sont les lois de la thermodynamique humide qui régissent la microphysique de ces nuages. Finalement c'est le plus abondant des gaz à effet de serre qui est au centre d'une boucle de rétroaction fortement positive. La mission satellite Megha-Tropiques a été conçue pour améliorer la documentation du cycle de l'eau et de l'énergie des régions tropicales, via notamment trois instruments : deux radiomètres microondes MADRAS (un imageur) et SAPHIR (un sondeur) respectivement dédiés à l'observation des précipitations (liquides et glacées) et de l'humidité relative atmosphérique, et un radiomètre multi-spectral ScaRaB pour la mesure des flux radiatifs au sommet de l'atmosphère dans le bilan de l'eau et l'énergie de l'atmosphère tropicale et décrire l'évolution de ces systèmes. Les caractéristiques des instruments embarqués permettraient une résolution étendue autours de la raie à 183 GHz du spectre microonde, qui permet de sonder le contenu en vapeur d'eau même en présence des nuages convectifs. Afin de construire une base d'apprentissage où les valeurs d'entrée et sortie soient parfaitement colocalisées et qui, en même temps, soit représentative du problème à modéliser, une large base de radiosondages obtenus par ciel claire et couvrant la bande tropicale (±30° en latitude) sur la période 1990-2008 a été exploitée en parallèle à un modèle de transfert radiatif pour l'obtention des températures de brillance simulées des deux radiomètres. Nous avons mis au point une méthodologie qui nous a permis de développer un algorithme de restitution des profils de vapeur d'eau à partir des observations SAPHIR et MADRAS, et surtout de quantifier l'incertitude conditionnelle d'estimation. L'approche s'est orientée vers l'exploitation des méthodes purement statistiques de restitution des profils afin d'extraire le maximum d'information issues des observations, sans utiliser d'information complémentaire sur la structure thermodynamique de l'atmosphère ou des profils a priori, pour se concentrer sur les diverses restrictions du problème inverse. Trois modèles statistiques ont été optimisés sur ces données d'apprentissage pour l'estimation des profils sur 7 couches de la troposphère, un réseaux de neurones (modèle perceptron multicouches), le modèle additif généralisé et le modèle de machines à vecteur de support (Least Square-Support Vector Machines), et deux hypothèses de modélisation de la fonction de distribution de la probabilité (pdf) de l'erreur conditionnelle sur chacune des couches ont été testées, l'hypothèse Gaussienne (HG) et le mélange de deux distributions Gaussiennes (M2G). L'effort porté sur l'optimisation des modèles statistiques a permis de démontrer que les comportements des trois modèles d'estimation sont semblables, ce qui nous permet de dire que la restitution est indépendante de l'approche utilisée et qu'elle est directement reliée aux contraintes physiques du problème posé. Ainsi, le maximum de précision pour la restitution des profils verticaux d'humidité relative est obtenu aux couches situées dans la moyenne troposphère (biais maximum de 2,2% et coefficient de corrélation minimum de 0,87 pour l'erreur d'estimation) tandis que la précision se dégrade aux extrêmes de la troposphère (à la surface et proche de la tropopause, avec toutefois un biais maximale de 6,92% associé à une forte dispersion pour un coefficient de corrélation maximum de 0,58 pour l'erreur d'estimation), ce qui est expliqué par le contenu en information des mesures simulées utilisées. A partir de la densité de probabilité de l'erreur, connaissant les températures de brillance observées, des intervalles de confiance conditionnels de l'humidité de chacune de couches de l'atmosphère ont été estimés. Les algorithmes d'inversion développés ont été appliqués sur des données réelles issues de la campagne "vapeur d'eau" de validation Megha-Tropiques de l'été 2012 à Ouagadougou qui a permis d'obtenir des mesures par radiosondages coïncidentes avec les passages du satellite. Après prise en compte de l'angle de visée, des incertitudes liées à l'étalonnage de SAPHIR et des erreurs associées à la mesure in situ, l'exploitation de ces données a révélé un comportement semblable aux données de l'apprentissage, avec une bonne performance (biais de 4,55% et coefficient de corrélation de 0,874 sur l'erreur d'estimation) en moyenne troposphère et une dégradation aux extrêmes de la colonne atmosphérique (biais de -4,81% et coefficient de corrélation de 0,419). L'application systématique sur l'ensemble des mesures réalisées par SAPHIR permettra donc mener des études de la variabilité de la vapeur d'eau tropicale en tenant compte des intervalles de confiance associés à la restitution.

Page generated in 0.031 seconds