• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 185
  • 69
  • 27
  • 1
  • Tagged with
  • 274
  • 101
  • 77
  • 62
  • 58
  • 46
  • 42
  • 37
  • 34
  • 30
  • 30
  • 27
  • 26
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Méthodologie d'estimation des incertitudes d'un processus de mesure utilisant un bras polyarticulé portable / Methodology for estimating the uncertainties of a measurement process using an articulated arm coordinate measuring machine

Romdhani, Fékria 26 September 2014 (has links)
Les bras polyarticulés portables ont progressivement évolué et sont de plus en plus utilisés dans l’industrie. Cependant, à l’heure actuelle, la traçabilité de ces dispositifs est difficile à effectuer et les incertitudes de mesures relatives à l’utilisation de ces appareils ne sont pas quantifiées. Le travail mené consiste à mettre en place une méthodologie pour la détermination des incertitudes d’un processus de mesure utilisant un bras polyarticulé portable. Les travaux visant à élaborer un modèle d’incertitude de mesure, sont basés sur la méthode de Monte Carlo du supplément 1 du Guide pour l'expression de l'incertitude de mesure.La simulation de Monte Carlo mise en place est constituée de plusieurs niveaux :- Niveau 1 : Caractérisation du bras polyarticulé portable en trois étapes : détermination de la dispersion de la mesure des coordonnées cartésiennes d’un point, détermination des dispersions des paramètres géométriques, évaluation des incertitudes sur les coordonnées cartésiennes d’un point.- Niveau 2: Evaluation globale de l’incertitude de mesure d’un mesurande donné utilisant un bras polyarticulé portable, en associant les incertitudes liées à la pièce mesurée. / Pas de résumé en anglais.
72

Optimisation de la planification en radiothérapie prostatique et ORL / Planning optimization in prostate and head-and-neck radiation therapy

Zhang, Pengcheng 02 July 2014 (has links)
Ces travaux portent sur l'optimisation de la planification en radiothérapie prostatique et ORL. De façon à améliorer le calcul dosimétrique, la méthode de calcul de dose dite « Pencil beam » a d'abord été modifiée en considérant un système de coordonnées sphériques, en améliorant le mode de correction des hétérogénéités et en accélérant le calcul en effectuant les opérations de convolution grâce à la transformée de Fourier rapide. L'approche proposée a été comparée aux méthodes classiques en utilisant différents fantômes numériques. Cette évaluation a démontré la précision de la méthode proposée ainsi que l'accélération des calculs d'un facteur 40 par la méthode utilisant la transformée de Fourier, au prix toutefois d'une dégradation de la précision des résultats. Dans un second temps, l'incorporation de critères biologiques lors de l'optimisation du plan de traitement a été mise en œuvre à travers l'équivalent convexe du modèle NTCP (probabilité de toxicité des tissus sains) et son optimisation. L'évaluation de cette approche a été réalisée sur les données de dix patients traités pour un cancer de la prostate et a montré que la méthode proposée produit des planifications cliniquement satisfaisantes avec de meilleurs résultats en termes de toxicité prédite. Une méthode de compensation des incertitudes géométriques survenant lors du traitement a aussi été proposée, reposant sur une décomposition en séries de Taylor et un filtre de Butterworth. Son évaluation a montré son efficacité en termes de réduction des oscillations de haute fréquence ainsi que de présence de points chauds et froids. Enfin, dans un contexte de radiothérapie adaptative en ORL, une étude permettant d'identifier le scénario optimal de replanification, c'est-à-dire le nombre et les moments des replanifications, a été menée. Les critères de comparaison considérés reposaient sur le calcul de la dose cumulée reçue notamment par les parotides lors du traitement complet. L'efficacité des replanifications a ainsi été démontrée, avec par exemple une diminution du risque de toxicité de 9% pour le scénario optimal. Les perspectives de ce travail concernent la combinaison de ces méthodes dans un processus complet de planification pour évaluer leur impact dans un contexte clinique. / This work focuses on the optimization of planning in prostate and head-and-neck radiation therapy. In order to improve the dose calculation, the Pencil Beam method was firstly modified by considering a spherical coordinate system, by improving the heterogeneities correction method and by accelerating the calculation by performing the convolution operations using the Fast Fourier Transform. The proposed approach was compared to conventional methods using different numerical phantoms. This evaluation demonstrated the accuracy of the proposed method and the acceleration of the calculations by a factor 40 by the method using the Fast Fourier Transform, but at the cost of deterioration in the accuracy of the results. In a second step, the incorporation of biological criteria in the optimization of the treatment plan has been implemented through an equivalent convex NTCP constraints and its optimization. The evaluation of this approach has been performed on the data of ten patients treated for prostate cancer and has shown that the proposed method produces clinically satisfactory plans with better results in terms of predicted toxicity. A method to compensate geometric uncertainties occurring during treatment has also been proposed, based on the expansion in series of Taylor and a Butterworth filter. Its evaluation has shown its effectiveness in reducing high-frequency oscillations as well as the presence of hot and cold spots. Finally, in the context of adaptive radiotherapy in head and neck, a study was conducted to identify the optimal scenario of replannings, i.e. the number and timing of replannings. The comparison criteria were based on the calculation of the cumulative dose received by the parotid during the whole treatment. The effectiveness of the replanning has been demonstrated, for example with a decreased risk of toxicity 9% for the optimal scenario. The perspectives of this work relate to the combination of these methods in a comprehensive planning process to assess their clinical impact.
73

Quantification et réduction des incertitudes associées aux modèles hydrodynamiques de gestion quantitative des eaux souterraines / Quantification and reduction of quantitative groundwater management models uncertainties

Delottier, Hugo 14 June 2017 (has links)
La gestion durable des aquifères est une problématique grandissante depuis la fin du 20ème siècle. L'exploitation d’une ressource en eau souterraine est qualifiée de durable lorsque la capture des flux environnementaux est considérée comme acceptable sur le long terme. La modélisation hydrodynamique s'impose comme un outil indispensable pour remplacer une gestion réactive par une approche anticipative. Les paramètres hydrodynamiques qui caractérisent un aquifère et contrôlent les variables de sorties des modèles hydrodynamiques sont souvent mal connus. L’estimation de ces paramètres par la modélisation inverse souffre de la non-unicité de la solution optimale. Une approche simplifiée pour la quantification des incertitudes (analyse linéaire) est présentée comme une alternative pragmatique à des méthodes stochastiques inapplicables pour des modèles opérationnels. A partir de la réalisation d’une station expérimentale pilote, différentes méthodes (parfois complémentaires) ont été évaluées pour contraindre la recharge météorique et les propriétés hydrauliques d’un aquifère afin de réduire l’incertitude prédictive. La réalisation d’un modèle vertical couplé sol-surface a permis de démontrer que, dans le contexte étudié, la tension matricielle apporte suffisamment d’informations afin de contraindre la recharge prédite. Une interprétation conjointe d’un essai de nappe libre et des fluctuations piézométriques a permis une estimation intégrée de la recharge et des paramètres hydrodynamiques de la nappe libre. Ce travail de thèse a ainsi permis (i) de démontrer l’intérêt de disposer de méthodes algorithmiques pour la calibration et la quantification des incertitudes paramétriques pour un modèle hydrodynamique de gestion ; (ii) de mener une réflexion méthodologique sur l’utilisation de méthodes existantes afin d’apporter de l’information complémentaire fiable sur les paramètres hydrodynamiques ainsi que sur la recharge météorique. Ce travail offre des perspectives quant à la mise en place d’un réseau de suivi complet à l’échelle d’un bassin hydrogéologique. / The sustainable management of aquifers is a growing problem since the end of the 20th century. For groundwater withdrawals to be considered as sustainable, the capture of environmental flow should remain acceptable over a long-term period. Groundwater modeling is an essential tool to move from a reactive management to an anticipatory approach. Hydrodynamic parameters characterizing the aquifers are often poorly constrained by prior information or history matching. The estimation of these parameters by inverse modeling suffers from the non-uniqueness of the solution. This is an issue when predicted values by groundwater model are used to define legal frameworks. A simplified approach for the quantification of uncertainties (linear analysis) is presented as a pragmatic alternative to stochastic methods that cannot be applied to operational groundwater management models. The implementation of a pilot experimental station brings possibility to evaluate different approaches for the estimate of groundwater recharge and hydrodynamic parameters estimation in order to reduce the uncertainty of groundwater management models. A 1D coupled soil-surface model was used to demonstrate that, in the studied context, matrix potential measurements alone appear as sufficient to constrain coupled model-based estimates of recharge. In addition, a joint interpretation of an unconfined aquifer-test and water table fluctuations has been conducted. Reliable estimates of groundwater recharge can be obtained from water level records when considering long recharge events and a consistent value of drainable porosity. This thesis highlights (i) the necessity to use algorithmic methods for parameters estimation and uncertainty quantification for a groundwater management model; (ii) the interest of different methods to collect reliable hydrodynamic parameters and groundwater recharge estimation. This work can be used to support a monitoring network for parameters estimation at a basin scale.
74

Prévisions des crues en temps réel sur le bassin de la Marne : assimilation in situ pour la correction du modèle hydraulique mono-dimensionnel Mascaret / Operational flood forecasting on the Marne catchment : data assimilation for hydraulic model Mascaret correction

Habert, Johan 06 January 2016 (has links)
La prévision des crues et des inondations reste aujourd’hui un défi pour anticiper et assurer la sécurité des biens et des personnes. En France, le SCHAPI, qui dépend du MEDDE, assure ce rôle. Les niveaux et les débits d’un cours d’eau dépendent étroitement des interactions à différentes échelles entre les précipitations, les caractéristiques géométriques du cours d’eau et les propriétés topographiques, géologiques et pédologiques du bassin versant. Les modèles hydrauliques, utilisés dans le cadre de la prévision des crues, sont entachés d’incertitudes qu’il est nécessaire de quantifier et de corriger afin de mieux anticiper l’évolution hydrodynamique du cours d’eau en temps réel. L’objectif de ces travaux de thèse est d’améliorer les prévisions de hauteurs d’eau et de débits, sur le bassin de la Marne, issues des modèles hydrauliques utilisés dans le cadre opérationnel de la prévision des crues à partir de méthodes d’assimilation de données. Ces prévisions reposent sur une modélisation mono-dimensionnelle (1D) de l’hydrodynamique du cours d’eau à partir du code hydraulique 1D Mascaret basé sur la résolution des équations de Saint-Venant, enrichie par une méthode d’assimilation de données in situ utilisant un Filtre de Kalman Étendu (EKF). Ce mémoire de thèse s’articule en cinq chapitres, trois dédiés à la recherche et les deux derniers à l’application opérationnelle. Le chapitre 1 présente les données et les outils utilisés pour caractériser le risque inondation dans le cadre de la prévision des crues, ainsi que les modèles hydrauliques Marne Amont Global (MAG) et Marne Moyenne (MM), sujets d’application des méthodes d’assimilation de données développées dans cette étude. Le chapitre 2 est dédié à la méthodologie : il traite des différentes sources d’incertitudes liées à la modélisation hydraulique et présente les approches d’assimilation de données de type EKF appliquées dans cette étude à travers la maquette DAMP pour les réduire. Dans le chapitre 3, cette approche est appliquée aux modèles MAG et MM en mode réanalyse pour un ensemble de crues ayant touché le bassin de la Marne par le passé. Deux publications ont été insérées dans ce chapitre "étude". Dans le chapitre 4, les corrections appliquées dans le chapitre 3, sont validées à partir du rejeu de la crue de 1983 en condition opérationnelle avec le modèle MM. La quantification des incertitudes de prévision et la réalisation de cartes de zones inondées potentielles y sont aussi abordées. L’application de ces méthodes d’assimilation de données pour les modèles MAG et MM en opérationnel au SCHAPI au niveau national et au SPC SAMA au niveau local est présentée dans le chapitre 5. Cette thèse s’inscrit dans un contexte collaboratif où chacun apporte son expertise : la modélisation hydraulique pour le LNHE, les méthodes numériques pour le CERFACS et la prévision opérationnelle pour le SCHAPI. L’ensemble de ces travaux de thèse a permis de démontrer les bénéfices et la complémentarité de l’estimation des paramètres et de l’état hydraulique par assimilation de données sur les hauteurs d’eau et les débits prévus par un modèle hydraulique 1D, ce qui constitue un enjeu d’importance pour l’anticipation du risque hydrologique. Ces méthodes ont été intégrées dans la chaîne opérationnelle de prévision du SCHAPI et du SPC SAMA. / Flood forecasting remains a challenge to anticipate and insure security of people. In France, the SCHAPI, wich depends on the MEDDE, takes this function. Water levels and discharges are highly dependent on interactions at different scales between rainfall, geometric characteristics of rivers and topographic, geological and soil properties of the watershed. Hydraulic models, used in the context of flood forecasting, are tainted by uncertainties which necessist to be quantified and corrected in order to better anticipate flow evolution in real time. The work carried out for this PhD thesis aims to improve water level and discharge forecasts on the Marne watershed, from hydraulic models used in the operational framework of flood forecasting using data assimilation methods. These forecasts come from a mono-dimensional (1D) hydraulic model Mascaret based on the resolution of Saint-Venant equations, improved by data assimilation methods using an Extended Kalman Filter (EKF). This thesis consists of five chapters, three dedicated to research and the two last to the operational application. The first presents data, tools and methods used to characterize the flood risk in the context of flood forecasting, as well as the Marne Amont Global (MAG) and Marne Moyenne (MM) models, subjects of application of data assimilation methods developed in this study. The second chapter covers hydraulic model uncertainties and data assimilation methodology (Kalman filter) applied in this thesis through DAMP in order to reduce them. In the third chapter, this approach is applied to the MAG and MM models for different flood events. In the fourth chapter, the April 1983 flood event allows to validate the corrections applied in the previous chapter for the MM model in an operational context. The uncertainties evaluations and the mapping of potential flooded zones are also reported. The real-time application of these data assimilation methods for MAG and MM models by SCHAPI and SPC SAMA is presented in the fifth chapter. This thesis takes place in a collaborative work where each member brings his own expertise : the hydraulic modeling for LNHE, the numeric methods for the CERFACS and operational forecasting for the SCHAPI. This thesis shows the benefits and complementarity of the evaluation of parameters and hydraulic state using data assimilation on water levels and discharges forcasted by a 1D hydraulic model, which is an important issue for the anticipation of hydrologic risk. These methods have already been integrated to the operational chain of flood forecasting of the SCHAPI and the SPC SAMA.
75

Conditionnement de la modélisation stochastique 3D des réseaux de failles / Conditioning of the 3D stochastic modeling of fault networks

Julio, Charline 23 June 2015 (has links)
Les failles sont des zones de rupture de la roche qui affectent le comportement mécanique et fluide des réservoirs. De nombreuses incertitudes existent sur la géométrie et la topologie des réseaux de failles dues à la résolution et la qualité des données, mais aussi aux lacunes d'informations. Des approches stochastiques ont été utilisées dans la littérature pour gérer les incertitudes structurales. Ces méthodes génèrent un ensemble de modèles possibles de failles conditionné par les données disponibles. Dans cette thèse, nous explorons deux principales stratégies de conditionnement de la modélisation stochastique de réseaux de failles. La première stratégie élaborée permet de prendre en compte des observations d'absences de failles sur des données, par exemple, des zones où les réflecteurs sismiques sont continus. Dans ce but, le réservoir est divisé en deux sous-volumes délimités par une enveloppe surfacique 3D : un volume non-faillé et un volume potentiellement-faillé. Les surfaces de failles sont ensuite simulées et optimisées de manière à être entièrement positionnées dans la zone identifiée comme potentiellement faillée. La seconde stratégie de conditionnement présentée dans cette thèse gère les incertitudes relatives à l'interprétation de la segmentation des failles. La méthode génère un ensemble de modèles de segments de failles en-échelon à partir d'une interprétation continue à plus grande échelle d'une faille segmentée. La méthode utilise les variations d'orientations de la faille segmentée pour identifier la position des différents segments la composant. L'impact des différentes configurations de segmentation sur les simulations d'écoulements est étudié / Faults are discontinuities in rock volumes that affect mechanical properties and flow paths of hydrocarbon reservoirs. However, subsurface modeling remains limited by the incompleteness and resolution of available data, so that uncertainties remain on the geometry and the connectivity of fault networks. To assess fault network uncertainties, several stochastic approaches have been introduced in the literature. These methods generate a set of possible fault models conditioned by reservoir data. In this thesis, we investigate two main conditioning strategies of stochastic fault modeling methods. The first one takes into account the observations of the fault absence, for instance, as indicated by seismic reflector continuity. To do this, the reservoir volume is divided into two sub-volumes delimited by a 3D envelope surface: (1) a volume where no faults occur, and (2) a potentially-faulted volume. Then, faults are simulated and optimized in such a way as to be entirely confined to the potentially-faulted volume. The second presented strategy deals with the uncertainties related to the seismic interpretation of fault segmentation. It generates a set of fine-scale segmented faults from a larger-scale and continuous interpretation of the fault. The method uses the orientation variations of the continuous fault to subdivide it into several possible fault segments. The effects of the different segmentation configurations on flow simulations are studied
76

Prise en compte des incertitudes et calcul de probabilité dans les études de risques liés au sol et au sous-sol / Uncertainties and probabilities in risk management of ground and underground issues

Cauvin, Maxime 20 December 2007 (has links)
L’analyse des risques liés aux objets rocheux (effondrement ou affaissement de terrain, écroulement de falaise, etc.) s’effectue généralement dans un contexte lourd en incertitudes. Malheureusement, les outils dont dispose aujourd’hui l’expert pour réaliser ses études souffrent de ne pouvoir apporter de solutions suffisamment précises pour réellement saisir ce contexte d’incertitude. Ce mémoire effectue d’abord un retour sur la notion d’incertitude dans les études de risques liés au sol et au sous-sol. Une définition et une typologie détaillée en sont proposées et des outils, issus de la littérature ou développés dans le cadre de la thèse, sont fournis pour permettre un traitement pratique de chacune des classes introduites. L’utilisation des probabilités comme outil d’aide à la prise en compte des incertitudes est ensuite examinée. Une discussion, confrontant les approches fréquentiste et épistémique, est proposée pour évaluer la possibilité et les limites d’une interprétation opérationnelle de résultats probabilistes dans une analyse de risque. Ce travail est principalement destiné à l’expert du terrain réalisant une étude de risque. Ainsi, plusieurs exemples réels (analyse de la stabilité d’une mine de charbon, étude de l’aléa fontis au droit d’une carrière souterraine de gypse, réalisation d’un Plan de Prévention des Risques Miniers) sont proposés pour éclairer les propos, illustrer l’adaptabilité des outils introduits aux méthodologies actuelles, et présenter les avantages concrets que le traitement des incertitudes et le calcul probabiliste peuvent apporter en terme d’aide à la démarche d’expertise et à la communication entre les acteurs de la gestion du risque / Analyses of risks related to ground and underground issues (surface collapses, subsidence, rockfalls, etc.) are generally undertaken in a strong context of uncertainty. However, tools that are available for geotechnical expert to carry out his study suffer today from not being able to really seize this context of uncertainty. This work takes firstly stock of the notion of uncertainty in risk analyses. It provides a definition and a typology of uncertainty that can be concretely used by the expert. For each of the defined classes, methods allowing an operational treatment of uncertainties are presented, either extracted from a literature survey or developed in the framework of the Thesis. The use of probabilities as an expertise-help tool is secondly examined. A discussion, which distinguishes between frequentist and epistemic interpretations of probabilities, is proposed to evaluate the benefits and implications that probabilities can have towards the practical elaboration of a risk analysis. This study is mainly dedicated to the field expert in charge of the analysis. Numerous concrete examples (analysis of surface stability above an underground coal mine, sinkhole development analysis over an underground gypsum mine, elaboration of a Mining Risk Prevention Plan) are therefore provided both to present the main results of the work and to illustrate the adaptability of the tools being introduced to the current methodologies of analysis. They also aim at highlighting the fact that the treatment of uncertainties and the use of probabilities in risk analyses can facilitate the process of expertise and allow a better communication between the various actors of risk management
77

Cartographie topographique et radiologique 3D en temps réel : acquisition, traitement, fusion des données et gestion des incertitudes / Real-time 3D topographical and radiological mapping : acquisition, fusion, data processing and uncertainties management.

Hautot, Félix 16 June 2017 (has links)
Dans le cadre des activités de maintenance, de décontamination et de démantèlement d’installations nucléaires, il est nécessaire d’effectuer un état des lieux précis des structures potentiellement contaminées ou activées, préalablement à toute intervention. Pour des raisons économiques, cet état des lieux doit être le plus souvent réalisé dans un temps court. Par ailleurs, il est généralement effectué par un opérateur, dont le temps d’exposition aux rayonnements doit être minimisé. Une des difficultés récurrentes réside dans l’éventuelle obsolescence ou de l’inexistence des plans, et dans le cas d’investigations en intérieur, de la perte de signaux GPS, et de la difficulté d’employer des systèmes de localisations externes et pré-calibrés. En effet, l’état des lieux est obtenu en couplant une cartographie de l’environnement avec des mesures nucléaires destinées à évaluer le niveau de radiations dans les lieux étudiés. Dans ce cadre, il est nécessaire de disposer d’un instrument portatif permettant de délivrer une cartographie radiologique et topographique la plus exhaustive possible des locaux afin d’établir des scénarii d’intervention. Afin de minimiser le temps d’exposition de l’opérateur, il est essentiel que les données acquises soient exploitables en temps réel. Ce type d’instrument doit permettre de procéder à des interventions complexes et doit fournir les meilleures prévisions dosimétriques afin d’optimiser les temps d’intervention lors du démantèlement ainsi que la gestion des éventuels déchets. À ces fins, Areva STMI a développé un système autonome de positionnement et de calcul de déplacement de sondes de mesures nucléaires en temps-réel basé sur les techniques de SLAM (Simultaneous Localization And Mapping). Ces développements ont conduit au dépôt d’un brevet. Ce travail de thèse a consisté à poursuive cette étude, et en particulier à décomposer l’ensemble des sous-systèmes, à poursuivre les développements inhérents à la fusion de données topographiques et radiologiques, à proposer des moyens d’optimisation, et à poser les bases d’une technique d’analyse, en temps réel, des incertitudes associées. Les méthodes SLAM utilisent l’odométrie visuelle qui peut reposer sur la capture d’images à l’aide de caméras RGB-D (caméras de type Microsoft Kinect®). Le processus d’acquisition délivre une carte tridimensionnelle contenant la position et l’orientation en 3D des appareils de mesure ainsi que les mesures elles-mêmes (débit de dose et spectrométrie gamma CZT) sans implication d’infrastructure préexistante. Par ailleurs, des méthodes de détections de sources basées sur les techniques d’interpolation spatiale et de rétroprojection de signal en « proche temps-réel » ont été développées. Ainsi, il est possible d’évaluer la position des sources radioactives dans l’environnement acquis. Il est ainsi possible de calculer rapidement des cartes de son état radiologique sans délai après l’acquisition. La dernière partie de ce travail a consisté à poser les bases d’une méthode originale pour l’estimation, en proche temps réel, de la précision des résultats issus de la chaîne d’acquisition et de traitement. Cette première approche nous a permis de formuler l’évaluation et la propagation des incertitudes tout au long de cette chaîne d’acquisition en temps réel, afin d’évaluer les méthodes que nous avons employées en termes de précision et de fiabilité de chaque acquisition réalisée. Enfin, une phase de benchmark permet d’estimer les résultats par rapport à des méthodes de référence. / In the field of nuclear related activities such as maintenance, decontamination and dismantling status reports of potentially contaminated or activated elements are required beforehand. For economic reasons, this status report must be quickly performed. So as to be done quickly, the operation is realized by an operator, and his exposure time must be reduced as much as possible. Concerning indoor environments, it can be hard to make such investigations due to out-of-date plans or maps, loose of GPS signal, pre-positioning of underlying or precalibrated systems. Indeed, the premises status report is obtained by coupling nuclear measurements and topographical mapping. In such kind of situation it is necessary to have a portative instrument that delivers an exhaustive radiological and topographical mapping in order to deliver a decision support concerning the best intervention scenario to set up as fast as possible. Furthermore, and so as to reduce operator’s exposure time, such kind of method must be usable in real time. This method enables to proceed to complex intervention within the best radiological previsions for optimizing operator’s exposition time and waste management. In this goal, Areva STMI then developed a nuclear measurement probes autonomous positioning and motion estimation system based on visual SLAM (Simultaneous Localization And Mapping). These developments led to apply a patent. This thesis consisted in pursuing this survey, especially decomposing all the underlying systems, continuing the data fusion developments, proposing optimisations, and setting the basis of a real-time associated uncertainties analysis. SLAM based on visual odometry can be performed with RGB-D sensor (Microsoft Kinect®-like sensors). The acquisition process delivers a 3D map containing radiological sensors poses (positions and orientations in 3D) and measurements (dose rate and CZT gamma spectrometry) without any external signal or device. Moreover, a few radioactive sources localization algorithms based on geostatistics and back projection of measurements can also be performed in near real-time. It is then possible to evaluate the position of radioactive sources in the scene and compute fast radiological mappings of premises close to the acquisition. The last part of this work consisted in developing an original method for real-time evaluation of the process chain and results accuracies. The evaluation of uncertainties and their propagation along the acquisition and process chain in real-time provide feedbacks on employed methods for investigations or intervention processes and enable to evaluate the reliability of acquired data. Finally, a set of benchmarks has been performed in order to estimate the results quality by comparing them to reference methods.
78

Intégration de modèles approchés pour mieux transmettre l’impact des incertitudes statiques sur les courbes de réponse des simulateurs d’écoulements / Integration of approximated models in order to better assess impact of static uncertainties on flow simulator's response curves

Bardy, Gaétan 27 October 2015 (has links)
Alors que l’on utilise couramment de nombreux modèles numériques différents pour la description statique des réservoirs souterrains et des incertitudes associées, les incertitudes sur les écoulements des fluides à l’intérieur de ces réservoirs ne peuvent, pour des raisons de performance, que s’appuyer que sur quelques simulations d’écoulements. Les travaux de cette thèse ont donc pour objectif d’améliorer la transmission de l’impact des incertitudes statiques sur les réponses du simulateur dynamique d’écoulements sans augmenter le temps de calcul, grâce à des modèles approchés (proxy). Pour cela deux axes de recherche ont été menés : - L’implémentation de nouveaux proxys basés sur le Fast Marching, afin de modéliser la propagation d’un fluide dans un réservoir avec seulement quelques paramètres. Cela permet d’obtenir des courbes de réponse similaires à celles fournit par le simulateur d’écoulement pour un temps de calcul très court ; - La mise en place d’une procédure de minimisation mathématique afin de prédire les courbes de réponses du simulateur d’écoulement à partir d’un modèle analytique et des distances entre les modèles calculées avec les réponses des proxys. Les méthodes développées ont été appliquées sur deux cas d’études réels afin de les valider face aux données disponibles dans l’industrie. Les résultats ont montrés que les proxys que nous avons implémentés apportent de meilleures informations que les proxys disponibles bien que les nôtres soient toujours perfectibles. Nous avons aussi mis en évidence l’intérêt de notre procédure de minimisation pour mieux évaluer les incertitudes dynamiques à partir du moment où le proxy utilisé est suffisamment fiable / Although it is common to use many different numerical models for the static description of underground reservoirs and their associated uncertainties, for fluid flow uncertainties through these reservoirs only few dynamic simulations can be used due to performance reasons. The objective of this thesis’ work is to better transmit the impact of static uncertainties on flow simulator’s responses without increasing computation time, using approximated models (proxies). Research has been undertaken in 2 directions: - Implementation of new proxies based on Fast Marching in order to better approach fluid propagation behavior in a reservoir using only a few parameters. This allows to obtain response curves close to those provided by the flow simulator in a very short period of time - Set up a mathematical minimization’s procedure in order to predict flow simulator’s response curves using an analytical model and distances between proxy responses computed on every model. The methods developed during this PhD have been applied on two different real cases in order to validate them with industry data. Results have shown that our new proxy improve the quality of the information about fluid behavior compared to the available proxy even though ours can still be improved. We also highlight that our minimization procedure better assesses dynamic uncertainties if the proxy used is reliable enough
79

Étalonnage d'un espace de travail par multilatération / Calibration of a working space using multilateration

Camboulives, Martin 11 December 2015 (has links)
Les travaux présentés dans cette thèse ont pour but la maîtrise des méthodes d'étalonnage par multilatération. Ils s'inscrivent dans une collaboration entre le Laboratoire national de métrologie et d'essais (LNE) et le Laboratoire Universitaire de Recherche en Production Automatisée (LURPA). Dans ces travaux, la multilatération est dite séquentielle car réalisée avec un unique Laser Tracer positionné successivement plusieurs points de l'espace. La détermination de ces positions ainsi que des bras-morts de l'interféromètre est le point clef de la méthode. Pour l'évaluation des incertitudes, le raccordement aux étalons est fait via les longueurs interférométriques délivrées par le Laser Tracer. Elles sont associées à des défauts caractéristiques d'une cinématique particulière ou aux coordonnées des points mesurés. Elles sont évaluées au travers de la stratégie de mesure et des performances de chaque composant intervenant lors de la procédure d'étalonnage. Mesurer les coordonnées d'un point cible de l'espace par multilatération implique de connaître les positions des points de vue depuis lesquels le point est visé, ainsi que les longueurs qui le séparent des points de vue qui en pratique sont les centres des Laser Tracer. La méthode que nous proposons permet d'identifier les positions et bras-morts des Laser Tracer qui constituent un repère de mesure qualifié de Système Mesurant de Référence (SMR), puis de réaliser la multilatération. Ensuite, l'extraction de défauts volumiques permet éventuellement d'identifier les défauts cinématiques d'une chaîne de solides particulière associée au volume de mesure. Dans cette optique, nous proposons une procédure type inspirée des travaux du LNE axés sur l'utilisation d'une barre à trous pour identifier les défauts cinématiques d'une MMT à trois axes cartésiens. Cette méthode se démarque des approches actuellement proposées car le SMR est construit indépendamment de l'identification des défauts de l'appareil de mesure. De plus, la procédure d'étalonnage que nous proposons repose sur une investigation axe par axe plutôt que par une optimisation globale du problème d'étalonnage. En nous focalisant sur les machines à mesurer tridimensionnelles (MMT), nous proposons un bilan d'incertitudes qui a inclus des facteurs dont le rôle n'était auparavant pas pris en compte dans la littérature. Ces facteurs sont liés au fait de n'utiliser qu'un seul Laser Tracer pour étalonner la MMT. Nous proposons un module d'évaluation des incertitudes qui permet, grâce à des simulations de Monte Carlo, d'identifier l'influence de chacun de facteurs d'incertitude. La pertinence d'une stratégie d'étalonnage peut donc être évaluée à priori de la mise en œuvre de la procédure. L'outil de simulation proposé s'appuie sur la simulation du comportement de la MMT et de celui du Laser Tracer lors de la mesure. Deux indicateurs d'incertitude sont proposés pour l'étude des incertitudes. L'un est lié à l'exactitude de calcul du SMR construit sur les positions successives du Laser Tracer, l'autre est une image de l'incertitude obtenu sur les profils des défauts cinématiques calculés. Cet outil de simulation a permis de valider l'importance des sources d'incertitudes établies initialement pour l'étalonnage d'une MMT à trois axes cartésiens. L’ensemble de la démarche a été appliqué et validé pour une MMT à 3 axes cartésiens en conditions de laboratoire chez un industriel. Cependant, l’approche proposée découple la construction du SMR de l’identification des défauts cinématiques. Elle peut donc être facilement étendue à des systèmes de mesure 3D variés. Nous montrons donc que la démarche globale peut s’appliquer à des espaces de mesure sans cinématique machine. Il s’agit alors d’identifier les défauts volumiques associés à l’espace de mesure, ainsi que les incertitudes associées à la méthode d’étalonnage mise en œuvre. Afin d’illustrer notre propos, nous traitons le cas d’espaces de travail associés à un système de mesure optique. / This thesis aims at developing calibration procedures and methods for measuring tools such as coordinate measuring machines (CMMs) and stereovision devices. This work is incorporated within the framework of a collaboration between the Laboratoire national de métrologie et d’essais (LNE) and the Automated Production Research Laboratory (LURPA). In the scope of this thesis, multilateration is qualified as sequential because it is carried out by a single tracking interferometer (Laser Tracer) that is placed in different positions during the calibration procedure. In order to assess the calibration uncertainties, the link to the length standards is obtained through the measured lengths provided by the interferometer. Each one of these measured lengths is linked to the kinematic chain parametric errors that cause the volumetric errors of the CMM or directly to the measured points coordinates. They are assessed thanks to the study of both the calibration procedure and the performance of each component that takes part in the calibration procedure.Performing multilateration to obtain the spatial coordinates of a point requires to know both the stand points from which the point is measured and the distances between the stand points and the measured point. Practically, the stand points are the Laser Tracer positions. The proposed method aims at identifying the Laser Tracer’s positions and dead-paths lengths first in order to build a reference measuring frame, then performing multilateration. Then, if the measuring device is a CMM, its kinematic chain parametric errors are identified. For this matter, we propose a specific procedure based on the LNE knowledge on CMM calibration carried out using hole-bars. The originality of the proposed method lies in the fact that the reference measuring frame and the measuring device errors are calculated independently from each other. Plus, when addressing the case of a CMM calibration, the kinematic chain parametric errors are extracted one by one when a global optimization algorithm is usually performed nowadays.We focus on the case of CMMs calibration and we propose a precise analysis of all the sources of errors. It includes factors which influence was not studied before. They appear to result from the fact that a single tracking interferometer is used to calibrate the CMM. A simulation module based on a Monte Carlo approach has been developed. It enables the study of the influence of each source of errors independently from the other ones. Hence, the relevance of a measuring strategy can be assessed beforehand. This module simulates the behaviour of both the CMM and the Laser Tracer to evaluate uncertainties. We propose two indicators to observe the relative influence of each uncertainty factor. The first one is linked to the reference frame that is built on the successive positions of the Laser Tracer. The second one represents the global uncertainty one the kinematic chain parametric errors. This uncertainty assessment module has been successfully used to highlight the importance of sources of errors which role used to not be studied.The calibration procedure and uncertainty assessment module we propose have been successfully applied to a 3-axis cartesian CMM in laboratory conditions. Plus, since the reference measuring frame and the kinematic chain parametric errors identification are performed separately, the method we propose can be applied to other measuring devices. We especially explain how to apply it in the case of a measuring device based on stereovision.
80

Apport de la mesure en continu pour la gestion de la qualité des effluents de temps de pluie en réseau d'assainissement

Lacour, Céline 03 November 2009 (has links) (PDF)
L'objectif de ce travail de thèse est de démontrer qu'il est possible d'utiliser des mesures en continu de turbidité pour suivre la pollution particulaire dans les réseaux d'assainissement et d'évaluer l'apport de ces mesures pour la gestion des réseaux en temps réel ou en temps différé. Dans une première partie, la mise en oeuvre de la mesure en continu de turbidité est décrite. Les éléments principaux contribuant à l'incertitude sont identifiés et des méthodes de calcul des incertitudes adaptées sont proposées. Les questions de fiabilité et de représentativité de la mesure de turbidité sont traitées et aboutissent à des solutions d'installation des sondes in situ et à des protocoles de suivi et de maintenance. Enfin, les perturbations affectant le signal sont quantifiées et des méthodes de filtrage sont comparées. La deuxième partie est consacrée à l'analyse du comportement de la turbidité à partir des données acquises sur deux sites du réseau unitaire parisien en 2006. 80 événements pluvieux sont décrits par leurs concentrations moyennes et maximales et par leurs courbes de distribution masse/volume. Ces critères ont été intégrés dans des typologies qui ont ensuite été mises en relation avec des paramètres de débit et de durée de temps sec ayant précédé l'événement. Cette analyse permet de caractériser la variabilité de façon détaillée. La variabilité de la décantabilité des particules a été également étudiée à partir de données provenant de bassins de décantation. Enfin, deux applications sont proposées. La première est une évaluation en temps différé de flux de polluants. Deux modes d'exploitation de prélèvements d'échantillons réalisés sur un nombre fixé d'événements pluvieux sont comparés. L'un n'utilise que les résultats d'analyses des échantillons au laboratoire pour établir une concentration moyenne. L'autre utilise les prélèvements pour établir des relations entre turbidité et paramètres polluants, ensuite appliquées à des mesures en continu de turbidité. Une seconde série d'applications porte sur l'utilisation de la turbidité pour la gestion en temps réel des flux. Deux configurations-types génériques ont été étudiées. Pour chacune, une stratégie utilisant seulement le débit est comparée à une stratégie utilisant turbidité et débit. Les simulations sont effectuées pour de larges gammes de paramétrage des configurations et avec des données réelles de débit et de turbidité en entrée du système. Pour les applications d'évaluation de flux comme de gestion en temps réel, le gain apporté par la turbidité est chiffré et s'avère significatif

Page generated in 0.1145 seconds