Spelling suggestions: "subject:"indicateurs dde dualité"" "subject:"indicateurs dde actualité""
1 |
Identification et simulation des incertitudes de fabricationBui, Minh Hien 27 October 2011 (has links) (PDF)
L'étude présente les méthodes pour identifier et simuler les défauts de fabrication tridimensionnels. Les méthodologies ont été élaborées sur la base des travaux antérieurs, tels que la méthode de simulation MMP (Model of Manufactured Part) présentée par F. Villeneuve et F. Vignat, associée à la méthode de la double mesure présentée par S. Tichadou.Dans cette thèse, la première méthode proposée, basée sur la méthode des petits déplacements (TPD) est présentée et permet l'identification des défauts de fabrication. Cette méthode permet de distinguer les défauts d'usinage et les défauts de positionnement d'un lot de pièces au cours d'un processus de fabrication. Les résultats obtenus dans cette méthode représentent les dispersions géométriques des pièces usinées. En outre, une méthode d'analyse modale de défauts a été réalisée pour analyser les défauts de forme d'une pièce mesurée sur une MMT avec un nombre restreint de points de mesure (10 points sur chaque surface usinée). Les résultats montrent que les modes des défauts de forme sont obtenus correctement (bombé, ondulation, vrillage, etc.)En raison de l'importance du rôle du défaut de positionnement dans la qualité d'un produit en cours de fabrication, ensuite deux indicateurs simples ont été proposés pour évaluer la qualité globale d'un montage de fixation de pièces.Par ailleurs, un modèle permettant de simuler les défauts de positionnement d'une pièce fixée sur un mandrin à trois mors a été développé. Le modèle final de simulation est une combinaison de trois méthodes: plan d'expérience, simulation par éléments finis, et simulation de Monte Carlo. Pour la méthode des plans d'expérience, trois facteurs, qui sont supposés être les plus importants dans les défauts de positionnement, sont utilisés dans le modèle. Les résultats obtenus à partir des simulations sont exprimés sous forme de distributions et de paramètres statistiques caractéristiques. Ceux-ci sont ensuite utilisés pour effectuer les simulations en appliquant la méthode de Monte Carlo.Enfin, un modèle global est proposé, pour simuler la gamme de fabrication d'une pièce fraisée. Ce modèle permet de vérifier la gamme choisie avec des tolérances fonctionnelles de la pièce imposée. De plus, cette méthode permet de vérifier une gamme de fabrication en garantissant les tolérances fonctionnelles imposées ou une utilisation inverse qui permet de déterminer les tolérances garantissant un nombre de pièces usinées hors des zones de tolérance.
|
2 |
Caractérisation de l'environnement sonore urbain : Proposition de nouveaux indicateurs de qualitéBrocolini, Laurent 13 December 2012 (has links) (PDF)
A l'heure actuelle, les seuls moyens d'informer les usagers de la ville de l'environnement sonore dans lequel ils vivent consistent en des indicateurs de niveaux sonores moyens et annuels obtenus par modélisation acoustique des principales infrastructures de transports. Or, ces indicateurs sont difficilement compris et de ce fait mal interprétés par les usagers de la ville car ils ne reflètent pas la signification des bruits perçus et la diversité des situations que les citadins rencontrent. Le but de ce travail de recherche est donc d'analyser la façon dont les usagers de la ville perçoivent le paysage sonore urbain afin de définir des indicateurs de qualité sonore qui pourront être à terme intégrés dans une représentation territoriale cartographique. Pour ce faire, il a tout d'abord été nécessaire de s'attacher à déterminer un pas temporel et spatial de mesure permettant de caractériser des ambiances urbaines d'un point de vue acoustique. A partir d'enregistrements longue durée (trois mois environs) en six points fixes à Paris, il a été possible de déterminer à travers des classifications ascendantes hiérarchiques de Ward associées à des cartes auto-organisatrices de Kohonen qu'une durée de dix minutes semble dans la plupart des cas être suffisante pour caractériser différentes ambiances sonores. Grâce aux mêmes méthodes de classification, l'analyse du maillage spatial a permis de définir quatre zones homogènes qui correspondent (1) au parc, (2) au boulevard, (3) à la rue piétonne puis (4) une zone que l'on qualifiera de zone de transition. La suite de l'étude s'est attachée à construire des modèles de prédiction de la qualité sonore. A partir d'enquêtes de terrain réalisées à Paris et à Lyon, il a été possible d'établir des modèles à la fois locaux (caractérisant le lieu même où le questionnaire a été évalué) et globaux basés d'une part sur des régressions linéaires multiples et d'autre part sur des réseaux de neurones artificiels. La comparaison de ces deux types de modèles a permis entre autre de mettre en évidence l'apport des réseaux de neurones artificiels devant les régressions linéaires multiples en termes de prédiction. Par ailleurs il est ressorti de ces modèles l'importance de variables telles que le silence, l'agrément visuel ou encore la présence de sources sonores particulières comme les véhicules légers pour expliquer la qualité sonore de l'environnement.
|
3 |
Optimisation de plans d’actions multi-objectifs dans le secteur social et médico-social / Multiobjective action plan optimization in social and medico-social sectorChabane, Brahim 06 December 2017 (has links)
Depuis le début des années 2000, le secteur social et médico-social connait des évolutions et des mutations importantes. D’un côté, le nombre de personnes prises en charge est en perpétuelle augmentation. D’un autre côté, les finances et les budgets mis à disposition des établissements ne cessent de se réduire, ce qui oblige les décideurs à s’adapter et à trouver de nouvelles solutions pour faire plus avec moins de moyens. Dans cette thèse, nous étudions un problème pratique auquel sont souvent confrontés les directeurs des établissements qui est l’élaboration de plans d’actions optimaux. Un plan d’actions est un ensemble d’actions qui sont mises en place afin d’améliorer à la fois les performances de l’établissement et la qualité de prise en charge de ses résidents.Élaborer un plan d’actions optimal consiste à identifier et choisir les meilleures actions qui améliorent tous les objectifs du plan tout en respectant quelques contraintes. Après la présentation du contexte pratique et théorique, nous fournissons une modélisation formelle du problème sous forme d’un problème de sac-à-dos multi-objectif.Puis nous présentons quelques méthodes de résolution à base d’indicateurs de qualité et de la dominance de Lorenz. Nous montrons que la méthode IBMOLS combinée avec l’indicateur de qualité R2 permet d’obtenir des solutions efficaces et d’intégrer facilement les préférences du décideur. Nous montrons également que dans un contexte où les préférences du décideur sont inconnues ou les objectifs ont tous la même importance, la dominance de Lorenz est un outil très efficace qui permet, d’un côté, d’intégrer l’équité dans le processus de recherche et, d’un autre côté, de réduire le nombre de solutions non dominées ainsi que le temps d’exécution. / Since the early 2000s, the social and medico-social sector is experiencing significant evolutions and mutations. On the one hand, the number of persons taken over is constantly increasing. On the other hand, the finances and budgets available to the structures are constantly decreasing. This forces decision-makers to adapt and find new solutions to do more with fewer resources. In this thesis, we study a practical problem that is often faced by the decision-makers, which is the elaboration of optimal action plans. An action plan is a set of actions that are realized to improve both the performance of the structure and the quality of service offred to its residents. Elaborating an optimal action plan consists of identifying and selecting the best actions that improve all the objectives of the plan while respecting some constraints. After presenting the practical and theoretical context, we provide a formal modeling of the problem as a multi-objective knapsack problem. Then, we present a number of solution methods based on quality indicators and Lorenz dominance. We show that combining IBMOLS method with R2 indicator allows obtaining efficient solutions and easily integrating the decision-maker preferences. We also show that in a context where decision-maker preferences are not known or all the objectives are considered equals, Lorenz dominance is a very efficient tool to incorporate equity into the search process and reduce the number of non-dominated solutions as well as the algorithm runtime.
|
4 |
Les habitats rocheux intertidaux sous l'influence d'activités anthropiques : structure, dynamique et enjeux de conservationBernard, Maud 11 May 2012 (has links) (PDF)
Les activités humaines, de loisir et professionnelles, vont en s'intensifiant sur les zones rocheuses intertidales. Le piétinement associé à ces activités, le remaniement des blocs pour rechercher des espèces consommables, ne sont pas sans incidence sur les biocénoses des milieux rocheux. Les conséquences de ces activités sur la structure et la dynamique des roches du médiolittoral et des champs de blocs de bas d'estran en particulier, nécessitent d'être caractérisées. A travers l'identification des espèces et descripteurs qui répondent le plus aux perturbations "piétinement des platiers rocheux" et "retournement des blocs par les pêcheurs à pied", des indicateurs écologiques simplifiés peuvent être dégagés et faciliter, à terme, le diagnostic de l'état de conservation de ces habitats. Les processus écologiques de dégradation et de déstructuration des biocénoses sous l'effet du piétinement passent par des interactions entre espèces très complexes. Les résultats d'expérimentations in situ soulignent des phénomènes de seuils très marqués, liés en particulier à la protection jouée par les algues brunes structurantes sur les autres espèces. L'étude du retournement des blocs par les pêcheurs à pied met en évidence une phase de mortalité presque totale des organismes fixés ou peu mobiles des blocs et une faible résilience de l'habitat. Le choix de stations de référence appropriées et l'utilisation des espèces et descripteurs les plus sensibles au retournement des blocs ont permis la création de deux indicateurs de perturbation. Déclinés à deux échelles spatiales différentes, ils sont applicables en routine par les scientifiques et les gestionnaires d'aires marines protégées.
|
5 |
Caractérisation de l'environnement sonore urbain : Proposition de nouveaux indicateurs de qualité / Characterization of the urban soundscape : with new indicators of qualityBrocolini, Laurent 13 December 2012 (has links)
A l'heure actuelle, les seuls moyens d'informer les usagers de la ville de l'environnement sonore dans lequel ils vivent consistent en des indicateurs de niveaux sonores moyens et annuels obtenus par modélisation acoustique des principales infrastructures de transports. Or, ces indicateurs sont difficilement compris et de ce fait mal interprétés par les usagers de la ville car ils ne reflètent pas la signification des bruits perçus et la diversité des situations que les citadins rencontrent. Le but de ce travail de recherche est donc d'analyser la façon dont les usagers de la ville perçoivent le paysage sonore urbain afin de définir des indicateurs de qualité sonore qui pourront être à terme intégrés dans une représentation territoriale cartographique. Pour ce faire, il a tout d'abord été nécessaire de s'attacher à déterminer un pas temporel et spatial de mesure permettant de caractériser des ambiances urbaines d'un point de vue acoustique. A partir d'enregistrements longue durée (trois mois environs) en six points fixes à Paris, il a été possible de déterminer à travers des classifications ascendantes hiérarchiques de Ward associées à des cartes auto-organisatrices de Kohonen qu'une durée de dix minutes semble dans la plupart des cas être suffisante pour caractériser différentes ambiances sonores. Grâce aux mêmes méthodes de classification, l'analyse du maillage spatial a permis de définir quatre zones homogènes qui correspondent (1) au parc, (2) au boulevard, (3) à la rue piétonne puis (4) une zone que l'on qualifiera de zone de transition. La suite de l'étude s'est attachée à construire des modèles de prédiction de la qualité sonore. A partir d'enquêtes de terrain réalisées à Paris et à Lyon, il a été possible d'établir des modèles à la fois locaux (caractérisant le lieu même où le questionnaire a été évalué) et globaux basés d'une part sur des régressions linéaires multiples et d'autre part sur des réseaux de neurones artificiels. La comparaison de ces deux types de modèles a permis entre autre de mettre en évidence l'apport des réseaux de neurones artificiels devant les régressions linéaires multiples en termes de prédiction. Par ailleurs il est ressorti de ces modèles l'importance de variables telles que le silence, l'agrément visuel ou encore la présence de sources sonores particulières comme les véhicules légers pour expliquer la qualité sonore de l'environnement. / At present, the only ways to inform city dwellers about the sound environment in which they live are annual and average sound level indicators using acoustic modeling of main transport infrastructure. However, these indicators are difficult to understand and therefore misinterpreted by city dwellers because they do not reflect the significance of perceived noise and the diversity of the situations. The aim of this research is therefore to analyze how the city dwellers perceive the urban soundscape in order to characterize sound quality indicators which can be used into mapping. To do this, it was first of all necessary to determine a temporal and spatial resolution to characterize urban environment from an acoustic point of view. From long period recordings (almost three months) at six locations in Paris it was possible to determine through hierarchical ascendant Ward classifications combined with self-organizing Kohonen maps that duration of ten minutes for measurements seems to be enough to characterize in most cases different acoustic environments. Thanks to the same classification methods, spatial study made it possible to define four homogeneous areas which correspond (1) to the park, (2) to the boulevard, (3) to the pedestrian street and (4) to an area which can be considered as a transition one. Then this study focused on building sound quality predictive models. Thanks to field surveys in Paris and Lyon, it was possible to establish local models (characterizing the location where the questionnaire has been evaluated) and overall models based on one hand on multiple linear regressions and on the other hand on artificial neural networks. The comparison of both models highlighted the advantages of artificial neural networks compared to multiple linear regressions in terms of prediction. Moreover, according to these models, variables such as silence, the visual pleasantness or even the presence of specific sound sources as light vehicles explain the sound quality of the environment.
|
6 |
Indicateurs de qualité des essais cliniques dans les pays du sud : consensus et étude de faisabilité dans les essais de l’ANRS / Performance indicators of clinical trials in resource-limited countries : consensus and feasibility in ANRS trialsHanna, Mina 17 December 2012 (has links)
Depuis 1994, l’ANRS mène en tant que promoteur des études cliniques dans les pays à ressources limitées. Ces études sur le Sida et les hépatites virales sont principalement menées dans les huit sites de l’agence en Afrique Subsaharienne, au Moyen Orient, en Asie du Sud-Est et en Amérique Latine. Les chercheurs dans les pays à ressources limitées font face à deux problématiques majeures : (i) les règles des Bonnes Pratiques Cliniques (BPC) n’intègrent pas leurs particularités fonctionnelles et culturelles ; et (ii) aucun outil n’existe dans la littérature pour évaluer l’adhésion des études cliniques à ces règles. Les objectifs de cette thèse sont premièrement d’identifier les particularités des études cliniques menées dans les pays à ressources limitées et développer par consensus des Indicateurs de Qualité (IQ) adaptés à leur contexte. Ensuite, d’appliquer ces IQ à des études cliniques menées dans les sites ANRS pour évaluer leur faisabilité et leur pertinence. Les IQ proposés ont couvert essentiellement huit processus : (i) rédaction du protocole et demande des autorisations ; (ii) inclusion et suivi des participants ; (iii) monitorage des sites ; (iv) gestion du médicament ; (v) examens biologiques ; (vi) gestion de l’archivage ; (vii) gestion de la base informatique ; (viii) clôture des sites cliniques. Le recueil des données a été réalisé dans neuf essais cliniques (2137 patients inclus) dans les six pays partenaires. Parmi les 58 IQ prédéfinis, 45 IQ ont été faisables et pertinents. Cette démarche originale a permis la mobilisation des acteurs des recherches financées par l’ANRS dans les pays à ressources limitées autour d’une véritable démarche qualité. Les résultats des IQ recueillis dans le cadre de ce programme ont montré que pour les notions essentielles les essais de l'ANRS sont conformes aux références BPC, ICH, et CIOMS. Le maintien et le suivi de cette démarche permettra à l’ANRS de veiller en permanence sur la qualité et la fiabilité des données des études et garantira la transparence des procédures et la sécurité des participants. / Since 1994, the ANRS has funded research sites in resource-limited countries (RLCs). Studies on AIDS and viral hepatitis are mainly conducted in the eight ANRS sites in Sub-Saharan Africa, the Middle East, Southeast Asia and Latin America. Researchers in RLCs face two major problems: (i) little guidance exists on how recommendations and regulations should be interpreted and applied in non-investigational new product trials and in the context of RLCs and (ii) in the literature there is not a standard tool assessing adherence of clinical studies to these guidelines. Objects of this thesis were firstly to identify specific considerations of clinical studies in RLCs and to develop by consensus methods Quality Indicators (QIs) adapted to their context. Then evaluate QIs feasibility and relevance through data collection in ANRS clinical trials. The proposed QIs covered eight main processes: (i) Protocol conception and seeking authorizations, (ii) participant enrollment and follow up, (iii) site monitoring, (iv) drug management, (v) biological investigations; (vi) records management, (vii) data management (viii) site close out. Data collection was carried out in nine trials (2137 patients) in the six participating sites. Of the 58 proposed IQ, 45 were feasible. This innovative program allowed ANRS sites located in resource-limited countries to share their GCP implementation experiences in order to build a list of relevant indicators for clinical trials. QI were able to assess the quality of all major processes of clinical trials and showed that major ethical and GCP requirements were respected in all nine ANRS trials. This permanent monitoring can be used to enable continuous practice improvement, ensure participants’ safety transparent procedures and guarantee data quality and reliability in all studies funded in resource-limited countries.
|
7 |
Elaboration d'indicateurs de mortalité post-hospitalière à différents délais avec prise en compte des causes médicales de décès / Development of post-hospital mortality indicators at different timeframes taking into account the causes of deathMechinaud Lamarche - Vadel, Agathe 02 December 2014 (has links)
L’objectif de cette thèse était d’investiguer différents choix méthodologiques, en particulier le choix du délai et la prise en compte des causes médicales de décès, dans l’élaboration des indicateurs de mortalité post-hospitalière visant à refléter la qualité des soins.Dans une première phase, les données médico-administratives hospitalières des bénéficiaires du Régime Général (RG) de l’Assurance Maladie décédés dans l'année suivant une hospitalisation en 2008 ou 2009 ont été appariées aux causes de décès (base du CépiDc). Le taux d’appariement était de 96,4%.Dans une deuxième phase les séjours pour lesquels la cause initiale de décès pouvait être qualifiée d'indépendante du diagnostic principal du séjour ont été repérés à l'aide d'un algorithme et d'un logiciel s'appuyant sur des standards internationaux. Dans une troisième phase, le modèle le plus souvent utilisé à l'international pour évaluer la mortalité intra-hospitalière (modèle « de Jarman ») a été reproduit et utilisé pour construire des indicateurs de mortalité par établissement à 30, 60, 90, 180 et 365 jours post-admission, pour l'année 2009 (12 322 831 séjours PMSI-MCO des bénéficiaires du RG).L’indicateur de mortalité intra-hospitalière s’est révélé biaisé par les pratiques de sortie des établissements (caractérisées par la durée moyenne de séjour et le taux de transfert vers d’autres établissements). Les indicateurs à 60 ou 90 jours post-admission doivent être préférés à l’indicateur à 30 jours car ils ont l’avantage d’inclure presque tous les décès intra-hospitaliers, limitant notamment les incitations à maintenir les patients en vie jusqu’à la fin de la période de suivi et/ou à cesser de leur dédier des ressources une fois ce terme atteint. L’utilisation des causes de décès en supprimant les décès indépendants change de façon négligeable les indicateurs de mortalité globale par établissement, toutefois elle pourrait être utile pour des indicateurs spécifiques, limités à certaines pathologies ou procédures.Des réserves quant à la pertinence de ces indicateurs ont été décrites (limites du modèle et des variables d'ajustement, hétérogénéité de la qualité du codage entre les établissements), mettant en évidence la nécessité de recherches complémentaires, en particulier sur leur capacité à refléter la qualité des soins et sur l’impact de leur diffusion publique. A ce jour, l’interprétation des indicateurs de mortalité par établissement nécessite la plus grande prudence. / The main objective of this PhD work was to investigate different methodological options for the elaboration of post hospital mortality indicators aiming at reflecting quality of care, in particular to identify the most relevant timeframes and to assess the contribution of the causes of death information.In a first phase, the hospital discharge data of the French General health insurance scheme beneficiaries who died during the year following an hospital stay in 2008 or 2009 were linked to the cause of death register. The matching rate was 96.4%.In a second phase, the hospital stays for which the underlying cause of death could be qualified as independent from the main diagnosis were identified with an algorithm and a software relying on international standards.In a third phase, the method most widely used to assess in-hospital mortality (Dr Foster Unit method) was reproduced and used to construct hospital mortality indicators at 30, 60, 90, 180 et 365 days post-admission, on year 2009 (12 322 831 acute-care stays)..As in other countries, in-hospital mortality revealed biased by discharge patterns in the French data: hospitals : short length-of-stay or high transfer-out rates for comparable casemix tend to have lower in-hospital mortality. The 60-day and 90-day indicators should be preferred to the 30-day indicator, because they reflect a larger part of in-hospital mortality, and are less subject to the incentives either to maintain patients alive until the end of the follow-up window or to shift resources away when this length of stay is reached. The contribution of the causes of death seems negligible in the context of hospital-wide indicators, but it could prove its utility in future health services research about specific indicators limited to selected conditions or procedures.However, reservations about the relevance of hospital-wide mortality indicators aiming at assessing quality of care are described (limits of the statistical model and adjustment variables available, heterogeneity of the coding quality between hospitals). Further research is needed, in particular on the capacity of these indicators to reflect quality of care and on the impact of their public reporting. To date, the use of hospital-wide mortality indicators needs to be extremely cautious.
|
8 |
Identification et simulation des incertitudes de fabrication / Identification and simulation of manufacturing uncertaintiesBui, Minh Hien 27 October 2011 (has links)
L'étude présente les méthodes pour identifier et simuler les défauts de fabrication tridimensionnels. Les méthodologies ont été élaborées sur la base des travaux antérieurs, tels que la méthode de simulation MMP (Model of Manufactured Part) présentée par F. Villeneuve et F. Vignat, associée à la méthode de la double mesure présentée par S. Tichadou.Dans cette thèse, la première méthode proposée, basée sur la méthode des petits déplacements (TPD) est présentée et permet l'identification des défauts de fabrication. Cette méthode permet de distinguer les défauts d'usinage et les défauts de positionnement d'un lot de pièces au cours d’un processus de fabrication. Les résultats obtenus dans cette méthode représentent les dispersions géométriques des pièces usinées. En outre, une méthode d’analyse modale de défauts a été réalisée pour analyser les défauts de forme d'une pièce mesurée sur une MMT avec un nombre restreint de points de mesure (10 points sur chaque surface usinée). Les résultats montrent que les modes des défauts de forme sont obtenus correctement (bombé, ondulation, vrillage, etc.)En raison de l'importance du rôle du défaut de positionnement dans la qualité d'un produit en cours de fabrication, ensuite deux indicateurs simples ont été proposés pour évaluer la qualité globale d’un montage de fixation de pièces.Par ailleurs, un modèle permettant de simuler les défauts de positionnement d'une pièce fixée sur un mandrin à trois mors a été développé. Le modèle final de simulation est une combinaison de trois méthodes: plan d’expérience, simulation par éléments finis, et simulation de Monte Carlo. Pour la méthode des plans d’expérience, trois facteurs, qui sont supposés être les plus importants dans les défauts de positionnement, sont utilisés dans le modèle. Les résultats obtenus à partir des simulations sont exprimés sous forme de distributions et de paramètres statistiques caractéristiques. Ceux-ci sont ensuite utilisés pour effectuer les simulations en appliquant la méthode de Monte Carlo.Enfin, un modèle global est proposé, pour simuler la gamme de fabrication d’une pièce fraisée. Ce modèle permet de vérifier la gamme choisie avec des tolérances fonctionnelles de la pièce imposée. De plus, cette méthode permet de vérifier une gamme de fabrication en garantissant les tolérances fonctionnelles imposées ou une utilisation inverse qui permet de déterminer les tolérances garantissant un nombre de pièces usinées hors des zones de tolérance. / The research presents methodologies to identify and simulate manufacturing defects in three-dimension. The methodologies have been developed based on the previous works, such as the MMP (Model of Manufactured Part) simulation method presented by F. Villeneuve and F. Vignat, and the double measurement method is presented by S. Tichadou.In this thesis, the first proposed method based on the Small Displacement Torsor (SDT) concept is presented for identification of manufacturing defects. This method allows distinguishing the machining defects and positioning defects of a batch of parts during a process plan. The results obtained in this method represent geometric dimension errors of machined parts. In addition, we applied the parameterization method, which is usually used to analyze form defects of a part measured on a CMM with hundreds of measurement points, to complete the analysis of the form defects with a restricted number of measurement points (10 points on each machined surface). Even though this number appears to be low, the modes of the form defects are almost obtained (comber, undulation, twist, etc).Because of the important role of the positioning defect in the quality of a product during manufacturing, we then propose two simple indicators for evaluating the global quality of a fixture.Furthermore, we developed a model for simulating positioning defects of a workpiece fixed on a three-jaw chuck. The model is a combination of three methods: design of experiments, finite element simulation, and Monte Carlo simulation. Three factors, which are assumed to be the most important in positioning defects, are used in this model. Based on the simulated results, the influences of these factors are estimated. The results obtained from simulations can be expressed by form of distributions or statistical parameters. These allow using simulation of tolerance analysis based on Monte Carlo simulation.Finally, a model is developed based on MMP for tolerance analysis. This model allows us to verify a given process plan with functional tolerances of the machined part by determination of a number of machined parts out of tolerance zones or determine functional tolerances of a batch of machined parts based on a given process plan (without functional tolerances) and a number of rejected parts per million.
|
9 |
Programme d’amélioration de la qualité de la surveillance de la thérapie anticoagulante orale en fibrillation auriculaire en pharmacie : une étude pilote intégrée au Réseau STATChartrand, Mylène 07 1900 (has links)
No description available.
|
10 |
La gestion dynamique des relations hauteur-débit des stations d'hydrométrie et le calcul des incertitudes associées : un indicateur de gestion, de qualité et de suivi des points de mesure / Dynamic rating curve assessment for hydrometric stations and computation of the associated uncertainties : Quality and station management indicatorsMorlot, Thomas 01 October 2014 (has links)
Pour répondre à trois enjeux principaux que sont la sûreté des installations, le respect d'exigences règlementaires et l'optimisation des moyens de production, EDF-DTG a développé un réseau d'observations qui comprend les paramètres climatiques tels que la température de l'air, les précipitations et l'enneigement, mais aussi le débit des rivières. Les données collectées permettent la surveillance en « temps réel » des cours d'eau ainsi que la réalisation d'études hydrologiques quantitatives ou de dimensionnement qui nécessitent de disposer de séries patrimoniales de références. Assurer la qualité des données de débits est donc un enjeu de première importance. On ne mesure pourtant pas en continu le débit d'un cours d'eau car les dispositifs à mettre en œuvre restent onéreux et difficilement techniquement réalisable. Le plus souvent, c'est à partir de mesures en continu du niveau des rivières que l'on déduit le débit de ces dernières. Des mesures ponctuelles de débits appelées « jaugeages » permettent de caler un modèle hauteur-débit nommé « courbe de tarage ». Ce sont les équipements installés sur les rivières pour la mesure des niveaux qui sont dénommés « station d'hydrométrie ». Force est de constater que l'ensemble de ce processus constitue une manière indirecte de détermination du débit dont le niveau d'incertitude mérite d'être décrit. À chacune des valeurs de débit produites peut être associé un intervalle de confiance qui tient compte des incertitudes de chacune des étapes. La rapidité de variation de la relation hauteur-débit rend souvent difficile le suivi en temps réel du débit alors que les besoins de la surveillance temps réel des ouvrages imposent une bonne fiabilité des données en continu. Or, en ce qui concerne les stations les moins stables, la méthode historique pour produire la courbe de tarage qui repose sur une construction à partir d'un nombre suffisant de jaugeages chronologiquement contigus et bien répartis sur la plus grande gamme possible reste mal adaptée aux changements rapides ou cycliques de la relation hauteur-débit. Elle ne prend pas assez en compte les phénomènes d'érosion et de sédimentation rapides ainsi que la croissance saisonnière d'herbiers car la capacité à réaliser des jaugeages par les équipes de gestion reste en général assez limitée. Ainsi, pour améliorer la qualité et la fiabilité des données de débits, ces travaux de thèse explorent une méthode de tracé dynamique des courbes de tarage et un calcul des incertitudes associées. Une gestion dynamique de la courbe de tarage est créée de sorte que chaque jaugeage donne lieu au tracé d'une nouvelle courbe de tarage. Après le tracé, un modèle d'incertitudes est construit autour de chaque courbe de tarage. Il prend en compte les incertitudes des jaugeages, les erreurs sur la mesure de hauteur d'eau, la sensibilité de la relation hauteur-débit et l'incertitude sur le tracé lui-même. Une approche variographique est utilisée pour faire vieillir les jaugeages et les courbes de tarage afin d'obtenir un intervalle de confiance augmentant avec le temps, et se réactualisant à chaque nouveau jaugeage puisque ce dernier donne lieu au tracé d'une nouvelle courbe de tarage, plus fiable car plus récente pour l'estimation des débits à venir. Des chroniques de débit sont enfin obtenues de façon homogène et avec un intervalle de confiance prenant en compte le vieillissement des courbes générées. En prenant mieux en compte la variabilité des conditions d'écoulement et la vie des stations, la méthode créée et son modèle d'incertitudes permet de construire des outils de gestion et d'optimisation d'exploitation des points de mesure. Elle répond à des questions récurrentes en hydrométrie comme : « Combien de jaugeages faut-il réaliser en une année pour produire des données de débit avec une incertitude moyenne de X% ? » et « Quand et dans quelle gamme de débit réaliser ces jaugeages ? ». / Dealer or owner operator of electricity production structures, EDF is responsible for their operation in safe condition and for the respect of the limits imposed by the regulations. Thus, the knowledge of water resources is one of EDF main concerns since the company remains preoccupied about the proper use of its facilities. The knowledge of streamflow is one of its priorities to better respond to three key issues that are plant safety, compliance with regulatory requirements, and optimizing the means of production. To meet these needs, EDF-DTG (Division Technique Générale) operates an observation network that includes both climatic parameters such as air and temperature, then the precipitations and the snow, but also the streamflow. The data collected allows real time monitoring of rivers, as well as hydrological studies and the sizing of structures. Ensuring the quality of the stream flow data is a priority. Up to now it is not possible to measure continuously the flow of a river since direct measurements of discharge are time consuming and expensive. In common cases the flow of a river can be deduced from continuous measurements of water level. Punctual measurements of discharge called gaugings allow to develop a stage-discharge relationship named rating curve. These are permanently installed equipment on rivers for measuring levels that are called hydrometric station. It is clear that the whole process constitutes an indirect way of estimating the discharge in rivers whose associated uncertainties need to be described. Quantification of confidence intervals is however not the only problem of the hydrometer. Fast changes in the stage-discharge relationship often make the streamflow real time monitoring quite difficult while the needs of continuous high reliability data is obvious. The historical method to produce the rating curve based on a construction from a suffcient number of gaugings chronologically contiguous and well distributed over the widest possible range of discharge remains poorly adapted to fast or cyclical changes of the stage-discharge relationship. The classical method does not take suffciently into account the erosion and sedimentation processes as well as the seasonal vegetation growth. Besides, the ability to perform gaugings by management teams generally remains quite limited. To get the most accurate streamflow data and to improve their reliability, this thesis explores an original dynamic method to compute rating curves based on historical gaugings from a hydrometric station while calculating the associated uncertainties. First, a dynamic rating curve assessment is created in order to compute a rating curve for each gauging of a considered hydrometric station. After the tracing, a model of uncertainty is built around each computed rating curve. It takes into account the uncertainty of gaugings, but also the uncertainty in the measurment of the water height, the sensitivity of the stage discharge relationship and the quality of the tracing. A variographic analysis is used to age the gaugings and the rating curves and obtain a final confidence interval increasing with time, and actualizing at each new gauging since it gives rise to a new rating curve more reliable because more recent for the prediction of discharge to come. Chronological series of streamflow data are the obtained homogeneously and with a confidence interval that takes into consideration the aging of the rating curves. By taking into account the variability of the flow conditions and the life of the hydrometric station, the method can answer important questions in the field of hydrometry such as « How many gauging a year have to be made so as to produce stream flow data with an average uncertainty of X\% ? » and « When and in which range of water flow do we have to realize those gaugings ? ».
|
Page generated in 0.0891 seconds