• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 5
  • 4
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 36
  • 36
  • 36
  • 19
  • 10
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Méthodes statistiques pour le calcul d’interférences électromagnétiques extrêmes au sein de systèmes complexes / Statistical methods for the computation of extreme electromagnetic interferences within complex systems

Larbi, Mourad 11 February 2016 (has links)
La prolifération des électroniques et des émetteurs radiofréquences rend de plus en plus compliqué le processus de conception des systèmes sur le plan CEM. Ce processus doit aboutir à limiter le risque d’interférences ou de défauts au niveau le plus faible notamment dans le contexte des interférences électromagnétiques intentionnelles (IEMI). Ces défauts CEM doivent alors être anticipés lors de la phase de conception. Cependant, du fait de la dispersion des valeurs prises par certains paramètres du système, la modélisation déterministe éprouve quelques difficultés à identifier le risque encouru. La mauvaise connaissance de l’effet des incertitudes associées au système, aboutit alors à prendre des marges de conception considérables conduisant à des surcoûts de fabrication. Pour cette raison, il est devenu important de prendre en compte l’impact des incertitudes des différents paramètres constitutifs d’un système (en phase de conception). Ces paramètres sont essentiellement géométriques (e.g. position de câblages) ou électromagnétiques (e.g. caractéristiques intrinsèques de matériaux). Ils influent par nature sur les performances CEM de ce système. Ces travaux de thèse portent sur l’analyse de la propagation des incertitudes relatives à ces paramètres sur des sorties de modèles de CEM. Le but visé, consiste à quantifier sous une forme probabiliste, le risque de défaut d’un système contenant de nombreux paramètres incertains. Ce type d’étude statistique devrait également permettre, via des analyses de sensibilité, des stratégies de conception de systèmes « fiables » ou à moindres coûts. Dans le contexte des applications visées, les approches dites « fiabilistes » et la méthode dite de « stratification contrôlée », ont été identifiées comme intéressantes, du point de vue de l’analyse d’événements extrêmes. Dans un premier temps, nous nous sommes consacrés à la transposition des méthodes fiabilistes dans un contexte CEM. Ces techniques permettent de quantifier la probabilité de défaillance d’un système, définie comme le dépassement d’un seuil de risque, et renseignent, via une analyse de sensibilité locale, sur les paramètres clés à ajuster. Dans un second temps, nous nous sommes intéressés à la méthode de stratification contrôlée, non appliquée à ce jour à notre connaissance en CEM. L’objectif de cette approche consiste à estimer un quantile extrême de la réponse d’intérêt d’un modèle rigoureux, via l’utilisation d’un modèle simple beaucoup moins coûteux en termes de temps de calcul. Ce processus permet d’accélérer l’obtention d’observations extrêmes, nécessaires à l’estimation du quantile recherché. Les deux techniques ont été mises en oeuvre sur un problème complexe dans un contexte IEMI, pour estimer la probabilité d’occurrence d’événements d’interférences extrêmes. Elles ont permis de dégager des tendances similaires, quant à l’importance de certains paramètres d’entrée incertains sur les événements rares. Les deux méthodes, bien appliquées, pourraient constituer un apport considérable en matière de conception CEM. / The proliferation of electronic and radio frequency transmitters makes more complicated the system design process on the EMC point of view. This process should lead to limit the risk of interferences or defects to lowest level particularly in the context of intentional electromagnetic interferences (IEMI). Therefore, these EMC defects have to be anticipated during the design stage. However, due to the dispersion of the values taken by some parameters of the system, the deterministic modeling presents some difficulties to identify the involved risk. The poor knowledge of the uncertainties effect associated with the system, leads then to take important design margins at the price of additional costs of manufacturing. For this reason, it has become important to take into account the impact of uncertainties of the various constituent parameters of a system (at the design stage). These parameters are essentially geometric (e.g. position of wirings) or electromagnetic (e.g. intrinsic characteristics of materials) ones. They influence by nature the EMC performance of this system. This thesis work deals with the analysis of the propagation of uncertainties of these parameters on EMC model outputs. It aims at quantifying in a probabilistic form, the default risk of a system containing numerous uncertain parameters. This type of statistical analysis should also allow through sensitivity analyses, design strategies of “reliable” systems or at lower cost. In the context of targeted applications, the so-called “reliability approaches” and the “controlled stratification” method have been identified as interesting from the point of view of the analysis of extreme events. Firstly, we are dedicated to the transposition of reliability methods in an EMC context. These techniques are used to quantify the probability of failure of a system, defined as the probability of exceeding a threshold of risk. They inform through a local sensitivity analysis, on the key parameters to adjust. Secondly, we have focused our work on the controlled stratification method, not yet applied in EMC as far as we know. The objective of this approach is to estimate an extreme quantile of the interest response of a rigorous model, using of a much cheaper simple model in terms of computation time. This process allows to speed up the identification of extreme observations required for the estimation of the researched quantile. Both techniques have been applied on a complex problem in an IEMI context, to estimate the probability of occurrence of extreme interference events. They have revealed similar trends as regards to the importance of some uncertain input parameters on rare events. Both methods, properly applied, could provide a significant contribution in terms of EMC design strategy.
32

Détermination de classes de modalités de dégradation significatives pour le pronostic et la maintenance / Determination of classes of significant deterioration modalities for prognosis and maintenance

Wang, Xuanzhou 15 November 2013 (has links)
Les travaux présentés dans ce manuscrit traitent de la détermination de classes de systèmes selon leur mode de vieillissement dans l'objectif de prévenir une défaillance et de prendre une décision de maintenance. L’évolution du niveau de dégradation observée sur un système peut être modélisée par un processus stochastique paramétré. Un modèle usuellement utilisé est le processus Gamma. On s’intéresse au cas où tous les systèmes ne vieillissent pas identiquement et le mode de vieillissement est dépendant du contexte d’utilisation des systèmes ou des propriétés des systèmes, appelé ensemble de covariables. Il s’agit alors de regrouper les systèmes vieillissant de façon analogue en tenant compte de la covariable et d’identifier les paramètres du modèle associé à chacune des classes.Dans un premier temps la problématique est explicitée avec notamment la définition des contraintes: incréments d’instants d’observation irréguliers, nombre quelconque d’observations par chemin décrivant une évolution, prise en compte de la covariable. Ensuite des méthodes sont proposées. Elles combinent un critère de vraisemblance dans l’espace des incréments de mesure du niveau de dégradation, et un critère de cohérence dans l’espace de la covariable. Une technique de normalisation est introduite afin de contrôler l’importance de chacun de ces critères. Des études expérimentales sont effectuées pour illustrer l'efficacité des méthodes proposées / The work presented in this thesis deals with the problem of determination of classes of systems according to their aging mode in the aim of preventing a failure and making a decision of maintenance. The evolution of the observed deterioration levels of a system can be modeled by a parameterized stochastic process. A commonly used model is the Gamma process. We are interested in the case where all the systems do not age identically and the aging mode depends on the condition of usage of systems or system properties, called the set of covariates. Then, we aims to group the systems that age similarly by taking into account the covariate and to identify the parameters of the model associated with each class.At first, the problem is presented especially with the definition of constraints: time increments of irregular observations, any number of observations per path which describes an evolution, consideration of the covariate. Then the methods are proposed. They combine a likelihood criterion in the space of the increments of deterioration levels, and a coherence criterion in the space of the covariate. A normalization technique is introduced to control the importance of each of these two criteria. Experimental studies are performed to illustrate the effectiveness of the proposed methods
33

Avaliação da confiabilidade em tubos de revestimento de poços de petróleo / Reliability assessment in casing tubes of oil Wells

Gouveia, Lucas Pereira de 08 August 2014 (has links)
This work aims to evaluate the reliability levels associated to a probabilistic approach of mechanical strength models of casing tubes on oil and gas wells. A comparative study between different reliability evaluation methods commonly applied is also carried out. On the oil and gas well design, casing tubes must bear the mechanical loadings in the subsurface, such as the ones from formations, from drilling and completion fluids, from production fluid over the well lifetime, from the self-weight of casing column and from weight of other components. Reliability-based analysis applied to a structural design allows the assessment of the probability of violation for a given limit state of the structure, so that it can be predicted with adequate value since the design stage. This kind of analysis is useful to obtain adequate safety levels in design and to discuss the quality control level in the manufacturer production process. In this work, the failure probability is evaluated by the following reliability methods: failure domain numericintegration,MonteCarlosimulationandthetransformationmethods:FirstOrder eliabilityMethod(FORM)andSecondOrderReliabilityMethod(SORM).Thelimitstatesv rified are established by using casing strength models found in the literature, based on mechanics of materials theory and rupture test data.Statistical data are based on technical reports from casing manufacturers found in open-access literature. The achieved results contributes to well casing structural assessment taking into account the influence of design uncertainties, motivating the adoption of reliability-based analysis in decision-making process on OCTG design. / FUNDEPES - Fundação Universitária de Desenvolvimento de Extensão e Pesquisa / Estetrabalho visa avaliar os níveis de confiabilidade associados a uma abordagem probabilística das resistências mecânicas de tubos de revestimento em poços de petróleo. Além disso, durante as análises realizadas, objetiva-se comparar os diferentes métodos de confiabilidade comumente encontrados na literatura com a finalidade de identificar o método mais vantajoso para a aplicação proposta. Em projetos de poços de petróleo e gás natural, os revestimentos exercem o papel de resistir mecanicamente aos esforços existentes na subsuperfície, como as solicitações impostas pela formação, pelo fluido de perfuração, pelos fluidos produzidos ao longo da vida útil do poço e pelos pesos da própria coluna de revestimento e de outros equipamentos. Já a análise de confiabilidade, aplicada a um projeto estrutural, permite a avaliação da probabilidade de violação de um determinado estado limite da estrutura, de forma que esta pode ser prevista, com valor adequado, ainda na fase de projeto.Esse tipo de análise é útil não obtenção da margem de segurança adequada do projeto e na discussão do nível de controle no processo de produção de elementos estruturais. Neste trabalho, o cálculo da probabilidade de falha é realizado através dos seguintes métodos: integração numérica sobre o domínio de falha, simulação de Monte Carlo e dos métodos de transformação: First Order Reliability Method (FORM) e Second Order Reliability Method (SORM). Os estados limites dos tubos são estimados por modelos de resistência encontrados na literatura, baseados em teorias da mecânica dos materiais e em dados de ensaios de ruptura. Os dados estatísticos utilizados são baseados em relatórios técnicos de produção disponíveis na literatura sob domínio público. Os resultados obtidos contribuem para a avaliação estrutural de revestimentos de poços de petróleo sob a influência de incertezas de projeto, motivando a incorporação da análise de confiabilidade no processo de tomada de decisão do projetista.
34

Degradation modeling based on a time-dependent Ornstein-Uhlenbeck process and prognosis of system failures / Modélisation des dégradations par un processus d’Ornstein-Uhlenbeck et pronostic de défaillances du système

Deng, Yingjun 24 February 2015 (has links)
Cette thèse est consacrée à la description, la prédiction et la prévention des défaillances de systèmes. Elle se compose de quatre parties relatives à la modélisation stochastique de dégradation, au pronostic de défaillance du système, à l'estimation du niveau de défaillance et à l'optimisation de maintenance.Le processus d'Ornstein-Uhlenbeck (OU) dépendant du temps est introduit dans un objectif de modélisation des dégradations. Sur la base de ce processus, le premier instant de passage d’un niveau de défaillance prédéfini est considéré comme l’instant de défaillance du système considéré. Différentes méthodes sont ensuite proposées pour réaliser le pronostic de défaillance. Dans la suite, le niveau de défaillance associé au processus de dégradation est estimé à partir de la distribution de durée de vie en résolvant un problème inverse de premier passage. Cette approche permet d’associer les enregistrements de défaillance et le suivi de dégradation pour améliorer la qualité du pronostic posé comme un problème de premier passage. Le pronostic de défaillances du système permet d'optimiser sa maintenance. Le cas d'un système contrôlé en permanence est considéré. La caractérisation de l’instant de premier passage permet une rationalisation de la prise de décision de maintenance préventive. L’aide à la décision se fait par la recherche d'un niveau virtuel de défaillance dont le calcul est optimisé en fonction de critères proposés / This thesis is dedicated to describe, predict and prevent system failures. It consists of four issues: i) stochastic degradation modeling, ii) prognosis of system failures, iii) failure level estimation and iv) maintenance optimization. The time-dependent Ornstein-Uhlenbeck (OU) process is introduced for degradation modeling. The time-dependent OU process is interesting from its statistical properties on controllable mean, variance and correlation. Based on such a process, the first passage time is considered as the system failure time to a pre-set failure level. Different methods are then proposed for the prognosis of system failures, which can be classified into three categories: analytical approximations, numerical algorithms and Monte-Carlo simulation methods. Moreover, the failure level is estimated from the lifetime distribution by solving inverse first passage problems. This is to make up the potential gap between failure and degradation records to reinforce the prognosis process via first passage problems. From the prognosis of system failures, the maintenance optimization for a continuously monitored system is performed. By introducing first passage problems, the arrangement of preventive maintenance is simplified. The maintenance decision rule is based on a virtual failure level, which is solution of an optimization problem for proposed objective functions
35

Modélisation markovienne en fiabilité: réduction des grands systèmes

Tombuyses, Béatrice 09 December 1994 (has links)
Le sujet de cette thèse de doctorat est l'étude de divers aspects liés à l'approche markovienne dans le cadre des études de fiabilité.<p><p>La première partie de cette thèse concerne Ia modélisation d'installations industrielles et la construction de la matrice de transition. Le but poursuivi est le développement d'un code markovien permettant une description réaliste et aisée du système. Le système est décrit en termes de composants multiétats :pompes, vannes .<p>La définition d'une série de règles types permet l'introduction de dépendances entre composants. Grâce à la modélisation standardisée du système, un algorithme permettant la construction automatique de la matrice de transition est développé. L'introduction d'opérations de maintenance ou d'information est également présentée.<p><p>La seconde partie s'intéresse aux techniques de réduction de la taille de la matrice, afin de rendre possible le traitement de grosses installations. En effet, le nombre d'états croit exponentiellement avec le nombre de composants, ce qui limite habituellement les installations analysables à une dizaine de composants. Les techniques classiques de réduction sont passées en revue :<p>accessibilité des états,<p>séparation des groupes de composants indépendants,<p>symétrie et agrégation exacte des états (cfr Papazoglou). Il faut adapter la notion de symétrie des composants en tenant compte des dépendances pouvant exister entre composants.<p><p>Une méthode d'agrégation approchée pour le calcul de la fiabilité et de la disponibilité de groupes de composants à deux états est développée.<p><p>La troisième partie de la thèse contient une approche originale pour l'utilisation de la méthode markovienne. Il s'agit du développement d'une technique de réduction basée sur le graphe d'influence des composants. Un graphe d'influence des composants est construit à partir des dépendances existant entre composants. Sur base de ce graphe, un système markovien non homogène est construit, décrivant de manière approchée le comportement du système exact. Les résultats obtenus sur divers exemples sont très bons.<p><p>Une quatrième partie de cette thèse s'intéresse aux problèmes numériques liés à l'intégration du système différentiel du problème markovien. Ces problèmes résultent principalement du caractère stiff du système. Différentes méthodes classiques sont implantées pour l'intégration du système différentiel. Elles sont testées sur un exemple type de problème de fiabilité.<p><p>Pour finir, on trouve la présentation du code CAMERA dans lequel ont été implantées les différentes techniques présentées ci-dessus.<p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
36

Modélisation des stratégies de remplacement de composant et de systèmes soumis à l'obsolescence technologique

Clavareau, Julien 12 September 2008 (has links)
Ce travail s’inscrit dans le cadre d’étude de la sûreté de fonctionnement.<p>La sûreté de fonctionnement est progressivement devenue partie intégrante de l’évaluation des performances des systèmes industriels. En effet, les pannes d’équipements, les pertes de production consécutives, et la maintenance des installations ont un impact économique majeur dans les entreprises. Il est donc essentiel pour un manager de pouvoir estimer de manière cohérente et réaliste les coûts de fonctionnement de l’entreprise, en tenant notamment compte des caractéristiques fiabilistes des équipements utilisés, ainsi que des coûts induits entre autres par le non-fonctionnement du système et la restauration des performances de ses composants après défaillance.<p><p>Le travail que nous avons réalisé dans le cadre de ce doctorat se concentre sur un aspect particulier de la sûreté de fonctionnement, à savoir les politiques de remplacement d’équipements basées sur la fiabilité des systèmes qu’ils constituent. La recherche menée part de l’observation suivante :si la littérature consacrée aux politiques de remplacement est abondante, elle repose généralement sur l’hypothèse implicite que les nouveaux équipements envisagés présentent les mêmes caractéristiques et performances que celles que possédaient initialement les composants objets du remplacement.<p>La réalité technologique est souvent bien différente de cette approche, quelle que soit la discipline industrielle envisagée. En effet, de nouveaux équipements sont régulièrement disponibles sur le marché ;ils assurent les mêmes fonctions que des composants plus anciens utilisés par une entreprise, mais présentent de meilleures performances, par exemple en termes de taux de défaillance, consommation d’énergie, " intelligence " (aptitude à transmettre des informations sur leur état de détérioration).<p>De plus, il peut devenir de plus en plus difficile de se procurer des composants de l’ancienne génération pour remplacer ceux qui ont été déclassés. Cette situation est généralement appelée obsolescence technologique.<p><p>Le but de ce travail est de prolonger et d’approfondir, dans le cadre de la sûreté de fonctionnement, les réflexions engagées par les différents articles présentés dans la section état de l’art afin de définir et de modéliser des stratégies de remplacements d’équipements soumis à obsolescence technologique. Il s’agira de proposer un modèle, faisant le lien entre les approches plus économiques et celles plus fiabilistes, permettant de définir et d’évaluer l’efficacité, au sens large, des différentes stratégies de remplacement des unités obsolètes. L’efficacité d’une stratégie peut se mesurer par rapport à plusieurs critères parfois contradictoires. Parmi ceux-ci citons, évidemment, le coût total moyen engendré par la stratégie de remplacement, seul critère considéré dans les articles cités au chapitre 2, mais aussi la façon dont ces coûts sont répartis au cours du temps tout au long de la stratégie, la variabilité de ces coûts autour de leur moyenne, le fait de remplir certaines conditions comme par exemple d’avoir remplacé toutes les unités d’une génération par des unités d’une autre génération avant une date donnée ou de respecter certaines contraintes sur les temps de remplacement.<p><p>Pour arriver à évaluer les différentes stratégies, la première étape sera de définir un modèle réaliste des performances des unités considérées, et en particulier de leur loi de probabilité de défaillance. Etant donné le lien direct entre la probabilité de défaillance d’un équipement et la politique de maintenance qui lui est appliquée, notamment la fréquence des maintenances préventives, leur effet, l’effet des réparations après défaillance ou les critères de remplacement de l’équipement, un modèle complet devra considérer la description mathématique des effets des interventions effectuées sur les équipements. On verra que la volonté de décrire correctement les effets des interventions nous a amené à proposer une extension des modèles d’âge effectif habituellement utilisés dans la littérature.<p>Une fois le modèle interne des unités défini, nous développerons le modèle de remplacement des équipements obsolètes proprement dit. <p><p>Nous appuyant sur la notion de stratégie K proposée dans de précédents travaux, nous verrons comment adapter cette stratégie K à un modèle pour lequel les temps d’intervention ne sont pas négligeables et le nombre d’équipes limité. Nous verrons aussi comment tenir compte dans le cadre de cette stratégie K d’une part des contraintes de gestion d’un budget demandant en général de répartir les coûts au cours du temps et d’autre part de la volonté de passer d’une génération d’unités à l’autre en un temps limité, ces deux conditions pouvant être contradictoires.<p>Un autre problème auquel on est confronté quand on parle de l’obsolescence technologique est le modèle d’obsolescence à adopter. La manière dont on va gérer le risque d’obsolescence dépendra fortement de la manière dont on pense que les technologies vont évoluer et en particulier du rythme de cette évolution. Selon que l’on considère que le temps probable d’apparition d’une nouvelle génération est inférieur au temps de vie des composants ou supérieur à son temps de vie les solutions envisagées vont être différentes. Lors de deux applications numériques spécifiques.<p><p>Nous verrons au chapitre 12 comment envisager le problème lorsque l’intervalle de temps entre les différentes générations successives est largement inférieur à la durée de vie des équipements et au chapitre 13 comment traiter le problème lorsque le délai entre deux générations est de l’ordre de grandeur de la durée de vie des équipements considérés.<p><p>Le texte est structuré de la manière suivante :Après une première partie permettant de situer le contexte dans lequel s’inscrit ce travail, la deuxième partie décrit le modèle interne des unités tel que nous l’avons utilisé dans les différentes applications. La troisième partie reprend la description des stratégies de remplacement et des différentes applications traitées. La dernière partie permet de conclure par quelques commentaires sur les résultats obtenus et de discuter des perspectives de recherche dans le domaine.<p> / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished

Page generated in 0.1923 seconds