• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 406
  • 150
  • 76
  • 2
  • 1
  • 1
  • Tagged with
  • 632
  • 323
  • 177
  • 174
  • 90
  • 77
  • 76
  • 75
  • 73
  • 72
  • 65
  • 58
  • 53
  • 53
  • 52
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Contributions à l'analyse de fiabilité structurale : prise en compte de contraintes de monotonie pour les modèles numériques / Contributions to structural reliability analysis : accounting for monotonicity constraints in numerical models

Moutoussamy, Vincent 13 November 2015 (has links)
Cette thèse se place dans le contexte de la fiabilité structurale associée à des modèles numériques représentant un phénomène physique. On considère que la fiabilité est représentée par des indicateurs qui prennent la forme d'une probabilité et d'un quantile. Les modèles numériques étudiés sont considérés déterministes et de type boîte-noire. La connaissance du phénomène physique modélisé permet néanmoins de faire des hypothèses de forme sur ce modèle. La prise en compte des propriétés de monotonie dans l'établissement des indicateurs de risques constitue l'originalité de ce travail de thèse. Le principal intérêt de cette hypothèse est de pouvoir contrôler de façon certaine ces indicateurs. Ce contrôle prend la forme de bornes obtenues par le choix d'un plan d'expériences approprié. Les travaux de cette thèse se concentrent sur deux thématiques associées à cette hypothèse de monotonie. La première est l'étude de ces bornes pour l'estimation de probabilité. L'influence de la dimension et du plan d'expériences utilisé sur la qualité de l'encadrement pouvant mener à la dégradation d'un composant ou d'une structure industrielle sont étudiées. La seconde est de tirer parti de l'information de ces bornes pour estimer au mieux une probabilité ou un quantile. Pour l'estimation de probabilité, l'objectif est d'améliorer les méthodes existantes spécifiques à l'estimation de probabilité sous des contraintes de monotonie. Les principales étapes d'estimation de probabilité ont ensuite été adaptées à l'encadrement et l'estimation d'un quantile. Ces méthodes ont ensuite été mises en pratique sur un cas industriel. / This thesis takes place in a structural reliability context which involves numerical model implementing a physical phenomenon. The reliability of an industrial component is summarised by two indicators of failure,a probability and a quantile. The studied numerical models are considered deterministic and black-box. Nonetheless, the knowledge of the studied physical phenomenon allows to make some hypothesis on this model. The original work of this thesis comes from considering monotonicity properties of the phenomenon for computing these indicators. The main interest of this hypothesis is to provide a sure control on these indicators. This control takes the form of bounds obtained by an appropriate design of numerical experiments. This thesis focuses on two themes associated to this monotonicity hypothesis. The first one is the study of these bounds for probability estimation. The influence of the dimension and the chosen design of experiments on the bounds are studied. The second one takes into account the information provided by these bounds to estimate as best as possible a probability or a quantile. For probability estimation, the aim is to improve the existing methods devoted to probability estimation under monotonicity constraints. The main steps built for probability estimation are then adapted to bound and estimate a quantile. These methods have then been applied on an industrial case.
252

Interactions inter-couches et liens à long délai / Cross-layer interactions and long delay links

Kuhn, Nicolas 21 November 2013 (has links)
La demande accrue de services en temps rel, comme la vidéo streaming, justifie le besoin d'études qui visent à optimiser le délai de transmission de données. En plus du délai de transmission au niveau physique, les délais nécessaires à l'accès à la ressource et à la récupération de données venant des couches basses peuvent avoir un impact important sur les performances et ne doivent pas être négligés. Aussi, des études cross-layer doivent être menées pour minimiser le délai de transmission de l'information. Comprendre l'impact des mécanismes des couches basses sur les performances de bout-en-bout permet un meilleur dimensionnement du réseau, une adaptation du trafic transmis, ou l'introduction de service à faible priorité. Dans cette thèse, nous avons mesuré l'impact des mécanismes des couches liaison et réseau sur les performances de divers protocols de congestion de la couche transport.Dans le contexte des liens 4G par satellite, nous proposons un ensemble d'outils, Trace Manager Tool (TMT) et Cross Layer InFormation Tool (CLIFT), pour simuler de manière réaliste l'ensemble de la couche OSI dans le simulateur de réseau NS-2. Nous avons montré que, pour l'ensemble des variantes de TCP considérées, quand le débit au niveau transport est proche de la capacité de canal, utiliser ARQ au niveau liaison est optimal. Dans le cas où le taux d'erreur au niveau de la couche physique est plus élevé, H-ARQ permet d'obtenir un meilleur débit au niveau transport.Les dernières spécifications concernant l'accès au lien satellite DVB-RCS2 présentent deux méthodes d'accès (aléatoire et dédié) qui peuvent être implémentées pour permettre aux utilisateurs des services proposés par DVB d'aller sur Internet ou de transmettre des données. Nous avons développé un module pour NS-2, Physical Channel Access (PCA), qui modèle l'accès au canal pour chacune de ces méthodes afin de comparer leur impact sur les performances de bout-en-bout. Nous avons mesuré que les méthodes d'accès dédié permettent un débit plus important et les méthodes d'accès aléatoire une transmission rapide des flots courts. Nous avons donc proposé de mixer ces méthodes d'accès, en fonction de l'évolution dynamique de la charge du réseau et de la taille du flot de données transmis.Finalement, nous avons étudié s'il était possible d'exploiter les données de la gateway du satellite pour introduire un trafic à priorité basse. Nous avons montré qu'il était possible avec Low Ewtra Delay Background Transport (LEDBAT) comme protocole de la couche transport d'introduire un trafic en tâche de fond. Cependant, en fonction de la variation de la charge du réseau, paramétrer correctement des paramètres internes à ce protocole sont nécessaires. / Network providers offer services in line with users’ requests, even though the challengesintroduced by their mobility and the download of large content are crucial. Mobile videostreaming applications are delay sensitive and the increasing demand for this service legitimateextensive studies evaluating transmission delays. On top of physical transmissiondelays, accessing a resource or recovering data from lower layers should not be neglected.Indeed, recovery schemes or channel access strategies variously introduce end-to-end delays.This document argues that those cross-layer effects should be explored to minimizethe transmission delays and optimize the use of network resources. Also, understandingthe impacts of low layers protocols on the end-to-end transmission will enable betterdimensioning of the network and adapt the traffic carried on.In the context of satellite 4G links, we measure the impact of link layer retransmissionschemes on the performance of various transport layer protocols. We develop Trace ManagerTool (TMT) and Cross Layer InFormation Tool (CLIFT) to lead realistic cross layersimulations in NS-2. We show that, for all target TCP variants, when the throughput ofthe transport protocol is close to the channel capacity, using the ARQ mechanism is mostbeneficial for TCP performance improvement. In conditions where the physical channelerror rate is high, Hybrid-ARQ results in better performance.In the last specifications for DVB-RCS2, two access schemes (random and dedicated)are presented and can be implemented to manage the way home users access to the satellitelink for Web browsing or data transmission. We developed Physical Channel Access (PCA)that models in NS-2 the behaviour of those link layer level access methods. We measurethat, even though dedicated access methods can transmit more information data, randomaccess methods enable a faster transmission of short flows. Based on these results, wepropose to mix random and dedicated access methods depending on the dynamic load ofthe network and the sequence number of the TCP segments.As a potential exploitation of cross layer information, we explore the feasibility to introducelow priority traffic on long delay path. The rationale is to grab the unused 4G satellitelinks’ capacity to carry non-commercial traffic. We show that this is achievable with LEDBAT.However, depending on the fluctuation of the load, performance improvements couldbe obtained by properly setting the target value.
253

Evaluation fiabiliste de l'impact des facteurs climatiques sur la corrosion des poutres en béton armé : application au cas libanais / Reliable assessment of the impact of climatic factors on the corrosion of reinforced concrete beams : application to the Lebanese case

El Hassan, Jinane 05 November 2010 (has links)
Les structures en béton armé exposées à des environnements agressifs subissent des dégradations qui affectent leur intégrité. La corrosion des armatures est l’un des mécanismes de dégradation les plus répandus et les coûteux en terme de maintenance et de réparation. Ce processus est dû à la pénétration des agents agressifs dans le béton, notamment les ions chlorures et le gaz carbonique. Les chlorures induisent une corrosion localisée ou par piqûre, alors que le gaz carbonique engendre une corrosion généralisée ou uniforme. Le déclenchement et la propagation de la corrosion dépendent de plusieurs facteurs liés aux matériaux, aux chargements, à la géométrie et à l’environnement. Ces facteurs présentent de grandes incertitudes qui doivent être prise en comptes à travers une approche probabiliste. Dans ce travail de recherche, nous nous intéressons au mécanisme de corrosion en général. Un intérêt particulier est porté à la prise en compte de l’impact des facteurs climatiques sur ce processus, notamment dans le contexte libanais. Ainsi, nous proposons une modélisation physique de la corrosion des aciers dans les poutres en béton armé qui se déroule en deux phases : - une phase d’initiation durant laquelle les agents agressifs (chlorures et gaz carbonique) pénètrent dans le béton et atteignent des concentrations critiques provoquant la dépassivation de l’acier ; - une phase de propagation durant laquelle il y a corrosion active des aciers et diminution de la résistance de la poutre jusqu’à la défaillance. Les facteurs présentant des incertitudes sont traités comme des variables aléatoires. Pour les modéliser, nous avons étudié, pour les différentes variables aléatoires, de nombreux modèles probabilistes proposés dans la littérature. Nous avons vérifié leur compatibilité vis-à-vis de notre problématique et la possibilité d’assurer les données nécessaires à leur bonne utilisation (notamment la cohérence entre les hypothèses). Ensuite, nous avons retenu les modèles probabilistes les plus adaptés à notre cas. Par ailleurs, l’application des principes fiabilistes nous permet d’évaluer la fiabilité des poutres sujettes à la corrosion vis-à-vis des deux états-limites (ELU et ELS). En effet, la perte de la section d’acier due à la corrosion induit d’une part, une diminution de la capacité portante de la poutre, et d’autre part une augmentation de la contrainte au niveau du béton tendu (provoquant un accroissement des ouvertures des fissures). Ainsi, pour l’état limite de service, la marge de sûreté s’annule lorsque l’ouverture des fissures dépasse la valeur limite préconisée par l’Eurocode 2. Quant à l’état limite ultime, la fonction d’état limite est la résistance en flexion : la défaillance a lieu lorsque le moment résistant équivaut au moment sollicitant. Le calcul fiabiliste est effectué au moyen de simulations de Monte-Carlo. Finalement, nous avons réalisé plusieurs applications aux modèles de corrosions proposées dans ce travail. La première application porte sur l’analyse des sensibilités des modèles de corrosion aux différents paramètres. L’effet des moyennes des paramètres aléatoires ainsi que leurs variabilités sur la réponse du modèle est examiné. Une attention particulière est accordée à l’impact des facteurs climatiques. Ainsi une application du modèle de corrosion induite par les chlorures avec des données réelles de température et d’humidité relatives à trois villes côtières ayant des caractéristiques climatiques différentes est présentée. Ensuite une étude comparative de l’effet du choix des diamètres des armatures et des épaisseurs des enrobages sur la fiabilité à l’état limite ultime et à l’état limite de service est effectuée. Les résultats obtenus ont permis de mettre en évidence l’aspect agressif des facteurs climatiques : un climat chaud et humide est très agressif vis-à-vis de la corrosion induite par les chlorures alors qu’un climat à humidité relative variable favorise la corrosion par carbonatation. (...) / When exposed to aggressive environment, reinforced concrete structures are subject to a degradation mechanism that affects their integrity. Among various environmental attacks, the corrosion of RC structures is considered the most dangerous. The process is launched by the penetration of aggressive agents, precisely the chlorides and carbon dioxide into the concrete. The chlorides induce a localized corrosion, also called pitting corrosion, while on the other hand the carbon dioxide leads to a general corrosion called uniform corrosion. This corrosion phenomenon depends on several factors such as the materials characteristics,loadings, geometry and the environment. All these components include different levels of uncertainties that are taken into account throughout a probabilistic approach. In this work, we propose two models for the corrosion mechanisms induced separately by the chlorides and the carbon dioxide. These models take into account the effect of the climatic condition that is mainly described by the temperature and the relative humidity. In addition to that, as a study case we have treated in details the Lebanese climatic context. We have proposed a physical model of steel corrosion in reinforced concrete beams that occurs in two phases : - An initiation phase where aggressive agents like the chlorides and carbon dioxide penetrate into the concrete and reach a critical concentration values causing the depassivation of the steel ; - A propagation phase in which the active corrosion of steel decreases the strength of the beam leading to its failure. All the factors that have uncertainties are treated as random variables. Several probabilistic models are listed and discussed in the literature while only the models that match with our context are selected. The reliability analysis allowed us to assess the reliability of beams subjected to corrosion in ULS and SLS. The loss of steel section due to the corrosion mechanism induces a decrease of the bearing beam capacity, and an increase in the tension stress in the concrete.This causes an increase of the width of cracks openings. Thus, taking into account the serviceability limit state, the safety margin goes to zero when the width of crack opening exceeds the acceptable width as recommended by the Eurocode 2. The limit state function in ULS is the bending strength. The failure occurs when the applied moment equals or surpasses the resisting moment. The reliability calculations are carried out using Monte-Carlo simulations. Finally, several applications to the corrosion model are proposed via this work. The first application concerns the sensitivity analysis of the corrosion models for the different parameters. The effects of the mean values and the variability of the random variables on the model response are also examined. The impact of climatic factors on the corrosion phenomenon took the biggest part of this work. We have applied the chloride’s corrosion model with the real temperatures and relative humidity of three coastal cities having different climatic characteristics. Then a comparative study showing the effect of the ba rdiameters and the cover thickness on the reliability of the RC beam subjected to aggressive environment is carried out. (...)
254

Assessment by kriging of the reliability of structures subjected to fatigue stress / Evaluation par krigeage de la fiabilité des structures sollicitées en fatigue

Echard, Benjamin 25 September 2012 (has links)
Les méthodes traditionnelles de dimensionnement à la fatigue s’appuient sur l’utilisation de coefficients dits de “sécurité” dans le but d’assurer l’intégrité de la structure en couvrant les incertitudes inhérentes à la fatigue. Ces méthodes de l’ingénieur ont le mérite d’être simples d’application et de donner des solutions heureusement satisfaisantes du point de vue de la sécurité. Toutefois, elles ne permettent pas au concepteur de connaître la véritable marge de sécurité de la structure et l’influence des différents paramètres de conception sur la fiabilité. Les approches probabilistes sont envisagées dans cette thèse afin d’acquérir ces informations essentielles pour un dimensionnement optimal de la structure vis-à-vis de la fatigue. Une approche générale pour l’analyse probabiliste en fatigue est proposée dans ce manuscrit. Elle s’appuie sur la modélisation des incertitudes (chargement, propriétés du matériau, géométrie, courbe de fatigue) et vise à quantifier le niveau de fiabilité de la structure étudiée pour un scénario de défaillance en fatigue. Les méthodes classiques de fiabilité nécessitent un nombre important d’évaluations du modèle mécanique de la structure et ne sont donc pas envisageables lorsque le calcul du modèle est coûteux en temps. Une famille de méthodes appelée AK-RM (Active learning and Kriging-based Reliability Methods) est précisément proposée dans ces travaux de thèse afin de résoudre le problème de fiabilité avec un minimum d’évaluations du modèle mécanique. L’approche générale est appliquée à deux cas-tests fournis par SNECMA dans le cadre du projet ANR APPRoFi. / Traditional procedures for designing structures against fatigue are grounded upon the use of so-called safety factors in an attempt to ensure structural integrity while masking the uncertainties inherent to fatigue. These engineering methods are simple to use and fortunately, they give satisfactory solutions with regard to safety. However, they do not provide the designer with the structure’s safety margin as well as the influence of each design parameter on reliability. Probabilistic approaches are considered in this thesis in order to acquire this information, which is essential for an optimal design against fatigue. A general approach for probabilistic analysis in fatigue is proposed in this manuscript. It relies on the modelling of the uncertainties (load, material properties, geometry, and fatigue curve), and aims at assessing the reliability level of the studied structure in the case of a fatigue failure scenario. Classical reliability methods require a large number of calls to the mechanical model of the structure and are thus not applicable when the model evaluation is time-demanding. A family of methods named AK-RM (Active learning and Kriging-based Reliability methods) is proposed in this research work in order to solve the reliability problem with a minimum number of mechanical model evaluations. The general approach is applied to two case studies submitted by SNECMA in the frame of the ANR project APPRoFi.
255

Évaluation probabiliste de la fiabilité structurelle des digues fluviales à partir du jugement d’expert / Probabilistic evaluation of the structural reliability of river levees based on expert judgment

Hathout, Michel 03 April 2018 (has links)
Les digues de protection contre les inondations sont d’une importance stratégique incontournable pour la sécurité des personnes et des biens. Une meilleure connaissance de leur fiabilité structurelle constitue un enjeu majeur pour les ingénieurs et pour les gestionnaires de ces ouvrages afin de répondre aux réglementations en vigueur et potentiellement les faire évoluer. La réglementation en France relative à la sûreté des ouvrages hydrauliques exige la réalisation d’études de dangers, au sein desquelles les démarches probabilistes d’évaluation de la sécurité prennent une place de plus en plus importante. De par la complexité de leurs mécanismes de rupture et l’absence de condition d’état-limite précis pour certains mécanismes de défaillance tels que l’érosion interne, la surverse ou l’affouillement, le calcul d’une probabilité de défaillance par des approches quantitatives demeure à ce jour impossible. Les digues induisent des problématiques particulières pour l’évaluation de leur fiabilité structurelle où l’intervention d’experts s’avère nécessaire et centrale. Ceux-ci doivent procéder à l’interprétation des données disponibles et la prise en compte de leurs incertitudes, pour pouvoir ensuite évaluer la fiabilité structurelle de digues en termes de probabilité de défaillance. L’objectif de la thèse est l’élaboration d’une démarche complète d’aide à l’évaluation probabiliste de la fiabilité structurelle des digues à partir du jugement expert. Une démarche scientifiquement justifiée pour le recueil et l’exploitation des évaluations expertes, incertaines mais quantitatives, de la fiabilité structurelle des ouvrages, sous la forme d’une probabilité de défaillance ou d’un coefficient de sécurité, assorti(e) d’une marge d’incertitude probabiliste. Afin de répondre à cet objectif, deux démarches ont été développée, « EiCAD » et « EiDA », toutes reposant (dans des ordres différents) sur les phases suivantes :- Une phase d’élicitation individuelle des avis experts (Ei) permettant le recueil des évaluations expertes probabilistes par la construction d’un formulaire de questionnement ;- Une phase de calibration (C) permettant de pondérer les évaluations expertes en fonction des degrés de précision et de justesse ;- Une phase d’agrégation (A) permettant une prise en compte simultanée de plusieurs évaluations expertes probabilistes ;- Une phase de débiaisage (D) permettant de traiter les biais susceptibles d’entacher les évaluations expertes probabilistes. Les démarches développées ont été mises en œuvre sur des cas de digues du Drac, dans l’agglomération grenobloise, pour évaluer la probabilité de défaillance, par jugement expert, vis-à-vis de mécanisme de rupture par glissement et par érosion interne / River levees as protective measures against flooding are a matter of utmost strategic importance for the security of people and property. A better knowledge of their structural reliability is a major challenge for engineers and managers of these structures in order to meet current regulations and potentially develop them. In France, the regulations relating to the safety of hydraulic structures require the realization of hazard studies, in which probabilistic safety evaluation procedures take on a more and more important role. Due to the complexity of their failure mechanisms and the lack of a specific condition of limit-state for some failure mechanisms such as internal erosion and overtopping or scour, calculating a probability of failure by quantitative approaches remains impossible to this day. Levees induce specific problems in evaluating their structural reliability where expert intervention is necessary and pivotal. They must interpret the available data and take into account the uncertainties in their analysis, in order to evaluate the structural reliability of levees in terms of probability of failure. The aim of the thesis is to develop and elaborate a complete approach for supporting probabilistic evaluation of structural reliability of levees based on expert judgments. It is designed as a scientifically justified approach to collect and use uncertain but quantitative expert evaluations of structural reliability, in the form of a failure probability or a safety factor, accompanied by a margin of probabilistic uncertainty. To meet this goal, two approaches have been developed, "EiCAD" and "EiDA" composed of the following phases (in different orders):- individual elicitation phase of expert judgment (Ei) allowing the collection of probabilistic expert evaluations by a constricted questionnaire ;- calibration phase (C) to weigh the probabilistic expert evaluations elicited depending on the degrees of precision and accuracy that can be provided;- aggregation phase (A) during which the probabilistic expert evaluations elicited by several experts are taken into account ;- debiasing phase (D) during which biases that may affect the probabilistic expert evaluations are removed. The developed approaches have been implemented for the cases of Drac levees, located in the Grenoble agglomeration, to assess the probability of failure, by expert judgment, with regard to sliding and internal erosion mechanism of failure
256

Tolérance aux pannes dans des environnements de calcul parallèle et distribué : optimisation des stratégies de sauvegarde/reprise et ordonnancement / Fault tolerance in the parallel and distributed environments : optimizing the checkpoint restart strategy and scheduling

Bouguerra, Mohamed Slim 02 April 2012 (has links)
Le passage de l'échelle des nouvelles plates-formes de calcul parallèle et distribué soulève de nombreux défis scientifiques. À terme, il est envisageable de voir apparaître des applications composées d'un milliard de processus exécutés sur des systèmes à un million de coeurs. Cette augmentation fulgurante du nombre de processeurs pose un défi de résilience incontournable, puisque ces applications devraient faire face à plusieurs pannes par jours. Pour assurer une bonne exécution dans ce contexte hautement perturbé par des interruptions, de nombreuses techniques de tolérance aux pannes telle que l'approche de sauvegarde et reprise (checkpoint) ont été imaginées et étudiées. Cependant, l'intégration de ces approches de tolérance aux pannes dans le couple formé par l'application et la plate-forme d'exécution soulève des problématiques d'optimisation pour déterminer le compromis entre le surcoût induit par le mécanisme de tolérance aux pannes d'un coté et l'impact des pannes sur l'exécution d'un autre coté. Dans la première partie de cette thèse nous concevons deux modèles de performance stochastique (minimisation de l'impact des pannes et du surcoût des points de sauvegarde sur l'espérance du temps de complétion de l'exécution en fonction de la distribution d'inter-arrivées des pannes). Dans la première variante l'objectif est la minimisation de l'espérance du temps de complétion en considérant que l'application est de nature préemptive. Nous exhibons dans ce cas de figure tout d'abord une expression analytique de la période de sauvegarde optimale quand le taux de panne et le surcoût des points de sauvegarde sont constants. Par contre dans le cas où le taux de panne ou les surcoûts des points de sauvegarde sont arbitraires nous présentons une approche numérique pour calculer l'ordonnancement optimal des points de sauvegarde. Dans la deuxième variante, l'objectif est la minimisation de l'espérance de la quantité totale de temps perdu avant la première panne en considérant les applications de nature non-préemptive. Dans ce cas de figure, nous démontrons tout d'abord que si les surcoûts des points sauvegarde sont arbitraires alors le problème du meilleur ordonnancement des points de sauvegarde est NP-complet. Ensuite, nous exhibons un schéma de programmation dynamique pour calculer un ordonnancement optimal. Dans la deuxième partie de cette thèse nous nous focalisons sur la conception des stratégies d'ordonnancement tolérant aux pannes qui optimisent à la fois le temps de complétion de la dernière tâche et la probabilité de succès de l'application. Nous mettons en évidence dans ce cas de figure qu'en fonction de la nature de la distribution de pannes, les deux objectifs à optimiser sont tantôt antagonistes, tantôt congruents. Ensuite en fonction de la nature de distribution de pannes nous donnons des approches d'ordonnancement avec des ratios de performance garantis par rapport aux deux objectifs. / The parallel computing platforms available today are increasingly larger. Typically the emerging parallel platforms will be composed of several millions of CPU cores running up to a billion of threads. This intensive growth of the number of parallel threads will make the application subject to more and more failures. Consequently it is necessary to develop efficient strategies providing safe and reliable completion for HPC parallel applications. Checkpointing is one of the most popular and efficient technique for developing fault-tolerant applications on such a context. However, checkpoint operations are costly in terms of time, computation and network communications. This will certainly affect the global performance of the application. In the first part of this thesis, we propose a performance model that expresses formally the checkpoint scheduling problem. Two variants of the problem have been considered. In the first variant, the objective is the minimization of the expected completion time. Under this model we prove that when the failure rate and the checkpoint cost are constant the optimal checkpoint strategy is necessarily periodic. For the general problem when the failure rate and the checkpoint cost are arbitrary we provide a numerical solution for the problem. In the second variant if the problem, we exhibit the tradeoff between the impact of the checkpoints operations and the lost computation due to failures. In particular, we prove that the checkpoint scheduling problem is NP-hard even in the simple case of uniform failure distribution. We also present a dynamic programming scheme for determining the optimal checkpointing times in all the variants of the problem. In the second part of this thesis, we design several fault tolerant scheduling algorithms that minimize the application makespan and in the same time maximize the application reliability. Mainly, in this part we point out that the growth rate of the failure distribution determines the relationship between both objectives. More precisely we show that when the failure rate is decreasing the two objectives are antagonist. In the second hand when the failure rate is increasing both objective are congruent. Finally, we provide approximation algorithms for both failure rate cases.
257

Analyse de la fiabilité des outils de simulation et des incertitudes de métrologie appliquée à l'efficacité énergétique des bâtiments / Analysis of simulation tools reliability and measurement uncertainties for Energy Efiiciency in Buildings

Spitz, Clara 09 March 2012 (has links)
Le recours à la simulation est décisif dans le processus de conception d'un bâtiment neuf. Elle permet d'évaluer différentes alternatives au regard de la performance énergétique et du confort des occupants et constitue ainsi un outil d'aide à la décision incontournable. Aujourd'hui la question de la fiabilité des codes de simulation n'est pas à négliger. L'augmentation des performances énergétiques des bâtiments, pourrait mettre en défaut un certain nombre d'hypothèses de modélisation généralement admises pour les bâtiments standards du fait de la prépondérance nouvelle de phénomènes physiques jusqu'alors négligés ou mal pris en compte. Dans le même temps on s'intéresse de plus en plus à la garantie de performance qui consiste à vérifier que les performances énergétiques réelles sont bien en adéquation avec les objectifs fixés lors de la conception or il est souvent constaté des erreurs entre consommation mesurée et estimée compte tenu des incertitudes liées notamment à la mise œuvre, aux occupants et aux conditions météorologiques. L'augmentation des exigences de précision des calculs qui en résulte rend essentiel d'apprécier les incertitudes associées à ces prévisions afin d'améliorer le processus de construction et d'évaluation. Les travaux de cette thèse portent en particulier sur l'évaluation et la hiérarchisation des incertitudes sur les résultats des simulations en phase de conception. Une méthodologie a été développée basée en trois temps qui permet d'identifier les paramètres de conception les plus influents sur la performance énergétique d'un bâtiment et de rendre compte des effets de l'incertitude associée à ces paramètres sur cette même performance. La première étape consiste à identifier parmi l'ensemble des paramètres du modèle ceux qui ont une influence sur le résultat qui nous intéresse. Celle-ci est assurée au moyen d'une analyse de sensibilité locale du modèle. La deuxième étape consiste à évaluer les incertitudes associées à ces paramètres les plus influents afin de propager cette incertitude dans le code de calcul et évaluer l'incertitude sur le résultat. Cette étape est effectuée au moyen d'approches probabilistes de type Monte Carlo. Nous ajoutons une troisième étape de manière à évaluer la responsabilité de chacun des paramètres sur les incertitudes associées au résultat. Cette information est cruciale pour l'utilisateur. Cette dernière étape est traitée au moyen d'une analyse de sensibilité globale sur un jeu de paramètres réduit. Nous nous sommes appuyés sur la plateforme expérimentale INCAS située à l'INES au Bourget du Lac (73) pour identifier les incertitudes de mesure mais aussi les incertitudes dont les hypothèses de modélisation font l'objet. Cette méthodologie pourra être utilisée durant tout le processus de conception d'un bâtiment, des premières esquisses à son exploitation. En phase de conception, cette méthodologie permettra d'orienter les choix architecturaux en évitant des options dont la fiabilité des résultats est incertaine. En phase d'exploitation, elle permettra d'identifier les points de mesure les plus pertinents, afin de réduire l'incertitude des paramètres les plus influents pour effectuer un diagnostic énergétique plus fiable du bâtiment. Elle pourra aussi s'étendre aux incertitudes liées aux occupants et aux conditions météorologiques. / Nowadays, simulation tools are widely used to design buildings since their energy performance is increasing. Simulation is used to predict building energy performance and to improve thermal comfort of occupants, but also to reduce the environmental impact of the building over its whole life cycle and the cost of construction and operation. Simulation becomes an essential decision support tool, but its reliability should not be ignored. Hypothesis, made 10 years ago for buildings conception, are often not adapted to the new constructions because of physical phenomena which until now were overlooked. At the same time, guarantees of energy efficiency, which aims to check if actual energy performances are matching the conception goals, are becoming important. But there are usually differences between measured and simulation data. They may be the result of mistakes and unknowns on input parameters, on schedule occupation or on weather data. Today it's important to evaluate simulation and measurement reliability and uncertainties to improve design building. This PhD work aimed to evaluate and order simulation results uncertainties during the design building process. A methodology in three steps was developed to determine influential parameters on building energy performance and to identify the influence of these parameters uncertainty on the building performance. The first step uses the local sensitivity analysis and identifies the most influential parameters on the outputs among all parameters. This step enables to reduce the number of parameters which is necessary to proceed the following steps The second step is an uncertainty analysis focuses on quantifying uncertainty in model outputs. This step is conducted with the Monte Carlo probabilistic approach. The last step uses global sensitivity analysis which is the study of how uncertainty in the output of a model can be apportioned to different sources of uncertainty in the model input. This methodology was applied to the INCAS experimental platform of the French National Institute of Solar Energy (INES) in Le-Bourget-du-Lac to identify measure uncertainties and uncertainties on simulation hypothesis. This methodology may be used during the whole building design process, from the first sketches to the operating phase. It will enable to guide the architectural and technical choices and to avoid unstable options with important uncertainty. During the exploitation stage, this methodology will allow to identify the most suitable measurement in order to reduce parameters uncertainties and consequently to get the energy diagnostic more reliable. Moreover this methodology could also be used to determine uncertainties on related to inoccupants and to weather conditions.
258

Dégradation par électromigration dans les interconnexions en cuivre : étude des facteurs d'amélioration des durées de vie et analyse des défaillances précoces / Electromigration degradation in copper interconnects : study of lifetimes improvement factors and early failures analysis

Bana, Franck Lionel 22 November 2013 (has links)
Les circuits intégrés sont partie prenante de tous les secteurs industriels et de la vie couranteactuels. Leurs dimensions sont sans cesse réduites afin d’accroître leurs performances. Cetteminiaturisation s’accompagne notamment d’une densification et d’une complexification du réseaud’interconnexions. Les interconnexions, lignes métalliques chargées de transporter le signalélectrique dans les circuits apparaissent ainsi plus sensibles à la dégradation par électromigration.Ceci, compte tenu des fortes densités de courant qu’elles transportent. Il se trouve donc dans lesnoeuds technologiques avancés, de plus en plus difficile de garantir le niveau de fiabilité requis pourles interconnexions.La réduction de la durée de vie des interconnexions est liée à la fois à la difficulté croissanteà réaliser les étapes de procédés pour les géométries souhaitées et à l’augmentation de la dispersiondes temps à la défaillance. Dans un premier temps, nous avons poussé la compréhension desmécanismes en jeu lors de la dégradation par électromigration. Nous avons ainsi mis en évidence lerôle joué par la microstructure et la composition chimique des lignes de cuivre dans l’augmentationde leur durée de vie. Dans un second volet, l’accent a été porté sur l’amélioration de l’analysestatistique des durées de vie avec un focus sur les défaillances précoces et les distributionsbimodales qu’elles engendrent. De même, la structure multi liens que nous avons mise au pointpermet de répondre à la question fondamentale de l’augmentation de l’échantillonnage de test ;améliorant ainsi la précision aux faibles taux de défaillance pour des projections robustes des duréesde vie. / Integrated circuits are part of our nowadays life as they are presents everywhere; as well as in daily life or industry. They are continuously downscaled to increase their performances. As a result, this downscaling lead to complex interconnects grid architectures. Interconnects which are metal lines carrying electric signal in the circuit are thus more and more sensitive to electromigration failure. This I because of increasingly higher current densities they carry. Obviously, in advanced technology nodes, it is more and more difficult to ensure the reliability level required for interconnects. Interconnects lifetime reduction is linked to increasing difficulty to perform all process steps with these very small features and also to increasing failure times dispersion. In the first part of the work presented here, we deepened the understanding of mechanisms involved during electromigration degradation. We have thus shown the fundamental role played by the microstructure and the chemical composition of the line in increasing its lifetime. The second part of the work dealt with the improvement of statistical analysis of failure times. We thus focused on early failures and the bimodal failure times distributions they generate. As far as that goes, the multilink structure we have designed answers the fundamental question of increase test sampling. This lead then to improved precision at very low failure rates for robust lifetime's extrapolation to use conditions.
259

Architectures de réparation des mémoires pour des hautes densités des défauts / Memory repair architectures for high defect densities

Papavramidou, Panagiota 19 November 2014 (has links)
La miniaturisation technologique augmente la sensibilité des circuits intégrés auxdéfauts et nous observons à chaque nouvelle génération technologique une dégradation rapidedu rendement de fabrication et de la fiabilité. Les mémoires occupent la plus grande partie dela surface des SoCs et contiennent la vaste majorité des transistors. De plus, pour augmenterleur densité elles sont conçues de façon très serrée. Elles concentrent ainsi la plus grandepartie des défauts de fabrication et représentent aussi les parties les plus sensibles face auxperturbations. Elles sont par conséquent les parties des SoCs les plus affectées par ladégradation du rendement de fabrication et de la fiabilité. L’objectif de cette thèse est deproposer des architectures combinant de façon optimale : algorithmes de test, architecturesBIST, et codes correcteurs d’erreurs afin de proposer des solutions efficaces pourl’amélioration du rendement de fabrication et de la fiabilité des mémoires embarquées. / Nanometric scaling increases the sensitivity of integrated circuits to defects andperturbations. Thus, each new generation of manufacturing process is accompanied by a rapiddegradation of manufacturing yield and reliability. Embedded memories occupy the largestpart of the area of SoCs and comprise the vast majority of transistors. In addition, forincreasing the integration density, they are designed very tightly to the design and electricalrules. Hence, embedded memories concentrate the majority of the manufacturing defectsaffecting a SoC, and are also more sensitive to perturbations. Thus, they are the parts of theSoC the most affected by the deterioration of manufacturing yield and reliability. This thesisdevelops repair architectures optimally combining test algorithms, BIST architectures, anderror correcting codes, in order to propose effective solutions for improving themanufacturing yield and reliability of embedded memories affected by high defect densities.
260

Dimensionnement mécano-fiabiliste des structures soudées contenant un défaut / Mechanical-reliability design of welded structures containing a defect

Frih, Intissar 14 June 2016 (has links)
Le soudage est une méthode d’assemblage couramment utilisée dans l'industrie. Cependant, ce procédé a ses propres inconvénients, notons principalement la présence de porosités ou de contraintes résiduelles, qui peuvent affecter la tenue en service d’une structure. Notre étude se concentre sur un assemblage soudé d'un acier à haute limite d’élasticité. L’objectif de ce travail de thèse est de proposer une démarche mécano-fiabiliste qui permet de prédire la tenue d’une structure soudée en T en présence d'un défaut de type porosité. De ce fait, il est indispensable d’avoir un modèle numérique décrivant finement le comportement de ce type de structure. Une étude expérimentale est donc effectuée permettant d’identifier les caractéristiques des zones de soudure et leurs comportements mécaniques. Des méthodes de mesure (méthode des contours et diffraction de rayon X) permettent de déterminer le champ des contraintes résiduelles dans toute la surface de la structure soudée. Ces résultats expérimentaux ont permis d’enrichir un modèle numérique. Dans le code de simulation par éléments finis, le champ de contraintes résiduelles et la porosité dans le joint de la soudure sont pris en compte. Les simulations numériques réalisées sous ABAQUS avec des modèles élastiques ou élasto-plastiques nous ont permis d'identifier les zones de sécurité et de rupture dans un cordon de soudure ainsi que les configurations critiques. L'approche fiabiliste permet de déclarer un niveau de risque de la soudure avec un niveau de confiance donné compte-tenu des incertitudes des moyens d’inspection du défaut de porosité / Welding is a method of assembly commonly used in the industry. However, this method has several problems, mainly the presence of porosity or residual stress, which can affect the operating performance of a structure. Our study focuses on a welded joint of High-strength low-alloy (HSLA) steel.The objective of this thesis is to propose a mechanical reliability based approach in order to predict the reliability of a T-welded structure containing porosity. Therefore, it is essential to have a numerical model that describes finely the mechanical behavior of this type of structure. An experimental study is conducted to identify the characteristics of the areas of the weld and their mechanical behavior. Two measurement methods (method contours and X-ray diffraction) are used to determine the residual stress field throughout the surface of the welded structure.These experimental results allowed us to enrich a numerical model. In the finite element simulation, the residual stress field and the porosity in the weld are taken into account. Numerical simulations are performed using ABAQUS with elastic or elastic-plastic models to identify the areas of security and fracture in a weld bead and the critical configurations. The reliability approach is used to determine the failure probability of welded structure taking into account the uncertainties of the inspection means of porosity

Page generated in 0.0812 seconds