• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 406
  • 150
  • 76
  • 2
  • 1
  • 1
  • Tagged with
  • 632
  • 323
  • 177
  • 174
  • 90
  • 77
  • 76
  • 75
  • 73
  • 72
  • 65
  • 58
  • 53
  • 53
  • 52
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Evaluation par krigeage de la fiabilité des structures sollicitées en fatigue

Echard, Benjamin 25 September 2012 (has links) (PDF)
Les méthodes traditionnelles de dimensionnement à la fatigue s'appuient sur l'utilisation de coefficients dits de "sécurité" dans le but d'assurer l'intégrité de la structure en couvrant les incertitudes inhérentes à la fatigue. Ces méthodes de l'ingénieur ont le mérite d'être simples d'application et de donner des solutions heureusement satisfaisantes du point de vue de la sécurité. Toutefois, elles ne permettent pas au concepteur de connaître la véritable marge de sécurité de la structure et l'influence des différents paramètres de conception sur la fiabilité. Les approches probabilistes sont envisagées dans cette thèse afin d'acquérir ces informations essentielles pour un dimensionnement optimal de la structure vis-à-vis de la fatigue. Une approche générale pour l'analyse probabiliste en fatigue est proposée dans ce manuscrit. Elle s'appuie sur la modélisation des incertitudes (chargement, propriétés du matériau, géométrie, courbe de fatigue) et vise à quantifier le niveau de fiabilité de la structure étudiée pour un scénario de défaillance en fatigue. Les méthodes classiques de fiabilité nécessitent un nombre important d'évaluations du modèle mécanique de la structure et ne sont donc pas envisageables lorsque le calcul du modèle est coûteux en temps. Une famille de méthodes appelée AK-RM (Active learning and Kriging-based Reliability Methods) est précisément proposée dans ces travaux de thèse afin de résoudre le problème de fiabilité avec un minimum d'évaluations du modèle mécanique. L'approche générale est appliquée à deux cas-tests fournis par SNECMA dans le cadre du projet ANR APPRoFi.
232

Fiabilité des dispositifs HEMT en technologie GaN

Astre, Guilhem 17 January 2012 (has links) (PDF)
Le point sensible inhérent à la commercialisation d'une technologie émergente est la maturité des processus utilisés garantissant la qualité de l'épitaxie, de la métallisation du contact de grille ou encore de la passivation. Les études de fiabilité s'imposent alors comme un aspect indissociable de la maturation de la technologie. En ce sens, les composants à grands gap représentent un réel problème car les outils classiques de caractérisation ne sont pas toujours adaptés aux contraintes imposées (thermiques, RF, DC...). Dans cette thèse, nous détaillons une technique originale pour améliorer la fiabilité des dispositifs AlGaN/GaN par diffusion de deutérium et nous présentons l'ensemble des résultats issus des campagnes de mesures menées à l'aide des outils disponibles sur des lots de composants issus des filières UMS et TRT. Les principaux résultats concernent les mesures de bruit basse fréquence, la caractérisation électrique, la spectroscopie des pièges profonds et les mesures en température de courant de grille qui ont été réalisés sur des lots de composants témoins et ayant subi différents types de stress.
233

Low-cost highly-efficient fault tolerant processor design for mitigating the reliability issues in nanometric technologies

Yu, Hai 02 December 2011 (has links) (PDF)
Divers domaines d'application des systèmes électroniques, comme par exemple les implants médicaux ou les puces cryptographiques pour les appareils portables, exigent à la fois une très faible puissance consommé et un niveau de fiabilité très élevé. De plus, comme la miniaturisation des technologies CMOS s'approche de ses limites ultimes, ces exigences deviennent nécessaires pour l'ensemble de l'industrie de microélectronique. En effet, en approchant ces limites les problèmes de la dissipation de puissance, du rendement de fabrication et de la fiabilité des composants empirent, rendant la poursuite de miniaturisation nanométriques de plus en plus difficile. Ainsi, avant que ces problèmes bloquent le progrès technologique, des nouvelles solutions au niveau du processus de fabrication et du design sont exigées pour maintenir la puissance dissipée, le rendement de fabrication et la fiabilité à des niveaux acceptables. Le projet de thèse vise le développement des architectures tolérantes aux fautes capables de répondre à ces défis pour les technologies de fabrication CMOS présentes et à venir. Ces architectures devraient permettre d'améliorer le rendement de fabrication et la fiabilité et de réduire en même temps la puissance dissipée des composants électroniques. Elles conduiraient en une innovation majeure, puisque les architectures tolérant aux fautes traditionnelles permettraient d'améliorer le rendement de fabrication et la fiabilité des composants électroniques aux dépens d'une pénalité significative en puissance consommée.
234

Méthodes probabilistes d'analyse de fiabilité dans la logique combinatoire

Torras Flaquer, Josep 12 December 2011 (has links) (PDF)
Les circuits numériques utilisés dans des domaines aussi variés que le médical, spatial, automobile ou nucléaire ont besoin d'une très forte fiabilité. La réduction progressive de la tension d'alimentation et l'intégration croissante des produits électroniques affecte la sensibilité du système à l'apparition de fautes (permanentes ou transitoires). Les fautes transitoires ont été largement dominants dans le taux total de SER (Soft Error Rate) des mémoires et éléments de séquentiels. Ainsi, les techniques de correction et prévention pour ces éléments sont bien connues. Par contre, la contribution au SER due aux éléments de logique combinatoire est en croissance, et il est prévue qu'elle devient dominante avec la réduction progressive de la taille de la technologie CMOS. Ainsi, il y a un réel besoin de pallier le manque de modèles et méthodologies qui prennent en compte l'effet de la logique combinatoire dans la perte de fiabilité. Deux approches existe pour cette problématique : 1- Techniques d'injection de fautes 2 - Modèles analytiques Le travail présenté dans cette thèse pour sur l'approche analytique, ou approche probabiliste. D'abord, une analyse en profondeur de l'état de l'art est proposé, mettant en évidence les limitations principales de ce type d'approche. Deuxièmement, des nouvelles approches sont proposées, améliorant la performance des approches existants. Des nouvelles métriques concernant l'analyse FMDEA et durcissement séléctif sont aussi proposées. Finalement, les approches sont validées en comparant leur performance avec les principales techniques déjà existantes.
235

Modèles d'âge virtuel et de risques concurrents pour la maintenance imparfaite

Dijoux, Yann 01 October 2008 (has links) (PDF)
Ce travail se situe dans le cadre de la modélisation aléatoire pour la sûreté de fonctionnement des systèmes réparables. Nous considérons des systèmes soumis à des maintenances correctives et préventives conditionnelles. La principale problématique que nous traitons est de modéliser conjointement la dépendance entre les deux types de maintenances en utilisant le cadre des risques concurrents et l'efficacité des maintenances imparfaites en utilisant le principe des âges virtuels. Dans ce cadre, nous proposons des modèles de maintenance imparfaite pour des systèmes présentant une période de jeunesse. Dans un premier temps, nous proposons un nouveau modèle de risques concurrents classique, le modèle alert-delay, qui permet de prendre en compte la dépendance entre les deux types de maintenances. Ses propriétés originales permettent d'analyser certains jeux de données pour lesquels aucun modèle usuel n'était adapté. Dans un deuxième temps, nous présentons plusieurs classes de modèles de risques concurrents généralisés: nous généralisons les modèles classiques en tenant compte du passé afin de caractériser l'efficacité des maintenances et la réactivité des équipes de maintenance. Enfin, nous présentons une classe générale de modèles de maintenance imparfaite pour des systèmes présentant une période de jeunesse. Jusqu'à présent, les modèles n'étaient adaptés qu'aux systèmes se dégradant continûment. Deux modèles particuliers sont alors étudiés plus en détail. Dans chacune de ces parties, les modèles proposés sont appliqués à des jeux de données issus de l'industrie.
236

Planification des essais accélérés : optimisation, robustesse et analyse

Fatemi, Seyyedeh Zohreh 20 December 2012 (has links) (PDF)
La qualification d'un produit, lors des phases de développement, est une étape importante dans un projet qui vérifie que les performances et la fiabilité atteignent les objectifs. Les essais de qualification sont souvent couteux en temps et en nombre de produits testés. Les essais accélérés consistent à soumettre des unités à des niveaux de stress plus élevés qu'en condition d'exploitation afin de réduire le temps d'apparition des défaillances. Ils permettent de construire plus rapidement la fonction de fiabilité à partir d'un modèle appropriée reliant durée de vie et stress. De plus, un plan d'essai doit être construit, précisant les paramètres du plan (niveaux de stress, allocation de l'échantillon) pour trouver le meilleur compromis entre le coût d'essai et la qualité d'estimation. L'objectif de la thèse a été de définir une méthodologie de construction de plans d'essai accéléré optimaux et robustes. Nous avons donc développé un cadre général basé sur la minimisation du coût global et une approche bayésienne. Les distributions a priori, issues de la connaissance des paramètres de fiabilité et du modèle d'accélération, sont utilisées dans l'inférence bayésienne et dans une simulation de Monte Carlo d'exploration des fiabilités possibles. Le plan optimal et robuste est obtenu à partir de méthodes d'optimisation (Surface de réponse, Algorithmes génétiques). Enfin, une méthodologie de suivi des essais est développée en observant la pertinence des résultats par rapport aux informations a priori à partir d'un facteur de similitude. Il permet de vérifier si la décision quant à la qualification peut être prise plus rapidement, ou d'optimiser le plan en cours de réalisation.
237

Tolérance aux pannes dans des environnements de calcul parallèle et distribué : optimisation des stratégies de sauvegarde/reprise et ordonnancement

Bouguerra, Mohamed slim 02 April 2012 (has links) (PDF)
Le passage de l'échelle des nouvelles plates-formes de calcul parallèle et distribué soulève de nombreux défis scientifiques. À terme, il est envisageable de voir apparaître des applications composées d'un milliard de processus exécutés sur des systèmes à un million de coeurs. Cette augmentation fulgurante du nombre de processeurs pose un défi de résilience incontournable, puisque ces applications devraient faire face à plusieurs pannes par jours. Pour assurer une bonne exécution dans ce contexte hautement perturbé par des interruptions, de nombreuses techniques de tolérance aux pannes telle que l'approche de sauvegarde et reprise (checkpoint) ont été imaginées et étudiées. Cependant, l'intégration de ces approches de tolérance aux pannes dans le couple formé par l'application et la plate-forme d'exécution soulève des problématiques d'optimisation pour déterminer le compromis entre le surcoût induit par le mécanisme de tolérance aux pannes d'un coté et l'impact des pannes sur l'exécution d'un autre coté. Dans la première partie de cette thèse nous concevons deux modèles de performance stochastique (minimisation de l'impact des pannes et du surcoût des points de sauvegarde sur l'espérance du temps de complétion de l'exécution en fonction de la distribution d'inter-arrivées des pannes). Dans la première variante l'objectif est la minimisation de l'espérance du temps de complétion en considérant que l'application est de nature préemptive. Nous exhibons dans ce cas de figure tout d'abord une expression analytique de la période de sauvegarde optimale quand le taux de panne et le surcoût des points de sauvegarde sont constants. Par contre dans le cas où le taux de panne ou les surcoûts des points de sauvegarde sont arbitraires nous présentons une approche numérique pour calculer l'ordonnancement optimal des points de sauvegarde. Dans la deuxième variante, l'objectif est la minimisation de l'espérance de la quantité totale de temps perdu avant la première panne en considérant les applications de nature non-préemptive. Dans ce cas de figure, nous démontrons tout d'abord que si les surcoûts des points sauvegarde sont arbitraires alors le problème du meilleur ordonnancement des points de sauvegarde est NP-complet. Ensuite, nous exhibons un schéma de programmation dynamique pour calculer un ordonnancement optimal. Dans la deuxième partie de cette thèse nous nous focalisons sur la conception des stratégies d'ordonnancement tolérant aux pannes qui optimisent à la fois le temps de complétion de la dernière tâche et la probabilité de succès de l'application. Nous mettons en évidence dans ce cas de figure qu'en fonction de la nature de la distribution de pannes, les deux objectifs à optimiser sont tantôt antagonistes, tantôt congruents. Ensuite en fonction de la nature de distribution de pannes nous donnons des approches d'ordonnancement avec des ratios de performance garantis par rapport aux deux objectifs.
238

Transport des données et gestion de la congestion dans l'Internet de demain : du contrôle à l'anarchie

Lochin, Emmanuel 20 October 2011 (has links) (PDF)
Le monde du transport est en pleine révolution conceptuelle. Bien qu'ayant assisté au cours de ces dernières années à la naissance de nouveaux contrôles de congestion, dont certains ont été déployés de façon virale, l'universalité d'une solution protocolaire n'existe toujours pas. Plusieurs travaux s'accordent sur le fait que la couche transport a grandement besoin d'évoluer et les nouveaux défis engendrés par l'évolution des réseaux et usages de l'Internet ont pris le pas sur le problème originel de l'effondrement des ressources que devait prévenir le contrôle de congestion de la couche transport. Certains remettent d'ailleurs en question le découpage du modèle OSI et proposent de restructurer complétement la couche transport ; d'autres soulignent l'obsolescence du concept d'effondrement du réseau ou considèrent l'équité comme un critère irréaliste et impraticable. C'est dans ce contexte que cette habilitation explore plusieurs solutions protocolaires pour la couche transport, principalement pour le monde du best-effort, en partant des réseaux à QoS jusqu'aux réseaux anarchiques. Le principal problème de la couche transport n'est pas qu'elle doit évoluer : c'est comment la faire évoluer, c'est-à-dire, sans avoir à convaincre les concepteurs de systèmes d'exploitation. Aussi, nous étudions des approches qui ne rentreraient pas sous la tutelle de ces derniers et qui resteraient, autant que possible, indépendantes d'un déploiement de mécanisme collaboratif dans le coeur du réseau.
239

Un protocole de fiabilité basé sur un code à effacement "on-the-fly"

Tournoux, Pierre Ugo 10 November 2010 (has links) (PDF)
Le monde du protocole de transport a fortement évolué depuis la création de l'internet. On retrouve désormais une grande diversité de liens avec des caractéristiques hétérogènes en termes de débit, taux de pertes et délais. Plus récemment, le caractère ubiquitaire des périphériques sans fil a permis d'envisager un nouveau mode de transfert prenant en compte la mobilité des utilisateurs pour propager l'information dans le réseau. Ce paradigme de communication rompt définitivement avec les hypothèses de conceptions des protocoles de transport classique. Les applications qui utilisent l'internet ont également évolué. Les réseaux best effort sont maintenant utilisés pour transporter des flux à contrainte de délai tels que la voix sur IP et la vidéo conférence. Cependant, malgré ces changements importants, le principe de fiabilité utilisé n'a guère évolué et se base toujours sur des retransmissions. C'est dans ce contexte que s'inscrit cette thèse qui vise à fournir une brique de fiabilité novatrice pour le support de tout type d'application sur les réseaux best effort et les challenged neworks qui font de plus en plus partie du paysage de l'internet. A cette fin, nous proposons un mécanisme de codage dénommé Tetrys. Ce code est sans rendement et ses symboles de redondance sont générés à la volée. Il permet à la fois une fiabilité totale et un délai de reconstruction quasi-optimal. Après une étude détaillée de ses propriétés, nous illustrons la généricité de ce mécanisme. Nous verrons que ses caractéristiques mènent à des contributions aussi bien sur le transport de flux de vidéo-conférence que sur le support du streaming dans les DTN ou encore la fiabilisation des handovers. De manière plus prospective, cette thèse reconsidère les hypothèses initiales du contrôle de congestion. Tetrys est utilisé comme code optimal dans le cas de réseaux dit "anarchiques" (i.e. caractérisés par une absence totale de contrôle de congestion). Nous montrons que le concept de réseau anarchi que est une alternative viable au contrôle de congestion et qu'il le remplace mÆeme avantageusement.
240

Vers les applications fiables basées sur des composants dynamiques

Santos da Gama, Kiev 06 October 2011 (has links) (PDF)
Les logiciels s'orientent de plus en plus vers des architectures évolutives, capables de s'adapter facilement aux changements et d'intégrer de nouvelles fonctionnalités. Ceci est important pour plusieurs classes d'applications qui ont besoin d'évoluer sans que cela implique d'interrompre leur exécution. Des plateformes dynamiques à composants autorisent ce type d'évolution à l'exécution, en permettant aux composants d'être chargés et exécutés sans requérir le redémarrage complet de l'application en service. Toutefois, la flexibilité d'un tel mécanisme introduit de nouveaux défis qui exigent de gérer les possibles erreurs dues à des incohérences dans le processus de mise à jour, ou en raison du comportement défectueux de composants survenant pendant l'exécution de l'application. Des composants tiers dont l'origine ou la qualité sont inconnus peuvent être considérées à priori comme peu fiables, car ils peuvent potentiellement introduire des défauts d'applications lorsqu'il est combiné avec d'autres composants. Nous sommes intéressés à la réduction de l'impact de ces composants considérés comme non fiables et qui sont susceptibles de compromettre la fiabilité de l'application en cours d'exécution. Cette thèse porte sur l'application de techniques pour améliorer la fiabilité des applications dynamiques à composants. Pour cela, nous proposons l'utilisation des frontières d'isolation pouvant fournir du contingentement de fautes. Le composant ainsi isolé ne perturbe pas le reste de l'application quand il est défaillant. Une telle approche peut être vu sous trois perspectives présentées: (i) l'isolement des composants dynamiques, régi par une politique d'exécution reconfigurable, (ii) l'autoréparation de conteneurs d'isolement, et (iii) l'utilisation des aspects pour séparer les préoccupations de fiabilité à partir du code fonctionnel.

Page generated in 0.0377 seconds