• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 406
  • 150
  • 76
  • 2
  • 1
  • 1
  • Tagged with
  • 632
  • 323
  • 177
  • 174
  • 90
  • 77
  • 76
  • 75
  • 73
  • 72
  • 65
  • 58
  • 53
  • 53
  • 52
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Modélisation et évaluation de la fiabilité des systèmes mécatroniques : application sur système embarqué

Mihalache, Alin Gabriel 17 December 2007 (has links) (PDF)
La mécatronique est définie par l'utilisation simultanée et en étroite symbiose de la mécanique, de l'électronique, de l'informatique,... pour concevoir et produire de produits toujours plus innovants. Cette approche doit s'accompagner aujourd'hui de la garantie de sûreté de fonctionnement (SdF) des systèmes conçus. Or, la fiabilité, élément déterminant de la SdF, est relativement peu maîtrisée dans le développement des systèmes mécatroniques. Nous avons développé une méthodologie globale permettant de modéliser et d'évaluer la fiabilité prévisionnelle, expérimentale et opérationnelle des systèmes mécatroniques. C'est un outil d'aide à la décision dans les différentes phases des cycles de développement et de vie du système mécatronique, en valorisant l'évaluation quantitative de la fiabilité. La fiabilité prévisionnelle est calculée à partir du modèle Réseaux de Petri Stochastiques Déterministes (RdPSD) du système mécatronique, qui prend en considération la modélisation fonctionnelle, la modélisation dysfonctionnelle (à l'aide d'une analyse AMDE, AD,...) et les recueils des données pour chaque composant. Les fiabilités expérimentale et opérationnelle sont déterminées à l'aide de la méthode d'estimation bayésienne BRM qui tient compte des données obtenues lors des essais et issues du REX. Un exemple d'application sur l'antiblocage des roues (ABS) illustre cette méthodologie globale d'estimation de la fiabilité.
212

Modélisation des stratégies de remplacement de composant et de systèmes soumis à obsolescence technologique

Clavareau, Julien 12 September 2008 (has links)
Ce travail s’inscrit dans le cadre d’étude de la sûreté de fonctionnement. La sûreté de fonctionnement est progressivement devenue partie intégrante de l’évaluation des performances des systèmes industriels. En effet, les pannes d’équipements, les pertes de production consécutives, et la maintenance des installations ont un impact économique majeur dans les entreprises. Il est donc essentiel pour un manager de pouvoir estimer de manière cohérente et réaliste les coûts de fonctionnement de l’entreprise, en tenant notamment compte des caractéristiques fiabilistes des équipements utilisés, ainsi que des coûts induits entre autres par le non-fonctionnement du système et la restauration des performances de ses composants après défaillance. Le travail que nous avons réalisé dans le cadre de ce doctorat se concentre sur un aspect particulier de la sûreté de fonctionnement, à savoir les politiques de remplacement d’équipements basées sur la fiabilité des systèmes qu’ils constituent. La recherche menée part de l’observation suivante : si la littérature consacrée aux politiques de remplacement est abondante, elle repose généralement sur l’hypothèse implicite que les nouveaux équipements envisagés présentent les mêmes caractéristiques et performances que celles que possédaient initialement les composants objets du remplacement. La réalité technologique est souvent bien différente de cette approche, quelle que soit la discipline industrielle envisagée. En effet, de nouveaux équipements sont régulièrement disponibles sur le marché ; ils assurent les mêmes fonctions que des composants plus anciens utilisés par une entreprise, mais présentent de meilleures performances, par exemple en termes de taux de défaillance, consommation d’énergie, " intelligence " (aptitude à transmettre des informations sur leur état de détérioration)... De plus, il peut devenir de plus en plus difficile de se procurer des composants de l’ancienne génération pour remplacer ceux qui ont été déclassés. Cette situation est généralement appelée obsolescence technologique. Le but de ce travail est de prolonger et d’approfondir, dans le cadre de la sûreté de fonctionnement, les réflexions engagées par les différents articles présentés dans la section état de l’art afin de définir et de modéliser des stratégies de remplacements d’équipements soumis à obsolescence technologique. Il s’agira de proposer un modèle, faisant le lien entre les approches plus économiques et celles plus fiabilistes, permettant de définir et d’évaluer l’efficacité, au sens large, des différentes stratégies de remplacement des unités obsolètes. L’efficacité d’une stratégie peut se mesurer par rapport à plusieurs critères parfois contradictoires. Parmi ceux-ci citons, évidemment, le coût total moyen engendré par la stratégie de remplacement, seul critère considéré dans les articles cités au chapitre 2, mais aussi la façon dont ces coûts sont répartis au cours du temps tout au long de la stratégie, la variabilité de ces coûts autour de leur moyenne, le fait de remplir certaines conditions comme par exemple d’avoir remplacé toutes les unités d’une génération par des unités d’une autre génération avant une date donnée ou de respecter certaines contraintes sur les temps de remplacement. Pour arriver à évaluer les différentes stratégies, la première étape sera de définir un modèle réaliste des performances des unités considérées, et en particulier de leur loi de probabilité de défaillance. Etant donné le lien direct entre la probabilité de défaillance d’un équipement et la politique de maintenance qui lui est appliquée, notamment la fréquence des maintenances préventives, leur effet, l’effet des réparations après défaillance ou les critères de remplacement de l’équipement, un modèle complet devra considérer la description mathématique des effets des interventions effectuées sur les équipements. On verra que la volonté de décrire correctement les effets des interventions nous a amené à proposer une extension des modèles d’âge effectif habituellement utilisés dans la littérature. Une fois le modèle interne des unités défini, nous développerons le modèle de remplacement des équipements obsolètes proprement dit. Nous appuyant sur la notion de stratégie K proposée dans de précédents travaux, nous verrons comment adapter cette stratégie K à un modèle pour lequel les temps d’intervention ne sont pas négligeables et le nombre d’équipes limité. Nous verrons aussi comment tenir compte dans le cadre de cette stratégie K d’une part des contraintes de gestion d’un budget demandant en général de répartir les coûts au cours du temps et d’autre part de la volonté de passer d’une génération d’unités à l’autre en un temps limité, ces deux conditions pouvant être contradictoires. Un autre problème auquel on est confronté quand on parle de l’obsolescence technologique est le modèle d’obsolescence à adopter. La manière dont on va gérer le risque d’obsolescence dépendra fortement de la manière dont on pense que les technologies vont évoluer et en particulier du rythme de cette évolution. Selon que l’on considère que le temps probable d’apparition d’une nouvelle génération est inférieur au temps de vie des composants ou supérieur à son temps de vie les solutions envisagées vont être différentes. Lors de deux applications numériques spécifiques. Nous verrons au chapitre 12 comment envisager le problème lorsque l’intervalle de temps entre les différentes générations successives est largement inférieur à la durée de vie des équipements et au chapitre 13 comment traiter le problème lorsque le délai entre deux générations est de l’ordre de grandeur de la durée de vie des équipements considérés. Le texte est structuré de la manière suivante : Après une première partie permettant de situer le contexte dans lequel s’inscrit ce travail, la deuxième partie décrit le modèle interne des unités tel que nous l’avons utilisé dans les différentes applications. La troisième partie reprend la description des stratégies de remplacement et des différentes applications traitées. La dernière partie permet de conclure par quelques commentaires sur les résultats obtenus et de discuter des perspectives de recherche dans le domaine.
213

Conception de processeur tolérant aux fautes à faible coût et hautement efficace pour remédier aux problèmes de la fiabilité dans les technologies nanométriques

Yu, H. 02 December 2011 (has links) (PDF)
Divers domaines d'application des systèmes électroniques, comme par exemple les implants médicaux ou les puces cryptographiques pour appareils portables, exigent à la fois une très faible puissance dissipée et un niveau de fiabilité très élevé. De plus, comme la miniaturisation des technologies CMOS approche ses limites ultimes, ces exigences deviennent nécessaires pour l'ensemble de l'industrie de microélectronique. En effet, en approchant ces limites les problèmes de la dissipation de puissance, du rendement de fabrication et de la fiabilité des composants empirent, rendant la poursuite de miniaturisation nanometric de plus en plus difficile. Ainsi, avant que ces problèmes bloquent le progrès technologique, des nouvelles solutions au niveau du processus de fabrication et du design sont exigées pour maintenir la puissance dissipée, le rendement de fabrication et la fiabilité à des niveaux acceptables. Le projet de thèse visé le développant des architectures tolérant aux fautes capables de répondre à ces défis pour les technologies de fabrication CMOS présentes et à venir. Ces architectures devraient permettre d'améliorer le rendement de fabrication et la fiabilité et réduire en même temps la puissance dissipée des composants électroniques. Elles conduiraient en une innovation majeure, puisque les architectures tolérant aux fautes traditionnelles permettraient d'améliorer le rendement de fabrication et la fiabilité des composants électroniques aux dépens d'une pénalité significative en puissance consommée.
214

Les données de routine des séjours d'hospitalisation pour évaluer la sécurité des patients : études de la qualité des données et perspectives de validation d'indicateurs de la sécurité des patients

Januel, Jean-Marie 22 December 2011 (has links) (PDF)
Évaluer la sécurité des patients hospitalisés constitue un enjeu majeur de la gestion des risques pour les services de santé. Le développement d'indicateurs destinés à mesurer les événements indésirables liés aux soins (EIS) est une étape cruciale dont le défi principal repose sur la performance des données utilisées. Le développement d'indicateurs de la sécurité des patients - les Patient Safety Indicators (PSIs) - par l'Agency for Healthcare Research and Quality (AHRQ) aux Etats Unis, utilisant des codes de la 9ème révision (cliniquement modifiée) de la Classification Internationale des Maladies (CIM) présente des perspectives intéressantes. Nos travaux ont abordé cinq questions fondamentales liées au développement de ces indicateurs : la définition du cadre nosologique, la faisabilité de calcul des algorithmes et leur validité, la qualité des données pour coder les diagnostics médicaux à partir de la CIM et leur performance pour comparer plusieurs pays, et la possibilité d'établir une valeur de référence pour comparer ces indicateurs. Certaines questions demeurent cependant et nous proposons des pistes de recherche pour améliorer les PSIs : une meilleure définition des algorithmes et l'utilisation d'autres sources de données pour les valider (i.e., données de registre), ainsi que l'utilisation de modèles d'ajustement utilisant l'index de Charlson, le nombre moyen de diagnostics codés et une variable de la valeur prédictive positive, afin de contrôler les variations du case-mix et les différences de qualité du codage entre hôpitaux et pays.
215

Variabilité de la sénescence du squelette humain. Réflexions sur les indicateurs de l'âge au décès : à la recherche d'un outil performant.

Schmitt, Aurore 05 May 2001 (has links) (PDF)
L'estimation de l'âge au décès des adultes, paramètre crucial en Paléoanthropologie, constitue un véritable écueil. De façon à proposer une méthodologie fiable, nous avons analysé l'aspect biologique de notre problématique : la variabilité de la sénescence et la validité des indicateurs osseux et dentaires. Cette étude a permis de mettre en évidence des sources d'erreurs : l'absence de relation linéaire entre l'âge chronologique et l'évolution des indicateurs du squelette, le manque de représentativité de la variabilité des indicateurs et la recherche d'un âge précis au détriment de la fiabilité. <br />Suite à ces analyses, une nouvelle approche méthodologique est proposée. Après avoir sélectionné certains indicateurs osseux (la symphyse pubienne, la surface sacro-pelvienne iliaque et l'extrémité sternale de la quatrième côte), nous avons élaboré un nouveau système de cotation de façon à optimiser la reproductibilité et à prendre en compte la variabilité des indicateurs. Nous avons étudié des échantillons de référence provenant de six contextes géographiques différents, de façon à englober une variabilité de la sénescence la plus large possible. Les données ont ensuite été traitées par l'approche bayésienne dans le but de classer les spécimens dans des intervalles chronologiques. Nous avons également testé le potentiel des réseaux de neurones artificiels, mécanisme calculatoire approprié pour gérer les relations non-linéaires entre variables. <br />Les résultats ont mis en évidence que la surface sacro-pelvienne iliaque est un indicateur majeur de l'âge au décès, mais que la combinaison de plusieurs indicateurs n'augmente pas la fiabilité de l'estimation. Le nouveau système de cotation et le traitement des données proposés permettent de classer les spécimens avec fiabilité et d'identifier les individus de plus de 60 ans, catégorie dont l'effectif est toujours sous-estimé dans les études paléobiologiques. Les réseaux de neurones artificiels s'avèrent un outil prometteur.
216

Nouvelle méthode de test en rétention de données de mémoires non volatiles

Montagner Morancho, Laurence 05 February 2004 (has links) (PDF)
La présence de mémoires non volatiles dans les circuits Smartpower a rendu indispensable le test systématique de la rétention de données sur 100% des composants. L'application des tests classiques sur de forts volumes a pour inconvénient d'allonger la durée de test. Ce travail présente un nouveau test de rétention de données de mémoires non volatiles. Dans une première partie, nous avons dressé l'état de l'art des défauts intrinsèques et extrinsèques de ces mémoires ainsi que de leurs tests de fiabilité. Puis nous avons étudié sur un lot d'ingénierie la rétention de données de la mémoire par les voies classiques du vieillissement thermique pour des températures allant de l'ambiante à 300°C sur une période de 7000h. Cette étude nous a permis de discriminer entre cellules intrinsèques et extrinsèques pour valider un nouveau test en rétention de données, dont la durée est considérablement raccourcie par rapport au test thermique. Ce test se comptera en seconde après optimisation et pourra être implanté en production.
217

La Découverte de Workflow<br />Transactionnel pour la Fiabilisation des<br />Exécutions

Gaaloul, Walid 03 January 2007 (has links) (PDF)
Une évolution continue des paramètres, des contraintes et des besoins du procédé métier, non complètement prévisible initialement, exige des systèmes de gestion de procédés une conception continue et un modèle de procédé fiable. Dans cette thèse, nous nous intéressons à assurer une conception réactive par l'analyse des traces d'exécutions assurant une re-ingénierie du procédé métier et une fiabilisation des exécutions.<br /><br />Pour ce faire, nous introduisons d'abord un modèle de workflow transactionnel qui étend les systèmes de workflows en les fusionnant avec les modèles transactionnels avancés. Nous proposons, par la suite, des techniques d'analyse de traces d'exécutions pour la découverte de workflow et l'amélioration de leurs comportements transactionnels. Notre approche commence par la collecte des traces d'exécution. Nous construisons, ensuite, par des techniques d'analyse statistique, une représentation intermédiaire spécifiant des dépendances élémentaires entre les activités. Ces dépendances sont raffinées pour découvrir le modèle de workflow transactionnel. L'analyse des disparités entre le modèle découvert et le modèle initialement conçu nous permet de détecter des lacunes (anomalies) de conception, concernant particulièrement les mécanismes de recouvrement. En fonction de ces observations, nous appliquons finalement un ensemble de règles d'amélioration et/ou de correction du schéma initial.<br /><br />La contribution majeure de notre proposition est qu'elle permet de tenir compte des besoins d'évolution du procédé observés dans la phase d'exécution. Ceci nous permet d'assurer une conception continue garantissant, parmi d'autres, des exécutions correctes et fiables.
218

Développement, mécanismes de programmation et fiabilité de mémoires non volatiles à commutation de résistance MRAM et OxRRAM

Courtade, Lorène 17 December 2009 (has links) (PDF)
La microélectronique a montré une évolution rapide motivée par l'accroissement des performances et par l'abaissement des coûts. Le marché des mémoires est un domaine clé de ce secteur. L'enjeu majeur est d'accéder à la mémoire universelle qui remplacera toutes les autres en associant la densité et l'endurance "illimitée" des DRAM, la rapidité des SRAM et la non-volatilité des Flash. Nous nous sommes intéressés aux technologies MRAM et OxRRAM possédant l'avantage d'être, comme la technologie Flash, non volatile et compatible avec la technologie MOS. Elles promettent également, suivant l'architecture adoptée, d'être aussi rapides qu'une SRAM, aussi dense qu'une DRAM et avoir une endurance quasi-illimitée. Ces technologies reposent sur des concepts dans lesquels la discrimination des deux états du point mémoire est assurée par un changement de résistance. La première partie de cette thèse a été consacrée à la technologie MRAM et notamment à la fiabilité de l'oxyde tunnel intégré dans la jonction magnétique, élément de base des cellules mémoires MRAM. La seconde partie a été axée sur le développement et la compréhension des mécanismes physiques de programmation des mémoires OxRRAM intégrant un oxyde binaire NiO dans l'élément de mémorisation. Un accent particulier a été porté sur le développement d'une solution technologique simple dans son mode de fabrication et permettant d'aboutir à un empilement présentant des performances électriques conformes aux spécifications. Il est alors possible d'envisager l'intégration de l'oxyde de nickel dans des structures de très faibles dimensions et de viser une réduction substantielle de la taille de la cellule mémoire
219

Stabilité instrumentale en neuro imagerie fonctionnelle et structurelle

Hafyane, Tarik 05 1900 (has links)
Dans ce mémoire, nous décrivons le travail effectué pour étendre nos connaissances sur les sources d’instabilité instrumentales en imagerie de résonance magnétique, en particulier dans le domaine anatomique par une étude où cinq adultes ont été scannés quatre fois dans la même plate-forme IRM, deux fois avant et deux fois après une mise à niveau importante d’un scanner 3T de Siemens. Les volumes de l’hippocampe droit et gauche de chaque sujet ont été mesurés avec une segmentation manuelle. Nous avons analysé la fiabilité test-retest avant et après la mise à niveau du système d’IRM. Dans le domaine fonctionnel, cinq adultes ont été scannés quatre fois dans la même plate forme IRM deux fois avant et deux fois après la même mise à niveau du scanneur. Les acquisitions du signal BOLD sont faites dans deux différentes résolutions spatiales (2x2x2mm et 4x4x4mm) pour évaluer la sensibilité du signal BOLD sous conditions de haute et basse SNR. Une dernière étude fonctionnelle sur fantôme avait pour but d’étudier la stabilité de la machine pour les images fonctionnelles et détecter les sources de bruit de type machine. La séquence EPI (Echo Planar Imaging) d’écho de gradient à deux dimensions a été utilisée. Des analyses comme le pourcentage des fluctuations et l’analyse de Fourier des résidus ont également été réalisées. Nous résultats indiquent que les différences dans le matériel provenant d’une importante mise à niveau ne peuvent pas compromettre la validité des études structurelles et fonctionnelles faites à travers la mise à niveau du scanneur. Les acquisitions quotidiennes ont permis de suivre l’évolution de la stabilité et de détecter toute source de bruit qui peut détériorer la détection des activations dans les images fonctionnelles. / In this thesis, we describe work we carried out to extend our knowledge on instrumental sources of MRI variability, in both anatomical and functional imaging. The anatomical study involved five adults scanned four times in the same platform MRI twice before and twice after a major update of a 3T Siemens scanner. The volumes of left and right hippocampus of each subject were measured with a manual segmentation. We then analyzed the test-retest reliability before and after updating the MRI system. In the functional study, five adults were scanned four times on the same MRI system twice before and twice after a major hardware update. Blood oxygenation level- dependent (BOLD) acquisitions were made at two different spatial resolutions (2x2x2mm and 4x4x4mm) to assess the reproducibility of BOLD measurements under conditions of high and low SNR. A final functional study using a gel phantom was used to study the stability of the machine for functional images and isolate the sources of noise arising from hardware. Two-dimensional gradient-echo EPI (Echo Planar Imaging) signals were analyzed to assess the percentage variability and Fourier analysis of residual error performed. Our results indicate that the differences in hardware from a major upgrade do not significantly affect the reliability of structural and functional studies spanning a major hardware upgrade. Daily quality assurance acquisitions on phantoms can be used to monitor the stability of the machine, which may aid in the early detection of hardware faults.
220

Optimisation des plans d'essais accélérés Application à la tenue en fatigue de pièces métalliques de liaison au sol

Beaumont, Pauline 01 July 2013 (has links) (PDF)
Dans l'industrie, et en particulier dans le domaine automobile, il est crucial de valider la fiabilité des systèmes de manière efficace, rapide et à moindre coût. Les pièces de Liaison Au Sol chez PSA sont soumises au phénomène de fatigue et leur conception est validée à partir de calculs mais aussi et principalement d'essais physiques. Les méthodologies globales de qualification en fatigue sont basées sur un protocole d'essai spécifique et une méthode d'estimation associée. Les travaux présentés ici présentent tout d'abord un état de l'art de méthodologies globales de qualification en fatigue, issues de la littérature et des applications PSA. Ces différents axes d'étude sont comparés par simulation numérique afin d'en définir la robustesse, l'efficacité et le coût. A l'issu de cette étude, une méthodologie globale efficace a été développée, et en partie mise en place. L'ensemble des travaux permet tout d'abord d'avoir un point de vue critique sur les méthodologies d'estimation de la fiabilité par les essais. Ils ont mené à la mise en place d'une amélioration des stratégies actuelles et ouvre la voie à des changements d'envergure chez PSA.

Page generated in 0.0833 seconds