• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 406
  • 150
  • 76
  • 2
  • 1
  • 1
  • Tagged with
  • 632
  • 323
  • 177
  • 174
  • 90
  • 77
  • 76
  • 75
  • 73
  • 72
  • 65
  • 58
  • 53
  • 53
  • 52
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Développement d'un banc de thermographie infrarouge pour l'analyse in-situ de la fiabilité des microsystèmes

Fillit, Chrystelle 15 February 2011 (has links) (PDF)
Au cours des dernières années, l'essor spectaculaire des microsystèmes (ou MEMS), qui touche tous les domaines industriels, est à l'origine de nombreux et nouveaux progrès technologiques. Néanmoins, dans ce contexte prometteur de large envergure, la fiabilité des MEMS s'avère être la problématique à améliorer pour franchir la phase d'industrialisation à grande échelle. C'est dans le cadre de cette thématique de fiabilité des microsystèmes, que s'inscrit ce travail.La température étant un paramètre majeur entrant dans de nombreux mécanismes d'endommagement des MEMS, notre étude présente la conception et la réalisation d'un banc de thermographie infrarouge de haute résolution (2 µm), associé à la mise en œuvre d'une méthodologie d'analyse et de traitement des mesures infrarouges.Ce dispositif innovant permet un diagnostic in-situ, sans contact et rapide des défaillances des MEMS par mesures locales et quantitatives des pertes thermiques associées. Cet outil constitue une avancée importante pour détecter, mesurer et comprendre les mécanismes d'endommagement des MEMS. Il nous permet de reconstituer des images thermiques de tout type de microsystème en cours de fonctionnement ou soumis à des tests de vieillissement accéléré, et ceci afin de réaliser une analyse fine et rapide de leur fiabilité.Ce travail apporte de nouveaux résultats en ce qui concerne la détection des mécanismes de défaillance de différents types de MEMS-RF et tout particulièrement des MEMS-RF avec contact électrique.
102

Caractérisation électrique et fiabilité des transistors intégrant des diélectriques High-k et des grilles métalliques pour les technologies FDSOI sub-32nm

Brunet, Laurent 08 March 2012 (has links) (PDF)
L'intégration de diélectriques High- k dans les empilements de grille des transistors a fait naître des problèmes de fiabilité complexes. A cela vient s'ajouter, en vue des technologies sub-32nm planaires, de nouvelles problématiques liées à l'utilisation de substrats silicium sur isolant complètement désertés FDSOI. En effet, l'intégration d'un oxyde enterré sous le film de silicium va modifier électrostatique de la structure et faire apparaître une nouvelle interface Si/SiO2 sujette à d'éventuelles dégradations. Ce manuscrit présente différentes méthodes de caractérisation électrique ainsi que différentes études de fiabilité des dispositifs FDSOI intégrants des empilements High- /grille métallique. Dans un premier temps, une étude complète du couplage électrostatique dans des structures FDSOI est réalisée, permettant de mieux appréhender l'effet d'une tension en face arrière sur les caractéristiques électriques des dispositifs. Différentes méthodes de caractérisation des pièges d'interface sont ensuite présentées et adaptées, lorsque possible, au cas spécifique du FDSOI, où les défauts entre le film de silicium et l'oxyde enterré doivent être pris en compte. Enfin, différentes études de fiabilité sont présentées, des phénomènes de PBTI et de NBTI sur des dispositifs à canaux longs aux phénomènes propres aux dispositifs de petite dimension, tels que l'impact des porteurs chauds dans des structures FDSOI à film ultra fins et les effets d'augmentation de tension de seuil lorsque les largeurs de grille diminuent.
103

La biométrie, sa fiabilité et ses impacts sur la pratique de la démocratie libérale

Massicotte, Frédéric January 2007 (has links) (PDF)
La biométrie, c'est-à-dire la technologie qui mesure les caractéristiques du vivant, est de plus en plus utilisée depuis une dizaine d'années, surtout dans le domaine de la sécurité. Celle-ci connaît une croissance exponentielle depuis les attentats du 11 septembre 2001, surtout que cet acte terroriste a été suivi par ceux de Madrid en 2004 et de Londres en 2005. Le terrorisme a par conséquent imposé le thème de la sécurité à tous les acteurs de la société, tant les décideurs que les simples citoyens. La biométrie s'impose donc de plus en plus aux yeux des États comme solution sécuritaire par excellence ce qui n'est pas sans inquiéter les organisations de défense des droits de l'Homme. Ce mémoire aborde deux questions centrales: est-ce que l'application généralisée de technologies biométriques peut être garante de l'atteinte d'un niveau idéal de sécurité personnelle et collective d'une part et est-ce que, d'autre part, l'utilisation de ces technologies menace le droit à la vie privée. La démocratie libérale, un concept clé dans ce travail, est fondée sur le concept du privé: le citoyen privé qui est protégé du gouvernement avec des droits inaliénables dont celui, dans la plus pure tradition de John Locke, de la propriété privée et qui a donné vie au concept de la sphère privée vue comme un sanctuaire sur lequel même les plus puissants, en particulier le gouvernement, ne pourraient empiéter. C'est pourquoi l'idée de vie privée est le concept central de ce travail et le sous-tendra tout au long de celui-ci. Ainsi seront définis et explicités les concepts de sphère privée et de sphère publique qui seront aussi complétés avec les différents degrés de vie privée. Le cadre analytique de ce mémoire abordera cette question en utilisant le concept du contrôle informationnel (c'est-à-dire le contrôle qu'un individu peut ou non exercer sur l'information que des organisations possèdent sur lui) et celui du contrôle sensoriel (l'accès et le non-accès physiques et mentaux aux organes sensoriels des autres ou des institutions). Ce mémoire est divisé en trois chapitres. Les deux premiers sont essentiellement factuels et empiriques: le premier aborde l'histoire de la biométrie tandis que le deuxième présente son aspect technologique et sa fiabilité. Le troisième chapitre, normatif, est le coeur du mémoire, et analyse les conséquences de la biométrie sur la vie privée et par conséquent sur la pratique de la démocratie libérale. C'est dans ce chapitre que les deux fonctions explicitées dans le cadre analytique seront utilisées. D'abord, le contrôle informationnel sera surtout utilisé pour la première section sur les banques de données de plus en plus omniprésentes ainsi que pour la quatrième et dernière section portant sur le risque de glissement vers une situation non initialement prévue (de l'anglais creep function) du fait de la perte sournoise de contrôle des informations que les institutions et les organisations détiennent sur les gens avec en exemple une étude de cas sur le numéro d'assurance sociale aux États-Unis. La troisième partie portant sur le terrorisme sera aussi abordée en partie sous cet angle. La deuxième fonction, le contrôle de l'accès sensoriel, est celle qui permet ou non d'avoir une sphère privée avec tout ce que cela implique et permet d'analyser les 2e et 3e parties de ce chapitre, c'est-à-dire le Panopticon et son risque de normalisation des comportements et de la société en général et puis la lutte contre la criminalité et le terrorisme qui tend à justifier fallacieusement un peu tout et n'importe quoi dans le domaine biométrique. C'est un travail essentiellement normatif, autour d'une thématique qui oriente la réflexion sur le sujet de la vie privée, la sécurité et de la démocratie. C'est donc la question du droit à la vie privée qui sous-tend ce travail. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Biométrie, Démocratie libérale, Sphère privée, Vie privée, Sécurité, Technologies de sécurité.
104

Fiabilité et cycle de vie des composants mécaniques dégradés : essais de démonstration et analyse basée sur la fonction de Hasard

Ahmed, Hussam 03 December 2009 (has links) (PDF)
Le processus de dimensionnement des structures et des systèmes mécaniques comportent de plusieurs étapes, allant de la définition des conditions et des besoins tout au long du cycle de vie, en vue de la spécification de la capacité et de la résistance requises pour accomplir les missions escomptées. La fiabilité figure parmi les objectifs les plus importants pour les fabricants, en plus de l'aspect économique, facteur clé, qui influence largement le processus de conception. Dans ce contexte, la conception doit être élaborée afin de définir le meilleur compromis entre la fiabilité et le coût. Ce qui implique une étude précise et détaillée de tout le cycle de vie du produit, de la naissance jusqu'à la mise au rebus. Cette étude couvre les différentes phases du cycle de vie du produit, en intégrant la nécessité de démontrer la fiabilité du produit avant de commencer la production en série, sous des contraintes de coût et de délais. Ce travail vise à donner des éléments de réponse aux trois questions suivantes : * Comment peut-on démontrer la fiabilité du produit à partir de quelques essais ? Parmi les quatre approches considérées, la méthode de composition des incertitudes montre sa robustesse pour démontrer la fiabilité du produit, sans pour autant conduire à un surdimensionnement excessif. * Quel est le critère permettant une conception robuste sous des charges répétitives pour un système non dégradable ? Dans la phase utile du cycle de vie du produit, la défaillance est principalement due à la variabilité des charges appliquées lorsque la résistance n'est pas dégradée. Le modèle d'interférence contrainte-résistance considère la probabilité de défaillance comme cible de conception. Cependant, pour le cas des charges répétitives, ce critère est sensible au nombre d'applications de ces charges. Pour cela, la conception basée sur le hasard est proposée comme outil robuste pour la conception des composants intrinsèquement fiables. * Quelle est l'approche générale permettant de traiter les mécanismes de dégradation ? Dans la phase de vieillissement, la modélisation de la dégradation est obligatoire pour plusieurs raisons, telles que la maîtrise des risques industriels et la gestion du cycle de vie. La fonction de hasard fournit un indicateur approprié pour la prévision de l'état de dégradation et par conséquent, l'estimation de la durée de vie résiduelle.
105

Analyse de Fiabilité et de performance d'un Système de Véhicules Intelligents

Zheng, Tian 09 September 2013 (has links) (PDF)
Cette thèse est consacrée à l'évaluation de la fiabilité d'une caravane de véhicules intelligents avec les principaux objectifs de fournir une méthode pour évaluer et améliorer la sécurité des ITS. Après examen de l'évolution des ITS et DSRC, la fiabilité/qualité de service (QoS) de transmission de bout-en-bout des communications courtes est analysée. Ensuite, les effets de la transmission et QoS sur le système de commande PID et flou sont étudiés respectivement.D'abord, Les méthodes de protection des données utilisées dans le protocole Bluetooth sont analysées en termes de fiabilité. Un modèle de performance du nœud est construit pour les différentes distributions de temps de service du nœud. Ainsi, chaque nœud dans le réseau peut surveiller directement la qualité de service du nœud à tout moment. Basé sur ce modèle, un protocole de routage ad hoc (NPDSR) est proposé. Ce protocole présente les avantages de maintenir la qualité de service requise de la communication, et des économies de routage.Deuxièmement, les effets sur les systèmes de contrôle, en termes de retards et de pertes, sont analysés en utilisant la méthode mathématique et statistique. Des fonctions descriptives pour les contrôleurs flous de types Mamdani et T-S sont fournies, et la stabilité du contrôleur multi-flou avec un retard de communication est analysée à l'aide des lieux de Nyquist.Enfin, en perspective, l'utilisation possible de NS-2 sur le modèle de simulation et de vérification est discutée, ce qui s'avère intéressant pour simuler des protocoles différents. En outre, il peut être connecté avec Simulink permettant une meilleure analyse de performances des systèmes de contrôle en réseau
106

Conception Robuste dans les Technologies CMOS et post-CMOS

Anghel, L. 24 September 2007 (has links) (PDF)
Les technologies de silicium s'approchent de leurs limites physiques en termes de réduction des tailles des transistors, et de la tension d'alimentation, d'augmentation de la vitesse de fonctionnement et du nombre de dispositifs intégrés dans une puce. En s'approchant de ces limites, les circuits deviennent de plus en plus sensibles aux phénomènes parasites diverses, d'origine interne ou externe au circuit, provoquant une augmentation très importante du taux d'erreurs du fonctionnement. Le manuscrit présente un résumé de mes travaux de recherche, menés en collaboration avec les doctorants que jái co-encadrés ou que j'encadre en ce moment et avec les nombreux stagiaires qui se sont succédés au laboratoire TIMA, et dans un premier temps concerne les techniques de tolérance aux fautes permanentes et transitoires destinées aux nouvelles technologies de silicium (ciblant les technologies en dessous des 32nm) ainsi qu'aux futures technologies de remplacement du silicium, les nanotechnologies. Une partie de travaux de recherche s'articule autour de la prédiction des taux de défaillances des systèmes intégrés complexes. Des méthodologies de simulation de fautes concernant tous les niveaux d'abstraction sont présentées, tant pour les circuits numériques que pour les circuits analogiques, ainsi que la mise en place d'outils de simulation automatique. In fine, une dernière partie du manuscrit présente des activités de recherche beaucoup plus récentes, articulées autour de la modélisation et de la simulation des structures simples et complexes à base de nanotubes de carbone en vue d'une analyse prédictive de fonctionnement sans défaillances. Au passage des systèmes complexes et les outils de CAO pour les nanotechnologies sont aussi présentés.
107

Conception d'un support de communication sûr de fonctionnement pour systèmes de surveillance et de sécurité : REBECCA

Blanquart, Jean-Paul 22 April 1983 (has links) (PDF)
CE MEMOIRE EST CONSACRE A LA CONCEPTION D'UN SUPPORT DE COMMUNICATION SUR DE FONCTIONNEMENT, A TEMPS D'ACCES BORNE ET FAIBLE, POUR SYSTEMES DISTRIBUES DE SURVEILLANCE ET SECURITE. L'ANALYSE EFFECTUEE CONDUIT A UNE APPROCHE PAR DOUBLE DECOMPOSITION INTEGRANT LA VALIDATION PROGRESSIVE DES CHOIX: LA CONCEPTION EST MENEE PAR AFFINEMENTS SUCCESSIFS, CONJOINTEMENT SUR PLUSIEURS NIVEAUX D'ABSTRACTION AFIN DE PRENDRE EN COMPTE L'ENSEMBLE DES CONTRAINTES ET DE LEURS INTERACTIONS
108

CONCEPTION ET REALISATION D'UN OBSERVATEUR DE PROTOCOLES POUR LA SURVEILLANCE EN LIGNE DES SYSTEMES DISTRIBUES

Noubel, Jocelyne 05 November 1981 (has links) (PDF)
APPROCHE PERMETTANT LA DETECTION EN LIGNE, DANS LES SYSTEMES DISTRIBUES, DES ERREURS DUES A DES FAUTES MATERIELLES, LOGICIELLES OU HUMAINES ET AFFECTANT LE FONCTIONNEMENT NORMAL DU SYSTEME. ELLE REPOSE SUR L'UTILISATION DE DEUX LOGICIELS DISTINCTS CONSTITUANT UN COUPLE EXECUTANT-OBSERVATEUR. L'EXECUTANT REALISE DE MANIERE CLASSIQUE LES TACHES FONCTIONNELLES DU SYSTEME, L'OBSERVATEUR IMPLEMENTE UN SIMULATEUR DE RESEAUX DE PETRI
109

Transport à fiabilité partielle d'images compressées<br />sur les réseaux à commutation de paquets

Holl, Thomas 13 July 2007 (has links) (PDF)
Bien que les données qui transitent sur l'Internet et les contraintes inhérentes à leur transmission soient de<br />natures variées, ces transmissions reposent presque toujours sur TCP ou UDP. L'adoption d'une approche de<br />bout en bout impose d'agir sur le service de transport pour s'adapter aux besoins des données en fonction<br />de la qualité de service offerte par le réseau. Les données multimédias en général sont tolérantes aux<br />pertes, elles peuvent alors faire l'objet d'une compression et d'un transport avec pertes tout en conservant une bonne qualité de l'information reconstruite si les informations perdues sont parfaitement contrôlées.<br />Cela suppose que les applications multimédias puissent compter sur un service de transport adapté à leurs<br />besoins, associant les principes de fiabilité partielle et le contrôle d'erreur déterministe.<br />Dans cette thèse, nous définissons un service de transport à fiabilité partielle de ce type, utilisé pour la<br />transmission d'images fixes compressées sur les réseaux de type « best-effort ». Les travaux portent sur<br />la conciliation du transport à fiabilité partielle avec les données compressées ainsi que la recherche d'un<br />gain de temps de service et d'une dégradation acceptable. Un protocole de transport appelé 2CP-ARQ est proposé à cet effet. Sa compatibilité avec le transport d'images codées selon le standard JPEG2000 est d'abord étudiée. Les résultats de cette étude nous conduisent à élaborer un schéma de compression et<br />d'organisation des données plus approprié à l'utilisation d'un système de transport à fiabilité partielle basé<br />sur 2CP-ARQ. Les résultats montrent que le réseau peut bénéficier de l'utilisation de ce service de transport,<br />qui se traduit par une moindre sollicitation des ressources du réseau, tout en satisfaisant les contraintes de l'application en termes de qualité des images reconstruites.
110

Nouvelles fonctions interrupteurs intégrées pour la conversion d'énergie

Caramel, Christian 27 April 2007 (has links) (PDF)
Les systèmes de conversion de l'énergie électrique sont présents dans beaucoup de domaines de la vie quotidienne. On peut citer le secteur du transport, l'électronique grand public, la médecine, et la distribution de l'énergie. Une défaillance dans une application est le plus souvent ressentie comme étant liée à l'électronique. Adjoignons à cela des besoins en énergie grandissants et une évolution vers une plus grande mobilité, il devient aisé de déduire que les systèmes de conversion de l'énergie modernes doivent êtres plus compacts, plus fiables et plus performants. L'intégration en électronique de puissance est une réponse adéquate à ces problématiques tant elle vise à fiabiliser, à miniaturiser et à améliorer les performances des fonctions de conversion de l'énergie. Les travaux de recherche présentés dans cette thèse traitent de ma contribution à l'amélioration de la fiabilité et des performances d'un composant de puissance largement usité : l'Insulated Gate Bipolar Transistor. Pour cela l'association de deux IGBT aux caractéristiques différentes pour réaliser une architecture dite " faibles pertes " est présentée. Son concept est explicité, son intérêt exposé et son intégration monolithique détaillée. Dans un deuxième temps, une structure de protection monolithiquement intégrable contre les courts-circuits est dévoilée. Son fonctionnement et sa conception en vue de son intégration monolithique sont exposés.

Page generated in 1.1768 seconds