• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 406
  • 150
  • 76
  • 2
  • 1
  • 1
  • Tagged with
  • 632
  • 323
  • 177
  • 174
  • 90
  • 77
  • 76
  • 75
  • 73
  • 72
  • 65
  • 58
  • 53
  • 53
  • 52
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
351

Contributions à l'Amélioration du Débogage des Services Noyau dans un Système d'Exploitation Monolithique

Bissyandé, Tegawendé F. 12 March 2013 (has links) (PDF)
Alors que la recherche sur la qualité du code des systèmes a connu un formidable engouement, les systèmes d'exploitation sont encore aux prises avec des problèmes de fiabilité notamment dûs aux bogues de programmation au niveau des services noyaux tels que les pilotes de périphériques et l'implémentation des systèmes de fichiers. Des études ont en effet montré que que chaque version du noyau Linux contient entre 600 et 700 fautes, et que la propension des pilotes de périphériques à contenir des erreurs est jusqu'à sept fois plus élevée que toute autre partie du noyau. Ces chiffres suggèrent que le code des services noyau n'est pas suffisamment testé et que de nombreux défauts passent inaperçus ou sont difficiles à réparer par des programmeurs non-experts, ces derniers formant pourtant la majorité des développeurs de services. Cette thèse propose une nouvelle approche pour le débogage et le test des services noyau. Notre approche est focalisée sur l'interaction entre les services noyau et le noyau central en abordant la question des "trous de sûreté" dans le code de définition des fonctions de l'API du noyau. Dans le contexte du noyau Linux, nous avons mis en place une approche automatique, dénommée Diagnosys, qui repose sur l'analyse statique du code du noyau afin d'identifier, classer et exposer les différents trous de sûreté de l'API qui pourraient donner lieu à des fautes d'exécution lorsque les fonctions sont utilisées dans du code de service écrit par des développeurs ayant une connaissance limitée des subtilités du noyau. Pour illustrer notre approche, nous avons implémenté Diagnosys pour la version 2.6.32 du noyau Linux. Nous avons montré ses avantages à soutenir les développeurs dans leurs activités de tests et de débogage.
352

Outils d'aide à la conduite pour les opérateurs des réseaux de distribution

Enacheanu, Florin Bogdan 26 October 2007 (has links) (PDF)
La détermination d'une topologie d'un réseau de distribution caractérisée par des pertes Joule minimales conduit à résoudre un problème d'optimisation combinatoire, non linéaire avec des variables discrètes. Ce problème, à la charge du distributeur, s'avère critique et dépendant de nombreux facteurs tels que la présence de production décentralisée et les évolutions de la charge. Diverses approches ont été abordées. Après l'examen d'une recherche exhaustive, deux approches heuristiques et une approche méta heuristique, fondée sur la théorie des graphes et des matroïdes, ont été employées pour déterminer une topologie radiale optimale pour un état donné de charge et de production. Une procédure indiquant les permutations de branches nécessaires pour transiter entre deux topologies radiales est ensuite présentée. Afin d'identifier une topologie optimale suivant une courbe de charge, une procédure fondée sur des optimisations horaires est réalisée. Finalement, des algorithmes pour l'optimisation de topologies partiellement maillées sont présentés.
353

Evaluation de paramètres de sûreté de fonctionnement en présence d'incertitudes et aide à la conception : application aux Systèmes Instrumentés de Sécurité

Sallak, Mohamed 19 October 2007 (has links) (PDF)
L'introduction de systèmes instrumentés dédiés aux applications de sécurité impose l'évaluation de leur sûreté de fonctionnement. On utilise généralement pour cela les bases de données de fiabilité génériques. Cependant, le retour d'expérience pour ces systèmes qui présentent en général des défaillances rares est insuffisant pour valider les résultats obtenus. En outre, la collecte de données de fiabilité et leur extrapolation à d'autres composants introduisent des incertitudes.<br />Les travaux de cette thèse portent sur la problématique de la prise en compte des incertitudes relatives aux données de fiabilité des composants pour l'évaluation de la sûreté de fonctionnement des systèmes par le formalisme des sous ensembles flous. La méthodologie proposée est appliquée à l'évaluation des probabilités de défaillance des Systèmes Instrumentés de Sécurité (SIS) en présence de données de fiabilité imprécises. Nous introduisons deux nouveaux facteurs d'importance pour aider le concepteur. En outre, nous proposons une méthodologie d'aide à la conception des SIS basée sur la modélisation par réseaux de fiabilité et l'optimisation par des algorithmes génétiques de la structure des SIS pour le respect des niveaux d'intégrité de sécurité (SIL) exigés.
354

Modélisation et estimation des processus de dégradation avec application en fiabilité des structures

Chiquet, Julien 21 June 2007 (has links) (PDF)
Nous décrivons le niveau de dégradation caractéristique d'une structure à l'aide d'un processus stochastique appelé processus de dégradation. La dynamique de ce processus est modélisée par un système différentiel à environnement markovien.<br /><br />Nous étudions la fiabilité du système en considérant la défaillance de la structure lorsque le processus de dégradation dépasse un seuil fixe. Nous obtenons la fiabilité théorique à l'aide de la théorie du renouvellement markovien.<br /><br />Puis, nous proposons une procédure d'estimation des paramètres des processus aléatoires du système différentiel. Les méthodes d'estimation et les résultats théoriques de la fiabilité, ainsi que les algorithmes de calcul associés, sont validés sur des données simulés.<br /><br />Notre méthode est appliquée à la modélisation d'un mécanisme réel de dégradation, la propagation des fissures, pour lequel nous disposons d'un jeu de données expérimental.
355

Contribution aux systèmes tolérants aux défauts : Synthèse<br />d'une méthode de reconfiguration et/ou de restructuration<br />intégrant la fiabilité des composants

Guenab, Fateh 20 February 2007 (has links) (PDF)
Le travail présenté dans ce mémoire de thèse porte sur les systèmes tolérants aux défauts, plus<br />précisément la synthèse d'une méthode de reconfiguration et/ou de restructuration intégrant<br />la fiabilité des composants. La tâche de reconfiguration permet d'amener le système dans un<br />état de fonctionnement permettant d'assurer des performances désirées tout en préservant la<br />stabilité. Sous l'hypothèse qu'il existe plusieurs structures de fonctionnement résultant de la<br />déconnexion des sous systèmes défaillants, chaque structure impose des nouvelles conditions<br />de fonctionnement et par conséquent une nouvelle valeur de la fiabilité et du coût. Parmi<br />ces structures, une structure optimale doit être choisie. Dans un contexte multicritères, ce<br />travail propose de déterminer la structure optimale en intégrant les performances du système,<br />la fiabilité et le coût.<br />– La première méthode proposée traite uniquement les performances statiques conduisant à<br />considérer la fiabilité et le coût des composants. La détermination de la structure optimale<br />se fonde sur une estimation en ligne de la fiabilité et des coûts des composants.<br />– Une seconde méthode utilisant les performances des régulateurs est ensuite développée. La<br />méthode pseudo inverse PIM est utilisée pour synthétiser les régulateurs. Des modifications<br />de la méthode PIM sont proposées afin d'assurer la stabilité du système et d'atteindre des<br />objectifs dynamiques définis. Un indice de performances dynamiques est intégré dans le critère<br />de choix de la structure optimale.<br />– Les deux méthodes développées sont intégrées afin de définir une stratégie tolérante aux défauts.<br />Elle est appliquée sur un système hydraulique et thermique à 3 cuves.
356

Ingénierie de grille pour application à la micro-électronique MOS sub-micronique

Jalabert, Laurent 24 October 2001 (has links) (PDF)
Depuis plus de trente ans, la micro-électronique subit une évolution continue permettant de répondre à une demande croissante en terme de rapidité et de complexité des circuits intégrés. Cette évolution a été rendue possible grâce à la miniaturisation des composants, qui atteint aujourd'hui les limites physiques des matériaux utilisés en technologie CMOS. Parmi les nombreux problèmes et limitations liés à la réduction de la longueur de canal et de l'épaisseur de l'oxyde (effets de canal court, effets quantiques, déplétion de grille, claquage, quasi-claquage, SILC ¿), nous nous sommes centrés sur la structure PMOS (grille dopée bore), et en particulier sur la réduction de la pénétration du bore depuis la grille vers le substrat, responsable des instabilités de la tension de seuil, et sur l'amélioration de la fiabilité de l'isolant de grille ultra-mince, qui définit sa durée de vie. Un premier chapitre est consacré à une étude bibliographique portant sur les solutions technologiques actuelles répondant à ce problème, et il apparaît intéressant d'utiliser d'une part une grille déposée amorphe, et d'autre part d'introduire de l'azote à l'interface grille/oxyde. A partir de là, nous proposons une alternative technologique qui consiste à développer une grille de 200 nm d'épaisseur à base de silicium dopé azote (NIDOS) déposé amorphe à partir de disilane Si2H6 et d'ammoniac NH3. Un second chapitre concerne l'élaboration des films de NIDOS de 200nm, ainsi qu'à leur caractérisation électrique et mécanique. Nous montrons que la grille doit être composée d'une structure bi-couche comprenant 5nm de NIDOS et 195 nm de silicium afin de minimiser la résistivité totale de la grille. Dans un troisième chapitre, nous sommes intéressés au dopage bore par implantation ionique, et nous avons mis en évidence une forte réduction de la diffusion du bore dans les films de NIDOS. A partir de là, le NIDOS se présente comme une s olution intéressante afin de préserver l'intégrité de l'oxyde, et par là même la pénétration du bore dans le substrat. La fiabilité d'une structure capacitive polySi (P+)/NIDOS(5nm)/SiO2(4.5nm)/Si est étudiée dans un quatrième chapitre. Nous montrons électriquement d'une part le rôle de barrière à la diffusion du bore joué par le NIDOS et des résultats prometteurs en terme de tenue au claquage (Qbd=60C/cm_ à 0.1 A/cm_), et d'autre part des effets de déplétion de grille importants (>20%). Ce dernier point pourrait être amélioré en envisageant un recuit supplémentaire par RTP, ou bien en développant une grille dopée bore in-situ.
357

Etude du comportement de la charge d'espace dans les structures MOS. Vers une analyse du champ électrique interne par la méthode de l'onde thermique.

Fruchier, Olivier 01 December 2006 (has links) (PDF)
L'isolant électrique est un élément essentiel des composants électroniques. Or, à cause des défauts présents dans l'isolant, des dysfonctionnements apparaissent dans les équipements électroniques provoquant des problèmes de fiabilité. Il est donc essentiel de quantifier et d'identifier la nature des charges d'espaces crées par ces défauts. Pour des raisons de miniaturisation des composants, les techniques de caractérisations actuelles semblent montrer leurs limites. La méthode de l'onde thermique permet de quantifier et de donner la répartition de la charge d'espace sur une forte épaisseur de diélectrique. L'adaptabilité de la méthode pour des couches diélectriques beaucoup plus minces ainsi que l'étude des résultats obtenus constitue l'essentiel du travail de cette thèse. La méthode proposée permet de donner les tensions caractéristiques de la structure MOS tout en effectuant une analyse en régime statique de la structure.
358

Reliability of the beam loss monitors system for the Large Hadron Collider at CERN

Guaglio, G. 16 December 2005 (has links) (PDF)
L'énergie stockée dans le Large Hadron Collider est sans précédent. La perte des particules du faisceau peut endommager gravement les aimants supraconducteurs, ayant pour résultat des temps significatifs d'arrêt pour la réparation. Le système des moniteurs de pertes du faisceau (en anglais: BLMS) détecte les gerbes de particules secondaires créées par les pertes faisceau et provoque l'extraction du faisceau avant que des dommages sérieux de l'équipement ne puissent se produire. Cette thèse définit les caractéristiques du BLMS en termes de la fiabilité. Le but principal est la conception d'un système réduisant au minimum soit la probabilité de ne pas détecter une perte dangereuse, soit le nombre de fausses alarmes produites. La théorie et les techniques de fiabilité utilisées sont décrites. La Prédiction de fiabilité, Analyse des Modes de Défaillance de leurs Effets et de leur Criticité (en anglais: FMECA), et l'Analyse par Arbre de Défaillance ont été employées pour fournir une évaluation de la probabilité d'endommager un aimant, du nombre de fausses alarmes et du nombre d'avertissements produits. Les composants les plus faibles dans le BLMS ont été précisés. Les chiffres de fiabilité du BLMS ont été calculés en utilisant un logiciel commercial (IsographTM). L'effet de la variation des paramètres sur les résultats obtenus a été évalué avec une Analyse de Sensibilité. Le modèle de fiabilité a été complété par les résultats des tests d'irradiation. Des améliorations de la conception du système, comme la transmission optique redondante, ont été mises en application grâce à un processus itératif. Le système proposé est conforme aux requêtes de fiabilité. Les incertitudes du modèle proviennent de la connaissance limitée des niveaux de seuils des aimants supraconducteurs et de la localisation des pertes autour de l'anneau. Le modèle mis en œuvre permet des modifications du système, suivant la mesure des taux de risque pendant la durée de vie du LHC. Il peut également fournir des valeurs de référence à d'autres accélérateurs qui mettront en application des technologies semblables.
359

Analyse par simulation Monte Carlo de la sensibilité aux aléas logiques des mémoires SRAM soumises à un environnement protonique spatial ou neutronique terrestre

Lambert, Damien 07 July 2006 (has links) (PDF)
Les systèmes électroniques, évoluant dans les environnements spatial et terrestre, sont soumis à un flux de particules d'origine naturelle pouvant induire des dysfonctionnements. Ces particules ont la faculté de provoquer des aléas logiques (SEU) dans les mémoires SRAM. Bien que non destructifs, les SEU peuvent avoir des conséquences sur la sûreté de fonctionnement des équipements dans les applications nécessitant une grande fiabilité (avion, satellite, lanceur, médical, etc.). L'évaluation de la sensibilité de la technologie d'un composant est donc nécessaire afin de prédire la fiabilité d'un système. En environnement atmosphérique, cette sensibilité aux SEU est principalement causée par les ions secondaires issus des réactions nucléaires entre les neutrons et les atomes du composant. En environnement spatial, les protons de forte énergie induisent les mêmes effets que les neutrons de l'environnement atmosphérique.<br />Dans ce travail de recherche, un nouveau code de prédiction du taux de SEU a été développé (MC-DASIE) afin de pouvoir quantifier la sensibilité pour un environnement donné et explorer les mécanismes de défaillances en fonction de la technologie. Ce code permet d'étudier différentes technologies de mémoires SRAM (Bulk et SOI) en environnement neutronique et protonique entre 1 MeV et 1 GeV. Ainsi, MC-DASIE a été utilisé avec l'aide d'expérimentations pour étudier l'effet de l'intégration sur la sensibilité des mémoires en environnement terrestre, une comparaison entre les irradiations neutroniques et protoniques et l'influence de la modélisation du composant cible sur le calcul du taux de SEU.
360

Stratégie de réduction des cycles thermiques pour systèmes temps-réel multiprocesseurs sur puce

Baati, Khaled 19 December 2013 (has links) (PDF)
L'augmentation de la densité des transistors dans les circuits électroniques conduit à une augmentation de la consommation d'énergie induisant des phénomènes thermiques plus complexes à maitriser. Dans le cas de systèmes embarqués en environnement où la température ambiante varie dans des proportions importantes (automobile par exemple), ces phénomènes peuvent conduire à des problèmes de fiabilité. Parmi les mécanismes de défaillance observés, on peut citer les cycles thermiques (CT) qui induisent des déformations dans les couches métalliques de la puce pouvant conduire à des fissurations. L'objectif de la thèse est de proposer pour des architectures de type multiprocesseur sur puce une technique de réduction des CT subis par les processeurs, et ce en respectant les contraintes temps réel des applications. L'exemple du circuit MPC5517 de Freescale a été considéré. Dans un premier temps un modèle thermique de ce circuit a été élaboré à partir de mesures par une caméra thermique sur ce circuit décapsulé. Un environnement de simulation a été mis en oeuvre pour permettre d'effectuer simultanément des analyses thermiques et d'ordonnancement de tâches et mettre en évidence l'influence de la température sur la puissance dissipée. Une heuristique globale pour réduire à la fois les CT et la température maximale des processeurs a été étudiée. Elle tient compte des variations de la température ambiante et se base sur les techniques DVFS et DPM. Les résultats de simulation avec les algorithmes d'ordonnancement globaux RM, EDF et EDZL et avec différentes charges processeur (sur un circuit type MPC5517 et un UltraSparc T1) illustrent l'efficacité de la technique proposée.

Page generated in 0.031 seconds