• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 72
  • 29
  • 4
  • 1
  • Tagged with
  • 107
  • 59
  • 51
  • 48
  • 38
  • 37
  • 34
  • 24
  • 19
  • 19
  • 18
  • 16
  • 16
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Contribution à la vérification des circuits intégrés dans un environnement multivalué

Caisso, J.-P. 16 November 1987 (has links) (PDF)
Le but de cette thèse est de spécifier des outils de simulation, de simulation de pannes et de génération de vecteurs de test, utilisables sur des circuits v.l.s.i. décrits sous forme de réseaux de transistors. Un transistor MOS (interrupteur) est par nature bi-directionnel, et il est impossible de prévoir le sens des courants qui le traversent sans appliquer aux réseaux de transistors un traitement préliminaire, qui reconnait les boucles et les transistors de transmission, et définit le sens de propagation des signaux. Ce traitement préliminaire, bien qu'il permette à la vérification proprement dite d'être plus rapide, ne respecte par le concept de réseau bi-directionnel. On a donc choisi de vérifier les réseaux de transistors de façon directe, en créant des outils qui pallient l'ignorance des courants. En outre, l'algèbre des états représentant les signaux qui circulent dans les réseaux, doit être choisie de façon a pouvoir modéliser tous les comportements spécifiques de ce niveau de description. Cette algèbre est multivaluée, et comporte des couples (valeur, force) décrivant la tension et l'intensité des signaux
32

Conception de circuits intégrés autotestables pour des hypothèses de pannes analytiques

Nicolaides, Michel 06 January 1984 (has links) (PDF)
Des études récentes montrent que le modèle de collage logique ne convient pas pour représenter les défauts réels qui peuvent survenir dans les circuits intégrés. C'est pourquoi on recherche des méthodes de test basées sur des hypothèses de pannes analytiques. Problème de la conception des circuits autotestables vis-a-vis d'hypothèses de pannes analytiques: méthodes et règles générales pour les circuits fonctionnels N-MOS "fortement garantis contre les fautes" ("strongly fault secure": sfs). Nouveaux codes. Classe des contrôleurs " à codes fortement disjoints" (" strongly code disjoint": scd). Application des méthodes à l'étude d'un microprocesseur mc68000 autotestable.
33

Conception et validation de systèmes informatiques à haute sûreté de fonctionnement

Pilaud, Eric 23 November 1982 (has links) (PDF)
Un système de description des calculateurs à haute sûreté de fonctionnement est proposé et appliqué à des calculateurs existants. Cette description nous conduit à proposer une démarche de conception devant faciliter la validation. Une methode d'évaluation de la sûreté de fonctionnement, destinée à fournir des évaluations pour la certification, est ensuite étudiée. Elle s'appuie sur une démarche non optimiste et permet de prendre en compte certains paramètres difficilement quantifiables (latence d'erreur par exemple). Les deux aspects de cette étude, conception et évaluation, sont appliqués à un calculateur tolérant les pannes développées dans le cadre de ce travail. (CARLl)
34

Modélisation et protection contre les pannes dans les bases de données

Abdel Hay Abdel Hamid, Soheir 24 January 1979 (has links) (PDF)
On s'intéresse aux procédures garantissant les récupérations de l'information contre tout type d'avarie pour aboutir à une base de donnée fiable et à l'outillage nécessaire pour l'évaluation et l'amélioration des performances du système.
35

Peer-to-Peer Prefix Tree for Large Scale Service Discovery

Tedeschi, Cédric 02 October 2008 (has links) (PDF)
Cette thèse étudie la découverte de services (composants logiciels, exécutables, librairies scientifiques) sur des plates-formes distribuées à grande échelle. Les approches traditionnelles, proposées pour des environnements stables et relativement petits, s'appuient sur des techniques centralisées impropres au passage à l'échelle dans des environnements géographiquement distribués et instables. Notre contribution s'articule autour de trois axes. 1) Nous proposons une nouvelle approche appelée DLPT (Distributed Lexicographic Placement Table), qui s'inspire des systèmes pair-à-pair et s'appuie sur un réseau de recouvrement structuré en arbre de préfixes. Cette structure permet des recherches multi-attributs sur des plages de valeurs. 2) Nous étudions la distribution des noeuds de l'arbre sur les processeurs de la plate-forme sous-jacente, distribuée, dynamique et hétérogène. Nous proposons et adaptons des heuristiques de répartition de la charge pour ce type d'architectures. 3) Notre plate-forme cible, par nature instable, nécessite des mécanismes robustes pour la tolérance aux pannes. La réplication traditionnellement utilisée s'y avère coûteuse et incapable de gérer des fautes transitoires. Nous proposons des techniques de tolérance aux pannes best-effort fondées sur la théorie de l'auto-stabilisation pour la construction d'arbres de préfixes dans des environnements pair-à-pair. Nous présentons deux approches. La première, écrite dans un modèle théorique à gros grain, permet de maintenir des arbres de préfixes instantanément stabilisants, c'est-à-dire reconstruits en un temps optimal après un nombre arbitraire de fautes. La deuxième, écrite dans le modèle à passage de messages, permet l'implantation d'une telle architecture dans des réseaux très dynamiques. Enfin, nous présentons un prototype logiciel mettant en oeuvre cette architecture et présentons ses premières expérimentations sur la plate-forme Grid'5000.
36

Conception d'un modèle et de frameworks de distribution d'applications sur grappes de PCs avec tolérance aux pannes à faible coût

Makassikis, Constantinos 02 February 2011 (has links) (PDF)
Les grappes de PCs constituent des architectures distribuées dont l'adoption se répand à cause de leur faible coût mais aussi de leur extensibilité en termes de noeuds. Notamment, l'augmentation du nombre des noeuds est à l'origine d'un nombre croissant de pannes par arrêt qui mettent en péril l'exécution d'applications distribuées. L'absence de solutions efficaces et portables confine leur utilisation à des applications non critiques ou sans contraintes de temps. MoLOToF est un modèle de tolérance aux pannes de niveau applicatif et fondée sur la réalisation de sauvegardes. Pour faciliter l'ajout de la tolérance aux pannes, il propose une structuration de l'application selon des squelettes tolérants aux pannes, ainsi que des collaborations entre le programmeur et le système de tolérance des pannes pour gagner en efficacité. L'application de MoLOToF à des familles d'algorithmes parallèles SPMD et Maître-Travailleur a mené aux frameworks FT-GReLoSSS et ToMaWork respectivement. Chaque framework fournit des squelettes tolérants aux pannes adaptés aux familles d'algorithmes visées et une mise en oeuvre originale. FT-GReLoSSS est implanté en C++ au-dessus de MPI alors que ToMaWork est implanté en Java au-dessus d'un système de mémoire partagée virtuelle fourni par la technologie JavaSpaces. L'évaluation des frameworks montre un surcoût en temps de développement raisonnable et des surcoûts en temps d'exécution négligeables en l'absence de tolérance aux pannes. Les expériences menées jusqu'à 256 noeuds sur une grappe de PCs bi-coeurs, démontrent une meilleure efficacité de la solution de tolérance aux pannes de FT-GReLoSSS par rapport à des solutions existantes de niveau système (LAM/MPI et DMTCP).
37

Design and Implementation of a Distributed Lattice Boltzmann-based Fluid Flow Simulation Tool/Conception et implémentation distribuée d'un outil de simulation d'écoulement de fluide basé sur les méthodes de Lattice Boltzmann

Dethier, Gérard 20 January 2011 (has links)
<p>Lattice Boltzmann-based (LB) simulations are well suited to the simulation of fluid flows in complex structures encountered in chemical engineering like porous media or structured packing used in distillation and reactive distillation columns. These simulations require large amounts of memory (around 10 gigabytes) and would require very long execution times (around 2 years) if executed on a single powerful desktop computer.</p> <p>The execution of LB simulations in a distributed way (for example, using cluster computing) can decrease the execution time and reduces the memory requirements for each computer. Dynamic Heterogeneous Clusters (DHC) is a class of clusters involving computers inter-connected by a local area network; these computers are potentially unreliable and do not share the same architecture, operating system, computational power, etc. However, DHCs are easy to setup and extend, and are made of affordable computers.</p> <p>The design and development of a software system which organizes large scale DHCs in an efficient, scalable and robust way for implementing very large scale LB simulations is challenging. In order to avoid that some computers are overloaded and slow down the overall execution, the heterogeneity of computational power should be taken into account. In addition, the failure of one or several computers during the execution of a simulation should not prevent its completion.</p> <p>In the context of this thesis, a simulation tool called LaBoGrid was designed. It uses existing static load balancing tools and implements an original dynamic load balancing method in order to distribute the simulation in a way that minimizes its execution time. In addition, a distributed and scalable fault-tolerance mechanism based on the regular saving of simulation's state is proposed. Finally, LaBoGrid is based on a distributed master-slave model that is robust and potentially scalable.</p> <br/> <p>Les simulations basées sur les méthodes de Lattice Boltzmann sont bien adaptées aux simulations d'écoulements de fluides à l'intérieur de structures complexes rencontrées en génie chimique, telles que les milieux poreux ou les empilements structurés utilisés dans des colonnes de distillation et de distillation réactive. Elles requièrent toutefois de grandes quantités de mémoire (environ 10 gigaoctets). Par ailleurs, leur exécution sur un seul ordinateur de bureau puissant nécessiterait un temps très long (environ deux ans).</p> <p>Il est possible de réduire à la fois le temps d'exécution et la quantité de mémoire requise par ordinateur en exécutant les simulations LB de manière distribuée, par exemple en utilisant un cluster. Un Cluster Hétérogène Dynamique (CHD) est une classe de clusters impliquant des ordinateurs qui sont interconnectés au moyen d'un réseau local, qui ne sont pas nécessairement fiables et qui ne partagent pas la même architecture, le même système d'exploitation, la même puissance de calcul, etc. En revanche, les CHD sont faciles à installer, à étendre et peu coûteux.</p> <p>Concevoir et développer un logiciel capable de gérer des CHD à grande échelle de façon efficace, extensible et robuste et capable d'effectuer des simulations LB à très grande échelle constitue un défi. L'hétérogénéité de la puissance de calcul doit être prise en compte afin d'éviter que certains ordinateurs soient débordés et ralentissent le temps global d'exécution. En outre, une panne d'un ou de plusieurs ordinateurs pendant l'exécution d'une simulation ne devrait pas empêcher son achèvement.</p> <p>Dans le contexte de cette thèse, un outil de simulation appelé LaBoGrid a été conçu. LaBoGrid utilise des outils existants de répartition statique de la charge et implémente une méthode originale de répartition dynamique de la charge, ce qui lui permet de distribuer une simulation LB de manière à minimiser son temps d'exécution. De plus, un mécanisme distribué et extensible de tolérance aux pannes, fondé sur une sauvegarde régulière de l'état de simulation, est proposé. Enfin, LaBoGrid se base sur un modèle distribué de type « maître-esclaves » qui est robuste et potentiellement extensible.</p>
38

Détection de dysfonctionnements en système hydrographique Application aux réseaux d'assainissement

Piatyszek, Eric 24 June 1998 (has links) (PDF)
Ce travail de recherche vise à développer des méthodes de détection et diagnostic appropriées et intégrables dans des systèmes soit d'aide à la décision dans le cadre de la gestion temps réel des réseaux d'assainissement, ou dans des procédures d'élaboration automatique de bilans quantitatifs de pollution légalement exigibles. Cette étude méthodologique débouche sur une synthèse et un approfondissement des techniques de détection et diagnostic de dysfonctionnements de réseau d'assainissement, et permet de dégager trois méthodes de détection reposant sur un modèle soit qualitatif soit analytique. L'une de ces méthodes s'applique à construire des comportements attendus du réseau synthétisés dans un modèle qualitatif dont la réponse est croisée avec les mesures. Les deux autres approches s'appuient sur un modèle hydrologique de transformation pluie-débit intégré dans un filtre de Kalman. La détection est alors réalisée soit avec un banc de filtres de Kalman complété par un test multi-hypothèses, soit avec un seul filtre de Kalman associé à un ensemble de tests d'hypothèses. Ces méthodes sont complétées par des analyses de sensibilité des procédures de détection et des exemples d'application pour des pluies de type différent. Enfin, une méthode de validation de mesures hydrauliques acquises en contexte hydrologique de temps sec est proposée. Elle s'appuie sur la création de scénarios de temps sec, comparés aux mesures hydrauliques grâce à des tests d'hypothèses. Cette approche permet alors d'identifier des contextes hydrologiques et hydrauliques caractérisant l'environnement d'un point de mesure.
39

Contribution aux infrastructures de calcul global: délégation inter plates-formes, intégration de services standards et application à la physique des hautes énergies

Lodygensky, Oleg 21 September 2006 (has links) (PDF)
La généralisation et les puissances aujourd'hui disponibles des ressources informatiques, ordinateurs, espaces de stockages, réseaux, permettent d'imaginer de nouvelles méthodes de travail ou de loisir, inconcevables, il y a encore peu. Les ordinateurs monolithiques centralisés, ont peu à peu laissé place à des architectures distribuées "client/serveur" qui se trouvent elles mêmes concurencées par de nouvelles organisations de systèmes distribués, les systèmes "pair à pair". Cette migration n'est pas le fait de spécialistes; les utilisateurs les moins avertis utilisent tous les jours ces nouvelles technologies, que ce soit pour échanger des courriers électroniques, à des fins commerciales à travers le "e-commerce" sur le Web, ou encore pour échanger des fichiers, hors de toute infrastructure, "d'égal à égal".<br />Les mondes du commerce, de l'industrie et de la recherche, ont bien compris les avantages et les enjeux de cette révolution et investissent massivement dans la recherche et le développement autour de ces nouvelles technologies, que l'on appelle les "grilles", qui désignent des ressources informatiques globales et qui ouvrent une nouvelle approche. Une des disciplines autour des grilles concerne le calcul. Elle est l'objet des travaux présentés ici.<br /><br />Sur le campus de l'Université Paris-Sud, à Orsay, une synergie est née entre le Laboratoire de Recherche en Informatique (LRI) d'une part, et le Laboratoire de l'Accélérateur Linéaire (LAL), d'autre part, afin de mener à bien, ensemble, des travaux sur les infrastructures de grille qui ouvrent de nouvelles voies d'investigation pour le premier et de nouvelles méthodes de travail pour le second.<br /><br />Les travaux présentés dans ce manuscrit sont le résultat de cette collaboration pluridisciplinaire. Ils se sont basés sur XtremWeb, la plate-forme de recherche et de production de calcul global développée au LRI. Nous commençons par présenter un état de l'art des systèmes distribués à grande Èchelle, ses principes fondamentaux, son architecture basée sur les services.<br />Puis nous introduisons XtremWeb et détaillons les modifications que nous avons dû apporter, tant au niveau de son architecture que de son implémentation, afin de mieux répondre aux exigences et aux besoins de ce type de plate-forme. Nous présentons ensuite deux études autour de cette plate-forme permettant de généraliser l'utilisation de ressources inter grilles, d'une part, et d'utiliser sur une grille des services qui n'ont pas été prévus à cette fin, d'autre part. Enfin, nous présentons l'utilisation, les problèmes à résoudre et les avantages à tirer de notre plate-forme par la communauté de recherche en physique des hautes énergies, grande consommatrice de ressources informatiques.
40

Vers l'auto-stabilisation des systèmes à grande échelle

Tixeuil, Sébastien 22 May 2006 (has links) (PDF)
Vers l'auto-stabilisation des systèmes à grande échelle.

Page generated in 0.0504 seconds