• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 51
  • 14
  • 2
  • Tagged with
  • 69
  • 59
  • 36
  • 35
  • 20
  • 17
  • 17
  • 17
  • 16
  • 13
  • 12
  • 10
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Heuristiques efficaces pour la planification intégrée de la maintenance préventive et de la production d'un système multi-états

Machani, Mahdi 17 April 2018 (has links)
Ce mémoire traite du problème de la planification intégrée de la maintenance préventive et de la production, au niveau tactique, et ce dans le cas d'une entreprise produisant des biens pour satisfaire une demande client périodique. Le plan de production global obtenu s'étale sur un horizon de planification donné. Le système de production considéré est un système multi-états pouvant travailler à des états de fonctionnement intermédiaires entre le fonctionnement de tous les composants et l'arrêt total. Les composants du système sont assujettis à des pannes aléatoires au cours de l'horizon de planification. Dans le but de fournir un plan global de production et de maintenance, nous proposons la résolution de ce problème de planification visant à minimiser le coût global des activités de production et de maintenance, sous différents types de contraintes. Notre apport réside dans le développement et l'implementation de deux méthodes heuristiques utilisant la recherche à voisinage variable et les algorithmes génétiques, dans le but de résoudre ce problème de planification intégrée. Nous procédons ensuite à l'analyse et à la discussion des résultats obtenus afin d'évaluer les performances des heuristiques conçues.
12

Validation de la maintenabilité et de la disponibilité en conception d'un système multi-composants

Menye, Jean-Baptiste 17 April 2018 (has links)
Thèse en cotutelle présentée à la Faculté des études supérieures de l'Université Laval dans le cadre du programme de doctorat en génie mécanique et l'École Doctorale Mathématiques, Sciences de l'information et de l'Ingénieur de l'Université de Strasbourg. / La problématique abordée dans cette thèse concerne la prise en compte et la validation, au stade de la conception, de la maintenabilité et de la disponibilité des systèmes multi composants. Chaque composant est assujetti à des défaillances aléatoires. La défaillance d'un composant entraine la défaillance du système. À chaque composant i on associe un taux de défaillance [Lambda] et une moyenne des temps techniques de réparation MTTR, . Le taux de panne est généralement obtenu à partir de bases de données disponibles ou à partir d'essais accélérés sur des prototypes physiques ou virtuels. Le MTTR, dépend de la structure du système, des types de liaisons utilisés, de l'accessibilité, de l'outillage, de la compétence du réparateur, de l'environnement, des procédures de diagnostic et de localisation des défaillances et des procédures utilisées pour effectuer les tests de bon fonctionnement. La maintenabilité et la disponibilité sont généralement validées a posteriori. Cette thèse propose des outils permettant au concepteur de prendre en compte les exigences de maintenabilité (accessibilité, modularité, testabilité...), d'estimer les M777i, , d'évaluer le MTTR du système et enfin de déterminer les MTTRi qui minimisent le MTTRi du système et qui maximisent, par le fait même, sa disponibilité. Ces outils font appel aux concepts de fiabilité, d'analyse probabiliste des systèmes, de logistique, à la conception assistée par ordinateur, aux approches de conception pour assemblage et désassemblage et aux outils de la programmation mathématique. Cette thèse aborde aussi la prise en compte du contexte d'exploitation pour atteindre le niveau de disponibilité requis. De plus en plus de constructeurs offrent des services de maintenance à leurs clients. Les contrats de services comportent généralement des articles qui spécifient le niveau de disponibilité désiré. Les conditions d'exploitation et de maintenance ont un impacte significatif sur les coûts et la disponibilité des systèmes. Cette thèse propose des modèles mathématiques pour définir la taille et la composition de l'équipe de maintenance qui permet de garantir un seuil de disponibilité du système tout en respectant des contraintes budgétaires. Ces réalisations ont fait l'objet de trois publications et plus de huit communications. Plusieurs extensions de ces travaux sont en cours de réalisation.
13

Optimisation de la planification intégrée de la maintenance préventive et de la production des systèmes multi-états

Fitouhi, Mohamed Chahir 18 April 2018 (has links)
Cette thèse traite la problématique de la planification intégrée de la maintenance préventive et de la production des systèmes multi-états. Il s'agit d'un système de production modélisé comme étant un système multi-états avec un nombre fini de niveaux de capacité allant du fonctionnement parfait jusqu'à la défaillance totale. Il doit produire un ensemble de produits pour satisfaire une demande donnée durant l'horizon de planification. Les composantes du système multi-états sont assujetties à des remplacements préventifs et à une réparation minimale en cas de panne. Ce travail présente des modèles de planification permettant de générer simultanément le plan optimal de production au niveau tactique (problème de taille de lot capaci-taire) et les instants ou les intervalles d'intervention pour des actions de maintenance préventive. Les fonctions des objectifs de ces modèles minimisent la somme des coûts de la maintenance (préventive et corrective) et des coûts de production sujets à des contraintes de satisfaction de demande et de capacité. La méthodologie proposée développe des modèles mathématiques, des méthodes d'évaluation des temps de maintenance, des coûts de maintenance, les capacités relatives aux systèmes et des algorithmes de résolution pour obtenir des solutions optimales (recherche exhaustive) ou approximatives (algorithmes génétiques et recuit simulé). Cette méthodologie a été utilisée dans les trois contributions suivantes : 1. La première contribution propose un modèle de planification de la maintenance préventive périodique et de la production pour un système multi-états. Il s'agit de déterminer le plan de production optimal et les longueurs des intervalles de remplacement pour chaque composante du système. 2. La deuxième contribution traite du problème de la planification intégrée de la maintenance préventive acyclique et de la production dans le cas d'une seule machine. Le plan optimal détermine le plan de production et les instants d'intervention pour des activités de maintenance préventive. 3. La troisième contribution propose un modèle une planification simultanée de la maintenance préventive acyclique et de la production pour un système multi-états composé de plusieurs composantes. Les résultats obtenus dans cette thèse montrent l'impact économique réalisé par l'intégration de la planification de la maintenance préventive et de la production, ainsi que pour l'élimination de la contrainte de périodicité, surtout dans le cas d'une demande fluctuante. Les méthodes de résolution développées dans ces travaux permettent la résolution de problèmes de petite ou de grande taille.
14

Scalable data-management systems for Big Data / Sur le passage à l'échelle des systèmes de gestion des grandes masses de données

Tran, Viet-Trung 21 January 2013 (has links)
La problématique "Big Data" peut être caractérisée par trois "V": - "Big Volume" se rapporte à l'augmentation sans précédent du volume des données. - "Big Velocity" se réfère à la croissance de la vitesse à laquelle ces données sont déplacées entre les systèmes qui les gèrent. - "Big Variety" correspond à la diversification des formats de ces données. Ces caractéristiques imposent des changements fondamentaux dans l'architecture des systèmes de gestion de données. Les systèmes de stockage doivent être adaptés à la croissance des données, et se doivent de passer à l'échelle tout en maintenant un accès à hautes performances. Cette thèse se concentre sur la construction des systèmes de gestion de grandes masses de données passant à l'échelle. Les deux premières contributions ont pour objectif de fournir un support efficace des "Big Volumes" pour les applications data-intensives dans les environnements de calcul à hautes performances (HPC). Nous abordons en particulier les limitations des approches existantes dans leur gestion des opérations d'entrées/sorties (E/S) non-contiguës atomiques à large échelle. Un mécanisme basé sur les versions est alors proposé, et qui peut être utilisé pour l'isolation des E/S non-contiguës sans le fardeau de synchronisations coûteuses. Dans le contexte du traitement parallèle de tableaux multi-dimensionels en HPC, nous présentons Pyramid, un système de stockage large-échelle optimisé pour ce type de données. Pyramid revoit l'organisation physique des données dans les systèmes de stockage distribués en vue d'un passage à l'échelle des performances. Pyramid favorise un partitionnement multi-dimensionel de données correspondant le plus possible aux accès générés par les applications. Il se base également sur une gestion distribuée des métadonnées et un mécanisme de versioning pour la résolution des accès concurrents, ce afin d'éliminer tout besoin de synchronisation. Notre troisième contribution aborde le problème "Big Volume" à l'échelle d'un environnement géographiquement distribué. Nous considérons BlobSeer, un service distribué de gestion de données orienté "versioning", et nous proposons BlobSeer-WAN, une extension de BlobSeer optimisée pour un tel environnement. BlobSeer-WAN prend en compte la hiérarchie de latence et favorise les accès aux méta-données locales. BlobSeer-WAN inclut la réplication asynchrone des méta-données et une résolution des collisions basée sur des "vector-clock". Afin de traîter le caractère "Big Velocity" de la problématique "Big Data", notre dernière contribution consiste en DStore, un système de stockage en mémoire orienté "documents" qui passe à l'échelle verticalement en exploitant les capacités mémoires des machines multi-coeurs. Nous montrons l'efficacité de DStore dans le cadre du traitement de requêtes d'écritures atomiques complexes tout en maintenant un haut débit d'accès en lecture. DStore suit un modèle d'exécution mono-thread qui met à jour les transactions séquentiellement, tout en se basant sur une gestion de la concurrence basée sur le versioning afin de permettre un grand nombre d'accès simultanés en lecture. / Big Data can be characterized by 3 V’s. • Big Volume refers to the unprecedented growth in the amount of data. • Big Velocity refers to the growth in the speed of moving data in and out management systems. • Big Variety refers to the growth in the number of different data formats. Managing Big Data requires fundamental changes in the architecture of data management systems. Data storage should continue being innovated in order to adapt to the growth of data. They need to be scalable while maintaining high performance regarding data accesses. This thesis focuses on building scalable data management systems for Big Data. Our first and second contributions address the challenge of providing efficient support for Big Volume of data in data-intensive high performance computing (HPC) environments. Particularly, we address the shortcoming of existing approaches to handle atomic, non-contiguous I/O operations in a scalable fashion. We propose and implement a versioning-based mechanism that can be leveraged to offer isolation for non-contiguous I/O without the need to perform expensive synchronizations. In the context of parallel array processing in HPC, we introduce Pyramid, a large-scale, array-oriented storage system. It revisits the physical organization of data in distributed storage systems for scalable performance. Pyramid favors multidimensional-aware data chunking, that closely matches the access patterns generated by applications. Pyramid also favors a distributed metadata management and a versioning concurrency control to eliminate synchronizations in concurrency. Our third contribution addresses Big Volume at the scale of the geographically distributed environments. We consider BlobSeer, a distributed versioning-oriented data management service, and we propose BlobSeer-WAN, an extension of BlobSeer optimized for such geographically distributed environments. BlobSeer-WAN takes into account the latency hierarchy by favoring locally metadata accesses. BlobSeer-WAN features asynchronous metadata replication and a vector-clock implementation for collision resolution. To cope with the Big Velocity characteristic of Big Data, our last contribution feautures DStore, an in-memory document-oriented store that scale vertically by leveraging large memory capability in multicore machines. DStore demonstrates fast and atomic complex transaction processing in data writing, while maintaining high throughput read access. DStore follows a single-threaded execution model to execute update transactions sequentially, while relying on a versioning concurrency control to enable a large number of simultaneous readers.
15

Etude de la dégradation progressive dans les systèmes repartis

Bellon, Catherine 14 September 1977 (has links) (PDF)
Sureté de fonctionnement d'un système. Etude du partitionnement et de la dégradation progressive de puissance. Détection continue en cours de fonctionnement. contamination entre processus. Détection discontinue. Application au central téléphonique E10.
16

Programmation des systèmes parallèles distribués : tolérance aux pannes, résilience et adaptabilité

Jafar, Samir 30 June 2006 (has links) (PDF)
Les grilles et les grappes sont des architectures de plus en plus utilisées dans le domaine du calcul scientifique distribué. Le nombre important de constituants hétérogènes (processeurs, mémoire, interconnexion) dans ces architectures dynamiques font que le risque de défaillance est très important. Compte tenu de la durée considérable de l'exécution d'une application parallèle distribuée, ce risque de défaillance doit être contrôlé par l'utilisation de technique de tolérance aux pannes. <br />Dans ce travail, la représentation de l'état de l'exécution d'un programme parallèle est un graphe, dynamique, de flot de données construit à l'exécution. Cette description du parallélisme est indépendante du nombre de ressources et donc exploitée pour résoudre les problèmes liés à la dynamicité des plateformes considérées. La définition de formats portables pour la représentation des noeuds du graphe résout les problèmes d'hétérogénéité. La sauvegarde du graphe de flot de données d'une application durant son exécution sur une plateforme, constitue des points de reprise pour cette application. Par la suite, une reprise est possible sur un autre type ou nombre de processus. Deux méthodes de sauvegarde / reprise, avec une analyse formelle de leurs complexités, sont présentées : SEL (Systematic Event Logging) et TIC (Theft-Induced Checkpointing). Des mesures expérimentales d'un prototype sur des applications caractéristiques montrent que le surcoût à l'exécution peut être amorti, permettant d'envisager des exécutions tolérantes aux pannes qui passent à l'échelle.
17

Conception et réalisation d'un intergiciel schizophrène pour la mise en oeuvre de systèmes répartis interopérables

Quinot, Thomas 24 March 2003 (has links) (PDF)
Les intergiciels rendent les applications réparties indépendantes d'un environnement particulier, mais introduisent paradoxalement une nouvelle dépendance vis-à-vis d'un modèle de répartition.<br /><br />L'interopérabilité entre applications doit être intégrée à l'architecture de l'intergiciel, car l'utilisation de passerelles statiques présente un coût et une explosion combinatoire prohibitifs.<br /><br />Les architectures d'intergiciels génériques permettent le partage de code par plusieurs personnalités réalisant des modèles de répartition différents. Nous les étendons en proposant l'architecture schizophrène, qui découple les aspects exposes d'une part aux objets applicatifs, d'autre part aux autres intergiciels, au moyen d'une couche neutre réalisant les fonctions récurrentes des intergiciels indépendamment des personnalités. Cette architecture générique et configurable contribue à l'interopérabilité en permettant la cohabitation efficace de plusieurs personnalités.<br /><br />Nous présentons PolyORB, notre prototype d'intergiciel schizophrène. Nous montrons ainsi que l'architecture proposée est opérationnelle et efficace.
18

Protection d'une mémoire virtuelle répartie par capacités implicites

Saunier, Frederic 25 October 1996 (has links)
Le contrôle d'accès d'une mémoire virtuelle répartie dans les systèmes à espace d'adressage uniforme est souvent réalisée par capacités logicielles à mot de passe. Ceci permet à l'utilisateur de manipuler les capacités comme des données banalisées. Cette thèse reprend l'idée de protection par capacités logicielles, mais en les cachant à l'utilisateur. On est alors capable d'ajouter la protection à une application répartie existante sans toucher au code de cette application. Les résultats sont étayés par la réalisation et l'évaluation d'un prototype.
19

Conception et réalisation d'une mémoire partagée répartie

Han, Jay 25 November 1996 (has links) (PDF)
Arias est un système de mémoire partagée répartie (MPR) réalisé dans le cadre du projet SIRAC, qui étudie les supports logiciels pour les applications distribuées. Une MPR facilite grandement la programmation de telles applications. Nous retraçons l'évolution des systèmes distributés qui ont abouti à cette idée, et caractérisons les diverses particularités de quelques projets antérieurs. Nous édictons nos objectifs propres et dégageons les spécifications qui sont souhaitables pour notre projet. Partant de là, et après avoir esquissé l'architecture générale d'Arias, nous nous concentrons sur les problèmes liés à la répartition de la mémoire. En particulier, l'allocation et la localisation de la mémoire dans une MPR à grand espace d'adresses posent des difficultés de réalisation qui ont des conséquences importantes dans la conception de l'interface logicielle avec l'application et le système d'exploitation sous-jacent. L'analyse de ces difficultés nous mène au module d'allocation et de localisation que nous décrivons. Une fois son implémentation décrite dans ses détails techniques, nous en explicitons les paramètres d'ajustement et soulignons leur impact à travers des mesures et des simulations. Nous montrons plusieurs configurations envisageables, dont certaines sont spécialement adaptées à certains types d'utilisation. Pour finir, nous concluons sur les leçons apprises de ce travail, tant du point de vue de ce qui a été réalisé que sur les travaux futurs et les perspectives générales des MPR.
20

Modèles et algorithmes pour la reconfiguration de systèmes répartis utilisés en téléphonie cellulaire

Sirdey, Renaud 29 March 2007 (has links) (PDF)
Ce travail de thèse de doctorat traite de l'étude d'un problème d'ordonnancement NP-difficile au sens fort à contraintes de ressource : le problème de la programmation des déplacements de processus. Ce problème, issu de l'industrie des télécommunications, est lié à l'opérabilité de certains systèmes temps réel répartis à haute disponibilité tels le BSCe3, un autocommutateur pour la téléphonie cellulaire commercialisé par Nortel.<br />En quelques mots, ce problème consiste, étant donnée une répartition arbitraire admissible de processus sur les processeurs d'un système réparti, à trouver une séquence d'opérations (migrations de processus sans effet sur le service ou arrêts temporaires) de moindre impact par le biais de laquelle une autre répartition arbitraire, et fixée à l'avance, peut être obtenue. La principale contrainte réside dans le fait que la capacité des processeurs du système ne doit pas être dépassée durant la reconfiguration.<br />Nous avons abordé ce problème d'ordonnancement sous différents angles. Tout d'abord, nous avons établi son caractère NP-difficile au sens fort et exhibé quelques cas particuliers polynomiaux. Puis, sur le plan de la résolution exacte dans le cas général, nous avons conçu deux algorithmes de recherche arborescente : le premier trouve ses fondements dans l'étude de la structure combinatoire du problème, le second dans des considérations polyédrales. De nombreux résultats expérimentaux illustrent la pertinence pratique de ces deux algorithmes. Enfin, en raison des contraintes imposées par le caractère temps réel de notre application industrielle, nous avons mis au point un algorithme efficace de résolution approchée basé sur la métaheuristique du recuit simulé et, en capitalisant sur nos travaux en résolution exacte, empiriquement vérifié sa capacité pratique à produire des solutions acceptables, en un sens bien défini.

Page generated in 0.0528 seconds