• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 51
  • 14
  • 2
  • Tagged with
  • 69
  • 59
  • 36
  • 35
  • 20
  • 17
  • 17
  • 17
  • 16
  • 13
  • 12
  • 10
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Codage vidéo distribué utilisant les turbo codes

Haj Taieb, Mohamed 19 April 2018 (has links)
La charge de traitement de la compression vidéo est généralement assurée au niveau de l’émetteur dans les standards conventionnels de codage vidéo (MPEG, H.263, H.264/AVC [1]). Ce choix est dû au fait que l’émetteur dispose d’une connaissance totale de la source lui permettant d’assurer facilement et efficacement la compression. En outre, les applications habituelles de la transmission vidéo assurent un flux d’une station centralisée, disposant d’une capacité calculatoire élevée, vers un certain nombre de récepteurs. La charge de compression est ainsi effectuée une seule fois par une station adaptée à ce fait. Avec l’accroissement de l’interactivité de la téléphonie mobile, les abonnés sont en mesure d’émettre des séquences vidéo autant que d’en recevoir. Le flux vidéo est alors généré par le téléphone mobile à capacité limitée vers une station de base à capacité élevée. La compression ne peut se faire selon le schéma conventionnel et la complexité de la compression doit être transférée au décodeur. Les résultats théoriques de Slepian-Wolf [2] et leur extension par les travaux de Wyner-Ziv [3] pour le cas de codage avec perte et en présence d’information latérale constituent les bases théoriques du codage de sources distribuées. Ces résultats théoriques ont donné naissance à un vaste champ d’applications comme le récent paradigme de codage vidéo distribué, établi il y a juste quelques années. Dans cette thèse de doctorat, on présente une étude des divers systèmes de codage vidéo distribué dans le domaine pixel et dans le domaine transformé. Le décodeur exploite la corrélation entre la séquence à transmettre par le codeur et l’information latérale dont il dispose. Cette corrélation se traduit par un canal virtuel dont l’entrée est la trame à transmettre et la sortie est l’information latérale. Un code turbo est utilisé pour générer des bits de parité envoyés progressivement sous la demande du décodeur, pour corriger les erreurs de l’information latérale qui constitue une version bruitée de la trame originale. Dans ce travail, on implémente différents algorithmes de codage vidéo distribué basés sur les turbocodes dans le but de s’approcher des performances de la compression vidéo conventionnelle. / Most of the video compression processing is usually performed at the transmitter in the conventional video coding standards (MPEG, H.263, H.264/AVC [1]). This choice is due to the fact that the transmitter has full knowledge of its source to ensure easy and efficient compression. In addition, the usual applications of video transmission ensure a flow from a centralized station, with a higher computational capacity, to a number of receivers. The compression task is thus performed only once by a computationally adapted station. However, with the emergence of wireless surveillance locally distributed cameras, the growth of cellular interactive video applications as well as many other applications involving several low cost video encoders at the expense of high complexity central decoder, the compression task can no longer be handled by the encoder and thus the compression complexity should be transferred to the decoder. Slepian and Wolf information theoretical result on lossless coding for correlated distributed sources [2] and its extension to the lossy source coding case with side information at the decoder, as introduced by Wyner and Ziv [3], constitute the theoretical basis of distributed source coding. These theoretical concepts have given birth to a wide field of applications as the recent distributed video coding paradigm, established a few years ago. In this doctoral thesis, we present a study of various distributed video coding schemes in the pixel and transform domains. The decoder exploits the correlation between the video sequence to be transmitted by the encoder and the side information. This correlation can be seen as a virtual channel whose input is the frame to be transmitted and the output is the side information. Turbo coding is used to generate the parity bits which are sent, gradually upon decoder requests, to correct the errors in the side information considered as a noisy version of the original frame. In this work, we implement various algorithms for distributed video coding based on turbo codes in order to approach the efficiency of conventional video encoders.
32

Ant Colony for Optimization of Imperfect Preventive Maintenance for Multi-State Systems

Sadat Al Hosseini, Reza 11 April 2018 (has links)
Dans ce travail, nous considérons un système multi-états série-parallèle dont les composantes sont sujettes à des réparations minimales et à des actions de maintenance préventive imparfaite. Le système peut avoir différents niveaux de performance, allant d'un fonctionnement parfait à une défaillance complète. Les composantes peuvent être en opération ou hors d'usage. La fiabilité d'un système multi-états est définie par sa probabilité de satisfaction d'une demande donnée. La fiabilité de chaque composante est caractérisée par sa fonction de hasard. Chaque action de maintenance préventive conduit à une réduction de l'âge effectif de l'équipement. Elle est caractérisée par son coefficient de réduction d'âge et par son coût. L'objectif consiste à planifier des actions de maintenance préventive pendant la durée de vie du système multi- états, de façon à minimiser le coût total moyen de maintenance, sous une contrainte de fiabilité. Il s'agit d'un problème d'optimisation combinatoire qui a été auparavant formulé et résolu par les algorithmes génétiques dans [47]. Dans ce travail, ce problème est résolu en utilisant une méthode heuristique basée sur le méta-heuristique des colonies de fourmis. Inspirée par les études sur le comportement des fournis réelles, cette méthode possède plusieurs caractéristiques intéressantes et constitue une approche intéressante pour résoudre les problèmes d'optimisation de la fiabilité. Une technique à base de la fonction de génération universelle est implémentée pour évaluer la fiabilité du système multi-états. En combinant la technique de la fonction de génération universelle et l'optimisation par colonies de fourmis, l'algorithme proposé permet d'obtenir efficacement une séquence quasi-optimale des actions de maintenance. L'approche développée et testée dans ce travail constitue une alternative intéressante pour la résolution du problème d'optimisation de la maintenance préventive imparfaite pour les systèmes multi-états. Des exemples numériques de la détermination de plans quasi-optimaux de maintenance préventive sont également présentés. / In this work, we consider a series-parallel multi-state System composed of elements subjected to minimal repair and imperfect preventive maintenance actions. The System has a range of performance levels from perfect functioning to complete failure. Components may experience two possible states: good and failed. Multi-state System reliability is defined as the System ability to satisfy given demand. The reliability of each element is characterized by its hazard function. Each preventive maintenance action may affect the effective age of equipment, and is characterized by its age reduction coefficient and cost. The objective is to determine a minimal average cost plan of preventive maintenance actions during multi-state System lifetime, under the constraint of providing a required level of System reliability. This is a combinatorial optimization problem which has been previously formulated and solved by genetic algorithms in [47]. In this work, this problem is solved by using a heuristic based on ant colony meta-heuristic. Inspired by studies on the behaviour of real ants, this method has many interesting characteristics and approaches for solving reliability optimization problems. A universal generating function technique is implemented to evaluate System reliability. By combining the use of the universal generating function technique and ant colony optimization, the proposed algorithm obtains efficiently quasi-optimal sequence of maintenance actions. The approach developed and tested in this work constitutes an interesting alternative approach to solve the imperfect preventive maintenance problem for multi-state Systems. Numerical examples of the determination of quasi-optimal preventive maintenance plans are also presented.
33

Développement d'algorithmes répartis corrects par construction / Developing correct-by-construction distributed algorithms

Andriamiarina, Manamiary Bruno 20 October 2015 (has links)
Nous présentons dans cette thèse intitulée "Développement d'algorithmes répartis corrects par construction" nos travaux sur le développement et la vérification formels d'algorithmes répartis. Nous nous intéressons à ces algorithmes, à cause de la difficulté de leur vérification et validation. Pour analyser ces algorithmes, nous avons choisi d'utiliser Event B pour le raffinement de modèles, la vérification de propriétés de sûreté, et TLA, pour la vérification des propriétés temporelles (vivacité et équité). Nous nous sommes focalisé sur le paradigme de correction-par-construction, basé sur la modélisation par raffinement, la preuve de propriétés, ainsi que la réutilisation de modèles/preuves/propriétés (~ patrons de conception) pour guider le développement formel des algorithmes étudiés. Nous avons mis en place un paradigme de développement lors duquel un algorithme réparti est dans un premier temps caractérisé par les services qu'il fournit, et qui sont ensuite exprimés par des propriétés de vivacité, guidant la construction des modèles Event B de cet algorithme. Les règles d'inférence de TLA nous permettent ensuite de détailler les propriétés de vivacité, et de guider le développement formel par raffinement de l'algorithme. Ce paradigme, appelé "service-as-event", est caractérisé par des diagrammes d'assertions permettant de représenter les propriétés de vivacité (en prenant en compte l'équité) des algorithmes répartis étudiés, de comprendre leurs mécanismes. Ce paradigme nous a permis d'analyser des algorithmes de routage (Anycast RP de Cisco Systems et XY pour les réseaux-sur-puce (NoC)), des algorithmes de snapshot et des algorithmes d'auto-stabilisation. / The subject of this thesis is the formal development and verification of distributed algorithms. We are interested in this topic, because proving that a distributed algorithm satisfies given specification and properties is a difficult task. We choose to use the Event B method (refinement, safety properties) and the temporal logic TLA (fairness, liveness properties) for modelling the distributed algorithms. There are several existing approaches for formalising distributed algorithms, and we choose to focus on the "correct-by-construction" paradigm, which is characterised by the use of model refinement, proof of properties (safety, liveness) and reuse of formal models/proofs/properties, developments (~ design patterns) for modelling distributed algorithms. Our works introduce a paradigm which allows us to describe an algorithm with a set of services/functionalities, which are then expressed using liveness properties. These properties guide us in developing the formal Event B models of the studied algorithms. Inference rules from TLA allow to decompose the liveness properties, therefore detailing the services and guiding the refinement process. This paradigm, called "service-as-event" is also characterized by (assertions) diagrams, which allow to graphically represent liveness properties (with respect to fairness hypotheses) and detail the mecanisms and functioning of the studied distributed algorithms. The "service-as-event" paradigm allowed us to develop and verify the following algorithms : routing algorithms, such as Anycast RP (Cisco Systems), XY for Networks-on-Chip (NoC), snapshot and self-* algorithms.
34

Modèles, méthodes et outils pour les systèmes répartis multiéchelles / Models, methods and tools for multiscale distributed systems

Rottenberg, Sam 27 April 2015 (has links)
Les systèmes informatiques sont des systèmes de plus en plus complexes, répartis sur plusieurs niveaux d’infrastructures des Technologies de l’Information et de la Communication (TIC). Ces systèmes sont parfois appelés des systèmes répartis multiéchelles. Le terme « multiéchelle » peut qualifier des systèmes répartis extrêmement variés suivant les points de vue dans lesquels ils sont caractérisés, comme la dispersion géographique des entités, la nature des équipements qui les hébergent, les réseaux sur lesquels elles sont déployées, ou encore l’organisation des utilisateurs. Pour une entité d’un système multiéchelle, les technologies de communication, les propriétés non fonctionnelles (en termes de persistance ou de sécurité), ou les architectures à favoriser, varient suivant la caractérisation multiéchelle pertinente définie ainsi que l’échelle à laquelle est associée l’entité. De plus, des architectures ad hoc de tels systèmes complexes sont coûteuses et peu durables. Dans cette thèse, nous proposons un framework de caractérisation multiéchelle, appelé MuSCa. Ce framework inclut un processus de caractérisation fondé sur les concepts de points de vue, dimensions et échelles, permettant de mettre en avant, pour chaque système complexe étudié, ses caractéristiques multiéchelles. Ces concepts constituent le cœur d’un métamodèle dédié. Le framework que nous proposons permet aux concepteurs de systèmes répartis multiéchelles de partager une taxonomie pour qualifier chaque système. Le résultat d’une caractérisation est un modèle à partir duquel le framework produit des artefacts logiciels qui apportent, à l’exécution, la conscience des échelles aux entités du système / Computer systems are becoming more and more complex. Most of them are distributed over several levels of Information and Communication Technology (ICT) infrastructures. These systems are sometimes referred to as multiscale systems. The word “multiscale” may qualify extremely various distributed systems according to the viewpoints in which they are characterized, such as the geographic dispersion of the entities, the nature of the hosting devices, the networks they are deployed on, or the users’ organization. For one entity of a multiscale system, communication technologies, non-functional properties (in terms of persistence or security) or architectures to be favored may vary depending on the relevant multiscale characterization defined for the system and on the scale associated to the entity. Moreover, ad hoc architectures of such complex systems are costly and non-sustainable. In this doctoral thesis, we propose a multiscale characterization framework, called MuSCa. The framework includes a characterization process based on the concepts of viewpoints, dimensions and scales, which enables to put to the fore the multiscale characteristics of each studied system. These concepts constitute the core of a dedicated metamodel. The proposed framework allows multiscale distributed systems designers to share a taxonomy for qualifying each system. The result of a characterization is a model from which the framework produces software artifacts that provide scale-awareness to the system’s entities at runtime
35

contrôle et implantation des systèmes répartis de fusion d'informations

Passalacqua, Olivier 02 December 2009 (has links) (PDF)
La fusion d'informations est une discipline dont on retrouve des applications dès lors qu'il est nécessaire de regrouper des informations potentiellement imprécises ou incertaines. Initialement réalisée de façon mentale, la fusion d'informations nécessite à présent une mise en œuvre sur un support d'exécution informatisé, dénommé système de fusion, dont les évolutions technologiques ont guidée la répartition des ressources selon des contraintes géographiques, physiques et de sécurité. Cette thèse présente une étude du contrôle des systèmes répartis de fusion d'informations. Elle propose notamment un système de contrôle capable d'adapter l'utilisation des ressources disponibles au processus de fusion (PF) mis en œuvre, assez générique pour permettre l'expression des modèles de fusion basés sur des graphes de flot de données. Cinq tâches de contrôle sont dédiées à l'accomplissement d'un sous-objectif: la recherche d'une répartition des éléments du PF, le déploiement effectif d'un PF sur un ensemble variable de ressources réparties, l'analyse des performances du système, la surveillance du système pour détecter l'ajout de ressources,ou les occurrences d'erreurs et le déclanchement d'une modification de la répartition, soit pour en améliorer les performances, soit pour maintenir l'exécution du processus. L'ensemble du système de contrôle tire profit des ressources réparties par un mécanisme bio-inspiré, dans lequel la place de chaque agent est guidée par sa puissance de calcul. A titre expérimental, un système de fusion d'informations nommé eZFusion, implémentant les tâches de déploiement et d'analyse des performances, a été réalisé sur un réseau de plate-formes OSGI.
36

Cohérence de copies multiples avec latence de détection d'erreur et test fonctionnel de micro-processeurs

Postigo, Carlos 14 June 1983 (has links) (PDF)
Modification d'algorithmes classiques utilises dans le maintien de la cohérence de copies multiples en vue de prendre en compte une latence de détection de faute. Bref parallèle des algorithmes modifies de Kaneko et Herran et Verjus. Réalisation d'une nouvelle classification de pannes.
37

Contributions au déploiement dans les architectures réflexives basé sur les composants

Kornaś, Jakub 23 October 2008 (has links) (PDF)
Les logiciels récents sont de plus en plus complexes en terme de leur développement et gestions associés. Pour adresser cette complexité, un approche fondé sur les composant a vu le jour qui vise une meilleure ingénierie des logiciels. En particulier, une approche à composants structure les logiciels comme un assemblage dynamique des composants qui doivent être déployés et gérés à l'exécution, en continu. Pour ce deploiement et cette gestion, nous avons adopté une approche fondée sur une architecture logicielle explicite de composants. Cette approche, communément appelée " gestion basée sur l'architecture ", a évolué de premières solutions ad-hoc vers des infrastructures génériques fondées sur des modèles de composants réflexifs. Une de ces infrastructures est la plateforme JADE. JADE vise à gérer autonomiquement des systèmes distribués complexes. Basé sur un modèle de composants réflexifs, JADE capture l'architecture logicielle complète des systèmes distribués, incluant non seulement les applications distribuées hébergées mais aussi les systèmes distribués qui les hébergent". En particulier, cette architecture réifie en continue certains aspects de l'exécution des systèmes distribués, tels que les défaillances de nœuds ou les caractéristiques de performance. Utilisant cette architecture réifiée, les gestionnaires autonomes observent et réagissent selon les changements de conditions. Chaque réaction de gestionnaires automatiques a pour but de planifier une reconfiguration de l'architecture en réponse à un changement des conditions d'exécution. Par exemple, un gestionnaire d'auto-réparation observant la défaillance d'un nœud aurait pour but de reconstruire, sur un autre nœud, la partie perdue du système distribué. Un gestionnaire d'auto-protection observerait une intrusion et planifierait la reconfiguration du système distribué pour isoler les composants compromis. Un gestionnaire d'auto-optimisation pourrait observer une disponibilité en baisse d'un serveur répliqué et planifier d'augmenter cette réplication cardinale des composants serveurs. Au coeur de cette gestion autonomique fournie par JADE se trouve le déploiement des composants. En effet, la plupart des reconfigurations de l'architecture de systèmes distribués s'appuient sur l'aptitude à instancier des composants sur des nœuds distants. Plus précisément, une fois que les gestionnaires autonomes ont générés un plan de reconfiguration du système distribué, l'exécution effective du plan est automatiquement distribuée, essentiellement par création et suppression de composants ainsi que leur édition de liens. La création et la suppression de composants requièrent une gestion locale des composants sur chaque nœud du système distribué. Cette gestion locale nécessite une infrastructure distribuée pour trouver, installer, charger et supprimer les composants. Le travail présenté dans cette thèse est le socle de JADE, fournissant les capacités de déploiement avancé dans un environnement distribué. En particulier, nous avons traité ce défi via une conception récursive où l'implémentation de composants a été modélisée par des composants. Cette approche fournie un déploiement uniforme qui suit les principes basés sur l'architecture. En particulier, nous pouvons déployer non seulement des composants d'applications mais aussi des composants " middleware ". De plus, au-delà du déploiement de composants normaux, nous pouvons également déployer des logiciels " legacy " qui sont gérés uniformément par JADE. En plus de fournir le socle du déploiement de JADE, ce travail a montré que le modèle de composant réflexif utilisé par JADE (appelé FRACTAL) a besoin d'être étendu pour capter les implémentations et leur spécificité. Bien que conçu spécifiquement pour FRACTAL et JADE, ces extensions présetent une applicabilité bien plus large, elles s'appliquent en effet à la plupart des modèles de composant courant. En effet, la plupart de ces modèles se focalisent sur l'assemblage fonctionnel de composants et ne proposent rien ou peu sur le déploiement des composants. Ce travail a également montré que l'architecture autonomique basée sur l'architecture a des besoins dynamiques spécifiques en terme de déploiement qui rend difficile la ré-utilisation de plateformes existantes pour la gestion dynamique de composants, tels que OSGI. Sur la base d'OSGi, cette thèse a expérimenté plusieurs conceptions et prototypes qui ont été utilisé avec succès, mais dont ultimement les limites sont apparues. Ces limites sont liées à une tension fondamentale entre les conceptions architecturales de JADE et OSGI. Une nouvelle conception et un nouveau prototype ont montré la faisabilité de supporter notre FRACTAL étendu sur la plateforme JAVA, servant de fondation à la gestion autonomique de systèmes distribués complexes fondée sur l'architecture.
38

Algèbres de Processus Réversibles

Krivine, Jean 16 November 2006 (has links) (PDF)
Nous présentons un système de retour arrière distribué basé sur le Calcul des Systèmes Communicants de Robin Milner. L'algèbre de pro- cessus réversible ainsi définie (RCCS) nous permet de poser les fondements théoriques du retour arrière dans un calcul concurrent. En particulier, étant donné un processus et un passé, nous montrons que RCCS permet de re- venir en arrière dans tout passé causalement équivalent. Nous exprimons aussi l'équivalence comportementale associée aux processus réversibles en utilisant une notion de bisimulation mettant en relation les traces causales des processus. Il en résulte une méthode de programmation déclarative de systèmes transactionnels qui peuvent être efficacement vérifiés à l'aide d'un algorithme basé sur des structures d'événements. Par l'intermédiaire d'une construction catégorique, nous montrons que cette méthode peut être géné- ralisée à une large classe de calculs concurrents.
39

Typage et contrôle de la mobilité

Hym, Samuel 01 December 2006 (has links) (PDF)
Le calcul réparti est de plus en plus utilisé bien qu'il reste très mal maîtrisé. Cette thèse porte sur le Dpi-calcul, une extension simple du pi-calcul dans laquelle tous les processus sont placés dans des localités afin de décrire leur répartition. Dans ce calcul, les processus peuvent communiquer localement et migrer entre localités. À côté des canaux de communication et des localités, on identifie une nouvelle famille d'identifiants, les passeports, permettant un contrôle fin des migrations de processus : un processus doit disposer d'un passeport adéquat pour entrer dans une localité.<br /><br />Afin de structurer le calcul, on met en place un système de types qui associe un type à chaque identifiant pour vérifier qu'un processus n'utilise que les droits qu'il possède. L'ordre de sous-typage sur les types est étendu aux types de passeports suivant les localités d'origine des processus migrant. On démontre que cet ordre admet des bornes inférieures sous certaines conditions. On prouve également que les processus se conformant à cette politique de typage conservent cette propriété au cours de leurs réductions.<br /><br />On étudie aussi l'équivalence observationnelle : quand des processus exhibent-ils des comportements indiscernables pour un observateur ? En présence de passeports, il est indispensable d'imposer à l'observateur d'être loyal, c'est-à-dire d'exiger la possession de passeports pour observer les communications ayant lieu dans les localités correspondantes. Ces contraintes définissent une congruence dite barbue loyale. On développe ensuite un système de transitions étiquetées tel que la bisimilarité loyale engendrée coïncide avec cette congruence barbue loyale.
40

Déploiement d'applications patrimoniales en environnements de type informatique dans le nuage

Etchevers, Xavier 12 December 2012 (has links) (PDF)
L'objectif de cette thèse est d'offrir une solution de bout en bout permettant de décrire et de déployer de façon fiable une application distribuée dans un environnement virtualisé. Ceci passe par la définition d'un formalisme permettant de décrirer une application ainsi que son environnement d'exécution, puis de fournir les outils capable d'interpéter ce formalisme pour déployer (installer, instancier et configurer) l'application sur une plate-forme de type cloud computing.

Page generated in 0.0525 seconds