• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 47
  • 36
  • 7
  • 1
  • Tagged with
  • 90
  • 43
  • 42
  • 34
  • 30
  • 19
  • 17
  • 17
  • 16
  • 16
  • 16
  • 15
  • 15
  • 15
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Intergiciel pour la fourniture de services dans les réseaux mobiles ad hoc discontinus

Said, Romeo 23 February 2011 (has links) (PDF)
Les réseaux mobiles ad hoc (MANETs) se forment spontanément à partir de terminaux mobiles qui communiquent en utilisant des interfaces sans fil à faible portée (e.g. Wi-Fi, Bluetooth). Dans la plupart des réseaux ad hoc déployés dans des conditions réelles, ces terminaux mobiles peuvent être volatiles et distribués de manière clairsemée, et former par conséquent des îlots de connectivité qui évoluent continuellement. Dans cette thèse, je considère spécifiquement ce type de réseaux, qui sont appelés MANETs discontinus. Les communications dans les MANETs discontinus présentent un défi, parce que les protocoles de routage conçus pour les MANETs connexes ne fonctionnent pas dans de tels réseaux. L'approche storecarry- and-forward est proposée depuis quelques années pour palier les discontinuités du réseau. Elle permet à un nœud de stocker temporairement un message, afin de le transmettre plus tard quand les conditions deviennent favorables. La mobilité des nœuds devient alors un avantage, en facilitant la propagation des messages d'un îlot vers un autre. L'approche orientée services semble appropriée pour mettre en œuvre des applications dans les MANETs discontinus à cause de la nature découplée des entités qu'elle met en jeu. En effet, le découplage entre un client et un fournisseur de service est essentiel dans un environnement où la disponibilité des fournisseurs est fluctuante, et où les communications de bout en bout ne sont pas garanties. Malgré ce découplage, dans les systèmes orientés services existants les fournisseurs sont souvent supposés stables et toujours accessibles. Bien que l'approche orientée services semble appropriée dans les MANETs discontinus, la mise en œuvre de services distribués nécessite des communications dans l'ensemble du réseau, malgré la fragmentation de celui-ci. En outre, la mise en œuvre doit prendre en compte l'accessibilité non prévisible des fournisseurs, ainsi que les délais potentiels de la communication. Cette thèse propose une plate-forme de services pour les terminaux mobiles, qui supporte l'exécution d'applications orientées services dans les MANETs discontinus. La plate-forme consiste en un intergiciel structuré en deux couches : une couche de communication et une couche de services. La couche de communication permet le découplage entre deux entités en termes d'interactions dans le temps, de comportement synchrone, et de connaissance mutuelle. Pour cette couche de communication (DoDWAN), un protocole opportuniste et basé contenu est utilisé. La couche de services (DiSWAN) permet le découplage entre les fournisseurs de services et les clients en termes d'interopérabilité et de contrat de service. Pour cette couche, des solutions de découverte et d'invocation de services sont proposées. Les éléments du protocole de découverte sont la description et la publication du coté fournisseur, et la collecte et la sélection du coté client. La description inclut des propriétés fonctionnelles et nonfonctionnelles du service, ainsi que des propriétés contextuelles. La découverte est basée sur le modèle pair à pair, où un client ne collecte que les services intéressants. Les invocations sont basées contenu pour bénéficier de la réplication de services, dans le cas où plusieurs fournisseurs peuvent fournir le même service métier. Le client crée sa requête en connaissant un fournisseur déjà découvert, mais il publie cette requête afin qu'elle soit reçue par tous les fournisseurs compatibles. L'exploitation de la multiplicité des fournisseurs pouvant engendrer des communications superflus, plusieurs mécanismes de "guérison" du réseau ont été mis en place pour éliminer les requêtes et réponses d'invocation redondantes. Des simulations dans un MANET discontinu ont été effectuées. Les simulations montrent que la performance de la découverte étant directement liée à celle du protocole de communication et que l'utilisation des invocations basées contenu permet de meilleurs temps de réponses et une meilleure satisfaction du client. Les simulations montrent aussi que les mécanismes de "guérison" du réseau sont efficaces.
32

Distributed Source Coding: Tools and application to video compression

Toto-Zarasoa, Velotiaray 29 November 2010 (has links) (PDF)
Le codage de sources distribuées est une technique permettant de compresser plusieurs sources corrélées sans aucune coopération entre les encodeurs, et sans perte de débit si leur décodage s'effectue conjointement. Fort de ce principe, le codage de vidéo distribué exploite la corrélation entre les images successives d'une vidéo, en simplifiant au maximum l'encodeur et en laissant le décodeur exploiter la corrélation. Parmi les contributions de cette thèse, nous nous intéressons dans une première partie au codage asymétrique de sources binaires dont la distribution n'est pas uniforme, puis au codage des sources à états de Markov cachés. Nous montrons d'abord que, pour ces deux types de sources, exploiter la distribution au décodeur permet d'augmenter le taux de compression. En ce qui concerne le canal binaire symétrique modélisant la corrélation entre les sources, nous proposons un outil, basé sur l'algorithme EM, pour en estimer le paramètre. Nous montrons que cet outil permet d'obtenir une estimation rapide du paramètre, tout en assurant une précision proche de la borne de Cramer-Rao. Dans une deuxième partie, nous développons des outils permettant de décoder avec succès les sources précédemment étudiées. Pour cela, nous utilisons des codes Turbo et LDPC basés syndrome, ainsi que l'algorithme EM. Cette partie a été l'occasion de développer des nouveaux outils pour atteindre les bornes des codages asymétrique et non-asymétrique. Nous montrons aussi que, pour les sources non-uniformes, le rôle des sources corrélées n'est pas symétrique. Enfin, nous montrons que les modèles de sources proposés modélisent bien les distributions des plans de bits des vidéos; nous montrons des résultats prouvant l'efficacité des outils développés. Ces derniers permettent d'améliorer de façon notable la performance débit-distorsion d'un codeur vidéo distribué, mais sous certaines conditions d'additivité du canal de corrélation.
33

Caractérisation et modélisation de composants IGBT et diode PIN dans leur environnement thermique sévère lié aux applications aéronautiques

Fock-Sui-Too, Jen-Luc 21 April 2010 (has links) (PDF)
À l'heure où les préoccupations climatiques sont plus que jamais d'actualité, les problématiques du contrôle, de la gestion et de l'économie de l'énergie prennent une importance considérable dans notre société. Dans le secteur avionique, cela peut se traduire par une nécessité de réduction du poids des aéronefs afin d'économiser le kérosène consommé durant le vol, résultant au final à une réduction drastique d'émission de CO². En adéquation avec les problématiques d'économie d'énergie l'avion plus électrique crée depuis quelques années un nouvel engouement dans le monde aéronautique pour l'actionnement tout électrique. La refonte des systèmes actuels (hydrauliques, mécaniques, pneumatiques) vers des systèmes plus électriques permet de plus de diminuer les coûts de maintenance des équipements et d'augmenter la fiabilité globale des systèmes, en s'affranchissant par exemple des problèmes fluidiques liés à l'hydraulique. Plusieurs projets ont été fédérés autour de ce nouvel élan dont le projet ModErNe dans le cadre duquel les travaux présentés tout au long de ce mémoire de thèse ont été réalisés. La mise en place dans un aéronef de nouveaux dispositifs électroniques de puissance nécessite une parfaite connaissance du comportement des composants notamment sous environnement thermique extrême. Cela permet de dimensionner des systèmes haute puissance et haute température optimisés et sécurisés. La technologie SiC n'étant pas suffisamment mature au lancement du projet ModErNe, celui-ci a eu pour postulat l'utilisation de composants IGBT silicium. L'un des objectifs principaux de ces travaux est alors l'étude par la caractérisation du comportement des IGBT dans une gamme de température allant au-delà de celle établie par les fondeurs (-55°C à +175°C). Ces travaux décrivent ainsi la conception, la réalisation et la mise en place d'un banc de caractérisation électrique en température, de véhicules de test et la procédure de tests utilisée. Un second objectif essentiel de ces travaux se situe au niveau du prototypage virtuel. La modélisation et l'analyse des systèmes sont aujourd'hui incontournables afin d'éviter au maximum les défaillances qui peuvent mettre en danger des fonctions élaborées comme celles liées à la sécurité. Dans ces travaux de thèse nous modélisons le dispositif choisi afin de déterminer par simulation son comportement électrique sous l'influence de conditions de fonctionnement environnementales thermiques sévères. À l'aide d'une analogie électrique l'Équation de Diffusion Ambipolaire est résolu analytiquement pour fournir un modèle (1D) précis et complet de composants de puissance. Une confrontation simulation/ données constructeurs/ mesures expérimentales ouvre une discussion sur l'identification de l'Injection Enhanced effect : un phénomène physique permettant d'améliorer considérablement les performances statiques des composants IGBT, et présent dans certains IGBT selon une configuration structurelle particulière.
34

Modèles et outils pour le déploiement d'applications de Réalité Virtuelle sur des architectures distribuées

Jubertie, Sylvain 14 December 2007 (has links) (PDF)
Les applications de Réalité Virtuelle requièrent une puissance de calcul importante qui peut être apportée par les grappes de PC, des ensembles d'ordinateurs connectés par des réseaux performants. Afin d'exploiter la puissance de ces architectures, une approche consiste à décomposer les applications en plusieurs composants qui sont ensuite déployés sur les différentes machines. Les performances de telles applications dépendent alors du matériel ainsi que des synchronisations entre les différents composants. Evaluer les performances d'une application de RV suivant un déploiement donné consiste à observer si son exécution permet l'interactivité. Cependant, cette phase de test rend la recherche d'un déploiement répondant à ce critère longue et fastidieuse et monopolise l'architecture. Nous proposons donc de définir un modèle permettant l'évaluation des performances à partir de la modélisation de l'architecture, de l'application et de son déploiement. Nous proposons ensuite d'utiliser la programmation par contraintes pour résoudre les contraintes extraites de notre modèle et permettre ainsi d'automatiser la génération de déploiements capables de fournir le niveau d'interactivité souhaité. Cette approche permet ainsi de répondre aux nombreuses questions que peut se poser un développeur : Existe t'il un ou plusieurs déploiements de mon application permettant l'interactivité sur mon architecture ? Si oui, quels sont ils ? L'ajout de machines supplémentaires permet il un gain de performances ?
35

Estimation robuste des modèles de mélange sur des données distribuées

El Attar, Ali 12 July 2012 (has links) (PDF)
Cette thèse propose une contribution en matière d'analyse de données, dans la perspective de systèmes informatiques distribués non-centralisés, pour le partage de données numériques. De tels systèmes se développent en particulier sur internet, possiblement à large échelle, mais aussi, par exemple, par des réseaux de capteurs. Notre objectif général est d'estimer la distribution de probabilité d'un jeu de données distribuées, à partir d'estimations locales de cette distribution, calculées sur des sous- jeux de données locaux. En d'autres termes, il s'est agi de proposer une technique pour agréger des estimés locaux pour en faire un estimé global. Notre proposition s'appuie sur la forme particulière que doivent prendre toutes les distributions de probabilité manipulées : elles doivent se formuler comme un mélange de lois gaussiennes multivariées. Notre contribution est une solution à la fois décentralisée et statistiquement robuste aux modèles locaux aberrants, pour mener à bien l'agrégation globale, à partir d'agrégations locales de mélanges de lois gaussiennes. Ces agrégations locales ne requièrent un accès qu'aux seuls paramètres des modèles de mélanges, et non aux données originales.
36

Espaces Collaboratifs Ubiquitaires sur une infrastructure à ressources distribuées

Dugenie, Pascal 07 December 2007 (has links) (PDF)
Les réflexions menées autour de l'idée d'intelligence collective (ou collaborative) postulent que celle-ci émerge d'un système en interaction dont les dispositifs techniques, sociaux et sémiotiques sont fortement imbriqués ( PIERRE LEVY , 1994). Pour relever ce défi, cette thèse propose de conjuguer deux concepts innovants. D'abord celui d'espace collaboratif ubiquitaire pour catalyser les interactions entre groupes d'agents et services. Ensuite celui d'infrastructure à ressources distribuées pour coordonner, de façon dynamique, les ressources et la sécurité en fonction de critères de qualité de service souhaités par les groupes d'agents. Un espace collaboratif ubiquitaire intègre des processus artificiels pour réaliser du traitement intensif (simulations, fouille de données, etc.) et des interfaces multimodales, incluant la visualisation partagée en mode synchrone ou asynchrone, pour les interactions entre humains. En termes d'infrastructure, cette thèse explique pourquoi le WEB n'apporte pas une réponse adaptée à la problématique de l'intelligence collective et pourquoi nous nous sommes tournés vers GRID (GRILLE DE RESSOURCES INFORMATIQUES DISTRIBUÉES). Notamment, une propriété singulière de GRID est le service à état qui permet de coordonner des ressources distribuées de façon dynamique et sécurisée. Pour mettre ceci en évidence, nous avons développé le modèle d'architecture AGORA qui propose d'utiliser GRID pour déployer des espaces collaboratifs ubiquitaires. De cette façon, les groupes d'agents humains et artificiels s'auto-organisent dans un espace immanent où les ressources sont délivrées dynamiquement par l'infrastructure. Validé par une méthode empirique, ce modèle a été l'objet d'une élaboration itérative fondée sur des retours d'expérimentation avec des communautés d'utilisateurs. Au vu de l'avancement de nos investigations, une architecture GRID couplée avec des concepts propres aux systèmes multi-agents présente les caractéristiques nécessaires pour déployer AGORA à grande échelle avec une utilisation rationnelle des ressources, tout en offrant des garanties de sécurité et de haute disponibilité.
37

Contributions à la modélisation et la conception des systèmes de gestion de provenance à large échelle

SAKKA, Mohamed Amin 28 September 2012 (has links) (PDF)
Les avancées dans le monde des réseaux et des services informatiques ont révolutionné les modes d'échange, de partage et de stockage de l'information. Nous migrons de plus en plus vers des échanges numériques ce qui implique un gain en terme de rapidité de transfert, facilité de partage et d'accès ainsi qu'une efficacité d'organisation et de recherche de l'information. Malgré ses avantages, l'information numérique a l'inconvénient d'être volatile et modifiable ce qui introduit des problèmes liés à sa provenance, son intégrité et sa valeur probante. Dans ce contexte, la provenance apparait comme une méta-donnée cléqui peut servir pour juger la qualité de l'information et pour vérifier si elle répond à un ensemble d'exigences métier, techniques et légales. Aujourd'hui, une grande partie des applications et des services qui traitent, échangent et gèrent des documents électroniques sur le web ou dans des environnements Cloud génèrent des données de provenance hétérogènes, décentralisées et non interopérables. L'objectif principal de cette thèse est de proposer des solutions génériques et interopérables pour la modélisation de l'information de provenance et de concevoir des architectures de systèmes de gestion de provenance passant à l'échelle tant au niveau du stockage et que de l'exploitation(interrogation). Dans la première partie de la thèse, nous nous intéressons à la modélisation de la provenance. Afin de pallier à l'hétérogénéité syntaxique et sémantique qui existe entre les différents modèles de provenance, nous proposons une approche globale et cohérente pour la modélisation de la provenance basée sur les technologies du web sémantique. Notre approche repose sur un modèle de domaine minimal assurant un niveau d'interprétation minimal et commun pour n'importe quelle source de provenance. Ce modèle peut ensuite être spécialisé en plusieurs modèles de domaine pour modéliser des concepts et des propriétés métier différentes. Cette spécialisation assure l'interopérabilité sémantique souhaitée et permet par la suite de générer des vues métiers différentes sur les mêmes données de provenance. Dans la deuxième partie de la thèse, nous nous focalisons sur la conception des systèmes de gestion de provenance (ou PMS). Nous proposons tout d'abord une architecture logique de PMS indépendante des choix technologiques d'implémentation et de déploiement. Cette architecture détaille les modules assurant les fonctionnalités requises par notre approche de modélisation et sert comme architecture de référence pour la conception d'un PMS. Par la suite, et afin de préserver l'autonomie des sources de provenance, nous proposons une architecture distribuée de PMS à base de médiateur. Ce médiateur a une vision globale sur l'ensemble des sources et possède des capacités de distribution et de traitement de requêtes. Finalement la troisième partie de la thèse valide nos propositions. La validation de notre approche de modélisation a été réalisée dans un cadre industriel chez Novapost, une entreprise proposant des services SaaS pour l'archivage de documents à valeur probante. Ensuite, l'aspect passage à l' échelle de notre architecture a été testé par l'implémentation de deux prototypes de PMS sur deux technologies de stockage différentes : un système RDF (Sesame) et un SGBD NoSQL (CouchDB). Les tests de montée en charge effectués sur les données de provenance Novapost ont montré les limites de Sesame tant pour le stockage que pour l'interrogation en utilisant le langage de requêtes SPARQL, alors que la version CouchDB associée à un langage de requêtes basé sur map/reduce a démontré sa capacité à suivre la charge de manière linéaire en augmentant le nombre de serveurs
38

Du cluster à la grille sous l'angle de la performance

Monteil, Thierry 07 December 2010 (has links) (PDF)
Ce mémoire aborde différents travaux sur les couches logicielles nécessaires à l'utilisation d'une plate-forme distribuée pour mettre en place de nouveaux usages. Il sagit danalyser la performance au sens large que ce soit la performance d'exécution d'applications parallèles, de programmation parallèle, de consommation énergétique ou de coût financier. Les contributions concernent les outils et les algorithmes d'ordonnancement (qualité de service, impact du réseau, coût économique), la simulation fine des ressources informatiques ainsi que la gestion du cSur de réseau sous des contraintes de qualité de service et de consommation énergétique. Les environnements de programmation parallèle, la gestion de performance dans un environnement autonomique tout comme la gridification et l'analyse de codes applicatifs ont également été abordés.
39

Médiation et sélection de sources de données pour des organisations virtuelles distribuées à grande échelle

Pomares, Alexandra 26 July 2010 (has links) (PDF)
La sélection de sources de données est un des processus des plus critiques pour les systèmes de médiation dans des contextes grande échelle. C'est le cas notamment des grandes organisations virtuelles où le grand nombre de sources de données, la distribution, l'hétérogénéité, la fragmentation et la duplication des données rendent difficile l'identification des sources pertinentes à l'évaluation d'une requête. Cette thèse aborde cette problématique et propose OptiSource, une stratégie de sélection de sources de données créée pour des tels contextes. OptiSource est particulièrement performante dans des configurations où un grand nombre de sources sont susceptibles de contribuer à une requête selon leur niveau intentionnel (schéma), mais seulement un petit nombre d'entre elles peuvent effectivement le faire au niveau extensionnel (le contenu). OptiSource propose un processus itératif basé sur la sélection des sources de données dominantes pour chaque condition de la requête. Les sources dominantes sont désignées selon leur contribution attendue. Cette estimation utilise un modèle qui priorise les sources en fonction du rôle qu'elles peuvent jouer dans la requête, et optimise la répartition des sous-requêtes en utilisant un modèle d'optimisation combinatoire. OptiSource fait partie d'un système de médiation créé pour organisations virtuelles qui peut choisir dynamiquement la stratégie de sélection de sources la plus approprié au contexte. Notre domaine d'application privilégié a été le médical. Nous avons validé nos propositions sur divers types de contextes de grande taille.
40

Active Data - Enabling Smart Data Life Cycle Management for Large Distributed Scientific Data Sets / Active Data − Gestion Intelligente du Cycle de Vie des Grands Jeux de Données Scientifiques Distribués

Simonet, Anthony 08 July 2015 (has links)
Dans tous les domaines, le progrès scientifique repose de plus en plus sur la capacité à exploiter des volumes de données toujours plus gigantesques. Alors que leur volume augmente, la gestion de ces données se complexifie. Un point clé est la gestion du cycle de vie des données, c'est à dire les diverses opérations qu'elles subissent entre leur création et leur disparition : transfert, archivage, réplication, suppression, etc. Ces opérations, autrefois simples, deviennent ingérables lorsque le volume des données augmente de manière importante, au vu de l'hétérogénéité des logiciels utilisés d'une part, et de la complexité des infrastructures mises en œuvre d'autre part.Nous présentons Active Data, un méta-modèle, une implémentation et un modèle de programmation qui permet de représenter formellement et graphiquement le cycle de vie de données présentes dans un assemblage de systèmes et d'infrastructures hétérogènes, en exposant naturellement la réplication, la distribution et les différents identifiants des données. Une fois connecté à des applications existantes, Active Data expose aux utilisateurs ou à des programmes l'état d'avancement des données dans leur cycle de vie, en cours d'exécution, tout en gardant leur trace lorsqu'elles passent d'un système à un autre.Le modèle de programmation Active Data permet d'exécuter du code à chaque étape du cycle de vie des données. Les programmes écrits avec Active Data ont à tout moment accès à l'état complet des données, à la fois dans tous les systèmes et dans toutes les infrastructures sur lesquels elles sont distribuées. Nous présentons des évaluations de performance et des exemples d'utilisation qui attestent de l'expressivité du modèle de programmation et de la qualité de l'implémentation. Enfin, nous décrivons l'implémentation d'un outil de Surveillance des données basé sur Active Data pour l'expérience Advanced Photon Source qui permet aux utilisateurs de suivre la progression de leurs données, d'automatiser la plupart des tâches manuelles, d'obtenir des notifications pertinente parmi une masse gigantesque d'événements, ainsi que de détecter et corriger de nombreuses erreurs sans intervention humaine.Ce travail propose des perspectives intéressantes, en particulier dans les domaines de la provenance des données et de l'open data, tout en facilitant la collaboration entre les scientifiques de communautés différentes. / In all domains, scientific progress relies more and more on our ability to exploit ever growing volumes of data. However, as datavolumes increase, their management becomes more difficult. A key point is to deal with the complexity of data life cycle management,i.e. all the operations that happen to data between their creation and there deletion: transfer, archiving, replication, disposal etc.These formerly straightforward operations become intractable when data volume grows dramatically, because of the heterogeneity ofdata management software on the one hand, and the complexity of the infrastructures involved on the other.In this thesis, we introduce Active Data, a meta-model, an implementation and a programming model that allow to represent formally and graphically the life cycle of data distributed in an assemblage of heterogeneous systems and infrastructures, naturally exposing replication, distribution and different data identifiers. Once connected to existing applications, Active Data exposes the progress of data through their life cycle at runtime to users and programs, while keeping their track as it passes from a system to another.The Active Data programming model allows to execute code at each step of the data life cycle. Programs developed with Active Datahave access at any time to the complete state of data in any system and infrastructure it is distributed to.We present micro-benchmarks and usage scenarios that demonstrate the expressivity of the programming model and the implementationquality. Finally, we describe the implementation of a Data Surveillance framework based on Active Data for theAdvanced Photon Source experiment that allows scientists to monitor the progress of their data, automate most manual tasks,get relevant notifications from huge amount of events, and detect and recover from errors without human intervention.This work provides interesting perspectives in data provenance and open data in particular, while facilitating collaboration betweenscientists from different communities.

Page generated in 0.0759 seconds