• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 180
  • 77
  • 22
  • Tagged with
  • 274
  • 121
  • 85
  • 85
  • 53
  • 48
  • 42
  • 42
  • 40
  • 39
  • 36
  • 35
  • 34
  • 34
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Dessin de graphe distribué par modèle de force : application au Big Data / Distributed force directed graph drawing : a Big Data case study

Hinge, Antoine 28 June 2018 (has links)
Les graphes, outil mathématique pour modéliser les relations entre des entités, sont en augmentation constante du fait d'internet (par exemple les réseaux sociaux). La visualisation de graphe (aussi appelée dessin) permet d'obtenir immédiatement des informations sur le graphe. Les graphes issus d'internet sont généralement stockés de manière morcelée sur plusieurs machines connectées par un réseau. Cette thèse a pour but de développer des algorithmes de dessin de très grand graphes dans le paradigme MapReduce, utilisé pour le calcul sur cluster. Parmi les algorithmes de dessin, les algorithmes reposants sur un modèle physique sous-jacent pour réaliser le dessin permettent d'obtenir un bon dessin indépendamment de la nature du graphe. Nous proposons deux algorithmes par modèle de forces conçus dans le paradigme MapReduce. GDAD, le premier algorithme par modèle de force dans le paradigme MapReduce, utilise des pivots pour simplifier le calcul des interactions entre les nœuds du graphes. MuGDAD, le prolongement de GDAD, utilise une simplification récursive du graphe pour effectuer le dessin, toujours à l'aide de pivots. Nous comparons ces deux algorithmes avec les algorithmes de l'état de l'art pour évaluer leurs performances. / Graphs, usually used to model relations between entities, are continually growing mainly because of the internet (social networks for example). Graph visualization (also called drawing) is a fast way of collecting data about a graph. Internet graphs are often stored in a distributed manner, split between several machines interconnected. This thesis aims to develop drawing algorithms to draw very large graphs using the MapReduce paradigm, used for cluster computing. Among graph drawing algorithms, those which rely on a physical model to compute the node placement are generally considered to draw graphs well regardless of the type of graph. We developped two force-directed graph drawing algorithms in the MapReduce paradigm. GDAD, the fist distributed force-directed graph drawing algorithm ever, uses pivots to simplify computations of node interactions. MuGDAD, following GDAD, uses a recursive simplification to draw the original graph, keeping the pivots. We compare these two algorithms with the state of the art to assess their performances.
52

Architecture de simulation distribuée temps-réel / Real-time distributed simulation architecture

Chaudron, Jean-Baptiste 25 January 2012 (has links)
Ce travail de thèse s'inscrit dans le projet plus global PRISE (Plate-forme de Recherche pour l'Ingénierie des Systèmes Embarqués) dont l'objectif principal est le développement d'une plateforme d'exécution pour les logiciels embarqués. De tels logiciels sont dits critiques et ils sont, par conséquent, soumis à des règles de conception spécifiques. Notamment, ces logiciels doivent répondre à des contraintes de temps réel et ainsi garantir des comportements temporels prédictifs afin de toujours donner des résultats justes avec le respect d'échéances temporelles.L'objectif de cette thèse est d'évaluer l'utilisation des techniques de la simulation distribuée (et particulièrement de la norme HLA) pour répondre aux besoins de simulation hybride et temps réel de la plate-forme. Afin de respecter ces contraintes et garantir la prédictibilité temporelle d'une simulation distribuée, il faut avoir une vision complète de l'ensemble du problème et notamment des différents niveaux d'actions : applicatif, intergiciel, logiciel, matériel et aussi formel pour la validation du comportement temporel.Cette thèse se base sur la RTI (Run Time Infrastructure, intergiciel HLA) de l'ONERA : le CERTI et propose une démarche méthodologique adaptée à ces différents niveaux d'actions. Des cas d'étude, notamment un simulateur du vol d'un avion, ont été spécifiés, implémentés et expérimentés sur la plate-forme PRISE. / This work takes place in the global project PRISE (Plate-forme de Recherche pour l'Ingénierie des Systèmes Embarqués) in which the focus is to develop an execution platform for embedded software. Embedded software are said criticals and, therefore, are subject to specific design rules.Particularly, these software must meet real time constraints and thus ensure a temporal predictive behaviour in order to always give accurate results with respect to corresponding timing deadlines.The main objective of this thesis is to study the use of distributed simulation techniques (and specifically the HLA standard) to meet the real-time and hybrid simulation needs of the PRISE platform. To comply with these real-time constraints and ensure the predictability of a distributed simulation, we must have a complete view of the whole problem and in particular the different levels of action: application, middleware, software, hardware and also a formal level for validation of the timing behaviour.This work is based on the RTI (Run Time Infrastructure, HLA middleware) from ONERA laboratory called : the CERTI and proposes a methodological approach adapted to take into account these different levels of action. Some case studies, including a flight simulator of an aircraft, have been specified, implemented and tested on the PRISE platform.
53

Empêcher et résoudre les conflits de conception pour une convergence collaborative en conception distribuée basée sur les ensembles / Preventing and resolving design conflicts for a collaborative convergence in distributed set-based design

Canbaz, Baris 16 September 2013 (has links)
En conception distribuée, dans la phase du dimensionnement du produit, des incohérences peuvent émerger entre les objectifs de conception et entre les procédures de travail des sous-systèmes hétérogènes. Dans cette phase, les acteurs de conception doivent collaborer d’une manière concourante, car leurs tâches sont reliées les unes aux autres par les couplages de dimensionnement entre leurs sous-problèmes. Les incohérences peuvent provoquer des conflits de conception en raison de ces couplages. La question est de savoir comment obtenir une convergence collaborative pour satisfaire les objectifs globaux et individuels des acteurs de conception lorsque ces acteurs prennent des décisions de conception sous incertitude. L'objectif de cette thèse est de proposer un modèle pour empêcher et résoudre les conflits de conception, tout en surmontant le problème de l'incertitude de la conception avec l'approche de « conception basée sur les ensembles » (SBD). Pour cela, les attitudes de conception sont modélisées avec le paradigme « Croyances-Désirs-Intentions » afin d'explorer les incohérences et gérer les conflits dans les processus de conception. L'approche ascendante conventionnelle est ainsi étendue grâce à des techniques de modélisation multi-agents. Dans cette approche, les agents de conception peuvent fixer des exigences directement sur leurs indicateurs de « bien-être ». Ces indicateurs représentent la manière dont leurs objectifs de conception sont susceptibles d'être satisfaits à un moment donné du processus. Des simulations de Monte Carlo sont effectuées pour évaluer la performance de cette approche, offrant une variété d'attitudes de l'agent. Par rapport aux approches classiques de conception ascendante et descendante, les résultats révèlent moins de conflits de conception et une intensité des conflits réduite. Les techniques de « problème de satisfaction de contraintes » (CSP) et les attitudes de conception sont appliquées pour détecter et justifier des conflits de conception entre les agents hétérogènes. Une nouvelle forme du modèle « Cooperative CSP » (CoCSP) est ainsi mise au point afin de résoudre les conflits de conception en détectant le compromis entre les contraintes. Le système de résolution des conflits peut être adopté grâce à différentes stratégies proposées qui prennent en compte l'architecture de solidarité des agents. Les résultats des simulations montrent que l'intensité des conflits en conception distribuée est réduite par la promotion de la solidarité qui déclenche une aide aux agents en souffrance. / In the product dimensioning phase of a distributed design, inconsistencies can emerge among design objectives as well as among working procedures of heterogeneous subsystems. In this phase, design actors which compose subsystems must collaborate concurrently, since their works are linked to each other through dimensioning couplings among their sub-problems. Inconsistencies through these couplings yield thus to design conflicts. The issue is how to obtain a collaborative convergence to satisfy the global and individual objectives of design actors when making design decisions under uncertainty. The objective of this dissertation is to propose a model for preventing and resolving design conflicts in order to obtain a collaborative convergence, while overcoming the design uncertainty through Set-based Design (SBD). Design attitudes are modeled with Belief-Desire-Intention paradigm to explore inconsistencies and manage conflicts in design processes. The conventional bottom-up approach is thus extended through agent-based attitude modeling techniques. In this approach, design agents can set requirements directly on their wellbeing values that represent how their design targets are likely to be met at a given moment of the design process. Monte Carlo simulations are performed to evaluate the performance of this approach, providing a variety of agent attitudes. Compared to conventional bottom-up and top-down design approaches, the results reveal a fewer number of design conflicts and a reduced aggregated conflict intensity. Constraint satisfaction problem (CSP) techniques and design attitudes are both applied to detect and justify design conflicts of heterogeneous design agents. A novel cooperative CSP (CoCSP) is developed in order to resolve design conflicts through compromising constraint restriction. The conflict resolution system can be adopted for different proposed strategies which take into account the solidarity architecture of design agents. The simulation results show that while promoting solidarity in distributed design by helping agents that suffer, the conflict intensity is reduced, and better design results are obtained.
54

Le rôle de l'intuition dans les processus décisionnels : une étude comparée entre les services de secours et les forces armées

Bertolucci, Marius 12 December 2016 (has links)
Les changements sociétaux et techniques ont porté à son paroxysme un des phénomènes clés de notre modernité, à savoir, l’accélération à son paroxysme. Dans ce contexte, les organisations publiques ont à naviguer, promouvoir et guider pour l’intérêt général. Concrètement, les capacités décisionnelles sont mises au-devant de la scène. Notre thèse porte sur la place de l’intuition dans les organisations à haute fiabilité. Là, où, soumis aux plus hautes exigences de l’action, c’est-à-dire, dans les organisations à haute fiabilité, les hommes et les femmes ont dû se doter de capacités décisionnelles exceptionnelles. Ainsi, nos travaux de recherche s’intéressent à la place que font les acteurs de ces organisations à l’intuition, de comment ils la considèrent et l’utilisent, et ce, afin d’en retirer des connaissances utiles à toutes les organisations / Societal and technological changes have pushed to a climax one of the key phenomena of our modernity, namely, the acceleration. In this context, changing public organizations have to navigate, and guide to promote the public interest. Specifically, decision-making abilities are put in front of the stage. Our P.H.D focuses on the place of intuition in high reliability organizations. There, where, subject to the highest demands of the action, that is to say, in high reliability organizations, men and women have to develop exceptional decision-making capabilities. Thus, our research focuses on how the actors of these organizations view and use intuition, in order to draw useful knowledge to all organizations
55

Distribution d'une architecture modulaire intégrée dans un contexte hélicoptère

Bérard-Deroche, Émilie 12 December 2017 (has links) (PDF)
Les architectures modulaires intégrées (IMA) sont une évolution majeure de l'architecture des systèmes avioniques. Elles permettent à plusieurs systèmes de se partager des ressources matérielles sans interférer dans leur fonctionnement grâce à un partitionnement spatial (zones mémoires prédéfinies) et temporel (ordonnancement statique) dans les processeurs ainsi qu'une réservation des ressources sur les réseaux empruntés. Ces allocations statiques permettent de vérifier le déterminisme général des différents systèmes: chaque système doit respecter des exigences de bout-en-bout dans une architecture asynchrone. Une étude pire cas permet d'évaluer les situations amenant aux limites du système et de vérifier que les exigences de bouten- bout sont satisfaites dans tous les cas. Les architectures IMA utilisés dans les avions centralisent physiquement des modules de calcul puissants dans des baies avioniques. Dans le cadre d'une étude de cas hélicoptère, ces baies ne sont pas envisageables pour des raisons d'encombrement: des processeurs moins puissants, utilisés à plus de 80%, composent ces architectures. Pour ajouter de nouvelles fonctionnalités ainsi que de nouveaux équipements, le souhait est de distribuer la puissance de traitement sur un plus grand nombre de processeurs dans le cadre d'une architecture globale asynchrone. Deux problématiques fortes ont été mises en avant tout au long de cette thèse. La première est la répartition des fonctions avioniques associée à une contrainte d'ordonnancement hors-ligne sur les différents processeurs. La deuxième est la satisfaction des exigences de communication de bout-en-bout, dépendantes de l'allocation et l'ordonnancement des fonctions ainsi que des latences de communication sur les réseaux. La contribution majeure de cette thèse est la recherche d'un compromis entre la distribution des architectures IMA sur un plus grand nombre de processeurs et la satisfaction des exigences de communication de bout-en-bout. Nous répondons à cet enjeu de la manière suivante: - Nous formalisons dans un premier temps un modèle de partitions communicantes tenant en compte des contraintes d'allocation et d'ordonnancement des partitions d'une part et des contraintes de communication de bout-en-bout entre partitions d'autre part. - Nous présentons dans un deuxième temps une recherche exhaustive des architectures valides. Nous proposons l'allocation successive des fonctions avioniques en considérant au même niveau la problématique d'ordonnancement et la satisfaction des exigences de bout-en-bout avec des latences de communication figées. Cette méthode itérative permet de construire des allocations de partitions partiellement valides. La construction des ordonnancements dans chacun des processeurs est cependant une démarche coûteuse dans le cadre d'une recherche exhaustive. - Nous avons conçu dans un troisième temps une heuristique gloutonne pour réduire l'espace de recherche associé aux ordonnancements. Elle permet de répondre aux enjeux de distribution d'une architecture IMA dans un contexte hélicoptère. - Nous nous intéressons dans un quatrième temps à l'impact des latences de communication de bout-en-bout sur des architectures distribuées données. Nous proposons pour celles-ci les choix de réseaux basés sur les latences de communication admissibles entre les différentes fonctions avioniques. Les méthodes que nous proposons répondent au besoin industriel de l'étude de cas hélicoptère, ainsi qu'à celui de systèmes de plus grande taille.
56

Parallélisation massive de dynamiques spatiales : contribution à la gestion durable du mildiou de la pomme de terre / Massive scale parallelization of spatial dynamics : input for potato blight sustainable management

Herbez, Christopher 21 November 2016 (has links)
La simulation à évènements discrets, dans le contexte du formalisme DEVS, est en plein essor depuis quelques années. Face à une demande grandissante en terme de taille de modèles et par conséquent en temps de calcul, il est indispensable de construire des outils tel qu'ils garantissent une optimalité ou au mieux une excellente réponse en terme de temps de simulations. Certes, des outils de parallélisation et de distribution tel que PDEVS existent, mais la répartition des modèles au sein des noeuds de calculs reste entièrement à la charge du modélisateur. L'objectif de cette thèse est de proposer une démarche d'optimisation des temps de simulation parallèle et distribuée, en restructurant la hiérarchie de modèles. La nouvelle hiérarchie ainsi créée doit garantir une exécution simultanée d'un maximum de modèles atomiques, tout en minimisant le nombre d'échanges entre modèles n'appartenant pas au même noeud de calculs (i.e. au même sous-modèle). En effet, l'optimisation des temps de simulation passe par une exécution simultanée d'un maximum de modèles atomiques, mais dans un contexte distribué, il est important de minimiser le transfert d'évènements via le réseau pour éviter les surcoûts liés à son utilisation. Il existe différentes façons de structurer un modèle DEVS : certains utilisent une structure hiérarchique à plusieurs niveaux, d'autres optent pour une structure dite "à plat". Notre approche s'appuie sur cette dernière. En effet, il est possible d'obtenir un unique graphe de modèles, correspondant au réseau de connexions qui lient l'ensemble des modèles atomiques. À partir de ce graphe, la création d'une hiérarchie de modèles optimisée pour la simulation distribuée repose sur le partitionnement de ce graphde de modèles. En effet, la théorie des graphes offre un certain nombre d'outils permettant de partitionner un graphe de façon à satisfaire certaines contraintes. Dans notre cas, la partition de modèles obtenue doit être équilibrée en charge de calcul et doit minimiser le transfert de messages entre les sous-modèles. L'objectif de cette thèse est de présenter la démarche d'optimization, ainsi que les outils de partitionnement et d'apprentissage utilisés pour y parvenir. En effet, le graphe de modèles fournit par la structure à plat ne contient pas toutes les informations nécessaires au partitionnement. C'est pourquoi, il est nécessaire de mettre en place une pondération de celui qui reflète au mieux la dynamique individuelle des modèles qui le compose. Cette pondération est obtenue par apprentissage, à l'aide de chaînes de Markov cachées (HMM). L'utilisation de l'apprentissage dans un contexte DEVS a nécessité quelques modifications pour prendre en compte toutes ces spécificités. Cette thèse présente également toute une phase de validation : à la fois, dans un contexte parallèle dans le but de valider le comportement du noyau de simulation et d'observer les limites liées au comportement des modèles atomiques, et d'autre part, dans un contexte distribué. Pour terminer, cette thèse présente un aspect applicatif lié à la gestion durable du mildiou de la pomme de terre. Le modèle mildiou actuel est conçu pour être utilisé à l'échelle de la parcelle. En collaboration avec des agronomes, nous proposons d'apporter quelques modifications à ce dernier pour étendre son champ d'action et proposer une nouvelle échelle spatiale. / Discrete-event simulation, in a context of DEVS formalism, has been experiencing a boom over the recent years. In a situation of increasing demand in terms of model size and consequently in calculation time, it is necessary to build up tools to ensure optimality, or even better, an excellent response to simulation times.Admittedly, there exist parallelization and distribution tools like PDEVS, but the distribution of models within compute nodes is under the modeler s sole responsability.The Ph.D. main scope is to propose an optimization approach of parallel and distributed simulation times, restructuring the hierarchy of models. The new founded hierarchy can thus guarantee a simultaneous execution of a maximum quantity of atomic models while minimizing the number of exchanges between models, which are not associated with the same calculation node (i.e. with the same sub-model). Accordingly, optimizing simulation time goes through a simultaneous implementation of a maximum quantity of atomic models, but in a distributed context it is highly important to minimize the adaptation transfer via the network to avoid overcharges related to its use. Ther exist deifferent ways of structuring a DEVS model : some scientist use a multi-leveled hierarchical structure, and others opt for a "flat" structure. Our objective focuses on the latter. Indeed, it is possible to obtain a single graph of models, corresponding to the connection network linking all the atomic models. From this graph the creation of a model hierarchy optimized by the distributed simulation focuses on the partitioning of this model graph. In such cases, the graph theory reveals a certain numbers of tools to partition the graph to meet some constraints. In our study, the resulting model partition must not only balance calculation needs but also minimize the message transfer between sub-models. The Ph.D. main scope it to propose not only an optimization approach but also partitioning and learning tools to achieve full compliance in our processing methods. In such cases, the model graph using the flat structure does not provide us with all the necessary information related to partitioning. That is the reason whi it is highly necessary to assign a weighting in the graph that best reflects the individual dynamics of models composing it. This weighting comes from learning, using the Hidden Markov Models (HMM). The use of learning in DEVS context results in some adjustments ti consider all the specificities. The thesis also ensures the complete validation phase, either in a parallel context to validate the simulation node behavior and observe the limits of atomic model behavior, or in a distributed context. This dissertation in its final state also includes a pratice-oriented approach to sustainably manage potato blight. The current fungus Phytophthora infestans simulation model is conceived for a plot scale. In collacoration with agronomists, we provide a few changes to update the Phytophthora infestans model to extend the scope of action and propose a new scale of values.
57

L’appropriation d’une technologie peut-elle entraîner le développement d’une compétence distribuée entre l'homme et la technologie ? Le cas de la viticulture de précision / Can appropriation of technology develop a distributed competence? The case of precision viticulture technology

Moreiro, Leslie 30 November 2016 (has links)
Ces travaux visent à comprendre de quelle manière l’appropriation peut amener au développement d’une compétence distribuée entre l’homme et la technologie. Nous nous sommes penché sur un terrain d’étude particulier, celui de la viticulture de précision, terme désignant l’ensemble des technologies permettant de caractériser l’hétérogénéité spatiale et temporelle des parcelles et de moduler les pratiques viticoles en fonction des besoins de la vigne. Nous avons réalisé une revue de littérature ainsi que des entretiens semi-directifs pour aboutir à une analyse qualitative intra-cas et inter-cas de sept cas différents.Ce travail s’appuie sur cinq propositions de recherche : 1) La compétence est un processus dynamique jugé socialement et mis en œuvre durant l'activité d'un sujet qui combine ses ressources internes avec des ressources externes issues d'un contexte dans le but d'atteindre une finalité, de réaliser une tâche.2) La compétence est composée des ressources internes et externes, mais aussi d’une structure (pattern) permettant de les coordonner. 3) La technologie, par le biais de la notion d'instrument composé d'un artefact et de schème, peut apporter des ressources et une structure nécessaires à la mise en œuvre de la compétence. 4) Grâce à l'appropriation. Elle se réalise de deux manières, l'instrumentalisation fait évoluer les ressources physiques de l'instrument. L'instrumentation permet le développement d'une structure distribuée, qui va coordonner les ressources internes et les ressources de l’environnement avec les ressources apportées par l'instrument. 5) L'appropriation souligne l'aspect d'une compétence à la fois distribuée socialement, dans le temps, et entre l'homme et la technologie. Cette compétence peut être déclinée au niveau individuel, collectif ou organisationnel. / The aim of this work is to understand how appropriation of technology can develop a competence distributed between human and technology. We examine a particular field of study, that is precision viticulture technology. These technologies allow to characterize spatial and temporal heterogeneity of plots and to modulate wine-making practices according to vine’s needs. We have made a state of the art and some semi-structured interviews to lead to an individual and cross cases analysis of seven cases.This work rely on five research proposals: 1) Competence is a dynamic process which depend of a social judgment, carried out during activity by a subject who combine his internal resources with external and contextualized resources in order to reach an aim, realize a task.2) Competence is composed by internal and external resources of a subject and by pattern which allow to coordinate them. 3) Technology, by the way of the concept of instrument, composed by artifact and scheme can provide resources and pattern needed to competence’s implementation. 4) This can be possible thanks to appropriation, by two ways. Instrumentalization changes resources of instrument and instrumentation allows development of distributed structure which coordinates resources. 5) This highlight the socially and temporal distribution of competence and the distribution between human and technology. This distribution is possible at individual level, collective level and organizational level.
58

Algorithmique distribuée d'exclusion mutuelle : vers une gestion efficace des ressources / Distributed mutual exclusion algorithmic : toward an efficient resource management

Lejeune, Jonathan 19 September 2014 (has links)
Les systèmes à grande échelle comme les Grilles ou les Nuages (Clouds) mettent à disposition pour les utilisateurs des ressources informatiques hétérogènes. Dans les Nuages, les accès aux ressources sont orchestrés par des contrats permettant de définir un niveau de qualité de service (temps de réponse, disponibilité ...) que le fournisseur doit respecter. Ma thèse a donc contribué à concevoir de nouveaux algorithmes distribués de verrouillage de ressources dans les systèmes large échelle en prenant en compte des notions de qualité de service. Dans un premier temps, mes travaux de thèse se portent sur des algorithmes distribués de verrouillage ayant des contraintes en termes de priorités et de temps. Deux algorithmes d'exclusion mutuelle ont été proposés : un algorithme prenant en compte les priorités des clients et un autre pour des requêtes avec des dates d'échéance. Dans un second temps, j'ai abordé le problème de l'exclusion mutuelle généralisée pour allouer de manière exclusive plusieurs types de ressources hétérogènes. J'ai proposé un nouvel algorithme qui réduit les coûts de synchronisation en limitant la communication entre processus non conflictuels. Tous ces algorithmes ont été implémentés et évalués sur la plateforme nationale Grid 5000. Les évaluations ont montré que nos algorithmes satisfaisaient bien les contraintes applicatives tout en améliorant de manière significative les performances en termes de taux d'utilisation et de temps de réponse. / Distributed large-scale systems such as Grids or Clouds provide large amounts of heterogeneous computing resources. Clouds manage ressource access by contracts that allow to define a quality of service (response time, availability, ...) that the provider has to respect. My thesis focuses on designing new distributed locking algorithms for large scale systems that integrate notions of quality of service. At first, my thesis targets distributed locking algorithms with constraints in terms of priorities and response time. Two mutual exclusion algorithms are proposed: a first algorithm takes into account client-defined priorities and a second one associates requests with deadlines. I then move on to a generalized mutual exclusion problem in order to allocate several types of heterogeneous resources in a exclusive way. I propose a new algorithm that reduces the cost of synchronization by limiting communication between non-conflicting processes.All algorithms have been implemented and evaluated over the national platform Grid 5000. Evaluations show that our algorithms satisfy applicative constraints while improving performance significatively in terms of resources use rate and response time.
59

Algorithmes auto-stabilisants efficaces pour les graphes / Efficient self-stabilizing algorithms for graphs

Maamra, Khaled 02 October 2017 (has links)
Le projet scientifique dans lequel s’inscrit ma thèse a pour objectif l’élaboration d’algorithmes distribués et efficaces pour les réseaux informatiques. Ce projet vise une catégorie particulière des algorithmes distribués, dits auto-stabilisants. Il s’agit d’algorithmes ayant pour propriété de retrouver un comportement correct suite à une panne dans le réseau et ce, sans aucune intervention humaine. Le travail effectué en collaboration avec mes directeurs de thèse s’est concentré, plus précisément, autour des problèmes de couplage, de cliques et des paradigmes de publications-souscriptions dans ce domaine de l’informatique théorique. Dans un premier temps on a traité le problème du couplage maximal dans sa version anonyme, en fournissant un algorithme auto-stabilisant probabiliste et efficace. Ces travaux sont parus dans le journal PPL. De plus, on s’est intéressé au problème du couplage dans sa version maximum identifiée. Son travail améliore le dernier algorithme présent dans la littérature pour l’approximation de ce type de couplage au 2/3 de la solution optimale. Ces travaux sont parus dans une conférence internationale OPODIS. Par ailleurs, j'ai eu l’opportunité de collaborer en Allemagne avec Prof. Volker Turau au sein du groupe de télématique de l’Université technique de Hambourg. Le cadre de cette collaboration a été les algorithmes auto-stabilisants pour les paradigmes de publication-souscription. Cela a abouti à un algorithme efficace pour la version en canal de ce problème, introduisant la notion de raccourci pour le routage de messages dans ces paradigmes. Les résultats ont fait l’objet d’un Brief Announcement et d’un papier, publiés dans des conférences internationales, SSS et NetSyS. J'ai aussi bénéficié d’une collaboration avec Mr. Gerry Siegemund qui a été accueilli au laboratoire d’Informatique de l’École Polytechnique. Il a été question de trouver un algorithme efficace et auto-stabilisant pour la partition d’un réseau en cliques. Cette collaboration a eu pour résultat un algorithme pour le problème améliorant le dernier en date. Ce résultat est en cours de rédaction pour soumission à une conférence internationale. / The main focus of my thesis is the design of an efficient kind of distributed algorithms, known as: Self-stabilizing. These algorithms have the property to recover from faults in the environment they're executed in, and this without any human intervention. Recovering here, means converging toward a pre-defined, correct configuration. In this setting, I was mainly interested by the problems of matching in graphs, clique partitions and publication subscription paradigms. For the maximal version of the matching problem in anonymous graphs, we achieved a more efficient randomized, self-stabilizing algorithm. This work is published in a journal version in PPL. The maximum version of the same problem, but in an identified setting, led to the design of an efficient self-stabilizing algorithm that approximates the optimal solution up to the 2/3. This result was published at OPODIS. During a research visit at TUHH, Hamburg, Germany. Together with Pr. Volker Turau we tackled the problem of self-stabilizing publish/subscribe paradigms. This led to an algorithm introducing the new notion of short-cuts in this type of structures and was published under a brief announcement and a regular paper at SSS and NetSyS. In collaboration with Mr. Siegemund, then a visiting researcher at LIX, École Polytechnique, we worked on an efficient self-stabilizing algorithm for clique partitions. This work is still in progress and in preparation for an eventual publication.
60

Contributions aux méthodes de calibration robuste en radioastronomie / Contributions to robust calibration methods in radio astronomy

Ollier, Virginie 05 July 2018 (has links)
En radioastronomie, les signaux d'intérêt mesurés par les interféromètres sont perturbés par de nombreux effets environnementaux et instrumentaux, nécessitant la mise en œuvre de techniques algorithmiques pour les traiter et pouvoir ainsi reconstruire in fine des images parfaitement nettes de l'espace. Cette étape de correction des perturbations se nomme la calibration et repose généralement sur une modélisation gaussienne du bruit, pour une seule fréquence considérée. Cependant, en pratique, cette l'hypothèse n'est pas toujours valide car de multiples sources inconnues à faible intensité sont visibles dans le champ de vision et des interférences radioélectriques perturbent les données. En outre, réaliser une calibration indépendante, fréquence par fréquence, n'est pas la manière la plus optimale de procéder. Le but de ce travail est donc de développer des algorithmes de correction dans le traitement des signaux radio qui soient robustes à la présence d'éventuelles valeurs aberrantes ou sources d'interférences, et qui soient adaptés au contexte multi-fréquentiel. Par conséquent, nous nous appuyons sur une modélisation plus générale que la loi gaussienne, appelé processus Gaussien composé, et proposons un algorithme itératif basé sur l'estimation au sens du maximum de vraisemblance. En accord avec le scénario multi-fréquentiel sous étude, nous exploitons la variation spectrale des perturbations en utilisant des méthodologies telles que l'optimisation distribuée sous contraintes et le traitement parallèle des données. / Accurate calibration is of critical importance for new advanced interferometric systems in radio astronomy in order to recover high resolution images with no distortions. This process consists in correcting for all environmental and instrumental effects which corrupt the observations. Most state-of-the-art calibration approaches assume a Gaussian noise model and operate mostly in an iterative manner for a mono-frequency scenario. However, in practice, the Gaussian classical noise assumption is not valid as radio frequency interference affects the measurements and multiple unknown weak sources appear within the wide field-of-view. Furthermore, considering one frequency bin at a time with a single centralized agent processing all data leads to suboptimality and computational limitations. The goal of this thesis is to explore robustness of calibration algorithms w.r.t. the presence of outliers in a multi-frequency scenario. To this end, we propose the use of an appropriate noise model, namely, the so-called coumpound-Gaussian which encompasses a broad range of different heavy-tailed distributions. To combine limited computational complexity and quality of calibration, we designed an iterative calibration algorithm based on the maximum likelihood estimator under the compound-Gaussian modeling. In addition, a computationally efficient way to handle multiple sub-frequency bands is to apply distributed and decentralized strategies. Thus, the global operational load is distributed over a network of computational agents and calibration amounts to solve a global constrained problem thanks to available variation models or by assuming smoothness across frequency.

Page generated in 0.0974 seconds