• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 485
  • 283
  • 55
  • 1
  • 1
  • Tagged with
  • 822
  • 253
  • 251
  • 247
  • 236
  • 137
  • 129
  • 124
  • 101
  • 82
  • 80
  • 77
  • 76
  • 76
  • 70
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Pavages réguliers et modélisation des dynamiques spatiales à base de graphes d'interaction : conception, implémentation, application / Regular tilings in interaction-graph-based modelling of spatial dynamics : conception, implementation, application

Castets, Mathieu 15 December 2015 (has links)
La modélisation et la simulation de dynamiques spatiales, en particulier pour l'étude de l'évolution de paysages ou de problématiques environnementales pose la question de l'intégration des différentes formes de représentation de l'espace au sein d'un même modèle. Ocelet est une approche de modélisation de dynamiques spatiales basée sur le concept original de graphe d'interaction. Le graphe porte à la fois la structure d'une relation entre entités d’un modèle et la sémantique décrivant son évolution. Les relations entre entités spatiales sont ici traduites en graphes d'interactions et ce sont ces graphes que l'on fait évoluer lors d'une simulation. Les concepts à la base d'Ocelet peuvent potentiellement manipuler les deux formes de représentation spatiale connues, celle aux contours définis (format vecteur) ou la discrétisation en grille régulière (format raster). Le format vecteur est déjà intégré dans la première version d'Ocelet. L'intégration du format raster et la combinaison des deux restaient à étudier et à réaliser. L'objectif de la thèse est d'abord étudier les problématiques liées à l'intégration des champs continus et leur représentation discrétisée en pavage régulier, à la fois dans le langage Ocelet et dans les concepts sur lesquels il repose. Il a fallu notamment prendre en compte les aspects dynamiques de cette intégration, et d'étudier les transitions entre données géographiques de différentes formes et graphe d'interactions à l'aide de concepts formalisés. Il s'est agi ensuite de réaliser l'implémentation de ces concepts dans la plateforme de modélisation Ocelet, en adaptant à la fois son compilateur et son moteur d'exécution. Enfin, ces nouveaux concepts et outils ont été mis à l'épreuve dans trois cas d'application très différents : deux modèles sur l’île de la Réunion, le premier simulant le ruissellement dans le bassin versant de la Ravine Saint Gilles s'écoulant vers la Côte Ouest de l'île, l’autre simulant la diffusion de plantes invasives dans les plaines des hauts à l'intérieur du Parc National de La Réunion. Le dernier cas décrit la spatialisation d'un modèle de culture et est appliqué ici pour simuler les rendements de cultures céréalières sur l’ensemble de l’Afrique de l’Ouest, dans le contexte d'un système d'alerte précoce de suivi des cultures à l'échelle régionale. / The modelling and simulation of spatial dynamics, particularly for studying landscape changes or environmental issues, raises the question of integrating different forms of spatial representation within the same model. Ocelet is an approach for modelling spatial dynamics based on the original concept of interaction graph. Such a graph holds both the structure of a relation between entities of a model and the semantics describing its evolution. The relationships between spatial entities are here translated into interaction graphs and these graphs are made to evolve during a simulation. The concepts on which Ocelet is based can potentially handle two known forms of spatial representation: shapes with contours (vector format) or regular grid cells (raster). The vector format is already integrated in the first version of Ocelet. The integration of raster and the combination of the two remained to be studied and carried out. The aim of the thesis is to first study the issues related to the integration of continuous fields and their representation by regular tiling, both in the Ocelet language and the concepts on which it is based. The dynamic aspects of this integration had to be taken into account and transitions between different forms of geographic data and interaction graphs had to be studied in the light of the concepts formalized. The concepts were then implemented in the Ocelet modelling platform, with the adaptation of both its compiler and runtime. Finally, these new concepts and tools were tested in three very different cases: two models on Reunion Island, the first simulating runoff in Ravine Saint Gilles watershed in the West Coast of the island, the other simulating the spread of invasive plants in the high plains inside the Reunion National Park. The last case describes the spatialisation of a crop model and is applied here to simulate the cereal crop yields in West Africa, in the context of an early warning system for regional crop monitoring.
212

De la conception d'un système d'observation à large échelle au déploiement et à l'exploitation de son système d'information : application à l'observation des habitats coralligènes et à la colonisation de récifs artificiels (ARMS) / From designing a large-scale observation system to deploying and operating its information system : application to the observation of coralligenous habitats and the colonization of artificial reefs (ARMS)

David, Romain 06 July 2018 (has links)
Dans le domaine marin, des protocoles d’observation développés dans de nombreux cadres produisent un grand volume de données hétérogènes, difficiles à agréger et à utiliser. Ce travail propose i) des méthodes, protocoles et recommandations pour construire et/ou soutenir la mise en place de réseaux de suivis multi-usagers,) des utilisations novatrices des données.Deux cas d’étude ont été choisis : les habitats coralligènes à l’échelle de la Méditerranée et la colonisation de récifs artificiels dans différentes mers régionales.L’expérimentation à large échelle se base sur des méthodes de mesures les plus simples possibles, décrites très explicitement dans des termes standardisés, sur des opérateurs intercalibrés et une méthode de traitement des données. Un mécanisme de couplage de données de différentes origines reposant sur la requalification des facteurs descriptifs hétérogènes et une méthode d’analyse et de fouille de données basé sur la théorie des graphes sont proposées. / In the marine domain, observation protocols developed in many settings produce a large volume of heterogeneous data that are difficult to aggregate and use. This work proposes to develop i) methods, protocols and recommendations to build and / or support the establishment of multi-user monitoring networks, ii) innovative uses of data.Two case studies were chosen: coralligenous habitats at the Mediterranean scale and the colonisation of artificial reefs in different regional seas.Large-scale experimentation is based on the simplest possible measurement methods, described very explicitly in standardised terms, on intercalibrated operators and a method of data processing. A mechanism for coupling data from different origins based on the requalification of heterogeneous descriptive factors and a method for analysis and data mining based on graph theory is also proposed.
213

Ingénierie des connaissances pour l’épidémiologie et l’aide à la décision en santé publique : Analyse des besoins potentiels et expérimentations dans le contexte du registre français des maladies rénales / Knowledge engineering for epidemiology and decision making in public healthepidemiology : Analysis of needs and experimentations in the context of the French registry of kidney disease

Belhadj, Ihssen 01 December 2014 (has links)
Construire des terminologies de maladies est un enjeu majeur dans le développement des systèmes d’information épidémiologiques et d’aide à la décision de santé publique qui soient efficients et durables. A partir du contexte du registre français de l'Insuffisance Rénale Terminale, une analyse des besoins de représentation des termes de maladies a été réalisée mettant en évidence le problème aigu et occulté de continuité statistique dans les bases de données et de connaissances. La « continuité terminologique » est proposée comme une réponse au besoin de continuité statistique. Une méthode générative de construction de Ressources Termino-Ontologiques a été conçue et expérimentée. Plutôt que de s’intéresser à l’ensemble des termes qui sont nécessaires pour décrire un domaine, nous nous sommes concentré uniquement sur la modélisation d'un sous ensemble de connaissances élémentaires sur les maladies. Cette méthode générative produit simultanément des termes normalisés (Nomenclature artificielle) et leur représentation sémantique/conceptuelle formelle se basant sur le formalisme des Graphes Conceptuels (GC). Les opérations de généralisation/spécialisation des GC sont utilisées pour déduire l’organisation poly-hiérarchique La continuité terminologique doit être considéré comme étant un critère majeur dans la construction de terminologies de maladies au même titre que la couverture terminologique. Les approches génératives contribuent à améliorer la continuité terminologique, car elles imposent cette contrainte de créer chaque nouveau terme sur des bases formelles avec des propriétés définitoires nécessairement sémantiquement définis dans une ontologie existante. / Expressing terms referring to pathological conceptualization is an important issue toward the development of clinical research and public health decision support systems. From the context of the French Registry of End Stage Renal Disease, requirements for disease terms representation are anlysed highlighting the acute and hidden problem of statistical continuity in disease data and knowledge representation. The underpinned assumption relies on the idea of ensuring terminological continuity through agenerative method of building Ontology Based Terminological systems. Rather than looking at all the terms that are necessary to describe a domain, we focused solely on the modeling of basic and definitional knowledge about disease. A set ontological rules for diseases hierachies were defined. Eperiments have been designed and implemented taking advantage of GC formalism and a logic programming toll called prolog-GC. The results confimed that such method allow performing two major activities that are carried out in the conventional building process of medical terminologies : refinement of disease terms granularity and consistency improvement. Terminological continuity needs to be considered as major criteria in disease terminological building. Generative approaches helps to improve the terminological continuity as imposes to create news terms of the bases of existing ones formal definitions.
214

Architecture et gestion d'un réseau continu maillé haute-tension pour l'aéronautique / Architecture and Management of a meshed HVDC electrical network for aeronautic application

Baumann, Cédric 20 March 2009 (has links)
L'objectif de réduction de la consommation en kérosène des avions passant par une plus grande efficacité des systèmes, la distribution électrique devient un moyen privilégié pour satisfaire les besoins. Dans ce cadre, la notion d'avion « plus électrique » implique de revoir les systèmes de distribution et d'étudier, notamment, le passage en haute tension continue (HVDC). Une description générale des systèmes embarqués sur les avions civils est donnée dans ce manuscrit ainsi qu'une description des avantages et inconvénients des différents vecteurs énergétiques permettant de mieux situer les gains envisageables lors du passage à l'électrification des systèmes. Cependant, la mise en place de la distribution HVDC peut entraîner de nouveaux problèmes, notamment de qualité et/ou d'instabilité. Afin de palier ces problèmes, une architecture est proposée dans laquelle les équipements sont reliés entre eux par des coeurs de distribution eux-mêmes liés par des organes de transferts de puissances pouvant maîtriser ces transferts : on parle alors de réseau maillé. Pour pouvoir réaliser ces transferts, deux types d'équipements électroniques de puissance sont proposés : le DCPFC (Direct Current Power Flow Controler) et le MAPFC (Mixed function for Actuation and Power Flow Control). Ces équipements imposent une gestion énergétique spécifique : il faut déterminer les modes de fonctionnement des équipements ainsi que les références des puissances à transférer. Pour cela, une modélisation du réseau sous forme de graphe est effectuée, ceci se traduisant par un algorithme générique permettant de déterminer les équations structurelles du réseau ainsi que deux algorithmes servant à contrôler des grandeurs distinctes : Les grandeurs discrètes sont contrôlées par un système expert détenant un ensemble de règles de fonctionnement ; Les grandeurs continues sont gérées par un algorithme de recherche de flot dans un graphe. Après la mise en place en simulation de l'ensemble du réseau maillé, un banc d'essai expérimental valide les principes décrits théoriquement et permet l'étude de différentes gestions énergétiques (tout autant qu'il permet de tester un équipement seul ou le réseau dans une configuration non-maillée). Finalement, une exploitation des concepts sur un réseau répondant aux normes aéronautiques est développée. Ceci posant notamment des problèmes aux niveaux de la conception des équipements mais également sur l'architecture actuelle des réseaux électriques (connexion du neutre des générateurs, protection des personnes, compatibilité électromagnétique, etc.). / As the aircraft fuel consumption needs more efficient systems, electrical distribution becomes a favoured way in satisfying those needs. In this context, the “more electrical aircraft” notion implies to deeply refund distribution means. High Voltage Direct Current - HVDC - distribution helps in going this way. A general description of civil aircraft embedded systems is given in this document. Advantages and drawbacks of energetic vectors are described too, allowing a better comprehension of possible improvements due to system electrification. Therefore, the HVDC deployment can lead to new problems, particularly in quality and stability domains. In order to take into account these problems, we propose a new distribution architecture in which equipments are interconnected through power distribution centres, which ones are interconnected through power flow controller equipments. This new architecture is described as a meshed distribution network. Two kinds of equipment are proposed to control the electrical power flow: DCPFC - for Direct Current Power Flow Controller - and MAPFC - Mixed function for Actuation Power Flow Control. As a result, a specific power management is needed. Equipment operating modes and power to transfer references have to be determined. In a first step, a graph based modelling of the electrical network is done, resulting in a generic algorithm which permits to determine network structural equations. In a second step, two algorithms control the network: - Discrete quantities are regulated by an expert system based on a rule set; - Continuous quantities are managed through a flow research algorithm based on the graph modelling; The validation of these concepts is realised through electrical simulations of the whole meshed network. Then, an experimental test bench validates the theoretical principles and allows the operation of equipments and meshed network in multiple configurations. Finally, concepts are extrapolated in an electrical network respecting aeronautic constraints. Those constraints are highlighted at equipment level and network level.
215

Cross-model queries and schemas : complexity and learning / Requêtes et schémas hétérogènes : complexité et apprentissage

Ciucanu, Radu 01 July 2015 (has links)
La spécification de requêtes est généralement une tâche difficile pour les utilisateurs non-experts. Le problème devient encore plus difficile quand les utilisateurs ont besoin d'interroger des bases de données de grande taille et donc difficiles à visualiser. Le schéma pourrait aider à cette spécification, mais celui-ci manque souvent ou est incomplet quand les données viennent de sources hétérogènes. Dans cette thèse, nous abordons le problème de la spécification de requêtes pour les utilisateurs non-experts. Nous identifions deux approches pour attaquer ce problème : apprendre les requêtes à partir d'exemples ou transformer les données dans un format plus facilement interrogeable par l'utilisateur. Nos contributions suivent ces deux directions et concernent trois modèles de données parmi les plus populaires : XML, relationnel et orienté graphe. Cette thèse comprend deux parties, consacrées à (i) la définition et la transformation de schémas, et (ii) l'apprentissage de schémas et de requêtes. Dans la première partie, nous définissons des formalismes de schémas pour les documents XML non-ordonnés et nous analysons leurs propriétés computationnelles; nous étudions également la complexité du problème d'échange de données entre une source relationnelle et une cible orientée graphe. Dans la deuxième partie, nous étudions le problème de l'apprentissage à partir d'exemples pour les schémas XML proposés dans la première partie, ainsi que pour les requêtes de jointures relationnelles et les requêtes de chemins sur les graphes. Nous proposons notamment un scénario interactif qui permet d'aider des utilisateurs non-experts à définir des requêtes dans ces deux classes. / Specifying a database query using a formal query language is typically a challenging task for non-expert users. In the context of big data, this problem becomes even harder because it requires the users to deal with database instances of large size and hence difficult to visualize. Such instances usually lack a schema to help the users specify their queries, or have an incomplete schema as they come from disparate data sources. In this thesis, we address the problem of query specification for non-expert users. We identify two possible approaches for tackling this problem: learning queries from examples and translating the data in a format that the user finds easier to query. Our contributions are aligned with these two complementary directions and span over three of the most popular data models: XML, relational, and graph. This thesis consists of two parts, dedicated to (i) schema definition and translation, and to (ii) learning schemas and queries. In the first part, we define schema formalisms for unordered XML and we analyze their computational properties; we also study the complexity of the data exchange problem in the setting of a relational source and a graph target database. In the second part, we investigate the problem of learning from examples the schemas for unordered XML proposed in the first part, as well as relational join queries and path queries on graph databases. The interactive scenario that we propose for these two classes of queries is immediately applicable to assisting non-expert users in the process of query specification.
216

Etude de la connectivité fonctionnelle dans les pathologies de mouvement de Parkinson et de Huntington en utilisant l’approche par graine et la théorie des graphes / Functional connectivity study in Parkinson's and Huntington diseases using the seed based analysis and graph theory

Gargouri, Fatma 14 December 2017 (has links)
L’imagerie par résonance magnétique fonctionnelle permet d’explorer l’activité neuronale en utilisant un contraste endogène appelé BOLD. Il a été montré que les fluctuations du signal BOLD au repos corrélaient dans des régions cérébrales distantes. C’est la connectivité fonctionnelle. Elle représente l’activité spontanée du cerveau et elle est mesurée par l’IRMf au repos. Notre projet de recherche a donc combiné un aspect méthodologique et deux applications dans le domaine des pathologies du mouvement. Nous avons étudié les stratégies de prétraitement des données. L'objectif était d'étudier l'influence du type de prétraitement ainsi que leur ordre d'application sur l'optimisation de la topologie des réseaux cérébraux. Nous avons comparé 12 stratégies différentes de prétraitement. Dans ces stratégies nous avons appliqué les techniques standards avec un ordre d'application différent. Les deux études suivantes ont utilisé l'IRMf au repos pour étudier la physiopathologie de deux pathologies du mouvement : la maladie de Huntington et la maladie de Parkinson. Dans ces pathologies, nous nous sommes centrés sur l'étude des réseaux cérébraux grâce à l'étude de la connectivité fonctionnelle. Nous avons déterminé si l'IRMf au repos et les mesures de la théorie des graphes permettaient d'identifier des biomarqueurs robustes de l'évolution de la maladie de Huntington dans une étude longitudinale. Ensuite, nous avons étudié le rôle des noyaux cholinergiques du cerveau basal antérieur et de leurs connexions dans la survenue des troubles cognitifs présentés par les patients atteints de maladie de Parkinson. L'approche par graine est une méthode adaptée à ce type de question. / Functional magnetic resonance imaging (fMRI) is a technique that allows exploring neuronal activity using an endogenous contrast based on the oxygenation level of hemoglobin. This contrast is called BOLD (Blood oxygenated Level Dependent). It has been shown that fluctuations in the BOLD signal at rest, correlated in distant brain regions, defining long-distance brain functional networks. This is called functional connectivity. The latter represents the spontaneous activity of the brain and it is measured by fMRI at rest. Our research project has therefore combined a methodological aspect and two applications in the field of movement pathologies. In the first part of our project we studied data preprocessing strategies. The objective was to study the influence of the preprocessing steps and their order of application on the brain networks’ topology. We compared 12 different pretreatment strategies. In these strategies we applied the standard and most used techniques but with a different order of application. The following two studies used resting-state fMRI to study: Huntington's disease and Parkinson's disease. In these pathologies, we focused on the study of the brain networks addressed through the study of functional connectivity. We determined whether resting-state fMRI and graph theory measures were able to identify robust biomarkers of Huntington's disease progression in a longitudinal study. In the second study, we investigated the role of cholinergic basal nuclei of the forebrain and their connections in the onset of cognitive problems presented in Parkinson's disease. The seed-based analysis is a suitable method for this type of question.
217

Cellular matrix for parallel k-means and local search to Euclidean grid matching / Matrice cellulaire pour des algorithmes parallèles de k-means et de recherche locale appliqués à des problèmes euclidiens d’appariement de graphes

Wang, Hongjian 03 December 2015 (has links)
Dans cette thèse, nous proposons un modèle de calcul parallèle, appelé « matrice cellulaire », pour apporter des réponses aux problématiques de calcul parallèle appliqué à la résolution de problèmes d’appariement de graphes euclidiens. Ces problèmes d’optimisation NP-difficiles font intervenir des données réparties dans le plan et des structures élastiques représentées par des graphes qui doivent s’apparier aux données. Ils recouvrent des problèmes connus sous des appellations diverses telles que geometric k-means, elastic net, topographic mapping, elastic image matching. Ils permettent de modéliser par exemple le problème du voyageur de commerce euclidien, le problème du cycle médian, ainsi que des problèmes de mise en correspondance d’images. La contribution présentée est divisée en trois parties. Dans la première partie, nous présentons le modèle de matrice cellulaire qui partitionne les données et définit le niveau de granularité du calcul parallèle. Nous présentons une boucle générique de calcul parallèle qui modélise le principe des projections de graphes et de leur appariement. Dans la deuxième partie, nous appliquons le modèle de calcul parallèle aux algorithmes de k-means avec topologie dans le plan. Les algorithmes proposés sont appliqués au voyageur de commerce, à la génération de maillage structuré et à la segmentation d'image suivant le concept de superpixel. L’approche est nommée superpixel adaptive segmentation map (SPASM). Dans la troisième partie, nous proposons un algorithme de recherche locale parallèle, appelé distributed local search (DLS). La solution du problème résulte des opérations locales sur les structures et les données réparties dans le plan, incluant des évaluations, des recherches de voisinage, et des mouvements structurés. L’algorithme est appliqué à des problèmes d’appariement de graphe tels que le stéréo-matching et le problème de flot optique. / In this thesis, we propose a parallel computing model, called cellular matrix, to provide answers to problematic issues of parallel computation when applied to Euclidean graph matching problems. These NP-hard optimization problems involve data distributed in the plane and elastic structures represented by graphs that must match the data. They include problems known under various names, such as geometric k-means, elastic net, topographic mapping, and elastic image matching. The Euclidean traveling salesman problem (TSP), the median cycle problem, and the image matching problem are also examples that can be modeled by graph matching. The contribution presented is divided into three parts. In the first part, we present the cellular matrix model that partitions data and defines the level of granularity of parallel computation. We present a generic loop for parallel computations, and this loop models the projection between graphs and their matching. In the second part, we apply the parallel computing model to k-means algorithms in the plane extended with topology. The proposed algorithms are applied to the TSP, structured mesh generation, and image segmentation following the concept of superpixel. The approach is called superpixel adaptive segmentation map (SPASM). In the third part, we propose a parallel local search algorithm, called distributed local search (DLS). The solution results from the many local operations, including local evaluation, neighborhood search, and structured move, performed on the distributed data in the plane. The algorithm is applied to Euclidean graph matching problems including stereo matching and optical flow.
218

Graph based transforms for compression of new imaging modalities / Transformées basées graphes pour la compression de nouvelles modalités d’image

Rizkallah, Mira 26 April 2019 (has links)
En raison de la grande disponibilité de nouveaux types de caméras capturant des informations géométriques supplémentaires, ainsi que de l'émergence de nouvelles modalités d'image telles que les champs de lumière et les images omnidirectionnelles, il est nécessaire de stocker et de diffuser une quantité énorme de hautes dimensions. Les exigences croissantes en matière de streaming et de stockage de ces nouvelles modalités d’image nécessitent de nouveaux outils de codage d’images exploitant la structure complexe de ces données. Cette thèse a pour but d'explorer de nouvelles approches basées sur les graphes pour adapter les techniques de codage de transformées d'image aux types de données émergents où les informations échantillonnées reposent sur des structures irrégulières. Dans une première contribution, de nouvelles transformées basées sur des graphes locaux sont conçues pour des représentations compactes des champs de lumière. En tirant parti d’une conception minutieuse des supports de transformées locaux et d’une procédure d’optimisation locale des fonctions de base , il est possible d’améliorer considérablement le compaction d'énergie. Néanmoins, la localisation des supports ne permettait pas d'exploiter les dépendances à long terme du signal. Cela a conduit à une deuxième contribution où différentes stratégies d'échantillonnage sont étudiées. Couplés à de nouvelles méthodes de prédiction, ils ont conduit à des résultats très importants en ce qui concerne la compression quasi sans perte de champs de lumière statiques. La troisième partie de la thèse porte sur la définition de sous-graphes optimisés en distorsion de débit pour le codage de contenu omnidirectionnel. Si nous allons plus loin et donnons plus de liberté aux graphes que nous souhaitons utiliser, nous pouvons apprendre ou définir un modèle (ensemble de poids sur les arêtes) qui pourrait ne pas être entièrement fiable pour la conception de transformées. La dernière partie de la thèse est consacrée à l'analyse théorique de l'effet de l'incertitude sur l'efficacité des transformées basées graphes. / Due to the large availability of new camera types capturing extra geometrical information, as well as the emergence of new image modalities such as light fields and omni-directional images, a huge amount of high dimensional data has to be stored and delivered. The ever growing streaming and storage requirements of these new image modalities require novel image coding tools that exploit the complex structure of those data. This thesis aims at exploring novel graph based approaches for adapting traditional image transform coding techniques to the emerging data types where the sampled information are lying on irregular structures. In a first contribution, novel local graph based transforms are designed for light field compact representations. By leveraging a careful design of local transform supports and a local basis functions optimization procedure, significant improvements in terms of energy compaction can be obtained. Nevertheless, the locality of the supports did not permit to exploit long term dependencies of the signal. This led to a second contribution where different sampling strategies are investigated. Coupled with novel prediction methods, they led to very prominent results for quasi-lossless compression of light fields. The third part of the thesis focuses on the definition of rate-distortion optimized sub-graphs for the coding of omni-directional content. If we move further and give more degree of freedom to the graphs we wish to use, we can learn or define a model (set of weights on the edges) that might not be entirely reliable for transform design. The last part of the thesis is dedicated to theoretically analyze the effect of the uncertainty on the efficiency of the graph transforms.
219

Définition d'une architecture IoT sécurisée et adaptative basée sur la blockchain / A new blockchain-based secure and adaptative IoT framework

Moinet, Axel 17 January 2019 (has links)
Au cours des quinze dernières années, le développement de plateformes embarquées intelligentes et les progrès des protocoles de communication radio ont permis l'émergence de réseaux de capteurs sans-fils (WSN). D'autre part, la démocratisation d'Internet et du Web, ainsi que l'augmentation des débits ont contribué à l'essor d'un nouveau paradigme : le Cloud computing. L'Internet des Objets, (IoT) ou Internet des Objets réalise la convergence entre les réseaux de capteurs et le Cloud computing. De nombreux travaux adressant les problématiques de l'IoT ont étés menés ces dix dernières années, cependant ces propositions manquent ne tiennent pas suffisamment compte des problématiques de sécurité et de protection des données. D'après Gartner, 70 % des plateformes déployées ne disposent pas d'une solution de sécurité efficace, les rendant vulnérables aux attaques. Dans le domaine des monnaies numériques, Bitcoin propose en son sein une nouvelle structure de données authentifiée et trustless permettant la décentralisation de l'enregistrement de transactions en s'appuyant sur un protocole permettant d'obtenir un consensus : la blockchain. Cette thèse se focalise sur l'utilisation de cette nouvelle structure de données dans les WSN dans un contexte IoT, comme base pour la définition d'une architecture sécurisée et adaptative basée sur la blockchain. Le but de cette architecture est d'intégrer les solutions existantes pour l'organisation du réseau et l'accès aux services de manière innovante afin de réaliser l'intégration des WSN avec l'infrastructure web; mais aussi d'y adjoindre une solution répondant aux nouveaux besoins de sécurités et contraintes spécifiques des réseaux de capteurs. Nous proposons pour cela un framework nommé Network Service Loader (NSL) en charge de la gestion de services et d'agents mobiles, auquel s'adjoint notre solution Blockchain Authentication and Trust Module (BATM) en charge de l'authentification, du contrôle d'accès, ainsi que des évaluations de confiance via l'algorithme Maximum Likelihood Trust Estimator (MLTE). / During the last fifteen years, the rise of smart and wireless enabled embedded devices lead to the development of wireless sensor networks (WSN). In the same time, the emerging of Cloud computing with the development of the Internet and the Web as an everyday technology thanks to the rise of bandwidth and processing power leads to new network paradigms. The Internet of Things (IoT) primary goal is to bridge the gap between these technologies and bring WSN sensing and actuating abilities to Cloud applications. We count a significant amount of work targetting the IoT in the last decade, however they lack proper solutions to ensure data privacy and security. Gartner investigations shows that 70 % of connected and smart devices provide little or no security policies and solutions, making both user and devices vulnerable to attackers. In the field of digital currencies, Bitcoin proposed a new authenticated and trustless data structure dedicated to transactions logging in a decentralized network with the help of a consensus protocol : the blockchain. This thesis is focused on bringing the blockchain technology as a new solutions for security in decentralized WSN in the IoT, providing the basis for a secure and adaptative agent-based middleware and execution framework. This framework attempt to federate existing work regarding the architecture of the IoT, but also to tackle security issues regarding network access, agent execution and trust evaluation. To achieve this goal, we propose Network Service Loader (NSL), an agent-based middleware constructed of existing protocols in a new way, along with a new solution called Blockchain Authentication and Trust Module (BATM) dedicated to node and users authentication, access control policies, and trust evaluation through our new Maximum Likelihood Trust Estimator (MLTE) algorithm.
220

Reengineering Object Oriented Software Systems for a better Maintainability / Ré-ingénierie des applications à objets pour une amélioration de leurs attributs de qualité

Zellagui, Soumia 05 July 2019 (has links)
Les systèmes logiciels existants représentent souvent des investissements importants pour les entreprises qui les développent avec l’intention de les utiliser pendant une longue période de temps. La qualité de ces systèmes peut être dégradée avec le temps en raison des modifications complexes qui leur sont incorporées. Pour faire face à une telle dégradation lorsque elle dépasse un seuil critique, plusieurs stratégies peuvent être utilisées. Ces stratégies peuvent se résumer en: 1) remplaçant le système par un autre développé à partir de zéro, 2) poursuivant la maintenance(massive) du système malgré son coût ou 3) en faisant une réingénierie du système. Le remplacement et la maintenance massive ne sont pas des solutions adaptées lorsque le coût et le temps doivent être pris en compte, car elles nécessitent un effort considérable et du personnel pour assurer la mise en œuvre du système dans un délai raisonnable. Dans cette thèse, nous nous intéressons à la solution de réingénierie. En général, la réingénierie d’un système logiciel inclut toutes les activités après la livraison à l’utilisateur pour améliorer sa qualité. Cette dernière est souvent caractérisé par un ensemble d’attributs de qualité. Nous proposons trois contributions pour améliorer les attributs de qualité spécifiques, que soient:la maintenabilité, la compréhensibilité et la modularité. Afin d’améliorer la maintenabilité, nous proposons de migrer les systèmes logiciels orientés objets vers des systèmes orientés composants. Contrairement aux approches existantes qui considèrent un descripteur de composant comme un cluster des classes, chaque classe du système existant sera migré en un descripteur de composant. Afin d’améliorer la compréhensibilité, nous proposons une approche pour la reconstruction de modèles d’architecture d’exécution des systèmes orientés objet et de gérer la complexité des modèles résultants. Les modèles, graphes, générés avec notre approche ont les caractéristiques suivantes: les nœuds sont étiquetés avec des durées de vie et des probabilités d’existence permettant 1) une visualisation des modèles avec un niveau de détail. 2) de cacher/montrer la structure interne des nœuds. Afin d’améliorer la modularité des systèmes logiciels orientés objets, nous proposons une approche d’identification des modules et des services dans le code source de ces systèmes.Dans cette approche, nous croyons que la structure composite est la structure principale du système qui doit être conservée lors du processus de modularisation, le composant et ses composites doivent être dans le même module. Les travaux de modularisation existants qui ont cette même vision, supposent que les relations de composition entre les éléments du code source sont déjà disponibles ce qui n’est pas toujours évident. Dans notre approche, l’identification des modules commence par une étape de reconstruction de modèles d’architecture d’exécution du système étudié. Ces modèles sont exploités pour d’identification de relations de composition entre les éléments du code source du système étudié. Une fois ces relations ont été identifiées, un algorithme génétique conservatif aux relations de composition est appliqué sur le système pour identifier des modules. En dernier, les services fournis par les modules sont identifiés à l’aide des modèles de l’architecture d’exécution du système logiciel analysé. Quelques expérimentations et études de cas ont été réalisées pour montrer la faisabilité et le gain en maintenabilité, compréhensibilité et modularité des logiciels traités avec nos propositions. / Legacy software systems often represent significant investmentsfor the companies that develop them with the intention of using themfor a long period of time. The quality of these systems can be degraded over time due to the complex changes incorporated to them.In order to deal with these systems when their quality degradation exceeds a critical threshold, a number of strategies can be used. Thesestrategies can be summarized in: 1) discarding the system and developinganother one from scratch, 2) carrying on the (massive) maintenance of the systemdespite its cost, or 3) reengineering the system. Replacement and massive maintenance are not suitable solutions when the cost and time are to be taken into account, since they require a considerable effort and staff to ensurethe system conclusion in a moderate time. In this thesis, we are interested in the reengineering solution. In general, software reengineering includes all activities following the delivery to the user to improve thesoftware system quality. This latter is often characterized with a set of quality attributes. We propose three contributions to improve specific quality attributes namely: maintainability, understandability and modularity.In order to improve maintainability, we propose to migrateobject oriented legacy software systems into equivalent component based ones.Contrary to exiting approaches that consider a component descriptor as a clusterof classes, each class in the legacy system will be migrated into a componentdescriptor. In order to improve understandability, we propose an approach forrecovering runtime architecture models of object oriented legacy systems and managing the complexity of the resulted models.The models recovered by our approach have the following distinguishing features: Nodes are labeled with lifespans and empirical probabilities of existencethat enable 1) a visualization with a level of detail. 2) the collapsing/expanding of objects to hide/show their internal structure.In order to improve modularity of object-oriented software systems,we propose an approach for identifying modulesand services in the source code.In this approach, we believe that the composite structure is the main structure of the system that must be retained during the modularization process, the component and its composites must be in the same module. Existing modularization works that has this same vision assumes that the composition relationships between the elements of the source code are already available, which is not always obvious. In our approach, module identification starts with a step of runtime architecture models recovery. These models are exploited for the identification of composition relationships between the elements of the source code. Once these relationships have been identified, a composition conservative genetic algorithm is applied on the system to identify modules. Lastly, the services provided by the modules are identified using the runtime architecture models of the software system. Some experimentations and casestudies have been performed to show the feasibility and the gain inmaintainability, understandability and modularity of the software systems studied with our proposals.

Page generated in 0.0264 seconds