• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 78
  • 59
  • 12
  • Tagged with
  • 154
  • 82
  • 38
  • 38
  • 33
  • 28
  • 24
  • 22
  • 20
  • 20
  • 16
  • 14
  • 13
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Module de confiance pour externalisation de données dans le Cloud / Trusted module for data outsourcing in Cloud

Demir, Levent 07 December 2017 (has links)
L’externalisation des données dans le Cloud a engendré de nouvelles problématiques de sécurité. L’enjeu est de protéger les données des utilisateurs et leur vie privée. En ce sens, deux principes ont été suivis durant cette thèse : le premier est d’avoir une confiance limitée envers l’hébergeur de données (entre autres), le deuxième est d’établir une architecture basée sur un modulede confiance placé en rupture entre le poste client et le Cloud, d’où l’approche "Trust The Module,Not The Cloud" (TTM).Déléguer donc les opérations de sécurité à un module matériel dédié permet alors plusieurs bénéfices : d’abord s’affranchir d’un poste client davantage vulnérable face à des attaques internes ou externes ; ensuite limiter les composants logiciels au strict minimum afin d’avoir un meilleur contrôle du fonctionnement et enfin dédier les opérations cryptographiques à des co-processeurs spécialisés afin d’obtenir des performances élevées. Ainsi, les travaux menés durant cette présente thèse suivent trois axes. Dans un premieraxe nous avons étudié les défis d’un Cloud personnel destiné à protéger les données d’un particulier, et basé sur une carte nano-ordinateur du marché peu coûteuse. L’architecture que nous avons définie repose sur deux piliers : une gestion transparente du chiffrement grâce à l’usage d’un chiffrement par conteneur appelé Full Disk Encryption (FDE), initialement utilisédans un contexte de protection locale (chiffrement du disque d’un ordinateur ou d’un disque dur externe) ; et une gestion transparente de la distribution grâce à l’usage du protocole iSCSI qui permet de déporter le conteneur sur le Cloud. Nous avons montré que ces deux piliers permettent de construire un service sécurisé et fonctionnellement riche grâce à l’ajout progressif de modules"sur étagère" supplémentaires.Dans un deuxième axe, nous nous sommes intéressés au problème de performance lié à l’usage du FDE. Une étude approfondie du mode de chiffrement XTS-AES recommandé pour le FDE, du module noyau Linux dm-crypt et des co-processeurs cryptographiques (ne supportant pas tous le mode XTS-AES), nous ont conduit à proposer différentes optimisations dont l’approche extReq, qui étend les requêtes cryptographiques envoyées aux co-processeurs. Ces travaux nousont ainsi permis de doubler les débits de chiffrement et déchiffrement.Dans un troisième axe, afin de passer à l’échelle, nous avons utilisé un module de sécurité matériel (Hardware Secure Module ou HSM) certifié et plus puissant, dédié à la protection des données et à la gestion des clés. Tout en capitalisant sur l’architecture initiale, l’ajout du module HSM permet alors de fournir un service de protection adapté aux besoins d’une entreprise par exemple. / Data outsourcing to the Cloud has led to new security threats. The main concerns of this thesis are to protect the user data and privacy. In particular, it follows two principles : to decrease the necessary amount of trust towards the Cloud, and to design an architecture based on a trusted module between the Cloud and the clients. Both principles are derived from a new design approach : "Trust The Module, Not The Cloud ".Gathering all the cryptographic operations in a dedicated module allows several advantages : a liberation from internal and external attacks on client side ; the limitation of software to the essential needs offers a better control of the system ; using co-processors for cryptographic operations leads to higher performance.The thesis work is structured into three main sections. In the first section , we confront challenges of a personal Cloud, designed to protect the users’ data and based on a common and cheap single-board computer. The architecture relies on two main foundations : a transparent encryption scheme based on Full Disk Encryption (FDE), initially used for local encryption (e.g., hard disks), and a transparent distribution method that works through iSCSI network protocol in order to outsource containers in Cloud.In the second section we deal with the performance issue related to FDE. By analysing the XTS-AES mode of encryption, the Linux kernel module dm-crypt and the cryptographic co-processors, we introduce a new approach called extReq which extends the cryptographic requests sent to the co-processors. This optimisation has doubled the encryption and decryption throughput.In the final third section we establish a Cloud for enterprises based on a more powerful and certified Hardware Security Module (HSM) which is dedicated to data encryption and keys protection. Based on the TTM architecture, we added "on-the-shelf" features to provide a solution for enterprise.
32

Infrastructures virtuelles dynamiquement approvisionnées : spécification, allocation et exécution / Dynamically provisioned virtual infrastructures : specification, allocation and execution

Koslovski, Guilherme Piêgas 08 July 2011 (has links)
Les Infrastructures Virtuelles (VIs) ont émergé de la combinaison de l’approvisionnement des ressources informatiques et des réseaux virtuels dynamiques. Grâce à la virtualisation combinée des ressource de calcul et de réseau, le concept de VI transforme l’Internet en un réservoir mondial de ressources interconnectées. Avec l’innovation des VIs viennent aussi des nouveaux défis nécessitant le développement de modèles et technologies, pour assister la migration d’applications existantes d’infrastructures traditionnelles vers des VIs. L’abstraction complète des ressources physiques et l’indéterminisme dans les besoins des applications, en termes de ressources de calcul et de communication ont fait de la composition de VI un problème difficile. En outre, l’allocation d’un ensemble des VIs sur un substrat distribué est un problème NP-difficile. En plus des objectifs traditionnels (par exemple un coût minimal, un revenu croissant), un algorithme d’allocation doit également satisfaire les attentes des utilisateurs (par exemple la qualité de l’allocation). Ce manuscrit contribue aux initiatives de recherche en cours avec les propositions suivantes : i) le Virtual Infrastructure Description Language (VXDL), qui permet aux utilisateurs et aux systèmes de décrire les composants pertinents d’une VI ; ii) un mécanisme qui traduit un flux de travail en une spécification de VI pour faciliter l’exécution d’applications distribuées; iii) une solution pour réduire l’espace de recherche d’une façon automatique qui accélère le processus d’allocation ; et iv) un service offert par des fournisseurs d'infrastructure avec lequel un utilisateur peut déléguer les besoins en fiabilité. / Virtual Infrastructures (VIs) have emerged as result of the combined on-demand provisioning of IT resources and dynamic virtual networks. By combining IT and network virtualization, the VI concept is turning the Internet into a worldwide reservoir of interconnected resources, where computational, storage, and communication services are available on-demand for different users and applications. The innovation introduced by VIs posed a set of challenges requiring the development of new models, technologies, and procedures to assist the migration of existing applications from traditional infrastructures to VIs. The complete abstraction of physical resources, coupled with the indeterminism of required computing and communication resources to execute applications, turned the specification and composition of a VI into a challenging task. In addition, mapping a set of VIs onto a distributed substrate is an NP-hard problem. Besides considering common objectives of infrastructure providers (e.g., efficient usage of the physical substrate, cost minimization, increasing revenue), an allocation algorithm should consider the users' expectations (e.g., allocation quality, data location and mobility). This thesis contributes to related research initiatives by proposing the following: i) Virtual Infrastructure Description Language (VXDL), a descriptive and declarative language that allows users and systems to model the components of a VI; ii) a mechanism for composing VI specifications to execute distributed applications; iii) an approach to reduce the search space in an automatic way, accelerating the process of VI allocation; and iv) mechanism for provisioning reliable VIs.
33

Études sur la filamentation des impulsions laser ultrabrèves dans l’air / Filamentation of ultrashort laser pulses in air

Salamé, Rami 24 July 2009 (has links)
La propagation des impulsions laser ultra brèves dans l’air se fait sous la forme de structures d’une centaine de micromètres de diamètre appelées filaments, qui ont entre autres les propriétés d’être autoguidées, de se propager sur plusieurs centaines de mètres, de générer un continuum de lumière blanche, etc. Ces propriétés originales trouvent de nombreuses applications dans le domaine de la télédétection des polluants par mesures lidar, le déclenchement et le guidage de la foudre par laser, le LIBS à distance, etc.Au cours de mon travail de thèse, nous avons mené de nombreuses expériences de laboratoire et sur terrain dans le cadre du projet Tera mobile. Nous avons en particulier étudié la géométrie de la filamentation, sa robustesse dans une région de turbulence étendue, la propagation verticale d’un faisceau d’impulsions ultra brèves dans un régime multi joules, et des applications atmosphériques de la filamentation. Nous avons par exemple caractérisé la distribution angulaire de l’émission conique dans le visible et dans l’ultraviolet. Nous avons également prouvé que la turbulence atmosphérique n’est pas un facteur limitant de la propagation des filaments qui arrivent même à garder leurs propriétés spectrales nécessaires aux applications atmosphériques. Enfin nous avons illustré une méthode de déclenchement et de guidage de foudre par laser et réalisé une expérience de condensation de gouttelettes d’eau assistée par laser en laboratoire ainsi que dans une atmosphère réelle. / Ultrashort laser pulses propagate in the air in the form of structures of one hundredmicrons of diameter called “filaments”, which have the properties of self-guiding, propagatingfor hundreds of meters, white light generation, etc. These original properties find severalapplications in the domain of remote sensing of pollutants by non-linear Lidar measurements,lightning control, remote LIBS, etc.During my PhD work we have performed several laboratory experiments and field campaignwithin the context of Teramobile project. In particular we have studied the geometry offilamentation, its robustness in an extended region of turbulent air, the propagation ofultrashort pulses beam in multijoules regime, and atmospheric applications of filamentation.For example, we have characterized the angular distribution of the conical emission in thevisible and ultraviolet spectral bands. In another series of experiments, we have proved thatatmospheric turbulence is not a limiting factor of filaments propagation, which also keep theirspectral properties useful for atmospheric applications. Finally, we have illustrated a methodof laser triggering and guiding of lightning and realized laser induced condensation of waterdroplets in laboratory as well as in a reel atmosphere.
34

Modélisation des processus bio-physico-chimiques du milieu nuageux : devenir de la matière organique / Modelling the bio-physico-chemical processes of the cloudy environment : future of the organic matter

Perroux, Hélène 22 December 2017 (has links)
Le rôle des nuages sur la composition chimique atmosphérique est encore mal connu. Les composés chimiques présents sous forme de particules et de gaz sont transformés efficacement lors de leur passage dans le nuage par des processus photochimiques et microbiologiques. Les objectifs de ce travail de thèse étaient d’analyser l’efficacité de ces processus dans la transformation des composés chimiques à l’aide du modèle multiphasique de chimie du nuage CLEPS (CLoud Explicit Physico-chemical Scheme). Le premier travail a consisté à étudier la capacité oxydante du nuage sur la base de comparaisons entre des données expérimentales et simulées de vitesses de production du radical HO• pour des eaux nuageuses prélevées au puy de Dôme. Ces comparaisons ont montré que la photoréactivité du fer comme source de ce radical est surestimée par le modèle. Cela provient de la complexation du fer dans les échantillons naturels qui n'est pas considérée dans le modèle. Le modèle a également montré que la photolyse du peroxyde d’hydrogène représente la voie majoritaire dans la formation des radicaux HO•. Dans un second temps, les hypothèses formulées lors de la construction du nouveau mécanisme chimique en phase aqueuse CLEPS ont été validées par le biais d’expériences d’irradiation sur un composé cible, l’acide tartronique, réalisées en laboratoire et simulées avec le modèle. Le travail expérimental a confirmé la formation de l’acide glyoxylique prédite par le mécanisme en phase aqueuse du modèle. Ce dernier reproduit l’évolution temporelle des concentrations en acide tartronique et de son premier produit d’oxydation, l’acide glyoxylique mais sous-estime la formation de l’acide formique qui est un des produits finaux de l’oxydation de l’acide tartronique. Enfin, le modèle a été développé pour prendre en compte des vitesses de biodégradation mesurées en laboratoire. Le modèle permet de comparer l’efficacité des processus radicalaire et microbiologique dans la dégradation de quatre espèces chimiques en testant l’effet de paramètres environnementaux clés (température, flux actinique). L’activité biologique a été reconnue comme plus efficace dans le scénario estival que dans le cas hivernal et la contribution des microorganismes la nuit est dominante pour les deux scénarios. Un test de sensibilité a démontré que la contribution de l’activité microbienne dans la dégradation des composés chimiques est fortement accrue par rapport à la réactivité photochimique lorsque le fer est entièrement complexé. / The role of clouds on the atmospheric chemical composition is still poorly known. The chemical compounds under the form of particles and gases are efficiently transformed in the cloud by photochemical and microbiological processes. The thesis objectives were to analyze the efficiency of these processes in the transformations of the chemical compounds using the multiphase cloud chemistry model CLEPS (CLoud Explicit Physico-chemical schema). The first work consisted in studying the cloud oxidizing capacity based on comparisons between HO• radical production rates for irradiated cloud water sampled at the puy de Dôme station determined experimentally in the lab data and modeled with CLEPS. These comparisons showed that the model overestimates the contribution of the iron photolysis in the production of HO• radicals. This is due to the complexation of iron in cloud water samples that is not considered in the model due to the lack of data. The model also showed that the photolysis of hydrogen peroxide represents the major source of the HO• radicals in the aqueous phase. Secondly, the new protocol for cloud aqueous phase oxidation of organic compounds developed to build the CLEPS model was validated based on irradiation experiments of a target compound, the tartronic acid that were simulated by the model. The experimental work confirmed the formation of glyoxylic acid predicted by the aqueous phase mechanism in the model. It reproduces the temporal evolution of the concentrations of tartronic acid and of its first oxidation product, the glyoxylic acid but underestimates the formation of formic acid which is one of final products of the tartronic acid oxidation. Finally, the model was developed to take into account biodegradation rates measured in the laboratory. The model allows comparing the efficiency of the chemical and microbiological processes for the degradation of four chemical species and testing the effect of key environmental parameters (temperature, actinic flow). The biological activity was recognized as more effective in the summer case than in the winter case and the contribution of microorganisms the night is dominant for both scenarios. A sensitivity test demonstrated that the contribution of the microbial activity in the degradation of the chemical compounds is strongly increased in comparison with the photochemical reactivity when the iron is supposed to be totally complexed.
35

Développement d'une méthode de pénalisation pour la simulation d'écoulements liquide-bulles

Morente, Antoine 31 October 2017 (has links) (PDF)
Ce travail est dédié au développement d'une méthode numérique pour la simulation des écoulements liquide-bulles. La présence des bulles dans l'écoulement visqueux et incompressible est prise en compte via une méthode de pénalisation. Dans cette représentation Euler-Lagrange, les bulles supposées indéformables et parfaitement sphériques sont assimilées à des objets pénalisés interagissant avec le fluide. Une méthode VOF (Volume Of Fluid) est employée pour le suivi de la fonction de phase. Une adaptation de la discrétisation des équations de Navier-Stokes est proposée afin d'imposer la condition de glissement à l'interface entre le liquide et les bulles. Une méthode de couplage entre le mouvement des bulles et l'action du liquide est proposée. La stratégie de validation est la suivante. Dans un premier temps, une série de cas-tests est proposée; les objets pénalisés sont supposés en non-interaction avec le fluide. L'étude permet d'exhiber la convergence et la précision de la méthode numérique. Dans un second temps le couplage est testé via deux types de configurations de validation. Le couplage est d'abord testé en configuration de bulle isolée, pour une bulle en ascension dans un liquide au repos pour les Reynolds Re=17 and Re=71. Les résultats sont comparés avec la théorie établie par la corrélation de Mei pour les bulles sphériques propres décrivant intégralement la dynamique de la bulle. Enfin, des simulations en configurations de nuage de bulles sont présentées, pour des populations mono- et bidisperses dans un domaine entièrement périodique pour des taux de vide s'établissant entre 1% et 15%. Les statistiques fournies par les simulations caractérisant l'agitation induite par les bulles sont comparées à des résultats expérimentaux. Pour les simulations de nuages de bulles bidisperses, de nouveaux résultats sont présentés.
36

Etude des effets des hétérogénéités spatiales tridimensionnelles des nuages sur les observables lidar et radar embarqués sur plateforme satellite / Study of the effects of three-dimensional spatial heterogeneities of clouds on lidar and radar observables embedded on a satellite platform

Alkasem, Alaa 11 May 2017 (has links)
Les nuages montrent des variabilités tridimensionnelles complexes (3D) dans leurs propriétés géométriques, optiques et microphysiques horizontales et verticales. Généralement et pour des raisons pratiques, les nuages sont supposés être homogènes et parallèles dans les algorithmes de calcul du signal lidar/radar (problème direct) et dans les algorithmes de récupération des propriétés des nuages (problème inverse). L'objectif de ce travail est d'évaluer les effets de l'hétérogénéité des nuages et de la diffusion multiple sur des caractéristiques mesurées directement par le lidar/radar, nous ne traitons que les sources d'erreurs liées au problème direct. Nos évaluations sont basées sur l'échantillonnage aléatoire et sur la comparaison entre les profils moyens des nuages 3D et des nuages 1D équivalents plan-parallèles. Nous avons développé et validé un outil à cet effet. Le simulateur lidar/radar/radar Doppler (McRALI). Il est basé sur le modèle 3DMCPOL (Cornet et al., 2010). Les nuages 3D utilisés sont générés par le générateur de champs de nuages 3D (3DCLOUD_V2) (Szczap et al., 2014). Les comparaisons avec des publications et des codes de référence, ont montré de bonnes cohérences entre le code McRALI et les résultats publiés. On a étudié les effets de l'hétérogénéité 3D des nuages sur trois échelles 333 m, 1 km et 5 km. Les résultats obtenus ont montré que les biais sur le coefficient de rétrodiffusion β, sur le coefficient de rétrodiffusion intégré γ et sur le facteur de dépolarisation δ augmentent avec l’augmentation de l’échelle et l’épaisseur optique. L’étude sur un nuage de type cirrus de cristaux de glace plaquette ont montré que les profils moyens de β ainsi que de γ sont statistiquement égaux à l’échelle de 333 m. Au contraire, à l’échelle de 1 km les biais sont statistiquement significatifs. Le biais sur δ est statistiquement significatif pour les deux échelles. Les tests sur les mesures de radar CPR Doppler EarthCARE ont montré qu’il y a un écart sur la vitesse Doppler mesuré proche de la discontinuité dans un nuage discontinu, cet écart dépond le degré de la discontinuité, les propriétés optiques et géométriques du nuage et la géométrie du système radar. Ce travail contribue à une meilleure compréhension des effets de l'hétérogénéité des nuages sur les caractéristiques mesurées directement par le lidar / radar. / Clouds display complex three-dimensional (3D) variability in their horizontal and vertical geometric, optical and microphysical properties. Generally and for practical reasons, the clouds are supposed to be homogeneous and parallel in the algorithms for calculating the lidar / radar signal (direct problem) and in the algorithms for the retrieval of the properties of the clouds (inverse problem). The objective of this work is to evaluate the effects of cloud heterogeneity and multiple scattering on the characteristics measured directly by the lidar / radar. In this study, we only deal with the sources of errors related to the direct problem. Our assessments are based on random sampling and comparison between the average profiles of 3D clouds and 1D equivalent plane-parallel clouds. Therefore, we developed and validated a tool called the lidar / radar / Doppler radar simulator (McRALI). The latter tool is based on the 3DMCPOL model (Cornet et al., 2010). The 3D clouds, used in the current study, were generated by the 3D cloud field generator (3DCLOUD_V2) (Szczap et al., 2014). The tested McRALI code revealed good coherence with earlier published studies. We studied the effects of 3D cloud heterogeneity on three scales 333 m, 1 km and 5 km. The results obtained showed that the biases on the backscattering coefficient β, on the integrated backscattering coefficient γand on the depolarization factor δ increase with increasing the scale and the optical thickness. The study of a cirrus cloud of ice crystals showed that the average profiles of β as well as the γ are statistically equal to the 333 m scale. On the contrary, the biases are statistically significant at 1 km scale. The bias on δ is statistically significant for both scales. The tests carried out on the EarthCARE Doppler CPR radar measurements showed that there is a difference in the measured Doppler velocity close to the discontinuity in a discontinuous cloud. This difference is due to the degree of the discontinuity, the optical, the geometrical properties of the cloud and the geometry of the radar system. This work contributes to better understanding of the effects of cloud heterogeneity on the characteristics measured directly by the lidar / radar.
37

Software architectures for cloud robotics : the 5 view Hyperactive Transaction Meta-Model (HTM5) / Architectures logicielles pour la robotique en nuage

Nagrath, Vineet 15 January 2015 (has links)
Le développement de logiciels pour les robots connectés est une difficulté majeure dans le domaine du génie logiciel. Les systèmes proposés sont souvent issus de la fusion de une ou plusieurs plates-formes provenant des robots, des ordinateurs autonomes, des appareils mobiles, des machines virtuelles, des caméras et des réseaux. Nous proposons ici une approche orientée agent permettant de représenter les robots et tous les systèmes auxiliaires comme des agents d’un système. Ce concept de l’agence préserve l’autonomie sur chacun des agents, ce qui est essentiel dans la mise en oeuvre logique d’un nuage d’éléments connectés. Afin de procurer une flexibilité de mise en oeuvre des échanges entre les différentes entités, nous avons mis en place un mécanisme d’hyperactivité ce qui permet de libérer sélectivement une certaine autonomie d’un agent par rapport à ces associés.Actuellement, il n’existe pas de solution orientée méta-modèle pour décrire les ensembles de robots interconnectés. Dans cette thèse, nous présentons un méta-modèle appelé HTM5 pour spécifier a structure, les relations, les échanges, le comportement du système et l’hyperactivité dans un système de nuages de robots. La thèse décrit l’anatomie du méta-modèle (HTM5) en spécifiant les différentes couches indépendantes et en intégrant une plate-forme indépendante de toute plateforme spécifique. Par ailleurs, la thèse décrit également un langage de domaine spécifique pour la modélisation indépendante dans HTM5. Des études de cas concernant la conception et la mise en oeuvre d’un système multi-robots basés sur le modèle développé sont également présentés dans la thèse. Ces études présentent des applications où les décisions commerciales dynamiques sont modélisées à l’aide du modèle HTM5 confirmant ainsi la faisabilité du méta-modèle proposé. / Software development for cloud connected robotic systems is a complex software engineeringendeavour. These systems are often an amalgamation of one or more robotic platforms, standalonecomputers, mobile devices, server banks, virtual machines, cameras, network elements and ambientintelligence. An agent oriented approach represents robots and other auxiliary systems as agents inthe system.Software development for distributed and diverse systems like cloud robotic systems require specialsoftware modelling processes and tools. Model driven software development for such complexsystems will increase flexibility, reusability, cost effectiveness and overall quality of the end product.The proposed 5-view meta-model has separate meta-models for specifying structure, relationships,trade, system behaviour and hyperactivity in a cloud robotic system. The thesis describes theanatomy of the 5-view Hyperactive Transaction Meta-Model (HTM5) in computation independent,platform independent and platform specific layers. The thesis also describes a domain specificlanguage for computation independent modelling in HTM5.The thesis has presented a complete meta-model for agent oriented cloud robotic systems and hasseveral simulated and real experiment-projects justifying HTM5 as a feasible meta-model.
38

Adoption of Big Data And Cloud Computing Technologies for Large Scale Mobile Traffic Analysis / L’adoption des technologies Big Data et Cloud Computing dans le cadre de l’analyse des données de trafic mobile

Ribot, Stephane 23 September 2016 (has links)
L’émergence des technologies Big Data et Cloud computing pour répondre à l’accroissement constant de la complexité et de la diversité des données constituent un nouvel enjeu de taille pour les entreprises qui, désormais, doivent prendre en compte ce nouveau paradigme. Les opérateurs de services mobiles sont un exemple de sociétés qui cherchent à valoriser et monétiser les données collectées de leur utilisateurs. Cette recherche a pour objectif d’analyser ce nouvel enjeu qui allie d’une part l’explosion du nombre des données à analyser, et d’autre part, la constante émergence de nouvelles technologies et de leur adoption. Dans cette thèse, nous abordons la question de recherche suivante: « Dans quelle mesure les technologies Cloud Computing et Big Data contribuent aux tâches menées par les Data Scientists? » Sur la base d’une approche hypothético-déductive relayée par les théories classiques de l’adoption, les hypothèses et le modèle conceptuel sont inspirés du modèle de l’adéquation de la tâche et de la technologie (TTF) de Goodhue. Les facteurs proposés incluent le Big Data et le Cloud Computing, la tâche, la technologie, l'individu, le TTF, l’utilisation et les impacts réalisés. Cette thèse aborde sept hypothèses qui adressent spécifiquement les faiblesses des modèles précédents. Une enquête a été conduite auprès de 169 chercheurs contribuant à l’analyse des données mobiles. Une analyse quantitative a été effectuée afin de démontrer la validité des mesures effectuées et d’établir la pertinence du modèle théorique proposé. L’analyse partielle des moindres carrés a été utilisée (partial least square) pour établir les corrélations entre les construits. Cette recherche délivre deux contributions majeures : le développement d'un construit (TTF) spécifique aux technologies Big Data et Cloud computing ainsi que la validation de ce construit dans le modèle d’adéquation des technologies Big data - Cloud Computing et de l’analyse des données mobiles. / A new economic paradigm is emerging as a result of enterprises generating and managing increasing amounts of data and looking for technologies like cloud computing and Big Data to improve data-driven decision making and ultimately performance. Mobile service providers are an example of firms that are looking to monetize the collected mobile data. Our thesis explores cloud computing determinants of adoption and Big Data determinants of adoption at the user level. In this thesis, we employ a quantitative research methodology and operationalized using a cross-sectional survey so temporal consistency could be maintained for all the variables. The TTF model was supported by results analyzed using partial least square (PLS) structural equation modeling (SEM), which reflects positive relationships between individual, technology and task factors on TTF for mobile data analysis.Our research makes two contributions: the development of a new TTF construct – task-Big Data/cloud computing technology fit model – and the testing of that construct in a model overcoming the rigidness of the original TTF model by effectively addressing technology through five subconstructs related to technology platform (Big Data) and technology infrastructure (cloud computing intention to use). These findings provide direction to mobile service providers for the implementation of cloud-based Big Data tools in order to enable data-driven decision-making and monetize the output from mobile data traffic analysis.
39

Towards federated social infrastructures for plug-based decentralized social networks / Vers des infrastructures sociales fédérées pour des réseaux sociaux décentralisés à base d'ordinateurs contraints

Ariyattu, Resmi 05 July 2017 (has links)
Dans cette thèse, nous abordons deux problèmes soulevés par les systèmes distribués décentralisés - le placement de réseaux logiques de façon compatible avec le réseau physique sous-jacent et la construction de cohortes d'éditeurs pour dans les systèmes d'édition collaborative. Bien que les réseaux logiques (overlay networks) été largement étudiés, la plupart des systèmes existant ne prennent pas ou prennent mal en compte la topologie du réseau physique sous-jacent, alors que la performance de ces systèmes dépend dans une grande mesure de la manière dont leur topologie logique exploite la localité présente dans le réseau physique sur lequel ils s'exécutent. Pour résoudre ce problème, nous proposons dans cette thèse Fluidify, un mécanisme décentralisé pour le déploiement d'un réseau logique sur une infrastructure physique qui cherche à maximiser la localité du déploiement. Fluidify utilise une stratégie double qui exploite à la fois les liaisons logiques d'un réseau applicatif et la topologie physique de son réseau sous-jacent pour aligner progressivement l'une avec l'autre. Le protocole résultant est générique, efficace, évolutif et peut améliorer considérablement les performances de l'ensemble. La deuxième question que nous abordons traite des plates-formes d'édition collaborative. Ces plates-formes permettent à plusieurs utilisateurs distants de contribuer simultanément au même document. Seuls un nombre limité d'utilisateurs simultanés peuvent être pris en charge par les éditeurs actuellement déployés. Un certain nombre de solutions pair-à-pair ont donc été proposées pour supprimer cette limitation et permettre à un grand nombre d'utilisateurs de collaborer sur un même document sans aucune coordination centrale. Ces plates-formes supposent cependant que tous les utilisateurs d'un système éditent le même jeu de document, ce qui est peu vraisemblable. Pour ouvrir la voie à des systèmes plus flexibles, nous présentons, Filament, un protocole décentralisé de construction de cohorte adapté aux besoins des grands éditeurs collaboratifs. Filament élimine la nécessité de toute table de hachage distribuée (DHT) intermédiaire et permet aux utilisateurs travaillant sur le même document de se retrouver d'une manière rapide, efficace et robuste en générant un champ de routage adaptatif autour d'eux-mêmes. L'architecture de Filament repose sur un ensemble de réseaux logiques auto-organisées qui exploitent les similarités entre jeux de documents édités par les utilisateurs. Le protocole résultant est efficace, évolutif et fournit des propriétés bénéfiques d'équilibrage de charge sur les pairs impliqués. / In this thesis, we address two issues in the area of decentralized distributed systems: network-aware overlays and collaborative editing. Even though network overlays have been extensively studied, most solutions either ignores the underlying physical network topology, or uses mechanisms that are specific to a given platform or applications. This is problematic, as the performance of an overlay network strongly depends on the way its logical topology exploits the underlying physical network. To address this problem, we propose Fluidify, a decentralized mechanism for deploying an overlay network on top of a physical infrastructure while maximizing network locality. Fluidify uses a dual strategy that exploits both the logical links of an overlay and the physical topology of its underlying network to progressively align one with the other. The resulting protocol is generic, efficient, scalable and can substantially improve network overheads and latency in overlay based systems. The second issue that we address focuses on collaborative editing platforms. Distributed collaborative editors allow several remote users to contribute concurrently to the same document. Only a limited number of concurrent users can be supported by the currently deployed editors. A number of peer-to-peer solutions have therefore been proposed to remove this limitation and allow a large number of users to work collaboratively. These decentralized solution assume however that all users are editing the same set of documents, which is unlikely to be the case. To open the path towards more flexible decentralized collaborative editors, we present Filament, a decentralized cohort-construction protocol adapted to the needs of large-scale collaborative editors. Filament eliminates the need for any intermediate DHT, and allows nodes editing the same document to find each other in a rapid, efficient and robust manner by generating an adaptive routing field around themselves. Filament's architecture hinges around a set of collaborating self-organizing overlays that utilizes the semantic relations between peers. The resulting protocol is efficient, scalable and provides beneficial load-balancing properties over the involved peers.
40

Partage des ressources dans le nuage de véhicules / Resource sharing in vehicular cloud

Azizian, Meysam January 2017 (has links)
Au cours des dernières années, on a observé l'intérêt croissant envers l'accessibilité à l'information et, en particulier, envers des approches innovantes utilisant les services à distance accessibles depuis les appareils mobiles à travers le monde. Parallèlement, la communication des véhicules, utilisant des capteurs embarqués et des dispositifs de communication sans fil, a été introduite pour améliorer la sécurité routière et l'expérience de conduite à travers ce qui est communément appelé réseaux véhiculaires (VANET). L'accès sans fil à l’Internet à partir des véhicules a déclenché l'émergence de nouveaux services pouvant être disponibles à partir ceux-ci. Par ailleurs, une extension du paradigme des réseaux véhiculaires a été récemment promue à un autre niveau. Le nuage véhiculaire (Vehicular Cloud) (VC) est la convergence ultime entre le concept de l’infonuagique (cloud computing) et les réseaux véhiculaires dans le but de l’approvisionnement et la gestion des services. Avec cette approche, les véhicules peuvent être connectés au nuage, où une multitude de services sont disponibles, ou ils peuvent aussi être des fournisseurs de services. Cela est possible en raison de la variété des ressources disponibles dans les véhicules: informatique, bande passante, stockage et capteurs. Dans cette thèse, on propose des méthodes innovantes et efficaces pour permettre la délivrance de services par des véhicules dans le VC. Plusieurs schémas, notamment la formation de grappes ou nuages de véhicules, la planification de transmission, l'annulation des interférences et l'affectation des fréquences à l'aide de réseaux définis par logiciel (SDN), ont été développés et leurs performances ont été analysées. Les schémas de formation de grappes proposés sont DHCV (un algorithme de clustering D-hop distribué pour VANET) et DCEV (une formation de grappes distribuée pour VANET basée sur la mobilité relative de bout en bout). Ces schémas de regroupement sont utilisés pour former dynamiquement des nuages de véhicules. Les systèmes regroupent les véhicules dans des nuages qui ne se chevauchent pas et qui ont des tailles adaptées à leurs mobilités. Les VC sont créés de telle sorte que chaque véhicule soit au plus D sauts plus loin d'un coordonnateur de nuage. La planification de transmission proposée implémente un contrôle d'accès moyen basé sur la contention où les conditions physiques du canal sont entièrement analysées. Le système d'annulation d'interférence permet d'éliminer les interférences les plus importantes; cela améliore les performances de planification d’utilisation de la bande passante et le partage des ressources dans les nuages construits. Enfin, on a proposé une solution à l'aide de réseaux définis par logiciel, SDN, où différentes bandes de fréquences sont affectées aux différentes liens de transmission de chaque VC afin d’améliorer les performances du réseau. / Abstract : In recent years, we have observed a growing interest in information accessibility and especially innovative approaches for making distant services accessible from mobile devices across the world. In tandem with this growth of interest, there was the introduction of vehicular communication, also known as vehicular ad hoc networks (VANET), leveraging onboard sensors and wireless communication devices to enhance road safety and driving experience. Vehicles wireless accessibility to the internet has triggered the emergence of service packages that can be available to or from vehicles. Recently, an extension of the vehicular networks paradigm has been promoted to a new level. Vehicular cloud (VC) is the ultimate convergence between the cloud computing concept and vehicular networks for the purpose of service provisioning and management. Vehicles can get connected to the cloud, where a multitude of services are available to them. Also vehicles can offer services and act as service providers rather than service consumers. This is possible because of the variety of resources available in vehicles: computing, bandwidth, storage and sensors. In this thesis, we propose novel and efficient methods to enable vehicle service delivery in VC. Several schemes including cluster/cloud formation, transmission scheduling, interference cancellation, and frequency assignment using software defined networking (SDN) have been developed and their performances have been analysed. The proposed cluster formation schemes are DHCV (a distributed D-hop clustering algorithm for VANET) and DCEV (a distributed cluster formation for VANET based on end-to-end relative mobility). These clustering schemes are used to dynamically form vehicle clouds. The schemes group vehicles into non-overlapping clouds, which have adaptive sizes according to their mobility. VCs are created in such a way that each vehicle is at most D-hops away from a cloud coordinator. The proposed transmission scheduling implements a contention-free-based medium access control where physical conditions of the channel are fully analyzed. The interference cancellation scheme makes it possible to remove the strongest interferences; this improves the scheduling performance and resource sharing inside the constructed clouds. Finally, we proposed an SDN based vehicular cloud solution where different frequency bands are assigned to different transmission links to improve the network performance.

Page generated in 0.0446 seconds