• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 288
  • 84
  • 22
  • 4
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 421
  • 170
  • 78
  • 62
  • 58
  • 51
  • 37
  • 32
  • 32
  • 30
  • 29
  • 28
  • 28
  • 28
  • 25
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Fog Computing based traffic Safety for Connected Vulnerable Road Users / Assurer la sécurité des usagers vulnérables de la route connectés grâce à leur Smartphones et au concept de Fog Computing

Jalew, Esubalew Alemneh 25 October 2019 (has links)
Chaque année, des millions de personnes meurent et beaucoup d'autres subissent des séquelles graves à la suite d'accidents de la route. Malgré une multitude d’initiatives, le nombre de cas mortels et d'accidents graves augmente chaque année en engendrant des problèmes préoccupants à la fois sociaux, économiques et sanitaires. En raison de leur nombre élevé et de l'absence de protection personnelle, plus de la moitié de ces décès concerne les usagers vulnérables (en anglais, vulnerable road users - VRU) regroupant les piétons, cyclistes et motocyclistes. Les appareils mobiles, combinés à la technologie de Fog Computing (ou informatique géodistribuée, ou même informatique en brouillard), représentent une solution réaliste à court terme pour les protéger en les avertissant de l’imminence d'un accident de circulation. L’omniprésence des appareils mobiles et leurs capacités de calcul élevées font de ces appareils un élément important à considérer dans les solutions de sécurité routière. Le Fog Computing offre des fonctionnalités adaptées aux applications de sécurité routière, puisqu’il s’agit d’une extension du Cloud Computing permettant de rapprocher les services informatiques, le stockage et le réseau au plus près des utilisateurs finaux. Par conséquent, dans cette thèse, nous proposons une architecture réseau sans infrastructure supplémentaire (PV-Alert) pour des fins de sécurité routière et reposant uniquement sur les appareils mobiles des VRU et des conducteurs sur la route avec l’aide du concept de Fog Computing. Les données géographiques et cinématiques de ces appareils sont collectées et envoyées périodiquement au serveur fog situé à proximité. Le serveur fog traite ces données en exécutant un algorithme de calcul de risque d’accident de circulation et renvoie des notifications en cas d'accident imminent. L’évaluation de cette architecture montre qu’elle est capable de générer des alertes en temps réel et qu’elle est plus performante que d’autres architectures en termes de fiabilité, d’évolutivité et de latence. / Annually, millions of people die and many more sustain non-fatal injuries because of road traffic crashes. Despite multitude of countermeasures, the number of causalities and disabilities owing to traffic accidents are increasing each year causing grinding social, economic, and health problems. Due to their high volume and lack of protective-shells, more than half of road traffic deaths are imputed to vulnerable road users (VRUs): pedestrians, cyclists and motorcyclists. Mobile devices combined with fog computing can provide feasible solutions to protect VRUs by predicting collusions and warning users of an imminent traffic accident. Mobile devices’ ubiquity and high computational capabilities make the devices an important components of traffic safety solutions. Fog computing has features that suits to traffic safety applications as it is an extension of cloud computing that brings down computing, storage, and network services to the proximity of end user. Therefore, in this thesis, we have proposed an infrastructure-less traffic safety architecture that depends on fog computing and mobile devices possessed by VRUs and drivers. The main duties of mobile devices are extracting their positions and other related data and sending cooperative awareness message to a nearby fog server using wireless connection. The fog server estimates collision using a collision prediction algorithm and sends an alert message, if an about-to-occur collision is predicted. Evaluation results shows that the proposed architecture is able to render alerts in real time. Moreover, analytical and performance evaluations depict that the architecture outperforms other related road safety architectures in terms of reliability, scalability and latency. However, before deploying the architecture, challenges pertaining to weaknesses of important ingredients of the architecture should be treated prudently. Position read by mobile devices are not accurate and do not meet maximum position sampling rates traffic safety applications demand. Moreover, continuous and high rate position sampling drains mobile devices battery quickly. From fog computing’s point of view, it confronts new privacy and security challenges in addition to those assumed from cloud computing. For aforementioned challenges, we have proposed new solutions: (i) In order to improve GPS accuracy, we have proposed an efficient and effective two-stage map matching algorithm. In the first stage, GPS readings obtained from smartphones are passed through Kalman filter to smooth outlier readings. In the second stage, the smoothed positions are mapped to road segments using online time warping algorithm. (ii) position sampling frequency requirement is fulfilled by an energy efficient location prediction system that fuses GPS and inertial sensors’ data. (iii) For energy efficiency, we proposed an energy efficient fuzzy logic-based adaptive beaconing rate management that ensures safety of VRUs. (iv) finally, privacy and security issues are addressed indirectly using trust management system. The two-way subjective logic-based trust management system enables fog clients to evaluate the trust level of fog servers before awarding the service and allows the servers to check out the trustworthiness of the service demanders. Engaging omnipresent mobile device and QoS-aware fog computing paradigm in active traffic safety applications has the potential to reduce overwhelming number of traffic accidents on VRUs.
362

Les pratiques de marché en éducation et la cohésion scolaire au Québec

Lamontagne, Guillaume 02 1900 (has links)
Au cours des dernières décennies, l'évolution du système éducatif québécois a été caractérisée par des logiques du marché. En accordant aux parents la liberté de choisir l’école pour leurs enfants et à l’établissement la possibilité de sélectionner ses élèves, les pouvoirs politiques ont ouvert la porte à la compétition intra et inter établissements (Kamanzi, 2018, 2019). Cette dynamique du marché accentue, entre autres, des inégalités scolaires et sociales où les élèves sont séparés selon leurs capacités et, de façon implicite, leur origine sociale (Desjardins, Lessard et Blais, 2011; Marcotte-Fournier, 2015; Marcotte-Fournier et al., 2016; Larose, 2016, Hurteau et Duclos, 2017). À partir des données de l’enquête Pisa 2015, nous étudions les effets des pratiques de marché sur la cohésion scolaire. Celle-ci est analysée à travers les sentiments d’appartenance, de confiance et de coopération chez les élèves du secondaire. Les analyses montrent que la stratification scolaire et la présence de compétition sont liées à la cohésion scolaire. D'une part, les élèves des écoles privées sont ceux qui maintiennent une forte cohésion dans leur environnement scolaire. D'autre part, plus il y a de concurrence au sein de l’établissement, plus le sentiment d'appartenance est élevé. À partir de ces constats, l’étude suggère quelques pistes d’interprétation pour mieux comprendre la nature de la compétition, mais aussi envisager les moyens d'établir une cohabitation saine entre la cohésion et les logiques du marché scolaire dans le contexte du système scolaire québécois. / Over the past few decades, market forces have characterized the evolution of Quebec’s education system. By giving parents the freedom to choose the school that their children attend and schools the opportunity to select their students, political leaders have opened the door to intra- and inter-school competition (Kamanzi, 2018, 2019). This results, among other things, in educational and social inequalities where students are separated according to their abilities and, implicitly, their social background (Desjardins, Lessard and Blais, 2011; Marcotte-Fournier, 2015; Marcotte-Fournier et al., 2016; Larose, 2016, Hurteau and Duclos, 2017). Using data from the Pisa 2015 survey, we study the effects of market practices on school cohesion. We analyze this phenomenon through the feelings of belonging, trust and cooperation among secondary school students. Our analyses show that school stratification and the presence of competition are linked to school cohesion. On the one hand, students in private schools are those who maintain a strong cohesion in their school environment. On the other hand, the more competition there is within the institution, the higher the sense of belonging. Based on these findings, the study suggests some possible interpretations to better understand the nature of competition, but also to consider ways to establish a healthy cohabitation between cohesion and the logic of school markets in the context of Quebec’s school system.
363

Vers une plateforme informatique pour l'expérimentation d'outils de classification

Bokhabrine, Ayoub January 2019 (has links) (PDF)
No description available.
364

Towards robust prediction of the dynamics of the Antarctic ice sheet: Uncertainty quantification of sea-level rise projections and grounding-line retreat with essential ice-sheet models / Vers des prédictions robustes de la dynamique de la calotte polaire de l'Antarctique: Quantification de l'incertitude sur les projections de l'augmentation du niveau des mers et du retrait de la ligne d'ancrage à l'aide de modèles glaciologiques essentiels

Bulthuis, Kevin 29 January 2020 (has links) (PDF)
Recent progress in the modelling of the dynamics of the Antarctic ice sheet has led to a paradigm shift in the perception of the Antarctic ice sheet in a changing climate. New understanding of the dynamics of the Antarctic ice sheet now suggests that the response of the Antarctic ice sheet to climate change will be driven by instability mechanisms in marine sectors. As concerns have grown about the response of the Antarctic ice sheet in a warming climate, interest has grown simultaneously in predicting with quantified uncertainty the evolution of the Antarctic ice sheet and in clarifying the role played by uncertainties in predicting the response of the Antarctic ice sheet to climate change. Essential ice-sheet models have recently emerged as computationally efficient ice-sheet models for large-scale and long-term simulations of the ice-sheet dynamics and integration into Earth system models. Essential ice-sheet models, such as the fast Elementary Thermomechanical Ice Sheet (f.ETISh) model developed at the Université Libre de Bruxelles, achieve computational tractability by representing essential mechanisms and feedbacks of ice-sheet thermodynamics through reduced-order models and appropriate parameterisations. Given their computational tractability, essential ice-sheet models combined with methods from the field of uncertainty quantification provide opportunities for more comprehensive analyses of the impact of uncertainty in ice-sheet models and for expanding the range of uncertainty quantification methods employed in ice-sheet modelling. The main contributions of this thesis are twofold. On the one hand, we contribute a new assessment and new understanding of the impact of uncertainties on the multicentennial response of the Antarctic ice sheet. On the other hand, we contribute new methods for uncertainty quantification of geometrical characteristics of the spatial response of physics-based computational models, with, as a motivation in glaciology, a focus on predicting with quantified uncertainty the retreat of the grounded region of the Antarctic ice sheet. For the first contribution, we carry out new probabilistic projections of the multicentennial response of the Antarctic ice sheet to climate change using the f.ETISh model. We apply methods from the field of uncertainty quantification to the f.ETISh model to investigate the influence of several sources of uncertainty, namely sources of uncertainty in atmospheric forcing, basal sliding, grounding-line flux parameterisation, calving, sub-shelf melting, ice-shelf rheology, and bedrock relation, on the continental response on the Antarctic ice sheet. We provide new probabilistic projections of the contribution of the Antarctic ice sheet to future sea-level rise; we carry out stochastic sensitivity analysis to determine the most influential sources of uncertainty; and we provide new probabilistic projections of the retreat of the grounded portion of the Antarctic ice sheet. For the second contribution, we propose to address uncertainty quantification of geometrical characteristics of the spatial response of physics-based computational models within the probabilistic context of the random set theory. We contribute to the development of the concept of confidence sets that either contain or are contained within an excursion set of the spatial response with a specified probability level. We propose a new multifidelity quantile-based method for the estimation of such confidence sets and we demonstrate the performance of the proposed method on an application concerned with predicting with quantified uncertainty the retreat of the Antarctic ice sheet. In addition to these two main contributions, we contribute to two additional pieces of research pertaining to the computation of Sobol indices in global sensitivity analysis in small-data settings using the recently introduced probabilistic learning on manifolds (PLoM) and to a multi-model comparison of the projections of the contribution of the Antarctic ice sheet to global mean sea-level rise. / Les progrès récents effectués dans la modélisation de la dynamique de la calotte polaire de l'Antarctique ont donné lieu à un changement de paradigme vis-à-vis de la perception de la calotte polaire de l'Antarctique face au changement climatique. Une meilleure compréhension de la dynamique de la calotte polaire de l'Antarctique suggère désormais que la réponse de la calotte polaire de l'Antarctique au changement climatique sera déterminée par des mécanismes d'instabilité dans les régions marines. Tandis qu'un nouvel engouement se porte sur une meilleure compréhension de la réponse de la calotte polaire de l'Antarctique au changement climatique, un intérêt particulier se porte simultanément vers le besoin de quantifier les incertitudes sur l'évolution de la calotte polaire de l'Antarctique ainsi que de clarifier le rôle joué par les incertitudes sur le comportement de la calotte polaire de l'Antarctique en réponse au changement climatique. D'un point de vue numérique, les modèles glaciologiques dits essentiels ont récemment été développés afin de fournir des modèles numériques efficaces en temps de calcul dans le but de réaliser des simulations à grande échelle et sur le long terme de la dynamique des calottes polaires ainsi que dans l'optique de coupler le comportement des calottes polaires avec des modèles globaux du sytème terrestre. L'efficacité en temps de calcul de ces modèles glaciologiques essentiels, tels que le modèle f.ETISh (fast Elementary Thermomechanical Ice Sheet) développé à l'Université Libre de Bruxelles, repose sur une modélisation des mécanismes et des rétroactions essentiels gouvernant la thermodynamique des calottes polaires au travers de modèles d'ordre réduit et de paramétrisations. Vu l'efficacité en temps de calcul des modèles glaciologiques essentiels, l'utilisation de ces modèles en complément des méthodes du domaine de la quantification des incertitudes offrent de nombreuses opportunités afin de mener des analyses plus complètes de l'impact des incertitudes dans les modèles glaciologiques ainsi que de développer de nouvelles méthodes du domaine de la quantification des incertitudes dans le cadre de la modélisation glaciologique. Les contributions de cette thèse sont doubles. D'une part, nous contribuons à une nouvelle estimation et une nouvelle compréhension de l'impact des incertitudes sur la réponse de la calotte polaire de l'Antarctique dans les prochains siècles. D'autre part, nous contribuons au développement de nouvelles méthodes pour la quantification des incertitudes sur les caractéristiques géométriques de la réponse spatiale de modèles physiques numériques avec, comme motivation en glaciologie, un intérêt particulier vers la prédiction sous incertitudes du retrait de la région de la calotte polaire de l'Antarctique en contact avec le lit rocheux. Dans le cadre de la première contribution, nous réalisons de nouvelles projections probabilistes de la réponse de la calotte polaire de l'Antarctique au changement climatique au cours des prochains siècles à l'aide du modèle numérique f.ETISh. Nous appliquons des méthodes du domaine de la quantification des incertitudes au modèle numérique f.ETISh afin d'étudier l'impact de différentes sources d'incertitude sur la réponse continentale de la calotte polaire de l'Antarctique. Les sources d'incertitude étudiées sont relatives au forçage atmosphérique, au glissement basal, à la paramétrisation du flux à la ligne d'ancrage, au vêlage, à la fonte sous les barrières de glace, à la rhéologie des barrières de glace et à la relaxation du lit rocheux. Nous réalisons de nouvelles projections probabilistes de la contribution de la calotte polaire de l'Antarctique à l'augmentation future du niveau des mers; nous réalisons une analyse de sensibilité afin de déterminer les sources d'incertitude les plus influentes; et nous réalisons de nouvelles projections probabilistes du retrait de la région de la calotte polaire de l'Antarctique en contact avec le lit rocheux.Dans le cadre de la seconde contribution, nous étudions la quantification des incertitudes sur les caractéristiques géométriques de la réponse spatiale de modèles physiques numériques dans le cadre de la théorie des ensembles aléatoires. Dans le cadre de la théorie des ensembles aléatoires, nous développons le concept de régions de confiance qui contiennent ou bien sont inclus dans un ensemble d'excursion de la réponse spatiale du modèle numérique avec un niveau donné de probabilité. Afin d'estimer ces régions de confiance, nous proposons de formuler l'estimation de ces régions de confiance dans une famille d'ensembles paramétrés comme un problème d'estimation de quantiles d'une variable aléatoire et nous proposons une nouvelle méthode de type multifidélité pour estimer ces quantiles. Finalement, nous démontrons l'efficacité de cette nouvelle méthode dans le cadre d'une application relative au retrait de la région de la calotte polaire de l'Antarctique en contact avec le lit rocheux. En plus de ces deux contributions principales, nous contribuons à deux travaux de recherche additionnels. D'une part, nous contribuons à un travail de recherche relatif au calcul des indices de Sobol en analyse de sensibilité dans le cadre de petits ensembles de données à l'aide d'une nouvelle méthode d'apprentissage probabiliste sur des variétés géométriques. D'autre part, nous fournissons une comparaison multimodèle de différentes projections de la contribution de la calotte polaire de l'Antarctique à l'augmentation du niveau des mers. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
365

Estimateur bootstrap de la variance d'un estimateur de quantile en contexte de population finie

McNealis, Vanessa 12 1900 (has links)
Ce mémoire propose une adaptation lisse de méthodes bootstrap par pseudo-population aux fins d'estimation de la variance et de formation d'intervalles de confiance pour des quantiles de population finie. Dans le cas de données i.i.d., Hall et al. (1989) ont montré que l'ordre de convergence de l'erreur relative de l’estimateur bootstrap de la variance d’un quantile échantillonnal connaît un gain lorsque l'on rééchantillonne à partir d’une estimation lisse de la fonction de répartition plutôt que de la fonction de répartition expérimentale. Dans cet ouvrage, nous étendons le principe du bootstrap lisse au contexte de population finie en le mettant en œuvre au sein des méthodes bootstrap par pseudo-population. Étant donné un noyau et un paramètre de lissage, cela consiste à lisser la pseudo-population dont sont issus les échantillons bootstrap selon le plan de sondage initial. Deux plans sont abordés, soit l'échantillonnage aléatoire simple sans remise et l'échantillonnage de Poisson. Comme l'utilisation des algorithmes proposés nécessite la spécification du paramètre de lissage, nous décrivons une méthode de sélection par injection et des méthodes de sélection par la minimisation d'estimés bootstrap de critères d'ajustement sur une grille de valeurs du paramètre de lissage. Nous présentons des résultats d'une étude par simulation permettant de montrer empiriquement l'efficacité de l'approche lisse par rapport à l'approche standard pour ce qui est de l'estimation de la variance d'un estimateur de quantile et des résultats plus mitigés en ce qui concerne les intervalles de confiance. / This thesis introduces smoothed pseudo-population bootstrap methods for the purposes of variance estimation and the construction of confidence intervals for finite population quantiles. In an i.i.d. context, Hall et al. (1989) have shown that resampling from a smoothed estimate of the distribution function instead of the usual empirical distribution function can improve the convergence rate of the bootstrap variance estimator of a sample quantile. We extend the smoothed bootstrap to the survey sampling framework by implementing it in pseudo-population bootstrap methods. Given a kernel function and a bandwidth, it consists of smoothing the pseudo-population from which bootstrap samples are drawn using the original sampling design. Two designs are discussed, namely simple random sampling and Poisson sampling. The implementation of the proposed algorithms requires the specification of the bandwidth. To do so, we develop a plug-in selection method along with grid search selection methods based on bootstrap estimates of two performance metrics. We present the results of a simulation study which provide empirical evidence that the smoothed approach is more efficient than the standard approach for estimating the variance of a quantile estimator together with mixed results regarding confidence intervals.
366

Lightweight serverless protocols for the internet of things / Les protocoles de sécurité serverless légers pour l’internet des objets

Mtita, Collins 13 June 2016 (has links)
Les avancées technologiques permettent d'intégrer des capteurs et des modules de communication dans les objets du quotidien pour les rendre intelligents et faciliter leur intégration sur l'Internet. L'Internet du futur sera sans nul doute celui des objets connectés. Les objets connectés génèrent, collectent, stockent et partagent des informations entre eux et aussi avec les serveurs d'authentification centralisés. La plupart des informations collectées doivent être protégées pendant le stockage et le transfert. Par le passé, divers protocoles assurant une sécurité robuste basés sur la cryptographie asymétrique et d’autres sur la cryptographie symétrique ont été proposés dans la littérature. Du fait que les objets connectés possèdent de faibles capacités de calcul, de mémoire et d'énergie, et que l'accès au medium radio est très consommateur en ressources, les protocoles cryptographiques traditionnels ne sont pas adaptés aux objets connectés. Il y a lieu donc d'adapter ou de concevoir des protocoles propres et conformes à leurs exigences. Dans cette thèse, nous abordons les défis de sécurité et de vie privée pertinents aux systèmes pervasifs avec des contraintes de ressources strictes. Nous regardons les protocoles d'authentification serverless, qui sont des mécanismes d'authentification qui ne nécessitent pas la présence du serveur central au cours de la phase d'authentification entre deux objets connectés. Tout d'abord, nous fournissons les caractéristiques et les besoins pour les protocoles serverless. Grâce à ces besoins et caractéristiques, nous avons fait des recherches, des analyses complètes et des comparaisons des protocoles serverless existants en termes de sécurité, de vie privée et de performances. Nous examinons leurs capacités à résister à diverses attaques et leurs aptitudes à minimiser l’usage des ressources. Après quoi, notre objectif est de proposer des protocoles de sécurité serverless permettant aux objets de s’authentifier tout en garantissant efficacité, passage à l’échelle et efficacité énergétique, l'énergie étant une ressource très critique qui a une influence directe sur la durée de vie d’un objet connecté. Trois nouvelles contributions sont proposées dans cette thèse. Notre première contribution est un protocole léger serverless d'authentification mutuelle pour les objets connectés hétérogènes. La première contribution fournit trois avantages par rapport aux protocoles existants. Cette contribution répond aux exigences des systèmes pervasifs. La validation de notre proposition a été faite en utilisant l'outil AVISPA et la validation informelle en utilisant sécurité et de vie privée des jeux. Notre deuxième contribution comprend deux protocoles complémentaires dans le domaine des technologies RFID. Le premier protocole vise à l'authentification de masse entre un lecteur RFID et un groupe d'étiquettes tandis que le deuxième protocole effectue une recherche sécurisée pour une étiquette cible parmi un groupe d'étiquettes dans le voisinage du lecteur. Les deux protocoles proposés tiennent compte des contraintes de ressources des étiquettes RFID. Après une étude approfondie des protocoles serverless, nous avons proposé une troisième contribution, un guide pour la conception des protocoles serverless sécurisé et efficaces pour les systèmes pervasifs. Le guide contient six principes et six meilleures pratiques en vue d'élaborer des protocoles serverless. Le guide est destiné à aider à la conception de protocoles serverless efficaces, sécurisés et simples en évitant des erreurs couramment faites dans les protocoles existants / This thesis addresses the security and privacy challenges relevant to the resource constrained devices in the era of pervasive computing. Pervasive computing, a term coined by Schechter to describe the idea of computing services available anytime, anywhere and on demand, is characterized by seamless interactions between heterogeneous players in the Internet. This phenomenon allows intelligent chips, sensors or microcontrollers to be embedded into everyday objects to enable them generate, communicate and share information. Pervasive computing accelerates technological evolution by integrating small and resource constrained devices to the Internet arena, eventually opening doors to new services requiring seamless interactions and integrations with the existing technologies, infrastructures and services. The nature of the information generated, stored and shared by resource constrained devices may require proper security and privacy guarantees. Towards that end, the classical security solutions are not ideal candidates to solve the security and privacy challenges in pervasive systems for two reasons. First, classical security protocols require a lot of resources from the host devices while most of the pervasive devices have very strict resource constraints. Second, most classical security solutions work in a connected mode, which requires constant communication between devices and centralized servers for authentication and authorization purposes. However, pervasive devices may be working in isolated areas with intermittent network coverage and connectivity. Thus, it is ideal to come up with alternative solutions suitable for heterogeneous pervasive devices to smoothly interact, authenticate and securely share information. One of the suitable alternative solutions is the serverless protocols. The term “serverless protocol” refers to the mechanism of enabling centrally controlled devices to autonomously authenticate one another, or other heterogeneous devices, without an active participation of the centralized authentication or authorization servers. Serverless protocols prioritize on securing proximity communication between heterogeneous devices while optimizing on the little resources available. In this thesis, we tackle the challenges of pervasive systems by proposing lightweight and efficient serverless protocols for authenticating heterogeneous pervasive devices during proximity communication. Our proposed protocols derive their originality from the fact that they do not require the communicating parties to have prior relationships with each other, nor to have any previously shared authentication information with each other. Moreover, our proposed solutions incorporate context information to enforce automatic parameter expiry. This property is not supported by most of the earlier versions of the serverless protocol schemes, hence making them vulnerable to different attacks. Three novel contributions are proposed in this thesis. First, we propose a serverless lightweight mutual authentication protocol for heterogeneous devices. The first contribution includes a formal validation using the AVISPA tool. Second, we propose two complementing protocols using RFID (Radio-Frequency Identification) as a core technology. The first protocol performs mass authentication between an RFID reader and a group of tags and the second protocol performs a secure search for a target tag among a group of tags. The second contribution includes two formal validations; one is done using the AVISPA tool and the other is done using the CryptoVerif tool. After a thorough study of serverless protocols, we propose our third contribution, a concise guide on how to develop secure and efficient serverless protocols relevant to the pervasive systems
367

Privacy-preserving spectrum sharing / Un partage de spectre préservant la confidentialité

Ben-Mosbah, Azza 24 May 2017 (has links)
Les bandes des fréquences, telles qu'elles sont aménagées aujourd'hui, sont statiquement allouées. Afin d'améliorer la productivité et l'efficacité de l'utilisation du spectre, une nouvelle approche a été proposée : le "partage dynamique du spectre". Les régulateurs, les industriels et les scientifiques ont examiné le partage des bandes fédérales entre les détenteurs de licences (utilisateurs primaires) et les nouveaux entrants (utilisateurs secondaires). La nature d'un tel partage peut faciliter les attaques d'inférence et mettre en péril les paramètres opérationnels des utilisateurs primaires. Par conséquent, le but de cette thèse est d'améliorer la confidentialité des utilisateurs primaires tout en permettant un accès secondaire au spectre. Premièrement, nous présentons une brève description des règles de partage et des exigences en termes de confidentialité dans les bandes fédérales. Nous étudions également les techniques de conservation de confidentialité (obscurcissement) proposées dans les domaines d'exploration et d'édition de données pour contrecarrer les attaques d'inférence. Ensuite, nous proposons et mettons en œuvre notre approche pour protéger la fréquence et la localisation opérationnelles contre les attaques d'inférence. La première partie étudie la protection de la fréquence opérationnelle en utilisant un obscurcissement inhérent et explicite pour préserver la confidentialité. La deuxième partie traite la protection de la localisation opérationnelle en utilisant la confiance comme principale contre-mesure pour identifier et atténuer un risque d'inférence. Enfin, nous présentons un cadre axé sur les risques qui résume notre travail et s'adapte à d'autres approches de protection de la confidentialité. Ce travail est soutenu par des modèles, des simulations et des résultats qui focalisent sur l'importance de quantifier les techniques de préservation de la confidentialité et d'analyser le compromis entre la protection de la confidentialité et l'efficacité du partage du spectre / Radio frequencies, as currently allocated, are statically managed. Spectrum sharing between commercial users and incumbent users in the Federal bands has been considered by regulators, industry, and academia as a great way to enhance productivity and effectiveness in spectrum use. However, allowing secondary users to share frequency bands with sensitive government incumbent users creates new privacy threats in the form of inference attacks. Therefore, the aim of this thesis is to enhance the privacy of the incumbent while allowing secondary access to the spectrum. First, we present a brief description of different sharing regulations and privacy requirements in Federal bands. We also survey the privacy-preserving techniques (i.e., obfuscation) proposed in data mining and publishing to thwart inference attacks. Next, we propose and implement our approach to protect the operational frequency and location of the incumbent operations from inferences. We follow with research on frequency protection using inherent and explicit obfuscation to preserve the incumbent's privacy. Then, we address location protection using trust as the main countermeasure to identify and mitigate an inference risk. Finally, we present a risk-based framework that integrates our work and accommodates other privacy-preserving approaches. This work is supported with models, simulations and results that showcase our work and quantify the importance of evaluating privacy-preserving techniques and analyzing the trade-off between privacy protection and spectrum efficiency
368

Policy-based usage control for trustworthy data sharing in smart cities / Contrôle des politiques d’accès pour les relations de confiance dans les données des smart cities

Cao Huu, Quyet 08 June 2017 (has links)
Dans le domaine de “smart cities” ou “villes connectées”, les technologies de l’information et de la communication sont intégrées aux services traditionnels de la ville (eau, électricité, gaz, transports collectifs, équipements publics, bâtiments, etc.) pour améliorer la qualité des services urbains ou encore pour réduire les coûts. Les données dans la ville connectée sont généralement produites par une grande variété d’acteurs. Ces données devraient être partagées entre diverses applications ou services. Or, il y a un problème, comment les acteurs peuvent-ils exercer un contrôle sur la façon dont leurs données vont être utilisées? C’est important car pour encourager le partage des données, nous devons établir des relations de confiance entre acteurs. Les acteurs ont confiance s’ils ont la capacité à contrôler l’utilisation de leurs données. Nous prendrons en compte les obligations définies par les acteurs pour leurs données : (i) Abstraction de certaines informations, (ii) Granularité spatio-temporelle, (iii) Classification des acteurs et des objectifs, et (iv) Monétisation des données. Mes contributions sont: (i) Un modèle de contrôle d’utilisation des données. Ce modèle répond aux obligations définies par les acteurs pour leur données. (ii) Une plateforme en tant que service. La plateforme a rajouté des composants nécessaire pour permettre la transparence et la traçabilité d’utilisation des données basée sur le modèle. (iii) Un outil de visualisation. C’est l’implémentation d’un prototype pour que les acteurs puissent exercer un contrôle sur la façon dont leurs données vont être utilisées. (iv) Une évaluation de la performance et l’impact de notre solution. Ces solutions permettent l’établissement des relations de confiance pour le partage des données de Smart Cities basées sur le modèle de contrôle d’utilisation des données. Les résultats de ma thèse peuvent être appliqués à la plateforme IoT Datavenue d’Orange / In smart cities, Information and Communication Technologies, in particular Internet of Things (IoT) Technologies, are integrated into traditional services of our city, for example waste management, air pollution monitoring, and parking to improve quality while reducing costs of these services. IoT data in this context are generated by different actors, such as service providers, developers, and municipal authorities. These data should be shared among applications or services. However, in traditional scenario, there is no sharing of IoT data between them. Each actor consumes data from sensors deployed on behalf of that actor, and network infrastructure maybe shared. In order to encourage IoT data sharing, we need to establish the confidence between the actors. Exercising control over the usage of data by other actors is critical in building trust. Thus, the actors should have an ability to exercise control on how their data are going to be used. This major issue have not been treated in IoT namely Usage Control. In this thesis, we take into account obligations defined by the actors for their data (i) Abstraction of certain information, (ii) Spatial and temporal granularity, (iii) Classification of actors and purposes, and (iv) Monetization of data. For example, requirements of data usage in Intelligent parking applications are (i) Data owners have full access to all the details, (ii) Municipal authorities can access the average occupancy of parking place per street on an hourly basis, (iii) Commercial service providers can access only statistical data over a zone and a weekly basis, and (iv) Monetization of data can be based on subscription types or users roles. Thesis contributions include: (i) Policy-based Data Usage Control Model (DUPO) responds to the obligations defined by actors to their data. (ii) Trustworthy Data Sharing Platform as a Service allows transparency and traceability of data usage with open APIs based on the DUPO and Semantic technologies. (iii) Visualization Tool Prototype enables actors to exercise control on how their data will be used. (iv) Evaluation of the performance and the impact of our solution. The results show that the performance of the added trust is not affecting of the system. Mistrust might hamper public acceptance of IoT data sharing in smart cities. Our solution is key which will establish the trust between data owners and consumers by taking into account the obligations of the data owners. It is useful for data operators who would like to provide an open data platform with efficient enablers to partners, data-based services to clients, and ability to attract partners to share data on their platforms
369

Éléments de game design pour le développement d'une attitude réflexive chez le joueur / Game design elements for developing reflective decision making in players

Constant, Thomas 27 November 2017 (has links)
Cette thèse présente les résultats d'expérimentations visant à mettre en évidence des mécaniques de jeu utiles pour aider le joueur à développer une posture plus réflexive sur la manière dont il prend une décision. Notre approche consiste à mettre le joueur en défaut en exploitant ses biais de raisonnement, permettant dans un second temps de l’amener à mieux cerner ses processus décisionnels. A ce titre, nous cherchons à placer le joueur en excès de confiance dans le cadre spécifique d'un jeu vidéo. Pour mesurer le comportement, le joueur doit utiliser un outil intégré au déroulement de la partie : un système de mise au travers duquel il renseigne sa confiance en ses chances de succès. Deux jeux spécifiques ont été développés en vue de mesurer l’influence des biais sur la confiance du joueur : un se focalise sur l’influence des biais d’ancrage et de confirmation, l’autre sur l’influence du biais de l'effet difficile / facile d’autre part. / This thesis introduces the results of experiments testing specific game mechanics to help the players to develop reflective decision making. Our approach is, firstly, to bias the players’ judgment. Then, through the bias awareness, we want to help them to have a better understanding about their judgment processes. To do this, we try to place the player in an overconfident state while playing video games. To measure their behavior, the players must use an integrated tool to the game progression: a bet system through which they assess on their confidence in their chances of success. Two games were developed to measure the influence of the biases on the confidence of the player: one focusing on the effect of anchoring and confirmation biases, another one on the hard / easy effect.
370

Gestion de confiance et solutions de sécurité pour les réseaux véhiculaires / Trust management and security solutions for vehicular networks

Hasrouny, Hamssa 24 July 2018 (has links)
Les réseaux véhiculaires sont constitués de véhicules capables de s’échanger des informations par voie radio afin d'améliorer la sécurité routière (diffusion de messages d'alerte en cas d’accident ou de ralentissement anormal, conduite collaborative entre véhicules…) ou de permettre aux passager d’accéder à l’Internet (applications de réseaux collaboratifs, jeux interactifs, gestion des espaces libres dans les parkings…). Malheureusement, les messages liés à la sécurité routière échangés entre les véhicules peuvent être falsifiés ou éliminés par des entités malveillantes afin de causer des accidents et mettre en péril la vie des personnes. Dans cette thèse, nous nous concentrons particulièrement sur la définition, conception et l’évaluation d’une solution de sécurité pour les communications entre véhicules afin d’assurer une communication sécurisée et un bon niveau de confiance entre les différents véhicules participants. En adoptant un modèle basé sur la formation de groupes, nous procédons à l'évaluation de niveau de confiance des véhicules participants à ces réseaux et nous développons un modèle de confiance qui sert à analyser leurs comportements dans leurs groupes respectifs tout en respectant la vie privée des participants et en maintenant une surcharge minimale dans le réseau. Ensuite, nous proposons un modèle hiérarchique et modulaire permettant la détection de comportement malveillant et la gestion de la révocation des certificats des véhicules concernés / VANETs (Vehicular Ad-hoc Networks) consist of vehicles capable of exchanging information by radio to improve road safety (alerts in case of accidents or in case of abnormal slowdowns, collaborative driving…) or allow internet access for passengers (collaborative networks, infotainment, etc.). Road safety messages exchanged between vehicles may be falsified or eliminated by malicious entities in order to cause accidents and endanger people life. In this thesis, we focus on defining, designing and evaluating a security solution for V2V communications in VANET, to ensure a secure communication and a good level of confidence between the different participating vehicles. Adopting a group-based model, we consider the Trustworthiness evaluation of vehicles participating in VANET and we develop a Trust Model to analyze the behavior of the vehicles in the group while preserving the privacy of the participants and maintaining low network overhead. We then propose a hierarchical and modular framework for Misbehavior Detection and Revocation Management

Page generated in 0.255 seconds