• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 112
  • 32
  • 4
  • 1
  • Tagged with
  • 149
  • 85
  • 71
  • 48
  • 20
  • 19
  • 17
  • 16
  • 13
  • 13
  • 13
  • 12
  • 12
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Effet de l'exposition en réalité virtuelle pour le traitement des problèmes de jeu de hasard et d'argent

Bergeron, Claudia 22 February 2024 (has links)
Titre de l'écran-titre (visionné le 14 février 2024) / La thérapie cognitivo-comportementale est le traitement privilégié pour les problèmes de jeu. Toutefois, cette intervention présente encore quelques défis, tels que des taux élevés d'abandon de traitement et des rechutes fréquentes. La restructuration cognitive, considéré comme l'élément central du traitement, peut s'avérer difficile pour les patients. Dans de telles situations, l'utilisation de la thérapie comportementale par exposition pourrait agir comme alternative au traitement usuel. Via l'exposition, les joueurs peuvent développer leur confiance en leur capacité à résister au désir de jouer, leur permettant ainsi de faire face plus efficacement à toute situation suscitant l'envie de jouer. La réalité virtuelle (RV) permettrait d'éveiller chez le joueur un désir de jouer comparable à celui ressenti en temps réel, et ce de façon plus fidèle que l'exposition en imagination. Cependant, aucune étude n'a encore examiné l'utilisation de la RV en tant qu'outil visant le développement de la confiance du joueur en sa capacité à résister au désir de jouer, autrement dit son sentiment d'efficacité personnelle (SEP). Ce mémoire explore l'efficacité de l'exposition en RV pour augmenter le SEP des joueurs. Il est constitué d'une étude à cas unique qui vise à évaluer l'effet d'un traitement d'exposition en RV sur le SEP, le désir de jouer, les pensées dysfonctionnelles, les comportements de jeu et le nombre de critères diagnostiques du trouble lié au jeu d'argent (TLJA). De plus, l'étude vise à recueillir des données sur la satisfaction et l'implication des participantes dans le traitement. Deux femmes à la retraite, présentant un problème de jeu aux appareils de loterie vidéo, ont participé à un programme de traitement de six séances impliquant des sessions d'expositions en RV. Les méthodes de collectes de données incluaient la tenue de journaux d'auto-enregistrements quotidiens et la passation de questionnaires auto-administrés. Des analyses visuelles, statistiques et descriptives ont été effectuées pour évaluer l'effet du traitement sur les variables à l'étude. Les résultats montrent une diminution des comportements de jeu et de la sévérité du TLJA chez les deux participantes, et ces améliorations se sont maintenues un mois après le traitement. Toutefois, l'effet sur les autres variables étudiées est mitigé, alors qu'une seule participante montre des améliorations significatives au niveau du SEP, du désir de jouer et des pensées dysfonctionnelles. La synthèse des résultats montre que certains facteurs pourraient influencer les résultats du traitement, tel que l'objectif ciblé, le niveau de motivation et des limitations liés à l'âge, au revenu et à l'accessibilité du jeu. Des études supplémentaires avec des échantillons plus larges permettront d'en savoir davantage sur l'efficacité de ce traitement.
102

Contribution à la flexibilité et à la rapidité de conception des systèmes automatisés avec l'utilisation d'UML

Chiron, Fabien 01 December 2008 (has links) (PDF)
La dynamique actuelle des marchés entraîne avec elle une complexité croissante des demandes du client et nécessairement des contraintes de production. Les méthodologies traditionnelles de conception de systèmes montrent leurs limites dans des contextes très changeants pour lesquels les spécifications sont amenées à évoluer rapidement, des éléments technologiques particuliers de réalisation étant souvent pris en compte trop tôt dans le travail d'étude, limitant la versabilité des développements. Les entreprises doivent alors capitaliser au maximum les efforts menés dans les phases amont de spécification pour optimiser les temps d'étude. Notre travail de recherche s'intéresse plus précisément au domaine des systèmes antomatisés et se propose de répondre à la problématique précédente en utilisant des techniques issues du monde de l'informatique pour la réalisation des sytèmes physiques, comme l'OOA (Approche Orienté Objet) et la modélisation objet UML (Langage de Modélisation Unifié) avec la perspective d'une spécialisation tardive et d'une génération automatique selon les cibles technologiques choisies, comme le préconise la logique IDM (Ingéniérie Dirigée par les Modèles). L'originalité de ce mémoire est de décrire une méthodologie et une organisation de travail pour la conception des systèmes automatisés, en s'appuyant sur le concept d'objet d'automatisme multi-facettes. De plus, nous proposons une utilisation de l'extension SysML (Langage de Modélisation des Systèmes) pour la représentation d'éléments d'automatismes particuliers, les blocs fonctions de la norme IEC 61131-3, à travers le stéréotype "block". Enfin nous montrons comment il est possible d'obtenir une première génération de code automate en passant par les spécifications PLCopen, définissant un lien entre une syntaxe XML (Langage de balisage eXtensible), se voulant standard, et les langages de la norme IEC 61131-3. Le passage par cette représentation standardisée permet de garder l'indépendance des implémentations vis-à-vis d'un environnement intégré de développement particulier. Le processus de conception décrit a été appliqué à un cas d'étude industriel réel appartenant au domaine de la palettisation robotisée.
103

Filtration des nanoparticules : application aux appareils de protection respiratoire / Filtration of nanoparticles : Application to Respiratory Protecting Devices

Brochot, Clothilde 11 May 2012 (has links)
Cette étude a pour objectif de déterminer dans quelle mesure les APR, dont les performances sont qualifiées pour des particules supérieures à 100 nm, sont efficaces pour des nanoparticules. En effet, dans le cas où l'utilisation d'une filtration collective est insuffisante, le port d'un Appareil de Protection Respiratoire (APR) est le dernier rempart préconisé. Une synthèse bibliographique a montré qu'aucune recherche n'a porté sur l'efficacité de demi-masques avec filtres pour des nanoparticules. Le banc d'ETude des NAnoparticules a été dimensionné et réalisé afin de pallier ces manques. Deux demi-masques ont été testés selon différentes configurations d'essais : débit constant et débit cyclique (débit moyen de 84 L/min) ; taille des particules (de 5 à 100 nm) ; pose du masque (scellée, libre, ou avec des fuites calibrées). Les résultats montrent que, dès lors que les APR utilisés contiennent des media (non électrets) efficaces pour des particules de la zone MPPS (100 nm - 300 nm), les APR sont plus efficaces pour les particules nanométriques. De plus, les résultats obtenus, en présence de fuites réelles et calibrées, ont mis en évidence l'importance des fuites au visage dans la détermination des performances des APR. Un modèle de calcul du facteur de protection a été établi, basé sur la différenciation des débits d'air traversant la fuite et le filtre. Cette modélisation a été validée à l'aide des mesures obtenues en présence des fuites calibrées, et appliquée pour l'analyse de nos résultats en pose libre / This study aims to determine how the respiratory protective devices (RPD), whose performances are qualified for particles above 100 nm, are effective for nanoparticles. Indeed, if the use of a collective filtration is inadequate, wearing a RPD is the last protection recommended. A literature review showed that no research concerned the effectiveness of half-masks for nanoparticles. The test bench ETNA has been sized and built to overcome these lacks. Two half masks were tested according to different configurations: constant flow rate and cyclic flow rate (average flow of 84 L /min) ; particle size (from 5 to 100 nm) ; positions of the mask (sealed, usual, or with calibrated leaks). The results show that, since the RPD contain high efficiency filter media (without charged fibers) for the most penetrating particle size (100 nm - 300 nm), the RPD is more efficient for nanoparticles. Furthermore, the results obtained in the presence of actual and calibrated leaks, highlighted the importance of faceseal leakages in determining the performance of RPD. A model for calculating the protection factor was established based on the balance between the airflow through the filter and the leak. This model was validated using measurements obtained in the presence of calibrated leaks, and applied for the analysis of our results in usual position
104

Différents matériaux à effet magnétocalorique : Aspects fondamentaux et applicatifs

Guillou, Francois 06 October 2011 (has links) (PDF)
Cette thèse est consacrée à l'étude de différents matériaux -en priorité des oxydes- pour la réfrigération magnétique (RM). Les travaux se sont articulés autour de quatre axes : (1) la recherche de matériaux à fort effet magnétocalorique (EMC), (2) la physique de l'EMC et ses caractérisations, (3) la production de matériau pour des tests directs à l'ambiante, et (4) quelques prolongements hors du cadre de la RM. (1) La mise en ordre du site A des manganites (R1-xAExMnO3) ou leur utilisation dans des superréseaux se sont révélées être de nouveaux modes d'ajustement de l'EMC autour de la température ambiante. Autour d'une transition de premier ordre (TPO), il a été observé un EMC intense dans Eu0.58Sr0.42MnO3. Des EMC significatifs ont aussi été mesurés autour d'une transition ferrimagnétique dans Mn3O4, ou autour d'une transition inédite de spin et de valence dans Pr0.49Sm0.21Ca0.3CoO3. L'existence d'un EMC géant a été confirmée dans Ni45Co5Mn37.5In12.5 par mesures de capacité calorifique. (2) Des questions sur la détermination de l'EMC par les méthodes magnétiques mais aussi calorimétriques ont fait l'objet d'études détaillées, en particulier dans le cas des TPO impliquant des phénomènes de séparation de phases et d'histoire magnéto-thermique. (3) Deux systèmes La1-xKxMnO3 et Pr1-xSrxMnO3 ont été étudiés pour des applications à l'ambiante. Des premiers résultats sont rapportés sur un régénérateur en plaques de Pr0.65Sr0.35MnO3. (4) Des phénomènes spécifiques dans Mn3O4 (nouvelle transition en dessous de Tc), dans Pr0.49Sm0.21Ca0.3CoO3 (transition couplée de valence et de spin) ou dans Eu0.58Sr0.42MnO3 (état verre de spin) ont fait l'objet d'études complémentaires.
105

Connecting Semantic 3D Models to the LOD Cloud for Mobile Applications : discovering the Surroundings with ARCAMA- 3D / Lier des modèles 3D sémantiques au Web des données pour la découverte des environs au moyen d'applications mobiles : l'architecture ARCAMA-3D

Aydin, Betül 25 September 2015 (has links)
Découvrir les environs tout en marchant à l'aide d'un appareil mobile est désormais possible en associant les nouvelles technologies telles que la réalité augmentée (RA) et les services basés sur la localisation. De nombreuses applications mobiles ont été conçues à cet effet récemment. Les environs d'un utilisateur en mouvement sont présentés sur l'écran de son appareil mobile en utilisant les données de géo-localisation et elle peut interagir avec son environnement grâce à une couche d'information numérique superposée sur la scène capturée. Toutefois, la quantité d'informations géo-référencées produites et accessibles augmentant chaque jour, il y a un besoin croissant d'une approche générique qui vise à présenter l'information de manière structurée et adaptée aux différents domaines d'application et à la diversité des profils des utilisateurs.Notre travail se concentre sur la définition d'un modèle de données pour les objets 3D destiné à être intégré dans des applications de RA mobiles. Le modèle de données que nous proposons donne accès à l'information spatio-temporelle et thématique disponible sur les objets du monde réel. Alors que la réalité augmentée semble être bien adaptée pour la recherche d'informations à partir de la localisation, la plupart des approches basées sur la RA se concentre sur des scénarios spécifiques à un domaine d'application. D'autre part, le nuage des données ouvertes et liées (LOD Cloud en anglais) est un ensemble en constante extension de données structurées et publiées sur le Web. Il contient donc de grandes quantités d'informations à références spatio-temporelles qui peuvent être exploitées par les applications mobiles et présentées en utilisant la RA pour favoriser l'interaction. Dans notre recherche, ce nuage du Web des Données sert de source principale d'information au cours de l'expérience de découverte des environs à l'aide de la RA proposée à l'utilisateur.À cette fin, nous publions sur le Web les objets 3D correspondant aux objets du monde réel en utilisant notre modèle de données, ce qui permet de les lier avec le nuage du Web des Données. De fait, un objet du monde réel peut être représenté selon trois dimensions d'information : thématique (qui décrit les rôles ou fonctions de l'objet), spatiale (à travers sa géométrie 3D), et temporelle (par la période qui correspond à son existence). De plus, chaque changement dans la vie d'un objet du monde réel est représenté dans le modèle par des informations sémantiques. En conséquence, sur son appareil mobile, l'utilisateur visualise une vue de RA construite avec des modèles 3D légers et transparents. Il peut interagir avec ces objets de RA afin d'accéder aux informations relatives aux objets du monde réel correspondants qui se trouvent aux alentours et vers lesquels il pointe son téléphone mobile. Ces objets de RA permettent à l'utilisateur de construire mentalement la relation référentielle entre les objets virtuels et réels, tandis que le développeur de l'application mobile peut créer des expériences basées sur des thématiques différentes disponibles à travers sur le nuage du Web des Données (architecture, histoire, gastronomie, loisirs, etc.).En nous appuyant sur cette base de connaissances conceptualisée, nous proposons une architecture appelée ARCAMA-3D (Réalité Augmentée et 3D pour les applications mobiles sensibles au contexte), dont les modules permettent aux concepteurs et développeurs de créer leurs propres applications de RA pour différents domaines en étant en mesure d'étendre le modèle de données, de lier les modèles 3D avec d'autres ensembles de données ouvertes et liées disponibles dans le nuage, et d'alimenter ces applications de découverte à partir de sources de données spécifiques. Notre proposition est illustrée sur le cas d'étude que constitue le Monastère Royal de Brou, en France, à travers un scénario de cas d'utilisation pour un utilisateur visitant ce monument historique. / Discovering the surroundings while walking using a mobile device is now possible by coupling new technologies such as Augmented Reality (AR) and location-based services. Many mobile applications have been designed for that purpose recently. The surroundings of the user are presented on the screen of her mobile device using the location data and she can interact with her environment through a digital information layer superimposed on the captured scene. However, since the amount of geo-referenced information increases every day, there is a growing need for a generic approach that aims at presenting information in a structured manner and adapted to different application domains and users profiles.Our work focuses on the definition of a data model for 3D objects to be used in mobile AR applications. The data model we propose prioritizes access to available spatiotemporal and thematic information about real-world objects. While Augmented Reality appears to be well-suited for searching location-based information, most of the AR approaches focus on domain specific scenarios and we observe that there is no generic data model dedicated to information search and discovery that could be re-used in various AR applications. On the other hand, Linked Open Data (LOD) cloud is an ever-growing set of structured and interlinked datasets published on the Web. It contains vast amounts of spatiotemporal information that can be exploited by location-based mobile applications and presented using AR for fostering interaction. In our research, the LOD cloud serves as a basis for information retrieval during the AR experience of the user.For this purpose, we first publish 3D objects that correspond to real-world objects (buildings, monuments, etc.) on the Web by using our data model and interlink them with data sources on the LOD cloud. Then, using our data model, any real-world object can be represented by three informational dimensions: themes (describing the roles or functions of this object), space (through its 3D geometry), and time (the period linked to its existence). Each change in the life of a real-world object is represented in the model by semantic information following the LOD publishing principles. This allows a binding between the content of our data model and the LOD cloud. As a consequence, on her mobile device, the user visualizes an AR view built with light and transparent 3D models. She can interact with these AR objects in order to access to information related to the corresponding real-world objects of her surroundings she is pointing at. These AR objects allow the user to mentally construct the referential relationships between virtual and real-world objects, while the mobile application developer can create experiences based on different concepts found on the cloud (thematic and temporal concepts, etc.). This way, the LOD cloud, as a growing and updated structured source of semantic data, becomes the main source of information and facilitates knowledge discovery in AR applications.Using this conceptualized knowledge base, we propose our architecture, called ARCAMA-3D (Augmented Reality for Context Aware Mobile Applications with 3D), whose modules allow application designers and developers to create their own AR applications for different domains by being able to extend the data model, bind 3D models with other data sources on the LOD cloud, cover a selected part of LOD and feed their application only with these specific data sources. We develop our ideas working on the case study of the Royal Monastery of Brou, in France, and implement a use case scenario for a user visiting the monastery.
106

Color characterization of a new laser printing system / Caractérisation des couleurs d'un nouveau système d'impression laser

Martinez Garcia, Juan Manuel 16 September 2016 (has links)
Grâce aux progrès récents dans le domaine des nanotechnologies il est maintenant possible de colorer des plaques de verre avec du dioxyde de titane contenant de l’argent par irradiation laser. L’une des caractéristiques de ce procédé est que le rendu couleur des échantillons produits diffère quand ceux-ci sont observés en réflexion (spéculaire ou diffuse) ou en transmission, ainsi que quand on polarise la lumière. Ce nouveau procédé d’impression laser que l’on a appelé PICSLUP (pour Photo-Induced Colored Silver LUster Printing system) permet de produire des images couleur gonio-apparentes.L’objectif de cette thèse est de caractériser l’apparence couleur (d’un point de vus colorimétrique et photométrique, et ce selon plusieurs géométries d’observation) de plaques de verre colorées par ce procédé. Ce qui pose de nombreux challenges techniques du fait que le système d’impression utilisé est encore en cours de développement et pas souvent accessible, du fait également de plusieurs spécificités photométriques (surface fortement translucide, fortement spéculaire, forte gonio-chromaticité). Afin de lever de toutes ces contraintes techniques notre première approche a été de caractériser la couleur grâce à un imageur monté sur un microscope. Nous avons pour cela généré par impression laser (avec le système PICSLUS) tout un ensemble d’échantillons couleur en faisant varier de manière exhaustive différents paramètres d’impression (temps d’exposition du faisceau laser, longueur d’onde, distance focale). Afin d’obtenir des mesures couleur précises nous avons ensuite développé une méthode de calibrage couleur spécifique dédiée à la mesure de surfaces fortement spéculaires. La précision de cette méthode de calibrage, appliquée aux échantillons créés par le système PICSLUP, est comparable à celles relevées dans l’état de l’art. À partir des couleurs obtenues on peut estimer la gamme des couleur (color gamut) qui peut être obtenue par ce système d’impression, en particulier pour la géométrie spéculaires 0º:0º, et étudier l’influence des différents paramètres d’impression ainsi que l’effet de la polarisation. Quoique les mesures réalisées sous microscope avec la géométrie spéculaire 0°:0° soient particulièrement utile pour étudier les propriétés colorimétriques et photométriques produites par le système PICSLUP, ces mesures ne sont pas suffisantes pour caractériser complètement ce système. En effet, l’apparence couleur des échantillons produits varie également en fonction de la géométrie d’éclairement et d’observation, il est donc nécessaire de caractériser le système PICSLUP selon d’autres géométries que la seule géométrie 0°:0°. Nous avons donc développé une autre méthode de caractérisation basée sur l’utilisation d’un imageur hyperspectral à géométrie ajustable, ce qui nous a permis de caractériser un ensemble donné d’échantillons couleur produits par le système PICSLUP. Ces échantillons ont été mesurés, en recto-verso, en transmission (avec la géométrie 0°:0°), en réflexion spéculaire (avec la géométrie 15°:15°), et en réflexion hors spéculaire (avec la géométrie 45°:0°). Grâce à ces mesures on a pu estimer pour différentes géométries d’observation les changements de gamme des couleurs qui peuvent être obtenus par le système PICSLUP. Le volume qui circonscrit chacune de ces gammes de couleur peut être modélisé par une forme concave qui contient beaucoup de zones éparses, ce qui revient à dire que certaines couleurs ne peuvent être directement obtenues par impression. Afin d’obtenir une forme convexe, plus dense quelque soit la zone d’étude considérée, nous avons testé avec succès une nouvelle méthode d’impression qui consiste non plus à imprimer des aplats (zones uniformément colorées par juxtaposition de lignes laser identiques) mais à imprimer des demi-tons (par juxtaposition de lignes laser de différentes couleurs). Cette méthode est basée sur le principe de l’halftoning et sur un nombre limité de primaires couleur pré-sélectionnées / Recent progresses in nanotechnologies enabled the coloration of glass plates coated with titanium dioxide containing silver by laser irradiation. The colored samples display very different colors when obtained by reflection or transmission of light; in specular or off-specular directions; and with or without polarizing filters. This new laser printing technology, that we call PICSLUP (for Photo-Induced Colored Silver LUster Printing system), enables the production of gonioapparent color images.The goal of this study is to perform a multi-geometry photometric and color characterization of this complex system. This task posed technical challenges due to the system being in a development stage, especially a low availability of the printing material; and due to the photometric properties of the prints: high translucency, high specularity and strong goniochromaticity. In order to overcome these constraints, our first approach was based on color characterization by microscope imaging. The data set used consisted in printing an exhaustive number of micrometric color patches, produced by varying the different laser printing parameters: exposure time, laser wavelength, laser power, and laser focusing distance. To achieve accurate color measurements with samples produced with the PICSLUS system, we successfully developed a color calibration method especially tailored for highly specular materials, whose accuracy is good in comparison to previous studies in the literature on camera color calibration. From the colors obtained, we could estimate the color gamut in the 0º:0º specular reflection geometry and study the influence of the different printing parameters as well as polarization. Although the measurements with microscope imaging in the 0°:0° specular geometry were very useful to study the properties of the colors produced by the PICSLUP technology, they were not sufficient to fully characterize the system, since the samples exhibit very different colors according to the respective positions of the viewer and the light source. With this in mind, we assembled a geometry-adjustable hyperspectral imaging system, which allowed us to characterize a representative subset of the colors that can be produced with the system. The samples were measured from both recto and verso faces, in the 0°:0° transmission, 15°:15° specular reflection, and 45°:0° off-specular reflection illumination/observation geometries. From these measurements, the color gamuts of the system were estimated in the different geometries. The volumes delimited by the colors obtained were concave and contained many sparse regions with very few samples. In order to obtain more continuous, dense and convex color gamut volumes, we successfully tested the generation of new colors by juxtaposing printed lines of different primaries with halftoning techniques. In order to circumvent the need to physically characterize all the different color that can be produced with halftoning using the numerous primaries available, we also tested and fitted existing halftoning prediction models, and obtained a satisfactory accuracy. The use of halftoning not only increased the number colors that can be produced by the system in the different geometries, but also increased the number of different primaries that can be produced when we consider as a whole the set of colors produced by the same printed patch in multiple geometries. Finally, based on the different properties demonstrated by the samples produced by the PISCLUP system, we explored some imaging and security features with colors obtained from our characterization, and propose further potential applications for this new goniochromatic laser printing technology
107

Unsupervised learning procedure for nonintrusive appliance load monitoring / Procédure d'apprentissage non supervisé pour l'analyse non intrusive de la consommation des appareils électriques

Jossen, Quentin 08 November 2013 (has links)
There is a continuously growing amount of appliances and energy dependent services in households. To date, efforts have mostly focused on energy efficiency, however behavior changes are required for a more sustainable energy consumption. People therefore need to understand their consumption habits to be able to adapt them. Appliance-specific feedback is probably the most efficient way to impact behaviors, since people need to ‘see’ where their electricity goes. Smart meters, currently being extensively rolled out in Europe and in the U.S. are good potential candidates to provide end-users with<p>energy advice. The required functionalities must however be rapidly defined if they are expected to be integrated in the future massive roll out.<p><p>Nonintrusive appliance load monitoring aims to derive appliance-specific information from the aggregate electricity consumption. While techniques have been developed since the 80’s, those mainly address the identification of previously learned appliances, from a database. Building such a database is an intrusive and tedious process which should be avoided. Whereas most recent efforts have focused on unsupervised techniques to disambiguate energy consumption into individual appliances, they usually rely on prior information about measured appliances such as the number of appliances, the number of states in each appliance as well as the power they consume in each state. This information should ideally be learned from the data. This topic will be addressed in the present research.<p><p>This work will present a framework for unsupervised learning for nonintrusive appliance<p>load monitoring. It aims to discover information about appliances of a household solely from its aggregate consumption data, with neither prior information nor user intervention. The learning process can be segmented into five tasks: the detection of on/off switching, the extraction of individual load signatures, the identification of<p>recurrent signatures, the discovery of two-state electrical devices and, finally, the elaboration<p>of appliance models. The first four steps will be addressed in this paper.<p><p>The suite of algorithms proposed in this work allows to discover the set of two-states electrical loads from their aggregated consumption. This, along with the evaluation<p>of their operating sequences, is a prerequisite to learn appliance models from the data. Results show that loads consuming power down to some dozens of watts can be learned from the data. This should encourage future researchers to consider such an unsupervised learning. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
108

Overcoming interference in the beeping communication model / Surmonter les interférences dans le modèle de communication par bips

Dufoulon, Fabien 27 September 2019 (has links)
Les petits appareils électroniques peu coûteux et à communication sans fil sont devenus largement disponibles. Bien que chaque entité ait des capacités limitées (par exemple, communication basique ou mémoire de taille constante), un déploiement à grande échelle de telles entités communiquantes constitue un réseau performant, en plus d’être peu coûteux. De tels systèmes distribués présentent toutefois des défis importants en ce qui concerne la conception d'algorithmes simples, efficaces et évolutifs. Dans cette thèse, nous nous intéressons à l’étude de ces systèmes, composés d’appareils dotés de capacités de communication très limitées, à base de simples impulsions d’énergie. Ces systèmes distribués peuvent être modélisés à l'aide du modèle de bips, dans lequel les nœuds communiquent en émettant un bip, un simple signal indifférencié, ou en écoutant leurs voisins (selon un graphe de communication non orienté). Les communications simultanées (c'est-à-dire les collisions) entraînent des interférences non destructives : un nœud, dont deux voisins ou plus émettent simultanément un bip, détecte seulement un bip. Ce mécanisme de communication simple, général et économe en énergie rend les résultats obtenus dans le modèle de bips applicables à de nombreuses situations différentes, avec cependant un challenge. En raison de la faible expressivité des bips et des collisions, la conception des algorithmes est difficile. Tout au long de ce travail, nous surmontons ces deux difficultés afin de fournir des primitives de communication efficaces. La thèse s’intéresse particulièrement aux solutions déterministes, rapides (en temps) et indépendantes des paramètres du graphe de communication (c’est-à-dire uniformes). La première partie de la thèse considère un cadre dans lequel les nœuds se réveillent en même temps (c’est-à-dire que le réseau a été configuré a priori). Pour obtenir des solutions efficaces pour des problèmes fondamentaux de communication distribuée, nous nous concentrons d’abord sur la résolution efficace de problèmes de brisure locale de symétrie : ensemble indépendant maximal et coloration de sommets utilisant au plus Δ + 1 couleurs (où Δ est le degré maximal du graphe de communication). Nous élaborons des solutions à ces problèmes ainsi qu'à leurs variantes à distance deux. Cela nous permet de simuler une communication par messages. Enfin, nous obtenons le premier algorithme de coloration utilisant moins de Δ + 1 couleurs dans le modèle de bips. Ensuite, nous étudions des problèmes définis à l’échelle du réseau, tels que l’élection d'un leader et la diffusion multiple de messages. L'élection d'un leader est un élément essentiel dans la conception d'algorithmes distribués. Nous donnons les deux premiers algorithmes d’élection de leader optimaux en temps pour le modèle de bips. L'un est déterministe, mais nécessite des identifiants uniques. Le second n’a pas besoin d’identifiants (utile pour des raisons de sécurité et de confidentialité), mais est randomisé. S'appuyant sur une élection de leader optimale en temps, plusieurs algorithmes pour la diffusion multiple, efficaces en temps et en calcul, sont présentés. La deuxième partie de la thèse considère un cadre plus difficile mais plus général, dans lequel les nœuds se réveillent de façon asynchrone. Nous nous concentrons sur le problème de désynchronisation à distance deux, qui permet un contrôle de l'accès au support, primordial dans les réseaux sans fil. Nous montrons qu'il est possible pour les nœuds de communiquer de manière cohérente au-delà de leur voisinage immédiat. A cette fin, une primitive permettant aux nœuds de simuler une communication est présentée. Cette primitive est un élément central dans la conception de l'algorithme de désynchronisation à distance deux. Enfin, nous exploitons cette solution afin d'implémenter des primitives de haut niveau pour l’envoi et la réception de messages. / Small inexpensive inter-communicating electronic devices have become widely available. Although the individual device has severely limited capabilities (e.g., basic communication, constant-size memory or limited mobility), multitudes of such weak devices communicating together are able to form a low-cost, easily deployable, yet highly performant network. Such distributed systems present significant challenges however when it comes to the design of efficient, scalable and simple algorithms. In this thesis, we are interested in studying such systems composed of devices with severely limited communication capabilities - using only simple bursts of energy. These distributed systems may be modeled using the beeping model, in which nodes communicate by beeping or listening to their neighbors (according to some undirected communication graph). Simultaneous communications (i.e., collisions) result in non-destructive interference: a node with two or more neighbors beeping simultaneously detects a beep. Its simple, general and energy efficient communication mechanism makes the beeping model widely applicable. However, that simplicity comes at a cost. Due to the poor expressiveness of beeps and the interference caused by simultaneous communications, algorithm design is challenging. Throughout this work, we overcome both difficulties in order to provide efficient communication primitives. A particular focus of the thesis is on deterministic and time-efficient solutions independent of the communication graph's parameters (i.e., uniform). The first part of the thesis considers a setting in which nodes wake up at the same time (i.e., the network has been set up a priori). To obtain efficient solutions to fundamental distributed communication problems, we first focus on efficiently solving problems for local symmetry-breaking: (Δ+1)-vertex coloring and maximal independent set (where Δ is the maximum degree of the communication graph). The solutions we devise are particularly efficient when the communication graph is sparse. They are then used to solve the 2-hop variants of these problems and to simulate message-passing. Finally, combining this simulation with existing results, which assume message-passing, gives the first vertex coloring algorithm using less than Δ+1 colors in the beeping model. Then, we study problems defined on a global scale, such as leader election and multi-broadcast (i.e., information dissemination). Leader election is a crucial building block in the design of distributed algorithms. We give the first two time-optimal leader election algorithms for the beeping model. One is deterministic, but requires unique identifiers. The second one does not need identifiers (useful for security and privacy reasons), but is randomized. Building upon the time-optimal leader election solution, computationally efficient and time-optimal algorithms for multi-broadcast are presented. Although a previous time-optimal solution was available, it required computationally expensive methods. The second part of the thesis considers a more difficult but more general setting, in which nodes wake up at some arbitrary time rounds. We focus on the desynchronization problem, and more precisely on its 2-hop variant, which can be used as medium access control method. We show that it is possible for nodes to communicate in a coherent manner beyond their 1-hop neighborhood. More concretely, a primitive allowing nodes to simulate communication on the square of the communication graph is presented. This primitive is a centerpiece in the design of the 2-hop desynchronization algorithm. Finally, by leveraging this solution, we show that higher-level primitives for sending and receiving messages can be obtained in this difficult setting.
109

Gestion efficace et partage sécurisé des traces de mobilité / Efficient management and secure sharing of mobility traces

Ton That, Dai Hai 29 January 2016 (has links)
Aujourd'hui, les progrès dans le développement d'appareils mobiles et des capteurs embarqués ont permis un essor sans précédent de services à l'utilisateur. Dans le même temps, la plupart des appareils mobiles génèrent, enregistrent et de communiquent une grande quantité de données personnelles de manière continue. La gestion sécurisée des données personnelles dans les appareils mobiles reste un défi aujourd’hui, que ce soit vis-à-vis des contraintes inhérentes à ces appareils, ou par rapport à l’accès et au partage sûrs et sécurisés de ces informations. Cette thèse adresse ces défis et se focalise sur les traces de localisation. En particulier, s’appuyant sur un serveur de données relationnel embarqué dans des appareils mobiles sécurisés, cette thèse offre une extension de ce serveur à la gestion des données spatio-temporelles (types et operateurs). Et surtout, elle propose une méthode d'indexation spatio-temporelle (TRIFL) efficace et adaptée au modèle de stockage en mémoire flash. Par ailleurs, afin de protéger les traces de localisation personnelles de l'utilisateur, une architecture distribuée et un protocole de collecte participative préservant les données de localisation ont été proposés dans PAMPAS. Cette architecture se base sur des dispositifs hautement sécurisés pour le calcul distribué des agrégats spatio-temporels sur les données privées collectées. / Nowadays, the advances in the development of mobile devices, as well as embedded sensors have permitted an unprecedented number of services to the user. At the same time, most mobile devices generate, store and communicate a large amount of personal information continuously. While managing personal information on the mobile devices is still a big challenge, sharing and accessing these information in a safe and secure way is always an open and hot topic. Personal mobile devices may have various form factors such as mobile phones, smart devices, stick computers, secure tokens or etc. It could be used to record, sense, store data of user's context or environment surrounding him. The most common contextual information is user's location. Personal data generated and stored on these devices is valuable for many applications or services to user, but it is sensitive and needs to be protected in order to ensure the individual privacy. In particular, most mobile applications have access to accurate and real-time location information, raising serious privacy concerns for their users.In this dissertation, we dedicate the two parts to manage the location traces, i.e. the spatio-temporal data on mobile devices. In particular, we offer an extension of spatio-temporal data types and operators for embedded environments. These data types reconcile the features of spatio-temporal data with the embedded requirements by offering an optimal data presentation called Spatio-temporal object (STOB) dedicated for embedded devices. More importantly, in order to optimize the query processing, we also propose an efficient indexing technique for spatio-temporal data called TRIFL designed for flash storage. TRIFL stands for TRajectory Index for Flash memory. It exploits unique properties of trajectory insertion, and optimizes the data structure for the behavior of flash and the buffer cache. These ideas allow TRIFL to archive much better performance in both Flash and magnetic storage compared to its competitors.Additionally, we also investigate the protect user's sensitive information in the remaining part of this thesis by offering a privacy-aware protocol for participatory sensing applications called PAMPAS. PAMPAS relies on secure hardware solutions and proposes a user-centric privacy-aware protocol that fully protects personal data while taking advantage of distributed computing. For this to be done, we also propose a partitioning algorithm an aggregate algorithm in PAMPAS. This combination drastically reduces the overall costs making it possible to run the protocol in near real-time at a large scale of participants, without any personal information leakage.
110

Modularisation du réseau de distribution des fluides caloporteurs pour des systèmes de chauffage d'habitations arctiques

Suarez Castaneda, Jose Luis 18 October 2022 (has links)
La construction de bâtiments dans les régions nordiques isolées est confrontée à des défis importants tels qu'une logistique de transport complexe en raison d'un accès limité au site de construction, des conditions climatiques sévères, le manque de travailleurs qualifiés, ainsi qu'un approvisionnement en énergie et en matériaux coûteux et limité. Les différentes communautés du nord du Canada sont souvent qualifiées « d'isolées », justement en raison de leur éloignement géographique. Par exemple, la plupart ne sont pas reliées au réseau électrique principal ni au réseau routier du reste du pays. Le manque criant d'unités de logement disponibles a entraîné le surpeuplement des logements en place et a récemment poussé les gouvernements à augmenter le financement pour aider ces communautés à construire et à rénover davantage d'unités [1]. Parallèlement, l'utilisation de la main-d'œuvre locale est fortement encouragée, car le secteur de la construction est une source importante d'emplois et d'autonomisation [2]. Bien que la construction modulaire (ou préfabrication) puisse être considérée comme une solution facilitant la viabilité de la construction de bâtiments dans ces communautés isolées, la préfabrication de composants peut avoir des répercussions négatives sur les emplois locaux. Par conséquent, les solutions de préfabrication peuvent être écartées à certains moments. Ce projet vise donc à acquérir une meilleure compréhension des éléments à considérer dans la conception de systèmes de chauffage préfabriqués et durables dans le contexte de ces régions. En particulier, le territoire du Nunavik au nord de la province de Québec (Canada) a été choisi en tant que région type pour cette étude. Dans le même ordre d'idées, et considérant la pertinence de ce type de logement, la thèse se concentre spécifiquement sur les bâtiments sociaux. Le terme « social » fait référence au fait que les gouvernements subventionnent la construction et l'exploitation de ces bâtiments et que ceux-ci sont dédiés aux familles à faibles revenus. Dans un premier temps, le projet a proposé un cadre conceptuel pour identifier les facteurs affectant la création de valeur au sein de la chaîne d'approvisionnement de la construction de logements sociaux dans cette région. La recherche s'est appuyée sur une revue de la littérature et sur les informations recueillies lors d'entrevues semi-dirigés avec les principales parties prenantes pour identifier les caractéristiques souhaitées de l'amélioration ou des solutions (par exemple, la préfabrication) en ce qui concerne la création de valeur. Une analyse des forces, faiblesses, opportunités et menaces (FFOM), une carte d'influence et de dépendance et un diagramme de boucle causale ont été élaborés pour représenter la chaîne d'approvisionnement. La création d'emplois locaux et le nombre de bâtiments à construire ont été identifiés comme les principaux facteurs pouvant représenter la performance de la création de valeur. Par ailleurs, les ressources énergétiques, le temps de construction, le type et la quantité de main-d'œuvre, les contraintes d'expédition, le nombre de pièces de rechange et l'élimination des déchets ont été identifiés comme les principaux facteurs limitant l'éventail des solutions de construction à mettre en œuvre. Dans un deuxième temps, le projet a proposé un cadre computationnel pour identifier la modularité optimale des tuyauteries à assembler dans les bâtiments résidentiels situés au Nunavik. Initialement, les algorithmes ont été testés en utilisant une étude de cas avec 40 composants du réseau de distribution du glycol. Pour ce cas, l'algorithme cherchait simultanément à minimiser le coût d'installation du système et à maximiser la création d'emplois locaux en considérant deux sites possibles de préfabrication et des contraintes de poids, de dimensions et de collision. Des modèles de logique floue et l'algorithme NSGA-II (Non-dominated Sorting Genetic Algorithm-II) ont été utilisés pour évaluer les configurations et identifier les solutions non dominées. Par la suite, afin de prendre en compte une autre facette importante du développement durable, un troisième objectif relatif à la minimisation des émissions de CO₂ liées au transport des modules par bateau a été ajouté aux algorithmes. En particulier, pour l'étude de cas analysée, le cadre computationnel a trouvé des solutions réduisant les coûts d'installation jusqu'à 81,9%, générant jusqu'à 23,4 heures d'emplois locaux, mais augmentant les émissions de CO₂ jusqu'à 36,7%. Finalement, le projet a adapté le cadre de calcul pour modulariser l'ensemble du réseau de distribution du fluide caloporteur. Au total, 627 composants ont été pris en compte. Quelques heuristiques supplémentaires ont été incluses pour réduire l'espace de recherche, afin de prendre en compte les contraintes particulières du système et les résultats précédemment trouvés dans l'étude de cas avec 40 composants. Le cadre computationnel développé prend donc en compte la minimisation des coûts d'installation, la maximisation de l'emploi local ainsi que l'impact de la modularisation sur les émissions de gaz à effet de serre (CO₂). L'éventail des solutions trouvées permet de générer entre 225 heures et 536,8 heures d'emplois locaux liés à la plomberie et à la menuiserie par logement à construire, tout en réduisant le coût d'installation actuel de 79 % et 58 %, respectivement. Cependant, les émissions de CO₂ peuvent être multipliées par plus de 2,8. / Building construction in isolated northern regions faces important challenges such as a complex transportation logistics due to a limited access to the construction site, severe climatic conditions, a lack of skilled workers, as well as expensive and limited energy and material supply. The different communities of the northern part of Canada are often qualified as isolated due to their remoteness. For example, most are not connected to the main power grid nor to the road network of the rest of the country. The stringent lack of available housing units has resulted in dwelling overcrowding and has recently pushed governments to increase funding to help these communities to build and refurbish more units [1]. At the same time, the use of local labor is highly promoted as the construction industry is an important source of employment and empowerment [2]. Therefore, while modular construction (or prefabrication) can be seen as a solution that facilitates the sustainability of building construction in these remote communities, the prefabrication of components can generate negative impacts on local jobs. As a result, prefabrication solutions can be discarded at certain times. Hence, this project aims to gain a better understanding of the elements to consider in the development of sustainable prefabricated heating systems in the context of these regions. In particular, the Nunavik territory in the northern part of the province of Quebec (Canada) was chosen as a typical region for this study. In the same vein, and considering the relevance of this type of housing, the thesis focuses specifically on social buildings. The term "social" refers to the fact that governments subsidize the construction and operation of these buildings which are intended for low-income families. As a first step, the project proposed a conceptual framework to identify the factors affecting value creation within the supply chain of social housing construction in that region. The research used a literature review and information collected from semi-structured interviews with key stakeholders to identify the desired features of improvement or solutions (e.g., prefabrication) with respect to value creation. A strengths, weaknesses, opportunities, and threats analysis (SWOT), an influence/dependence map, and a causal loop diagram were developed to represent the supply chain. Local job creation and the number of buildings to build were identified as the key factors that can better represent the performance of the value creation. On the other hand, energy resources, the construction time, the type and amount of labour force, shipping constraints, the number of replacement parts, and waste disposal were identified as the main factors constraining the range of construction solutions to implement. Secondly, this project proposed a computational framework to identify the optimal modularity of piping to be assembled in residential buildings located in Nunavik. Initially, the algorithms were tested using a case study with 40 components of the glycol distribution network. For this case, the algorithm simultaneously minimizes the system installation cost and maximizes the local job creation by considering two possible prefabrication sites and constraints on weight, size, and collision. Fuzzy logic models and the Non-dominated Sorting Genetic Algorithm-II (NSGA-II) were used to evaluate configurations and identify non-dominated solutions. Subsequently, in order to consider another important facet of sustainable development, a third objective based on the minimization of CO₂ emissions related to the transportation of the modules by ships was added to the algorithms. In particular, for the case studied, the computational framework found solutions that reduce installation costs by up to 81.9%, generate up to 23.4 hours of local employment, but increase CO₂ emissions by up to 36.7%. Finally, the project adopted the computational framework to modularize the whole heat transfer fluid distribution network. In total, 627 components were considered. Some additional heuristics were included to reduce the search space, in order to consider particular constraints of the system and results previously found in the case study with 40 components. The computational framework developed contemplates, therefore, minimizing installation costs, maximizing local employment as well as the impact of modularization on greenhouse gas (CO₂) emissions. The range of solutions found generates between 225 hours and 536.8 hours of local employment related to plumbing and carpentry per unit to be built while reducing the current installation cost by 79% and 58%, respectively. However, CO₂ emissions can be increased by more than 2.8 times.

Page generated in 0.0756 seconds