• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 891
  • 470
  • 95
  • 20
  • 9
  • 5
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 1536
  • 563
  • 362
  • 311
  • 246
  • 234
  • 192
  • 166
  • 155
  • 152
  • 151
  • 135
  • 131
  • 111
  • 102
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
401

Enabling Energy Efficient Smart Object Networking at Internet-Scale : Experimental Tools, Software Platform, and Information-Centric Networking Protocols / Internet des Objets : Bases Logicielles et Protocoles Réseaux pour unDéploiement Universel Efficace en Energie

Hahm, Oliver 01 December 2016 (has links)
L'Internet des Objets a pour but d'intégrer des milliards d'objets connectés dans l'Internet.Du point de vue matériel, ces objets connectés sont de petits ordinateurs très bon marché, basés sur des micro-contrôleurs et des puces radio efficaces en énergie apparus récemment, couplés avec des capteurs et actionneur divers, le tout alimenté par une batterie de très petite taille.Ces objets connectés sont donc typiquement très contraints en ressources telles que CPU, mémoire et énergie.De plus, les liens radio à travers lesquels communiquent les objets connectés ont une capacité très limitée, sont souvent sujet à des taux de perte importants, et peuvent requérir du routage spontané entre objets connectés pour fournir la connectivité nécessaire.Ces caractéristiques posent des défis, d'une part en termes de logiciel embarqué s'exécutant sur les objets connectés, et d'autre part en termes de protocols réseaux utilisés par les objets connectés pour communiquer.En conséquence, de nouvelles méthodes et outils expérimentaux sont nécessaires pour étudier in vivo les réseaux formés d'objets connectés, de nouvelles plateformes logicielles sont nécessaires pour exploiter efficacement les objets connectés, et des protocoles de communication innovants sont nécessaire pour interconnecter ces objets.La présente thèse relève en partie ces défis, en introduisant des nouveaux outils facilitant l'utilisation de grands réseaux test interconnectant de nombreux objets connectés, un nouveau système d'exploitation (RIOT) utilisable sur une très grande variété d'objets connectés, ainsi que plusieurs nouveaux mécanismes utilisant le paradigme des réseaux centrés contenus pour améliorer significativement l'efficacité énergétique des protocoles de communication standards de l'Internet des Objets. / The Internet of Things aims to seamlessly integrate billions of so-called Smart Objects into traditional Internet infrastructures.From the hardware perspective, Smart Objects emerged when tiny, cheap computers became available, combining energy efficient micro-controllers, low-power radio transceivers, and sensors as well as actuators interacting with the physical world, often powered by batteries.Typically, Smart Objects are thus heavily constrained in terms of CPU, memory and energy resources.Furthermore, wireless links used for communication among Smart Objects or towards the Internet are often slow, subject to high packet loss, and may require spontaneous store-and-forward among peer Smart Objects to ensure connectivity.Such characteristics pose challenges, on one hand in terms of software running on Smart Objects, and on the other hand in terms of network protocols Smart Objects use to communicate.In consequence, novel evaluation methods and experimental tools are needed to study Smart Object networks in vivo, new software platforms are needed to efficiently operate Smart Objects, and innovative networking paradigms and protocols are required to interconnect Smart Objects.This thesis addresses these challenges by introducing new tools for large scale testbed-driven experimental research, a novel operating system (RIOT) applicable to a wide variety of connected Smart Objects, and several new mechanisms leveraging information-centric networking which significantly improve energy-efficiency compared to state-of-the-art network protocols in the Internet of Things.
402

Conception et modélisation d'un émulateur d'un réseau de capteurs sans fil / of a wireless sensors networks emulator

Nasreddine, Nadim 11 July 2012 (has links)
Afin d'accélérer ce processus de conception des systèmes embarqués, un environnement de simulation rapide et performant peut s’avérer indispensable. Pour la rendre performante, les modèles comportementaux des composants élémentaires du système doivent être capables de remplacer les éléments réels dans leurs influences et réponses à tous les phénomènes influents: perturbations, affaiblissements, retards...Nos travaux de thèse visent à contribuer à cette approche méthodologique : ils traitent le développement d’un émulateur des RCSFs. Pour ce faire deux types de simulateurs ont été étudiés:• le premier est un simulateur « software » basé sur la création de modèles comportementaux, décrits en langage VHDL-AMS.• le deuxième est un simulateur hardware basé sur la création des modèles logiques comportementaux, décrits en langage VHDL synthétisable. La simulation s’effectuera sur un composant FPGA cible. Des modifications peuvent être faites sur l’architecture de manière dynamique / To accelerate the design process of embedded systems, a fast and efficient simulation environment is needed. To make it efficient, the behavioral models of the elementary components of the system must be able to replace the real elements in their influences and responses to all the influential phenomena: disruptions, attenuation, delays...Our thesis work aims to contribute to this methodological approach: we treat the development of an emulator for WSNs. To do, two types of simulators have been studied:• The first is a software simulator based on the creation of behavioral models, described in VHDL-AMS.• The second is a hardware simulator based on the creation of behavioral logic models, described in synthesizable VHDL. The simulation will be done on an FPGA target. Changes may be made on the architecture dynamically
403

TIBIALISSTIMULERING - EN BEHANDLING VID ÖVERAKTIV BLÅSA

JÖNSSON, LENA, ÄRLEMYR, KARIN January 2009 (has links)
Överaktiv blåsa är ett vanligt problem som beräknas drabba 16 % av befolkningen. En behandlingsform som använts länge är elektostimulering av genitalia. På senare år har stimulering av tibialisnerven vid mediala malleolen prövats som behandling. Syftet med studien var att undersöka vad som finns skrivet om elektrostimulering av tibialisnerven för att lindra symtom vid överaktiv blåsa. En litteraturstudie baserad på tio kvantitativa artiklar genomfördes. Resultaten visade att behandling med tibialisstimulering kunde öka blåskapaciteten och minska antalet miktioner och inkontinensepisoder. Flera studier visade att livskvaliteten förbättrades för patienterna efter behandlingen. Den vanligaste behandlingstiden var en gång i veckan i 12 veckor. Subjektiv respons, uttryckt som patientens önskan om fortsatt behandling, uppmättes till mellan 50-60 % i flera av studierna. Inga allvarliga biverkningar rapporterades. / Overactive bladder is a common disorder that affects approximately 16% of the population. Electrostimulation in the genitalia is a treatment that has been used for many years. In recent years stimulation of the tibial nerve by the medial malleol has been tried. The aim of the study was to find out what has been written about treating OAB (overactive bladder) with electric stimulation of the tibial nerve. A literature review based on ten quantitative articles was carried out. The results showed that treatment with stimulation of the tibial nerve might improve bladder capacity and reduce frequency and incontinence-episodes. Several studies showed an increased quality of life after treatment. Most common was to perform treatment once a week for 12 weeks. Subjective success, defined as a request from the patient for continous treatment, was seen in 50-60 % of the patients in some studies. No serious side effects were reported.
404

Universal decoder for low density parity check, turbo and convolutional codes

Hussein, Ahmed Refaey Ahmed 18 April 2018 (has links)
De nombreux systèmes de communication sans fil ont adopté les codes turbo et les codes convolutifs comme schéma de codes correcteurs d'erreurs vers l'avant (FEC) pour les données et les canaux généraux. Toutefois, certaines versions proposent les codes LDPC pour la correction d'erreurs en raison de la complexité de l'implémentation des décodeurs turbo et le succès de certains codes LDPC irréguliers dans la réalisation des mêmes performances que les codes turbo les dépassent dans certains cas avec une complexité de décodage plus faible. En fait, les nouvelles versions des standards de ces systèmes travaillent côte à côte dans des dispositifs réels avec les plus anciennes qui sont basées sur les codes turbo et les codes convolutifs. En effet, ces deux familles de codes offrent toutes deux d'excellentes performances en termes de taux d'erreur binaire (TEB). Par conséquent, il semble être une bonne idée d'essayer de les relier de manière à améliorer le transfert de technologie et l'hybridation entre les deux méthodes. Ainsi, la conception efficace de décodeurs universels des codes convolutifs, turbo, et LDPC est critique pour l'avenir de l'implémentation des systèmes sans fil. En outre, un décodeur efficace pour les codes turbo et codes convolutifs est obligatoire pour la mise en oeuvre de ces systèmes sans fil. Cela pourrait se faire par l'élaboration d'un algorithme de décodage unifié des codes convolutifs, turbo et LDPC par des simulations et des études analytiques suivies d'une phase de mise en oeuvre. Pour introduire ce décodeur universel, il existe deux approches, soit sur la base de l'algorithme du maximum a posteriori (MAP) ou l'algorithme de propagation de croyance (BP). D'une part, nous étudions une nouvelle approche pour décoder les codes convolutifs et les turbo codes au moyen du décodeur par propagation de croyances (BP) décodeur utilisé pour les codes de parité à faible densité (codes LDPC). En outre, nous introduisons un système de représentation général pour les codes convolutifs par des matrices de contrôle de parité. De plus, les matrices de contrôle de parité des codes turbo sont obtenus en traitant les codes turbo parallèles comme des codes convolutifs concaténés. En effet, l'algorithme BP fournit une méthodologie très efficace pour la conception générale des algorithmes de décodage itératif de faible complexité pour toutes les classes des codes convolutifs ainsi que les turbo-codes. Alors qu'une petite perte de performance est observée lors du décodage de codes turbo avec BP au lieu du MAP, cela est compensé par la complexité moindre de l'algorithme BP et les avantages inhérents à une architecture unifiée de décodage. En outre, ce travail exploite la représentation tail-biting de la matrice de contrôle de parité des codes convolutifs et des codes turbo, ce qui permet le décodage par un algorithme de propagation de croyance unifiée (BP) pour les nouveaux systèmes de communication sans fils tels que le WiMAX (Worldwide Interoperability for Microwave Access) et le LTE (Long Term Evolution). D'autre part, comme solution alternative, une recherche est effectuée sur la façon de produire un décodeur combiné de ces deux familles de codes basé sur l'algorithme MAP. Malheureusement, cette seconde solution nécessite beaucoup de calculs et de capacité de stockage pour sa mise en oeuvre. En outre, ses récurrences en avant et en arrière résultent en de longs délais de décodage. Entre temps, l'algorithme MAP est basé sur le treillis et la structure en treillis du code LDPC est suffisamment compliquée en raison de la matrice de contrôle de parité de grande taille. En conséquence, cette approche peut être difficile à mettre en oeuvre efficacement car elle nécessite beaucoup de calculs et une grande capacité de stockage. Enfin, pour prédire le seuil de convergence des codes turbo, nous avons appliqué la méthode de transfert d'information extrinsèque (EXIT) pour le décodeur correspondant en le traitant comme une concaténation de noeuds de variable et de contrôle.
405

Brouillage coopératif pour le renforcement de la sécurité à la couche physique

Bouguettaya, Salim 23 April 2018 (has links)
Le brouillage coopératif est une approche qui a été proposée récemment pour améliorer la sécurité sur la base de la couche physique pour les réseaux sans fil soumis à l’écoute clandestine. Il permet d’augmenter la capacité secrète entre les utilisateurs légitimes. Alors que la source transmet son message au destinataire, des noeuds de relais coopèrent entre eux pour diffuser des signaux perturbateurs à l’espion pour l’empêcher d’écouter avec fiabilité la communication légitime. En plus, la connaissance des messages des utilisateurs légitimes permet d’interférer intelligemment l’espion. Dans le présent mémoire, on étudie plusieurs scénarios de brouillage coopératif avec NJ relais brouilleurs. Chaque scénario sera une amélioration des inconvénients détectés dans celui qui le précède. A la fin, on propose un algorithme qui garantit une liaison légitime fiable et assurer au même temps un taux sécuritaire le plus élevé possible. Cela, en se basant sur les observations des précédentes stratégies étudiées. / Cooperative jamming is an approach that has recently been proposed to improve security on the basis of the physical layer for wireless networks subject to eavesdropping. It allows an increase in the secrecy capacity between legitimate users. While a source transmits its message to its destination, relay nodes cooperate with each other to broadcast interference signals to the eavesdroppers to prevent him to make reliable observations of the legitimate communication. The knowledge of the messages of other users allows the legitimate user to interfere or jam intelligently. In this Master’s thesis, we study several cooperative interference scenarios with NJ jammers relays. Each scenario will be an improvement of the inconveniences detected in the preceding one. Finally, we propose an algorithm that ensures a reliable connection between legitimate users and at the same time ensure a safe secret rates as high as possible. This, based on observations of previous strategies studied.
406

Fonts and their correlation to reading speed and information recall

Svanholm, Fredrik, von Schéele, Lucas January 2021 (has links)
Text can be written with various types of fonts, knowing how the fonts affect the reader is advantageous for developers and creators when choosing what font to use when creating consumable media. Researchers have suggested that the results of a font may be affected by the reader's familiarity with it [6]. In recent times, digital user interfaces have seen a shift from serif to sans-serif fonts [10]. Many young adults spend a lot of their time on digital devices, and it might be the case that they are more familiar with sans-serif fonts. This familiarity might yield a measurable effect on their reading speed and information recall when reading sans-serif fonts compared to serif fonts. This study aimed to answer the question: Does sans-serif fonts compared to serif fonts have an impact on reading speed and/or information recall for young adults? This study was conducted with 20 participants of ages between 18-30 years old. The participants read four texts, each text was presented with either Times New Roman, Arial, Verdana or Garamond on a computer screen. The time it took to read each text was measured and the participants were asked questions to test the recollection of what they just read. The result from this study showed no significance in the difference between the serif fonts compared to the sans-serif fonts for either reading speed or information recall. In this study no evidence was found that supports that serif or sans-serif fonts have an impact on- or correlates to reading speed or information recall. While these results did not show a significant difference there are other factors that could influence the results. The lack of significance from this study does not rule out that serifs can impact reading speed or recollection. / Text kan skrivas med olika typer av typsnitt, att veta hur dessa typsnitt påverkar läsaren är fördelaktigt för utvecklare och kreatörer när de väljer vilket typsnitt de skall använda när de skapar media. Forskare har påstått att resultatet från ett typsnitt möjligen kan påverkas av läsarens vana vid typsnittet [6]. På senare tid har digitala användargränssnitt skiftat från serif till sans-serif typsnitt [10]. Många unga vuxna spenderar mycket av sin tid framför digitala enheter och det kan därför vara så att de är mer vana vid sans-serif typsnitt. Denna vana kanske kan visa mätbara effekter på deras läshastighet och informationshågkomst jämfört med serif typsnitt. Denna studie hade med avsikt att svara på frågan: Har sans-serif typsnitt jämfört med serif typsnitt en påverkan på läshastighet och/eller informations återkallning för unga vuxna? Den här studien utfördes med 20 deltagare av åldrar mellan 18 och 30 år. Deltagarna läste fyra texter, varje text presenterades med antingen Times New Roman, Arial, Verdana, eller Garamond på en datorskärm. Tiden det tog att läsa varje text mättes och deltagarna ställdes frågor gällande vad de mindes om texten de just läst. Resultatet från denna studie visade ingen signifikans i skillnaden mellan serif typsnitten jämfört med sans-serif typsnitten, varken för läshastighet eller informationshågkomst. Denna studie hittade inget bevis som stödjer att serif eller san-serif typsnitt har en inverkan på- eller korrelerar med läshastighet eller informationshågkomst. Även om dessa resultat inte visade på någon signifikant skillnad finns det andra faktorer som kan ha påverkat resultaten. Bristen på signifikans i denna studie utesluter inte att serifer kan ha en påverkan på läshastighet eller informationshågkomst.
407

Modelling and Evaluation of Performance, Security and Database Management Trade-offs in Cloud Computing Platforms. An investigation into quantitative modelling and simulation analysis of ‘optimal’ performance, security and database management trade-offs in Cloud Computing Platforms (CCPs), based on Stochastic Activity Networks (SANs) and a three-tier combined metrics

Akinyemi, Akinwale A. January 2020 (has links)
A framework for the quantitative analysis of performance, security and database management within a network system (e.g. a cloud computing platform) is presented within this research. Our study provides a methodology for modelling and quantitatively generating significant metrics needed in the evaluation of a network system. To narrow this research, a study is carried-out into the quantitative modelling and analysis of performance, security and database management trade-offs in cloud computing platforms, based on Stochastic Activity Networks (SANs) and combined metrics. Cloud computing is an innovative distributed computing archetypal based on the infrastructure of the internet providing computational power, application, storage and infrastructure services. Security mechanisms such as: batch rekeying, intrusion detection, encryption/decryption or security protocols come at the expense of performance and computing resources consumption. Furthermore, database management processing also has an adverse effect on performance especially in the presence of big data. Stochastic Activity Networks (SANs) that offer synchronisation, timeliness and parallelism are proposed for the modelling and quantitative evaluations of ‘optimal’ trade-offs involving performance, security and database management. Performance modelling and analysis of computer network systems has mostly been considered of utmost importance. Quantification of performance for a while has been assessed using stochastic models with a rising interest in the quantification of security stochastic modelling being applied to security problems. Quantitative techniques that includes analytical valuations founded on queuing theory, discrete-event simulations and correlated approximations have been utilised in the examination of performance. Security suffers from the point that no interpretations can be made in an optimal case. The most consequential security metrics are in analogy with reliability metrics. The express rate at which data grows increases the prominence for research into the design and development of cloud computing models that manages the workload intensity and are suitable for data exploration. Handling big data especially within cloud computing is a resource consuming, time-demanding and challenging task that necessitates titanic computational infrastructures to endorse successful data exploration. We present an improved Security State Transition Diagram (SSTD) by adding a new security state (Failed/Freeze state). The presence of this new security state signifies a security position of the computing network system were the implemented security countermeasures cannot handle the security attacks and the system fails completely. In a more sophisticated security system, when the security countermeasure(s) cannot in any form categorise the security attack, the network system is moved to the Failed/Freeze security state. At this security state, the network system can only resume operation when restored by the system administrator. In this study, we propose a cloud computing system model, defined security countermeasures and evaluated the optimisation problems for the trade-offs between performance, security and database management using SANs formalism. We designed, modelled and implemented dependency within our presented security system, developing interaction within the security countermeasures using our proposed Security Group Communication System (SGCS). The choice of Petri-Nets enables the understanding and capturing of specified metrics at different stages of the proposed cloud computing model. In this thesis, an overview of cloud computing including its classification and services is presented in conjunction with a review of existing works of literature. Subsequently, a methodology is proposed for the quantitative analysis of our proposed cloud computing model of performance-security-database trade-offs using Möbius simulator. Additionally, numerical experiments with relevant interpretations are presented and appropriate interpretations are made. We identified that there are system parameters that can be used to optimise the presented abstract combined metrics but they are optimal for neither performance or security or database management independently. Founded on the proposed quantitative simulation model framework, reliable numerical experiments were observed and indicated scope for further extensions of this work. For example, the use of Machine Learning (ML) or Artificial Intelligence (AI) in the predictive and prevention aspects of the security systems.
408

Self Assembly In Aqueous And Non-aqueous Sugar-Oil Mixtures

Dave, Hiteshkumar Rajeshkumar 16 April 2009 (has links)
No description available.
409

Les personnes non-représentées par avocat devant les tribunaux judiciaires civils

Sassi, Kenza 21 December 2018 (has links)
Ce mémoire traite des personnes non-représentées par avocat devant les tribunaux judiciaires civils. Il propose une théorisation de ce phénomène pour mieux permettre de comprendre ses répercussions pratiques. Ce mémoire vise tout d’abord à examiner les sources juridiques de la non-représentation par avocats devant les tribunaux civils, notamment par l’analyse des dispositions législatives du Code de procédure civile qui instituent cette possibilité. Il cherche aussi à cerner les raisons qui sous-tendent le choix de ces justiciables, le rôle des intervenants du système judiciaire face aux personnes non-représentées et la façon dont le fonctionnement actuel des cours de justice et le système judiciaire tout entier composent avec ce phénomène. Nous souhaitons ainsi mettre en lumière les difficultés auxquelles font face les personnes non-représentées par avocat devant les tribunaux, mais aussi les difficultés et les conséquences de cette autoreprésentation en regard des autres acteurs du système judiciaire. -- Mots-clés : autoreprésentation, procédure civile, non-représentation / The present thesis concerns unrepresented litigants in civil courts. Our objective is to develop a theory for self-representation in order to better understand its practical implications. We will first examine the legal sources for unrepresented litigants in civil courts by analyzing the legislative provisions outlined in the Code of Civil Procedure that allow for self-representation. We will also identify the underlying reasons that individuals appearing in the courts choose this option, the role of those who work in the justice system regarding unrepresented litigants, and the place of these cases in the current courts of justice and in the legal system as a whole. We will thus shed light on some of the difficulties that unrepresented litigants face in court, and also the difficulties and resulting consequences for other actors in the judicial system in cases of self-representation. -- Keywords: self-representation, civil procedure, unrepresented litigants / Résumé en espagnol
410

Réalisation d'un récepteur mimo multi usagers avec sélection d'un sous-réseau d'antennes

Cournoyer, Benoît 11 April 2018 (has links)
Dans le domaine du sans-fil, le nombre d'usagers augmente continuellement et la gourmandise des services, en largeur de bande, prend de plus en plus d'ampleur. De nouvelles techniques sont donc nécessaires pour réduire le plus possible l'utilisation du spectre engorgé. Une des techniques envisageables est celle proposée par M. Sébastien Roy de l'Université Laval. Elle consiste à réaliser un récepteur qui, à partir d'un réseau d'antennes, en sélectionne un sous-ensemble qui sera optimal pour un usager en particulier. Chaque usager aura donc son propre sous-ensemble optimal. Pour le déterminer, il suffit de trouver les antennes qui minimisent les interférents et augmentent le rapport signal sur bruit. Ce mémoire décrit l'implantation sur puce d'une partie de ce brevet, c'est-à-dire l'estimateur du canal à long terme. La stratégie de conception est centrée sur la réduction de l'utilisation des ressources matérielle de la puce. De plus, le design doit être totalement paramétrisable puisque plusieurs données ne sont pas encore connues.

Page generated in 0.0378 seconds