• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 53
  • 27
  • 14
  • 6
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 129
  • 62
  • 34
  • 26
  • 25
  • 20
  • 19
  • 18
  • 17
  • 15
  • 13
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Public certificate management : An analysis of policies and practices used by CAs / Offentlig certifikathantering : En analys av policys och praxis som används av CAs

Bergström, Anna, Berghäll, Emily January 2021 (has links)
Certificate Authorities (CAs) carry a huge responsibility in today's internet security landscape as they issue certificates that establish secure end-to-end connections. This thesis conducts a policy review and survey of CAs' Certificate Policies and Certificate Practice Statements to find similarities and differences that could lead to possible vulnerabilities. Based on this, the thesis then presents a taxonomy-based analysis as well as comparisons of the top CAs to the Baseline Requirements. The main areas of the policies that were focused on are the issuance, revocation and expiration practices of the top 30 CAs as determined by the use of Tranco's list. We also determine the top CA groups, meaning the CAs whose policies are being used by the most other CAs as well as including a top 100 CAs list. The study suggests that the most popular CAs hold such a position because of two main reasons: they are easy to acquire and/or because they are connected to several other CAs.  The results suggest that some of the biggest vulnerabilities in the policies are what the CAs do not mention in any section as it puts the CA at risk for vulnerabilities. The results also suggest that the most dangerous attacks are social engineering attacks, as some of the stipulations for issuance and revocations make it possible to pretend to be the entity of subscribes to the certificate rather than a malicious one.
102

WebAssembly vs. its predecessors : A comparison of technologies

Fredriksson, Stefan January 2020 (has links)
For many years it has only been HTML, CSS, and JavaScript that have been native to the Web. In December 2019, WebAssembly joined them as the fourth language to run natively on the Web. This thesis compared WebAssembly to the technologies ActiveX, Java applets, Asm.js, and Portable Native Client (PNaCl) in terms of their performance, security, and browser support. The reason why this was an interesting topic to investigate was to determine in what areas WebAssembly is an improvement over previous similar technologies. Another goal was to provide companies that still use older technologies with an indication as to whether or not it is worth upgrading their system with newer technology. To answer the problem, the thesis mainly focused on comparing the performance of the technologies through a controlled experiment. The thesis also aimed at getting a glimpse of the security differences between the technologies by the use of a literature study. The thesis showed that PNaCl was the technology with the best performance. However, WebAssembly had better browser support. Also, PNaCl is deprecated while WebAssembly is heavily supported and could potentially be further optimized.
103

Webový prohlížeč přednášek / Web-Based Lecture Browser

Žižka, Josef January 2009 (has links)
This thesis deals with a web-based lecture browser. Its goal is to facilitate the access to information with the use of modern speech and multimedia technologies. Technologies used for this browser are discussed. Video recordings play a very important role in the browser, and therefore the big portion of this work is aimed at the digital video and methods of its delivery using streaming servers. Solutions of similar multimedia browsers are mentioned. The reader is acquainted with the browser design. This includes describing the various components of the browser and how their mutual synchronization is done. The final version of the browser is introduced and the problems that occurred during the development process and deployment into service are mentioned. In the conclusion of this work the future development of the web-based lecture browser is discussed.
104

Energy Consumption of Browser-based Creative AI

Lund, Leonard, Blomkvist, Felix January 2022 (has links)
Creative AI in the music field has in recent years begun stepping out of the confines of academia and seen increased adoption among musicians thanks to developers launching consumer products powered by AI. These new tools are opening up new possibilities in music-making, but their increased use and development prompts inquiry regarding their sustainability. While studies have been conducted on the sustainability of training AI models, the sustainability of the usage of Creative AI remains largely unexplored. To amend this, this paper studies the energy consumption of using four music-related browser-based Creative AI tools. The four tools are Tone Transfer, Piano Scribe, MidiMe and Performance RNN, all developed by Google Magenta. The energy consumption of the tools was found by measuring the power provided to the computer. This was done by connecting a smart plug between the computer’s power cord and the wall socket. We found that Tone Transfer consumed the most energy per use with an average energy consumption of 392 J. MidiMe consumed the least energy per use with 138 J. All the tools consumed less energy per use than leaving the computer running in steady-state for 70 seconds. With this study, we have shown that the usage of music-related Creative AI tools does not represent a threat to sustainability goals. Our findings indicate that the tools studied in this paper manage to be efficient, while being both powerful and useful. This disputes the notion that there is a trade-off between performance and efficiency in the design of AI tools. We postulate that when developing tools for local use by consumers, developers are bound by limitations that force them to design efficient tools. / Kreativ AI inom musikområdet har under de senaste åren börjat ta sig ut ur den akademiska världens ramar och anammats i högre grad bland musiker. Detta tack vare att utvecklare börjat lanserat konsumentprodukter som drivs av AI. Dessa nya verktyg öppnar upp för nya möjligheter inom musikskapande, men deras ökade användning och utveckling föranleder undersökningar om deras hållbarhet. Även om studier har gjorts gällande hållbarheten av att träna AI-modeller, är hållbarheten av användningen av Kreativ AI fortfarande till stor del outforskat. För att ändra detta studerar vi i denna artikel energiförbrukningen av att använda fyra musikrelaterade webbläsarbaserade Kreativa AI-verktyg. De fyra verktygen är Tone Transfer, Piano Scribe, MidiMe och Performance RNN, alla utvecklade av Google Magenta. Verktygens energiförbrukning hittades genom att mäta effekten till datorn. Detta gjordes genom att ansluta en smart kontakt mellan datorns nätsladd och vägguttaget. Vi fann att Tone Transfer förbrukade mest energi per användning med en genomsnittlig energiförbrukning på 392 J. MidiMe förbrukade minst energi per användning med 138 J. Alla verktyg förbrukade mindre energi per användning än vad som konsumeras av att låta datorn vara igång i steady-state i 70 sekunder. Med denna studie har vi visat att användningen av musikrelaterade Kreativa AI-verktyg inte utgör ett hot mot hållbarhetsmål. Våra resultat tyder på att verktygen som studerats i denna artikel lyckas vara effektiva, samtidigt som de är både kraftfulla och användbara. Detta ifrågasätter uppfattningen om att det finns en avvägning mellan prestanda och effektivitet i utformningen av AI-verktyg. Vi anser att när utvecklare utvecklar verktyg för lokal användning av konsumenter är utvecklare bundna av begränsningar som tvingar dem att designa effektiva verktyg.
105

Enabling Smartphones to act as IoT Edge Devices via the Browser-based ’WebUSB API’ : The future of the browser and the smartphone in home electronics IoT systems / Användningen av Smartphones som IoT Edge Devices med hjälp av det Browserbaserade WebUSB gränssnittet : Framtiden för webbläsaren och smartphonen i hemelektronik IoT system

Lindström, Ruben January 2021 (has links)
This degree project proposes a novel architecture for IoT systems, utilizing smartphones as edge devices and running the value-creating software such as preprocessing, anomaly detection, and deriving data-based insights in the web browser as opposed to natively on the device. Utilizing the smartphone as an edge device reduces cost of adoption for IoT technologies since less hardware has to be included in the system compared to bundling a device for processing with the system. However, in typical implementations, these smartphones are running native applications that are necessarily bound by the policy set up by the owners of the major application marketplaces through which the applications are distributed, that among other things enforce a heavy revenue-sharing program. Furthermore, this sytem is not convenient for the user since they have to download an application they may only use once or sparingly, and it relies on the compatibility between the operating system and the application. Running the application in the browser as opposed to natively would solve these issues. This work also explores the experimental WebUSB API and investigates its applicability in IoT systems. Specifically, this work explores two constructed scenarios that showcase the promise of this novel architecture to extrapolate how it can be utilized for other purposes. These two constructed scenarios are successfully implemented, and various metrics to analyse their performance and real world applicability are discussed. In one experiment, a QR-scanning application is implemented in the browser, and showcases an average frame rate of over 60 frames per second while rendering a live video feed of the contents captured by the camera as well as a loading animation, and an average time to completion for scanning a QR code of 0,204 seconds after initiating the scan. In another experiment, a firmware update is simulated by transferring encrypted data from the browser via the WebUSB API to a microcontroller. Due to the limitations of the experimental setup, the implementation could showcase a transfer of no more than 29 KB of encrypted data in 10 seconds. However, the implementation successfully shows that the browser can remain interactive even while performing these transferring operations, and that there are good APIs in place for developers to easily access the advanced sensors of the phone, and that the WebUSB API has good safety measures in place. Furthermore, the work successfully demonstrates how the WebUSB API can be utilized in IoT systems as a novel way of transferring data that holds great implications for the future of IoT systems in general, and the web in particular. To conclude, the work finds that the modern web browser works well as an environment for IoT applications, and that it has good access to the advanced sensors of the smartphone, and that theWebUSB API can effectively be utilised for data transfer in IoT applications. / Detta examensarbete föreslår en ny arkitektur för IoT-system som använder smarta telefoner som edge-enheter som behandlar den data de tar emot i webbläsaren, snarare än nativt på enheten. Att använda smarta telefoner som en edge-enheter minskar kostnaden för användning av IoT-teknologier eftersom mindre hårdvara behöver ingå i systemet, eftersom viss funktionalitet istället kan substitueras av den smarta telefonen. I typiska implementationer kör dessa smarta telefoner nativa applikationer som nödvändigtvis är bundna av de regelverk som fastställts av ägarna av de stora applikationsmarknaderna genom vilka applikationerna distribueras, vilket bland annat påtvingar applikationsägarna att ge bort stora delar av sina intäkter. Dessutom är detta system inte bekvämt för användaren eftersom de måste ladda ner en applikation de bara kommer använda ett fåtal gånger, och som dessutom är beroende av kompatibiliteten med operativsystemet. Att istället köra en motsvarande applikation i webbläsaren löser dessa problem. Detta arbete utforskar också det experimentella WebUSB API:t och undersöker dess användbarhet i IoT-system. Specifikt utforskar detta arbete två konstruerade scenarier som visar potentialen i denna nya arkitektur för att extrapolera hur den kan användas för andra ändamål. Dessa två konstruerade scenarier implementeras framgångsrikt och olika mått för att analysera deras prestanda och verkliga tillämpbarhet diskuteras. I ett experiment implementeras en QR- skanningsapplikation i webbläsaren och uppnår en genomsnittlig bildfrekvens på över 60 bildrutor per sekund samtidigt som en live videoström av innehållet som fångas av kameran och en laddningsanimation visas på skärmen. Vidare uppnådde applikationen en genomsnittlig tid för tolkning av QR-koder på 0,204 sekunder, från och med det att skanningen inleddes. I ett annat experiment simuleras en programvaruuppdatering genom att överföra krypterad data från webbläsaren via WebUSB API:t till en enkretsdator. På grund av begränsningarna i experimentet kunde implementationen inte visa en överföring högre än 29 KB krypterad data på 10 sekunder. Implementationen visar dock framgångsrikt att webbläsaren kan förbli interaktiv även när de utför dessa överföringsåtgärder, och att det finns bra API: er för utvecklare att enkelt få tillgång till telefonens avancerade sensorer och att WebUSB API:t har goda säkerhetsmekanismer på plats. Dessutom demonstrerar arbetet framgångsrikt hur WebUSB API:t kan användas i IoT-system som ett nytt sätt att överföra data som har stora implikationer för framtiden för IoT-system i allmänhet och på webbläsare och webbapplikationer synnerhet. Avslutningsvis konstaterar arbetet att den moderna webbläsaren fungerar bra som en miljö för IoT-system och att den har god tillgång till den smarta telefonens avancerade sensorer och att WebUSB API:t framgångsrikt kan användas för dataöverföring i IoT-system.
106

Music discovery methods using perceptual features / Användning av metoder baserade på perceptuella särdrag för att upptäcka musik

Nysäter, Richard January 2017 (has links)
Perceptual features are qualitative features used to describe music properties in relation to human perception instead of typical musical theory concepts such as pitches and chords. This report describes a music discovery platform which uses three different methods of music playlist generation to investigate if and how perceptual features work when used for music discovery. One method abstracts away the complexity of perceptual features and the other two lets users use them directly. Two user testing sessions were performed to evaluate the browser and compare the different methods. Test participants found the playlist generation to work well in general, and especially found the method which uses emotions as an interface to be intuitive, enjoyable and something they would use to find new music. The other two methods which let users directly interact with perceptual features were less popular, especially among users without musical education. Overall, using perceptual features for music discovery was successful, although methods should be chosen with the intended audience in mind. / Perceptuella särdrag är kvalitativt framtagna särdrag som beskriver musik med fokus på mänsklig perception snarare än musikteoribegrepp som tonhöjd och ackord. Den här rapporten beskriver en musikhemsida som använder tre olika metoder för att generera spellistor med avsikt att undersöka om och hur perceptuella särdrag fungerar för att hitta ny musik. En metod abstraherar bort perceptuella särdragens komplexitet och de andra två metoderna låter testare använda dem utan abstraktion. Två användbarhetstest utfördes för att utvärdera musikhemsidan och jämföra de olika metoderna. Testanvändare tyckte överlag att genereringen av spellistor fungerade bra och att speciellt metoden som använde känslor som gränssnitt var intuitiv, rolig att använda och en metod de skulle använda för att hitta ny musik. De andra två metoderna som tillät användare att direkt använda perceptuella särdrag var mindre populära, speciellt bland användare utan musikutbildning. Överlag var användandet av perceptuella särdrag för att hitta musik en framgång, dock bör metoderna väljas utifrån användarnas kunskap.
107

Effects and opportunities of native code extensions for computationally demanding web applications

Jarosch, Dennis 17 January 2012 (has links)
Das World Wide Web befindet sich im Wandel von interaktiven Webseiten hin zu Web- Applikationen. Eine steigende Zahl von Anwendern führt täglich Aufgaben ausschließlich mit Hilfe des Web-Browsers durch. Dadurch wird das Web zu einer bedeutenden Plattform für Anwendungsentwicklung. Dieser Plattform fehlt jedoch heute noch die Rechenleistung nativer Applikationen. Microsoft Xax und Google Native Client (NaCl) sind zwei neue, unabhängige Technologien zur Entwicklung nativer Web-Applikationen. Sie ermöglichen die Erweiterung herkömmlicher Web-Applikationen durch kompilierten nativen und dennoch betriebssystemunabhängigen Programmcode. Die vorliegende Dissertation untersucht die Vor- und Nachteile nativer Web-Applikationen und analysiert zudem das tatsächliche Leistungsvermögen im Vergleich zu konventionellen JavaScript Web-Applikationen. Dazu wird eine experimentelle Leistungsanalyse von nativen Applikationen in C, JavaScript Web-Applikationen und NaCl nativen Web-Applikationen anhand vier unterschiedlicher Vergleichstests durchgeführt. Dabei werden die folgenden Leistungsaspekte betrachtet: mathematische Operationen (seriell und parallel), 3D-Grafikoperationen und Datenverarbeitung. Die Ergebnisse der Leistungsanalyse zeigen, dass NaCl Stärken in mathematischen und 3D-Grafikoperationen zu Grunde liegen, jedoch erhebliche Schwächen bei der Datenverarbeitung aufweist. Entsprechende Lösungsansätze zur Optimierung der Anwendung werden erarbeitet und erörtert. Eine Bewertung anhand technischer und nicht-technischer Kriterien komplementiert die Ergebnisse der Leistungsanalyse. Darüber hinaus werden die technischen, politischen und strategischen Treiber für NaCls Marktdurchdringung diskutiert. / The World Wide Web is amidst a transition from interactive websites to web applications. An increasing number of users perform their daily computing tasks entirely within the web browser, turning the Web into an important platform for application development. The Web as a platform, however, lacks the computational performance of native applications. This problem has motivated the inception of Microsoft Xax and Google Native Client (NaCl), two independent projects that facilitate the development of native web applications. These allow the extension of conventional web applications with compiled native code, while maintaining operating system portability. This dissertation determines the benefits and drawbacks of native web applications. It also examines the actual performance capabilities of JavaScript web applications. An experimental performance analysis is undertaken in order to determine and compare the performance characteristics of native C applications, JavaScript web applications, and NaCl native web applications. Four application benchmarks consider different performance aspects: number crunching (serial and parallel), 3D graphics performance, and data processing. The results confirm that NaCl''s performance in computational tasks and 3D graphics is impeccable. On the other hand, it shows substantial limitations in data processing. These are evaluated and possible solutions are discussed. The results of the performance analysis are complemented with an evaluation on the basis of technical and non-technical criteria and a discussion of the technical, political, and strategic drivers for NaCl.
108

Získávání informací o uživatelích na webových stránkách / Browser and User Fingerprinting for Practical Deployment

Vondráček, Tomáš January 2021 (has links)
The aim of the diploma thesis is to map the information provided by web browsers, which can be used in practice to identify users on websites. The work focuses on obtaining and subsequent analysis of information about devices, browsers and side effects caused by web extensions that mask the identity of users. The acquisition of information is realized by a designed and implemented library in the TypeScript language, which was deployed on 4 commercial websites. The analysis of the obtained information is carried out after a month of operation of the library and focuses on the degree of information obtained, the speed of obtaining information and the stability of information. The dataset shows that up to 94 % of potentially different users have a unique combination of information. The main contribution of this work lies in the created library, design of new methods of obtaining information, optimization of existing methods and the determination of quality and poor quality information based on their level of information, speed of acquisition and stability over time.
109

Miljöpåverkan från efterbehandling av förorenade områden : En livscykelanalys av schaktsanering ur ett klimat- och resurshanteringsperspektiv / Environmental impact from remediation of contaminated areas

Oleskog, Astrid January 2023 (has links)
I Sverige finns det idag cirka 86 000 inventerade områden som är eller misstänks vara förorenade. Ett förorenat område kan ha en skadlig effekt på människor, djur och miljö vid exponering av föroreningarna. Områden som är förorenade kan därför behöva behandlas för att lokalt förbättra markkvalitén och för att minska risker. Ett problem som börjat uppmärksammas i branschen är att saneringar av mark också kan leda till betydande negativa konsekvenser som till exempel utsläpp av växthusgaser och nyttjande av fossila resurser. Bland annat riskeras det svenska miljömålet ”Begränsad klimatpåverkan” att inte uppnås om ingenting förändras. Den vanligaste metoden för att efterbehandla ett förorenat område i Sverige är genom schaktsanering. Studiens syfte var att undersöka klimatpåverkan och resurshanteringen från schaktsanering genom att göra en livscykelanalys på metoden. Metodens klimatpåverkan jämfördes också med andra saneringsmetoder. Resultaten visade att för schaktsanering bidrog transport och deponiarbetet till den största klimatpåverkan och resursanvändningen. Genom minskade transportavstånd, användning av fordon med lägre energiåtgång per transportarbete eller utbyte mot mer förnyelsebara drivmedel sågs miljöpåverkan minska. Deponering av massor sågs dessutom vara energikrävande, varpå incitament för att återvinna och återanvända massor i högre utsträckning än vad det görs idag efterfrågas. I jämförelse med andra saneringsmetoder sågs biokol vara den metod som gav upphov till en relativt liten klimatpåverkan. Dessutom medförde biokol en mer resurseffektiv avfallshantering i och med minskad deponering av jord, organiskt avfall och uttag av jungfruliga råvaror för återfyllnad. / In Sweden, there are currently approximately 86,000 inventoried sites that are identified as being contaminated. A contaminated site can have a harmful effect on humans, animals and the environment when exposed to the contaminants. Contaminated areas may therefore need to be remediated to locally improve soil quality and to reduce risks. A problem that has been noticed in the industry is that remediation of land can also lead to significant negative environmental consequences, such as the release of greenhouse gases and the use of fossil resources. For example, the Swedish environmental quality objective "Reduced climate impact" might not be achieved unless there are improvements. The most common method to remediate a contaminated site in Sweden is through “dig and dump”. The purpose of this study was to investigate the climate impact and resource usage from “dig and dump” by performing a life cycle assessment of this most common remediation method. The climate impact of the method was also compared with other remediation methods. The results showed that for “dig and dump”, transports and landfill of the soil contributed to the greatest climate impact and resource use. Through reduced transport distances, use of vehicles with lower energy consumption or exchange for more renewable fuels, the environmental impact was reduced. Landfilling of excavated soil was also energy demanding, and incentives to recycle and reuse soil to a greater extent than is done today are preferred. In comparison with other remediation methods, biochar was a method that caused a relatively small climate impact. In addition, biochar led to a more resource-efficient waste management through reduced disposal of soil, organic waste, and extraction of virgin raw materials for refilling.
110

Undersökning av webbsidors säkerhet vid användning avFacebook Login : Vidareutveckling och analys av OAuthGuard

Hedmark, Alice January 2019 (has links)
Single Sign-On (SSO) är en autentiseringsprocess som tillåter en utvecklare att delegera autentiseringsansvaret till en dedikerad tjänst. OAuth 2.0 är ett auktoriseringsramverk som ofta står som grund för ett autentiseringslager som i sin tur möjliggör SSO. En identitetsleverantör är tjänsten som står för hantering av användaruppgifterna och autentiseringen, två vanliga identitetsleverantörer är Google och Facebook som i sin tur implementerar SSO med hjälp utav autentiseringslagren OpenID Connect respektive Facebooks egna autentiseringslager. Det har visat sig att många klienter som ska utnyttja SSO med OAuth 2.0 implementerar det fel så att säkerhetsbrister uppstår, studier har utförts med förslag till lösningar men många bristande implementationer fortsätter produceras och existera. Att skapa diverse verktyg för att främja säkerhet i dessa sammanhang är en metod där OAuthGuard utvecklats med visionen att även kunna skydda användaren, direkt från en webbläsare. OAuthGuard har även tidigare använts för att analysera säkerheten med Google SSO och visat att 50% av undersökta klienter har brister, men motsvarande studie eller verktyg saknas för Facebook SSO. Denna studie gjorde en motsvarande undersökning för Facebook SSO-klienter med en vidareutvecklad version av OAuthGuard och fann att de lider av brister med liknande trend som tidigare studies resultat mot Google-SSO-klienter, men att färre Facebook- SSO-klienter har brister i jämförelse. Vid vidareutvecklingen av OAuthGuard upptäcktes ett antal svårigheter och framtiden för denna typ av verktyg behöver vidare analyseras. Vidare analys behöver även göras för att bedöma om Facebook-SSO kan vara att föredra över Google-SSO ur säkerhetsperspektiv samt vidare utforskande av nya säkerhetsfrämjande metoder behöver utföras. / Single Sign-On (SSO) is an authentication process that allows a developer to delegate the authentication responsibility to a dedicated service. OAuth 2.0 is an authorization framework that often serves as a base for authentication layers to be built upon that in turn allows for SSO. An identity provider is the service that is responsible for handling user credentials and the authentication, two common identity providers are Google and Facebook that implement SSO with the authentication layers OpenID Connect respectively Facebooks own authentication layer. It has been shown that many clients using OAuth 2.0 as base for SSO make faulty implementations leading to security issues, a number of studies has proposed solutions to these issues but faulty implementations are continually being made. To create various tools to promote security in these contexts is a method where OAuthGuard has been developed with the vision to also directly protect the common website user directly from the browser. OAuthGuard has been used in an earlier study to analyze the security of clients using Google SSO and discovered that 50% of the analyzed clients had flaws, no comparable study has been done for clients using Facebook SSO, which is the second largest third party log in variant. This study made a comparable investigation for Facebook SSO clients with a further developed version of OAuthGuard and found that these clients suffer from flaws with a similar trend as the previous study with Google-SSO clients, although fewer Facebook-SSO clients suffer from these flaws. When further developing OAuthGuard a dumber of difficulties was discovered and the future of these kind of tools needs to be investigated. Further analysis needs to be done to assess if Facebook-SSO should be recommended over Google-SSO from a security perspective and also further exploration of new methods to promote security needs to be done.

Page generated in 0.0275 seconds