• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 30
  • 23
  • 21
  • 5
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 100
  • 35
  • 28
  • 24
  • 23
  • 17
  • 15
  • 15
  • 13
  • 13
  • 12
  • 11
  • 11
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Analys och jämförelse av relationsdatabaser vid behandling av spatiala data : En studie kring prestanda hos relationsdatabaser / Analysis and comparison of relational databases when processing spatial data : A study on the performance of relational databases

Karlsson, David January 2023 (has links)
Det finns en stor mängd databaser som används inom många olika sorters användningsområden. Bland dessa finns det sådana som har funktion för att behandla spatiala data. Problemet som detta medför är att välja en databas som kan hantera en viss tänkt typ av spatiala data med bäst prestanda. Denna rapport presenterar en utredning för detta utifrån ett dataset som erhållits från Norconsult Digital. Bland de databaser som valts finns tre SQL databaser (PostgreSQL, MySQL och SQLite) och en NoSQL databas (MongoDB). Dessa databaser genomgick fem likvärdiga operationer/tester som resulterade i att PostgreSQL med dess GiST/SP-GiST index och MongoDB presterade på en nivå långt över resterande databaser som testades. Utifrån detta arbete kan det konstateras att fler utförliga prestandatester bör utföras, där större och mer komplexa dataset, samt fler alternativ till databaser och spatiala index bör finnas med. Detta för att ge en bättre bild över vilka databaser, med stöd för spatiala data, som presterar bättre. / There are a large number of databases that are used in many different areas. Among these, some have a function for processing spatial data. The problem that this entails is the choice of a database that can handle a certain type of spatial data with the best possible performance. This report presents an analysis of this based on a dataset obtained from Norconsult Digital. Among the chosen databases are three SQL databases (PostgreSQL, MySQL and SQLite) and one NoSQL database (MongoDB). These databases underwent five identical operations/tests resulting in PostgreSQL with its GiST/SP-GiST index and MongoDB performing at a level well above the rest of the databases tested. Based on this work, it can be concluded that more detailed performance tests should be carried out, where larger and more complex datasets, as well as more alternatives to databases and spatial indexes, should be included. This is to give a better picture of which databases, with support for spatial data, perform better.
32

Study of bitwise operations on non-scarce attribute based data structures in PostgreSQL

Eschmann, Marcel January 2018 (has links)
This report investigates the viability of bitwise operations on non-scarce attribute based data structures in PostgreSQL. For applications where computation can’t be avoided, it most probably can be optimized. In an attempt of bringing the computation closer to hardware and the underlying data, operations directly on the database system are explored, taking inspiration from the research field of comparative genomics. With the case-study of an online job platform in mind, where possible matchings between candidate and job descriptions are calculated by a matching engine, a binary encoding is proposed and the computational components identified. The ultimate goal was to evaluate the scalability of the bitwise strategy with respect to the current matching engine. Through an iterative approach, this report conducts quantitative experiments on the presented components. Most notably, an implementation of the population count in the form of a C extension was introduced. It was found, that even for large sequence lengths, the operation is highly efficient. Among the chosen algorithms Lookup Table, Hamming Weight, Intrinsic functions and Unrolled Inline Assembly, the 64 bit intrinsic function displayed the best performance. Benchmarks determined, that the proposed bitwise approach is an excellent strategy for the outlined use-case. Despite the tradeoff of additional complexity in the encoding and decoding of data, the speedup is so significant, that the targeted user base of 100000 can easily be managed and allows for the deprecation of caching mechanisms. / Denna rapport undersöker gångbarheten för bitwise-operationer på icke-knappa attributbaserade datastrukturer i PostgreSQL. För applikationer där komputationen inte kan undvikas, kan den högst troligen optimeras. I ett försök att föra beräkningen närmare hårdvaran och den underliggande datan, undersöks operationer direkt på databasen med inspiration från forskningsområdet inom komparativ genomik. Med fallstudien av en online rekryteringsplattform i åtanke, där möjliga matchningar mellan kandidatoch arbetsbeskrivningar beräknas av en matchningsmotor, föreslås en binär kodning och komputationskomponenterna identifieras. Det slutgiltiga målet var att utvärdera skalbarheten hos bitwise-strategin med avseende till den aktuella matchningsmotorn. Genom ett iterativ tillvägagångssätt utför denna rapport kvantitativa experiment på de presenterade komponenterna. Framför allt infördes en implementering av population count i form av ett C-tillägg i databasen. Det visade sig att även för större sekvenslängder är operationen mycket effektiv. Bland de utvalda algoritmerna Lookup Table, Hamming Weight, Intrinsic-funktioner och Unrolled Inline Assembly, visade 64-bitars Intrisicfunktionen den bästa prestandan. Experimenten fastställde att det föreslagna bitwisetillvägagångssättet är en utmärkt strategi för den valda fallstudien. Trots avvägningen med ytterligare komplexitet vid kodning och avkodning av data är hastigheten så signifikant att ett användarantal på 100000 enkelt kan hanteras och möjliggör uteslutning av cache-mekanismer.
33

Implementace paralelního zpracování dotazů v databázovém systému PostgreSQL / Implementace paralelního zpracování dotazů v databázovém systému PostgreSQL

Vojtek, Daniel January 2011 (has links)
CONTENTS vi Title: Implementation of parallel query processing in PostgreSQL Author: Bc. Daniel Vojtek Department: Department of Software Engineering Supervisor: Mgr. Július Štroffek Supervisor's e-mail address: julo@stroffek.cz Abstract: Parallel query processing can help with processing of huge amounts of data stored in database systems. The aim of this diploma the- sis was to explore the possibilities, analyze, design and finally implement parallel query processing in open source database system PostgreSQL. I used a Master/Worker design pattern, in which standard PostgreSQL backend process is a master. As workers I used processes created from postmaster. In the thesis I focused on preparing an infrastructure nec- essary for parallel processing. I defined a new top level memory context over shared memory, which allows efficient and convenient memory al- locations. Then I implemented creation of new worker processes, based on master process requirements. To be able to control these workers I defined controlling structures using state machines. Then I implemented parallel sort operation and SQL operator UNION ALL using this infras- tructure. The result of this diploma thesis is not only implementation of infrastructure and some parallel operations, but also description of the problems encountered during the...
34

Visualizing Aquatic Species Movement with Spatiotemporal Data from Acoustic and Satellite Transmitters

Bajwa, Perabjoth Singh 01 May 2016 (has links)
Tracking an individual specimen can be a difficult task especially when one also has to keep track of the environmental factors that affect the tracked specimen’s behavior. The task of tracking these animals becomes impossible when they become submerged in water and their number increases to more than just one. The aquatic species that are being tracked by this project in Lake Pontchartrain and the Gulf of Mexico are: tarpon, scalloped hammerhead, whale shark, tiger shark, yellowfin tuna, spotted seatrout, redfish, and bull shark. We are tracking these fish using acoustic and satellite transmitters. The insertion of transmitters in the fish was handled by the Louisiana Department of Wildlife and Fisheries biologists. The acoustic transmitters were implanted on smaller fish that only swam in Lake Pontchartrain. Due to this, receivers were only implanted at locations across the lake on various types of attachments such as buoys, PVC pipes, and pilings. These receivers were positioned at more than ninety locations in order to maximize the acquisition of detections. These species were tracked in Lake Pontchartrain and the Gulf of Mexico. After this preliminary setup, a constant batch of data was generated on a regular basis and this data was process by the application developed in this project. A Ruby on Rails application was then setup in order to store this data and manipulate it to display an animated track. The application utilizes: Ruby, Rails, HTML, CSS, SQL, JavaScript and multiple third part libraries. Many optimizations were performed in order to ensure reliability and performance when loading a high volume of fish or if a high volume of users were to use the application.
35

Webbramverk för sökning av heterogen data utifrån single-page sökfunktion / Web framework for searching heterogeneous data by single-page search function

Andersson, Mattias January 2019 (has links)
Detta arbete fokuserar på att utveckla två webbapplikationer i ramverken Django och Node.js tillsammans med Express för att besvara frågan av vilket ramverk som erhåller bäst söktider utifrån en Q&A plattform som använder en PostgreSQL databas vars innehåll är delar av Stack Overflow datasetet. Ramverken jämförs med hjälp av metoden experiment på grund av fördelarna som det erbjuder. Resultatet blev att Node.js gav bättre söktider för ett mindre webbapplikationer medan Django presterade bättre för större webbapplikationer. Genom att halvera storleken av sökresultatens kroppstext till 150 tecken fick Node.js söktider som i snitt var bättre än Django vid större projekt. Antalet sökresultat har en inverkan där vardera ramverk har sina egna intervaller där de ger bäst söktider. Kortsiktigt kan arbetet fortsätta genom att utföra ytterligare mätningar för respektive faktor, långsiktigt kan dessa ramverk jämföras med andra för att se om dessa två ligger bland de bättre eller sämre för denna tillämpningen.
36

Utveckling och design av WiGID

Altayr, Hydar, Adis, Michael January 2003 (has links)
<p>The Center for Genomics and Bioinformatics (CGB) is an academic department at Karolinska Institute. Generally stated, the CGB department is committed to the generation and management of genetic information by approaches aiming at elucidating the connection between genes, protein and function.</p><p>WiGID is a genome information database that is available through WAP (Wireless Application Protocol).</p><p>Our version of WiGID is based on WML, PHP and PostgreSQL as a database server.</p><p>One of the changes on the old WiGID application was the creation of a relational database with seven tables and one view, instead of the file that represented the database on the old version. We also changed the script language from python to PHP.</p><p>The search engine ability has been extended with three new search alternatives for a user to choose from. Each choice leads to other, sometimes multiple choices.</p><p>A GUI has been created for the administrator, to be able to insert information into the database.</p><p>The structure of the search engine is primarily for narrowing down the search result on the phone display, thereby making the search efficient.</p> / <p>Wireless Genome Information Database (WiGID), är en genome information databas och är tillgänglig genom WAP (Wireless Application Protocol).</p><p>WiGID har vidareutvecklats med WML och PHP som skript språk istället för WML och Python.</p><p>Några exempel på den ny utvecklade WiGID är navigationsmöjligheterna och applikationens bakomliggande struktur.</p><p>Modelleringen av relationsbaserade databasen har gett ökad flexibilitet till applikationen. Den är inte längre statisk och svårhanterlig. Hanteringen av databasen har lösts genom inmatnings skriptet. Inmatnings skriptet hanterar information från en fil som den läser ifrån och lägger informationen i respektive tabell.</p><p>Sökmöjligheterna har ökats genom användning av SQL (Structured Query Language). Navigationsmöjligheterna i sökmotorn utökades till sex valmöjligheter istället för tre enligt den äldre versionen. Varje länk går vidare till nya alternativ för att förfina själva sökningen. Sökningen har effektiviserats och valmöjligheterna.</p>
37

High-Availability für ZOPE

Damaschke, Marko 11 June 2005 (has links) (PDF)
Im Rahmen dieser vorliegenden Arbeit soll untersucht werden, welche Möglichkeiten zur Sicherung einer möglichst hohen Verfügbarkeit (High-Availability), Mechanismen zur Lastverteilung mittels des ZEO-Produkts oder ähnlichem sowie welche Strategien des Cachings sinnvoll an einem ZOPE-Server zum Einsatz kommen können. Die Arbeit untersucht dabei die Einsatzmöglichkeiten von bereits vorhandenen und die eventuelle Notwendigkeit der Eigenimplementierung weiterer Produkte der ZOPE-Entwicklung. Den Rahmen der Arbeit bildet die Serverstruktur des Bildungsmarktplatzes Sachsen.
38

Sicheres Verteilen von Konfigurationsdaten und Migrationsstrategie zum Trennen von Diensten und Datenbasis

Wehrmann, Sebastian 01 August 2006 (has links) (PDF)
Aus historischen Gründen war die CSN Datenbank und die darauf zugreifenden Dienste immer auf dem selben Rechner. Zum einen aus Geldmangel, zum anderen, weil die Verteilung der Konfiguration und Zugriffssteuerung zur Datenbank ein ungelöstes Problem ist. Aufgabe dieser Arbeit ist die physikalische und logische Trennung der Firewall (und des Shapers) von der Datenbank. Dazu muss ein Dienst geschaffen werden, der die Konfigurationsinformationen für die Firewall und potentiell andere Applikationen bereitstellt. Der Zugriff auf diese Informationen muss vor Dritten geschützt werden. Im Weiteren soll eine Migrationstrategie entworfen werden, wie der Übergang zu der skizzierten Lösung bewerkstelligt werden kann.
39

High-Availability für ZOPE

Damaschke, Marko. January 2005 (has links)
Chemnitz, Techn. Univ., Studienarb., 2004.
40

A/B-testing for web design: A comparative study of response times between MySQL and PostgreSQL : Implementation of a web based tool for design comparisons with stored images

Lindberg, Tobias January 2018 (has links)
Web development is a challenging task and it’s easy to neglect feedback from users in development stages. That’s why the aim is to create a tool which would help the communication between developers and users by using A/B-testing. The idea is to let developers release two choices containing images, which would be the intended design changes. By letting the users vote for the preferred option, they will be able to provide some feedback for the developers. Response times becomes a critical factor for the tool’s overall success. Therefore, this study compares MySQL and PostgreSQL through a technical experiment to see which database would be the better option regarding the image processing. The experiment indicated that PostgreSQL would the better alternative regarding the subject, as it had the most responsive processing of images. This prototype provides a good foundation for a potentially useful system that could be implemented in future work.

Page generated in 0.0335 seconds