• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 121
  • 114
  • 88
  • 69
  • 38
  • 12
  • 7
  • 7
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • Tagged with
  • 494
  • 494
  • 115
  • 108
  • 99
  • 81
  • 74
  • 73
  • 69
  • 69
  • 63
  • 56
  • 56
  • 53
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
281

Current approaches on how to acquire and integrate external data into Data Warehouses

Laurén, Carl-Fredrik January 2003 (has links)
Integration of internal data is often mentioned in literature as the most demanding task when building or maintaining a DW. There is no literature that outlines the approach for the integration of external data into a DW. The integration of external data has increased during the last years enabling corporations to understand the opportunities in the market and to be able to better plan for future success of the corporation. The aim of this work is to exploratory outline current approaches for acquiring and integrating external data into DW and to give a brief overview of the future trends for external data integration. This aim was researched using an interview study. The results show that how to integrate external data is depending on what the corporations purpose with the external data is. Additional results show that how to integrate external data also depends on how the data is acquired.
282

Current and future application areas for external data in data warehouses

Niklasson, Markus January 2003 (has links)
External data is data that a company could acquire outside their internal systems. This external data could bring another dimension for the companies, and allow them to further understand the environment. External data incorporated into a data warehouse makes it possible to exploit a number of application areas. The comprehensive aim of this dissertation is to outline what application areas that companies exploits today and what the future will bring. To achieve this, an interview study among people working with external data and DWs have been conducted. Based on the information gathered through the study, the most common application areas are address updates, credit information, and marketing. Some smaller application areas have also been identified. A discussion on what application areas that will come in the future, are also to be found.
283

Data Quality in Data Warehouses: a Case Study

Bringle, Per January 1999 (has links)
Companies today experience problems with poor data quality in their systems. Because of the enormous amount of data in companies, the data has to be of good quality if companies want to take advantage of it. Since the purpose with a data warehouse is to gather information from several databases for decision support, it is absolutely vital that data is of good quality. There exists several ways of determining or classifying data quality in databases. In this work the data quality management in a large Swedish company's data warehouse is examined, through a case study, using a framework specialized for data warehouses. The quality of data is examined from syntactic, semantic and pragmatic point of view. The results of the examination is then compared with a similar case study previously conducted in order to find any differences and similarities.
284

Datalager : identifiering av motiv

Henriksson, Niklas January 2000 (has links)
Det här arbetet har som huvudsyfte att belysa och ta fram vilka motiv det finns till att implementera datalager. Datalager är en teknik för att ta fram beslutsstödssystem där slutanvändarna själva tar fram sin information. Ett beslutsstödssystem har till uppgift att ge beslutsfattare (slutanvändare) information om en hel eller delar av en organisation. I introduktionen förklaras närmare vad ett beslutsstödssystem och datalager är för någonting samt ges exempel på i vilka sammanhang datalager används. En förklaring ges också till den historiska utvecklingen mot datalager För att få fram motiven har intervjuer genomförts hos fyra stycken företag som implementerat datalager. Hos de här företagen har projektledare som ansvarat för implementationerna intervjuats samt hos ett företag har fyra stycken slutanvändare intervjuats. Resultatet från intervjuerna visar att de vanligaste motiven finns betraktat ur en slutanvändares perspektiv. Motiven är bland annat att tillgängliggöra information och slutanvändarna kan anpassa sin information i förhållande till sitt verksamhetsområde.
285

Datalager : endast för storföretag?

Johansson, Tomas January 2001 (has links)
Syftet med denna rapport är att undersöka om datalager, en sorts databas som fungerar som beslutsstödssystem, kan användas av mindre företag och organisationer inom en snar framtid. Datalager har tidigare varit en fråga främst för stora företag. Mindre företag nämns sällan i datalagersammanhang. Datalagerteknologin är ny vilket gör att den fortfarande utvecklas i hög takt. Svaret söks genom en litteraturstudie samt en empirisk studie. I den senare tillfrågas ett antal datalagerutvecklare. Litteraturstudien fokuserar på fyra synvinklar: en storleksmässig synvinkel, en nyttomässig synvinkel, en ekonomisk synvinkel och framtida möjligheter. Ur dessa synvinklar studeras mindre företags möjligheter att använda datalager. Den empiriska studien fokuserar på spridningen av datalager i Sverige och mindre företags möjlighet att använda datalager. Resultatet visar att det redan idag finns möjligheter för mindre företag att använda datalager. Även om möjligheterna finns är det en komplex process att implementera ett datalager och arbetet med datalagret upphör inte efter implementationen.
286

En undersökning kring informationssäkerhet i datalager : En litteratur- och fältstudie

Crnic, Enes January 2010 (has links)
Allt hårdare konkurrens har medfört att det är desto viktigare att beslutsansvariga i ett företag fattar snabba och korrekta beslut. För att förbättra och effektivisera beslutsfattandet och samtidigt skapa sig fördelar i förhållande till marknadskonkurrenterna, kan beslutsansvariga använda sig av ett datalager. Datalagret kan genom enorma mängder data som är insamlade från ett stort antal olika system, generera stora fördelar för ett företag. Men detta gäller dock endast under förutsättningen att datalagret är skyddat på ett lämpligt vis. Syftet med studien är att undersöka vilka lämpliga skyddsåtgärder som kan användas för att uppnå och bibehålla ett säkert datalager. För att besvara frågeställningen genomfördes en litteraturstudie och två intervjuer med företag som använder sig av datalager. Resultatet av den teoretiska undersökningen visar att fyra administrativa och fem logiska skyddsåtgärder är lämpliga att användas i syfte med att uppnå och bibehålla god informationssäkerhet i ett datalager. Den empiriska undersökningen bekräftar det sistnämnda, dock med vissa undantag.
287

Kreditbedömningar och Data Warehouse : En studie om riktlinjer för insamling, transformering och inladdning av kreditbedömningsinformation i Data Warehouse

Ahl, Alexander January 2013 (has links)
Studien har handlat om att ta fram riktlinjer för hur extrahering, transformering och inladdning (ETL) av kreditbedömningsinformation bör göras när det kommer till att införa ett Data Warehouse (DW). Ett kvalitativt angreppssätt har använts med både en fallstudie och en intervjustudie, där fallstudien genomfördes med Asitis AB som är en systemleverantör förfinans- och reskontrafinansiering (factoring) för att undersöka potentiella affärsmöjligheter med ett DW med kreditbedömningsinformation. Intervjustudien användes för att samla in värdefull information från individer inom alla berörda problemområden, och användes sedan i fallstudien. Resultatet var både framgångsfaktorer och fallgropar för ETL-processen med kreditbedömningsinformation som kan fungera som stöd för organisationer med detta behov. Det har visat sig att ETL-processen för kreditbedömningsinformation utgör ett område med stor potential för affärsmöjligheter, där det krävs hög kompetens, domänkunskap, proaktivitet och juridisk kunskap vid genomförande av ETL-processen.
288

Optimierung der materialisierten Sichten in einem Datawarehouse auf der Grundlage der aus einem ERP-System übernommenen operativen Daten

Achs, Thomas Ludwig 10 1900 (has links) (PDF)
Das Planen und Entwickeln eines optimalen Data Warehouse-Systems ist ein Ansinnen vieler Wissenschaftler und Forscher aus unterschiedlichen Bereichen. Zahlreiche Publikationen wurden zu diesem Thema verfasst und in den letzten Jahren veröffentlicht. In dieser Literatur wird versucht eine Heuristik zu entwickeln, welche eine Lösung nahe am Optimum für das Materialisierungsproblem im Data Warehouse liefert. In der Vergangenheit wurden in zahlreichen Publikationen Annahmen, wie unbegrenzte Ressourcen oder rasche Zugriffszeit getroffen, welche in der realen Welt allerdings nicht vorhanden sind. Die Vision, welche hinter dieser Arbeit steckt, ist es, ein Instrument zu entwickeln, welches diese limitierenden Faktoren mitberücksichtigt, bzw. dieses versucht. Dabei hat sich insbesondere die Modellierungsmethode des Aggregation Path Arrays von Prosser und Ossimitz als geeignet erwiesen, in diesem Problembereich einen Lösungsansatz zu finden. Vor allem ist diese Methode durch die einfache graphische Darstellungsfähigkeit besonders für informationstechnische Darstellung geeignet. Dabei ist es auch unerfahrenen Endbenutzer möglich, das Design eines Warehouses zu bewerkstelligen. Aus diesem Grund ist die Methode auch für Schulungs- und Ausbildungszwecke besonders geeignet. Die kostenminimale physische Bereitstellung der wichtigen Informationen für die Entscheidungsträger in Unternehmen stellt das Ziel dieser Arbeit dar. Dabei ist ein Optimierungsproblem zu lösen, welches limitierende Zeit- und Speicherressourcen bei gleichzeitigem Berücksichtigen wichtiger Information beachtet. Leider ist diese Information nicht immer als homogen anzusehen. Es gibt beispielsweise wichtige Information, welche für das Überleben einer Organisation notwendig ist und Information, welche wichtig, aber nicht ständig verfügbar sein muss. Der Versuch einen Lösungsansatz für diese Problematik zu finden, stellt das Herzstück meiner Arbeit dar. (Autorenref.)
289

Fast Computation on Processing Data Warehousing Queries on GPU Devices

Cyrus, Sam 29 June 2016 (has links)
Current database management systems use Graphic Processing Units (GPUs) as dedicated accelerators to process each individual query, which results in underutilization of GPU. When a single query data warehousing workload was run on an open source GPU query engine, the utilization of main GPU resources was found to be less than 25%. The low utilization then leads to low system throughput. To resolve this problem, this paper suggests a way to transfer all of the desired data into the global memory of GPU and keep it until all queries are executed as one batch. The PCIe transfer time from CPU to GPU is minimized, which results in better performance in less time of overall query processing. The execution time was improved by up to 40% when running multiple queries, compared to dedicated processing.
290

Tvorba metodiky pro výkonové srovnání databázových systémů datových skladů / Development of methodics for performance comparison of data warehouse systems

Ronovský, Jan January 2017 (has links)
This thesis focuses on developing methodics for performance comparison of data warehouse systems. Firstly, the thesis defines data warehouses in various development stages of organization BI and describes knowledge about data warehouses. Methodics developed in the thesis describes architecture of standardized data warehouse, data flow between areas of data warehouse and processes in data warehouse. Understanding of these concepts is crucial for assurance of methodics applicability. Methodics offer logical progression of steps, which start and include testing of data warehouse systems. The contribution of the thesis is in having guide, what needs to be done when organization must do while testing various systems for data warehouses. Also it describes how this testing should be done on middle level detail, which is the absolute minimum level of abstraction that can be done due to wide applicability of methodics. Methodics offers solution to the problem of performance comparison when organization need to answer question - Which data warehouse system should we use in our organization? However, methodics expects already some knowledge about data warehouse content.

Page generated in 0.081 seconds