• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 2
  • 1
  • Tagged with
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Metodika řešení analytických úloh v BI / Methodology for solving an BI analytical tasks

Žebrák, Miroslav January 2011 (has links)
The thesis focuses mainly on OLAP technology and its tools using to analyze corporate data. One of the objectives is to define the analytical tools market and provide an overview which shows the current situation concerning those tools on Business Intelligence (BI) market. Another objective is to obtain an overview of some current and future trends in the BI market. The main purpose of the thesis is to create a "methodology" for solving an BI analytical tasks using analytical services in SQL Server 2008 R2 from Microsoft. To achieve these objectives a theoretical analysis of available resources and, in particular consultation with employees of Clever Decision company is used. The main contribution of this work is the development of analytical database itself, which is divided into separate phases where each phase contains best practices and recommendations, including examples.
2

Flexible Data Extraction for Analysis using Multidimensional Databases and OLAP Cubes / Flexibelt extraherande av data för analys med multidimensionella databaser och OLAP-kuber

Jernberg, Robert, Hultgren, Tobias January 2013 (has links)
Bright is a company that provides customer and employee satisfaction surveys, and uses this information to provide feedback to their customers. Data from the surveys are stored in a relational database and information is generated both by directly querying the database as well as doing analysis on extracted data. As the amount of data grows, generating this information takes increasingly more time. Extracting the data requires significant manual work and is in practice avoided. As this is not an uncommon issue, there is a substantial theoretical framework around the area. The aim of this degree project is to explore the different methods for achieving flexible and efficient data analysis on large amounts of data. This was implemented using a multidimensional database designed for analysis as well as an OnLine Analytical Processing (OLAP) cube built using Microsoft's SQL Server Analysis Services (SSAS). The cube was designed with the possibility to extract data on an individual level through PivotTables in Excel. The implemented prototype was analyzed, showing that the prototype consistently delivers correct results severalfold as efficient as the current solution as well as making new types of analysis possible and convenient. It is concluded that the use of an OLAP cube was a good choice for the issue at hand, and that the use of SSAS provided the necessary features for a functional prototype. Finally, recommendations on possible further developments were discussed. / Bright är ett företag som tillhandahåller undersökningar för kund- och medarbetarnöjdhet, och använder den informationen för att ge återkoppling till sina kunder. Data från undersökningarna sparas i en relationsdatabas och information genereras både genom att direkt fråga databasen såväl som att göra manuell analys på extraherad data. När mängden data ökar så ökar även tiden som krävs för att generera informationen. För att extrahera data krävs en betydande mängd manuellt arbete och i praktiken undviks det. Då detta inte är ett ovanligt problem finns det ett gediget teoretiskt ramverk kring området. Målet med detta examensarbete är att utforska de olika metoderna för att uppnå flexibel och effektiv dataanalys på stora mängder data. Det implementerades genom att använda en multidimensionell databas designad för analys samt en OnLine Analytical Processing (OLAP)-kub byggd med Microsoft SQL Server Analysis Services (SSAS). Kuben designades med möjligheten att extrahera data på en individuell nivå med PivotTables i Excel. Den implementerade prototypen analyserades vilket visade att prototypen konsekvent levererar korrekta resultat flerfaldigt så effektivt som den nuvarande lösningen såväl som att göra nya typer av analys möjliga och lättanvända. Slutsatsen dras att användandet av en OLAP-kub var ett bra val för det aktuella problemet, samt att valet att använda SSAS tillhandahöll de nödvändiga funktionaliteterna för en funktionell prototyp. Slutligen diskuterades rekommendationer av möjliga framtida utvecklingar.
3

Prototyp för dynamiskt beslutsstöd

Lundstedt, Mattias, Norell, Axel January 2014 (has links)
Företaget Nethouse har haft uppdraget att kravställa, utveckla och implementera ett verksamhetssystem åt Sveriges  Skorstensfejaremästares Riksförbund (SSR). Medlemsföretagen i SSR bedriver sotarverksamhet på uppdrag av Sveriges kommuner och är beroende av insamlad data kopplad till deras verksamhet. I det nyutvecklade systemet, som går under namnet Ritz, samlas informationen i en central databas och är tillgänglig för flertalet intressenter med hjälp av ny teknik och modernare lösningar. Systemet är helt webbaserat och körs som en molntjänst, tillgängligt via antingen en webbsida eller som mobilapplikation. Åtkomsten av data baseras på företagsnivå på ”stämplad” data i databasen och för att reglera åtkomsten för företagsanvändare till respektive företags data används rollbaserad åtkomstkontroll. Detta examensarbete har syftat till att utveckla en prototyp till en beslutsstödslösning för dynamisk åtkomst till de datamängder som lagras inom Ritz. Nethouse har efterfrågat en prototyp för en BI-lösning som visar på möjligheter och fördelar för intressenter till Ritz med att implementera en sådan. Då integration och förvaltning är viktiga faktorer för Nethouse har ett krav på prototypen varit att den utvecklats inom Microsofts programvaror, precis som resten av Ritz. Prototypen färdigställdes genom konstruerandet av ett centralt data warehouse enligt Ralph Kimballs metodologier och genom implementation av en OLAP-kub byggd i Microsoft SSAS. Dataöverföringen från datakällorna till beslutsstödslösningens data warehouse skedde genom utvecklandet av en ETL-process i Microsoft SSIS. Den resulterande kuben har främst utformats för att kunna besvara den sortens frågor som länsstyrelser ställer till sotarföretag i kontrollsyfte och stöder förfrågningar mot de två centrala affärsprocesserna sotning och brandskyddskontroll. Dessa förfrågningar kan filtreras på flertalet dimensioner som exempelvis tid, utförare, status och kontrollutfall. Prototypen begränsar även åtkomst till den information som användare har rätt att ta del av genom att koppla samman användare och objekt till geografiska indelningar som kallas distrikt. Denna dynamiska säkerhetslösning ger goda förutsättningar för att kunna hantera förändringar i användarnas behörighet i framtiden. Genom den utvalda lösningen behålls den dynamiska naturen i systemet, då åtkomst till beslutsstödstjänsten kan fås genom flertalet källor som stödjer uppkoppling mot Microsofts multidimensionella beslutsstödslösningar, bland annat Excel och SQL Server Reporting Services.
4

Vytvoření monitorovacího a profilovacího řešení nad BI systémem / Monitoring and Profiling Solution for the BI System

Veselovský, Matej January 2017 (has links)
This master’s thesis focuses on monitoring and profiling multidimensional database and reports. The project was created in MS SSIS to this purpose and it contains 4 ETL packages. The thesis is divided into three main sections. First section consists of theoretical background needed to accomplish the goal. In second section there is analysis of the company for which is the solution created and in the third part of the thesis there is described the proposal and it’s solution. Proposal of the solution and the solution itself was created in MS Visual Studio 2015, MS SQL Management Studio and Power BI.
5

An Evaluation Of Clustering And Districting Models For Household Socio-economic Indicators In Address-based Population Register System

Ozcan Yavuzoglu, Seyma 01 December 2009 (has links) (PDF)
Census operations are very important events in the history of a nation. These operations cover every bit of land and property of the country and its citizens. Census data is also known as demographic data providing valuable information to various users, particularly planners to know the trends in the key areas. Since 2006, Turkey aims to produce this census data not as &ldquo / de-facto&rdquo / (static) but as &ldquo / de-jure&rdquo / (real-time) by the new Address Based Register Information System (ABPRS). Besides, by this new register based census, personal information is matched with their address information and censuses gained a spatial dimension. Data obtained from this kind of a system can be a great input for the creation of &ldquo / small statistical areas (SSAs)&rdquo / which can compose of street blocks or any other small geographical unit to which social data can be referenced and to establish a complete census geography for Turkey. Because, statistics on large administrative units are only necessary for policy design only at an extremely abstracted level of analysis which is far from &quot / real&quot / problems as experienced by individuals. In this thesis, it is aimed to employ some spatial clustering and districting methodologies to automatically produce SSAs which are basically built upon the ABPRS data that is geo-referenced with the aid of geographical information systems (GIS) and thus help improving the census geography concept which is limited with only higher level administrative boundaries in Turkey. In order to have a clear idea of what strategy to choose for its realization, small area identification criteria and methodologies are searched by looking into the United Nations&rsquo / recommendations and by taking some national and international applications into consideration. In addition, spatial clustering methods are examined for obtaining SSAs which fulfills these criteria in an automated fashion. Simulated annealing on k-means clustering, only k-means clustering and simulated annealing on k-means clustering of Self-Organizing Map (SOM) unified distances are deemed as suitable methods. Then these methods are implemented on parcel and block datasets having either raw data or socio-economic status (SES) indices in nine neighborhoods of Ke&ccedil / i&ouml / ren whose graphical and non-graphical raw data are manipulated, geo-referenced and combined in common basemaps. Consequently, simulated annealing refinement on k-means clustering of SOM u-distances is selected as the optimum method for constructing SSAs for all datasets after making a comparative quality assessment study which allows us to see how much each method obeyed the basic criteria of small area identification while creating SSA layers.
6

Datové sklady a OLAP v prostředí MS SQL Serveru / Data Warehouses and OLAP in MS SQL Server Environment

Madron, Lukáš January 2008 (has links)
This paper deals with data warehouses and OLAP. These technologies are defined and described here. Then an introduction of the architecture of product MS SQL Server and its tools for work with data warehouses and OLAP folow. The knowledge gained is used for creation of sample application.

Page generated in 0.0158 seconds