• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 6
  • Tagged with
  • 27
  • 17
  • 16
  • 13
  • 12
  • 11
  • 11
  • 8
  • 8
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Business Intelligence : Kritiska faktorer för integration

Johansson, Adam, Örnberg, Gustav January 2024 (has links)
Digitaliseringstrenden har på senare tid medfört utmaningar för organisationer, genom ett allt större fokus på möjligheten att hantera komplexa data och information. Affärsverktyg såsom Business Intelligence (BI) erbjuder möjliga lösningar på dessa problem. Den här studien undersöker Business Intelligence, med fokus på kritiska framgångsfaktorer för BI, som fördelas till tre kategorier; organisatoriska, tekniska, och personalmässiga faktorer. Genom en kvalitativ studie undersöktes vilka faktorer som är allra viktigast för organisationer att ta i beaktning vid användning och förbättring av Business Intelligence. Resultatet indikerar att flera av de i litteraturen signifikanta framgångsfaktorer för BI-implementering även är kritiska för fortsatt integration inom organisationen. Däremot upptäcktes indikationer på att datakvalitet särskiljer sig som mest kritiska faktorn när det gäller BI-framgång, och att den faktorn ligger till grund för flera möjliga förbättringsfaktorer, samtidigt som det finns en rad grundförutsättningar som också måste uppfyllas.
12

Customer Usage and User-Experienced Quality of NVDB Bicycle Data / Kunders användning och användarupplevd kvalitet av cykeldata i NVDB

Eriksson, Linnea January 2023 (has links)
The national road database, NVDB, contains data on Swedish roads, streets, bicycle paths, and their attributes. Ensuring good data quality of bicycle data is important since it can help develop the bicycle infrastructure and strengthen the role of cycling in the transport system. The project aimed to investigate the usage and user-experienced quality of the bicycle data in NVDB. One objective was to identify how customers are using the data, to determine if data products, documentation, and distribution are sufficient for the customers’ usage. The project also aimed to identify problems users of NVDB bicycle data are experiencing, regarding availability, interpretability, completeness, and thematic uncertainty. Nine semi-structured interviews with users of NVDB bicycle data were carried out. Five categories of usage were identified: bikeability mapping, development of bicycle networks in built-up areas, development of recreational routes, network analysis, and cartography. The user-experienced problems identified were mainly related to completeness and interpretability.
13

Konsekvenser vid införandet av ett affärssystem : En jämförelseanalys av nutida och framtida läge

Olofsson, Simon, Åkerlund, Agnes January 2018 (has links)
The study aims at identifying the impacts accruing from the implementation of an ERP-system on a large production company that previously managed information in several unintegrated systems. This is investigated from the perspectives and frameworks of Lean Administration, information security and information- and data quality. The study has been conducted at SCA Östrands marketing department, SCA is currently investing 7,8 billion Swedish kronor in the Östrand pulp mill and will be leading the world market. SCA aims to produce 1 million tons of pulp per year with the new mill. As production increases, more data and information will be handled, and support processes must be improved and developed. Process flows were mapped with the process mapping method BPMN and analyzed at a current state and a future state. In the current state, several unintegrated systems are used, in the future, many parts have been integrated and automated. Three main processes were identified and analyzed according to the earlier mentioned frameworks. The analysis shows that the information security is improved according to the CIA-triad, Information- and data quality is improved, and the working method is Leaner after the implementation. In order to calculate efficiency, Data Envelopment Analysis, DEA method has been used with the CCR and ARI models. The results of DEA-CCR and DEA-ARI shows that process flow of the current state is between 48,3% and 57,1% effective compared to the future state, which is 100% effective in the models. / Studien syftar till att identifiera vilka konsekvenser en implementation av ett affärssystem har på ett stort produktionsföretag som tidigare arbetat med informationshantering i flera ointegrerade systemstöd. Detta undersöks ur perspektiven och ramverken för Lean Administration, informationssäkerhet samt informations- och datakvalitet. Undersökningen har genomförts på SCA Östrands marknadsavdelning, SCA investerar just nu 7,8 miljarder kronor i massafabriken Östrand och kommer att bli ledade på världsmarknaden. SCA har som mål att producera 1 miljon ton massa per år med den nybyggda fabriken. Då produktionen ökar kommer mer data och information hanteras och stödprocesserna måste förbättras och utvecklas. Processflöden har kartlagts med processkartläggningsmetoden BPMN och analyserats i ett nutida samt ett framtida optimalt läge. I det nutida läget används flera ointegrerade systemstöd och i det framtida läget har många delar blivit integrerade och automatiserade. Tre huvudprocesser har identifierats och dessa processflödena analyseras utifrån de tre ramverken. Analysen visar att informationssäkerheten förbättras enligt CIA-triaden, Informations- och datakvaliteten förbättras och arbetssättet är mer Lean efter implementationen. För att beräkna ett relativt effektivitetsmått har metoden Data Envelopment Analysis, DEA, använts med modellerna CCR och ARI. Resultatet av DEA-CCR och DEA-ARI visar att det nutida läget är mellan 48,3% och 57,1% effektivt jämfört med det framtida läget som anses vara 100% effektivt i modellerna.
14

Kunskapsskillnaderna mellan IT och Redovisning och dess påverkan på redovisningsdatakvalitet : en kvalitativ studie på ett av de största bemanningsföretagen i Sverige och i världen

Homanen, Malin, Karlsson, Therese January 2019 (has links)
Det oundvikliga beroendet av digitalisering och IT-system i dagens verksamheter och organisationer ställer krav på dagens arbetskraft att öka sina IT-kunskaper för att kunna integrera och kommunicera med nya datasystem för en mer effektiv verksamhet. Inte minst lika viktigt blir det för redovisningsekonomer som sköter verksamhetens finansiella redovisning då de måste kunna säkerställa att den redovisningsdata som framställs och levereras med hjälp av IT är felfri och uppnår kvalitet. Bristen på kunskap inom IT kan riskera att fel i redovisningsdata inte upptäcks och därmed påverkar redovisningsdatakvalitet. Detta i sin tur riskerar påverka redovisningskvalitet i den slutliga finansiella rapporteringen. Kommunikationen mellan avdelningarna riskerar också bli lidande då de med olika kunskaper har svårt att förstå varandra.Studiens syfte är att försöka bidra med kunskap om hur kunskapsskillnader i digital gundkunskap kan påverka säkerställandet av redovisningsdatakvalitet samt ge insyn i hur arbetet med detta kan gå till i praktiken. Med hjälp av tidigare forskning togs en analysmodell fram som illustrerar identifierade faktorers påverkansordning av redovisningsdatakvalitet; kunskapsskillnader → intern kontroll → redovisningsdatakvalitet.Studien tillämpar en instrumentell fallstudiedesign med en kvalitativ forskningsansats för att besvara frågeställningen. Två fokusgruppsintervjuer utfördes vid två olika tillfällen med respondenter från redovisningsavdelningen och IT-avdelningen från samma företag. Data transkriberades och kodades med hjälp av färgkodning för att tydliggöra de faktorer som utgör utgångspunkten i analysmodellen. En enkätundersökning genomfördes på resterande anställda på respektive avdelning för att komplettera resultaten från intervjuerna.Resultatet av studien visade att kunskapsskillnaderna har liten eller ingen alls direkt påverkan på redovisningsdatakvalitet utan snarare påverkar den interna kontrollen desto mer utifrån externa faktorer som tillkom. / The inevitable dependence on digitization and IT systems in today's operations and organizations demands the current workforce to increase their IT skills in order to be able to integrate and communicate with new computer systems for a more efficient business. It is equally important for financial accountants who’s responsible for the business’s financial reporting, since they must be able to ensure that the accounting data produced and delivered using IT is correct and of high quality. The lack of IT skills can increase the risk of errors in accounting data not detected and thus further affect the accounting data quality. This in turn risks affecting the accounting quality in the final financial reporting. The communication between the departments could also suffer due to the knowledge gaps between them that could make it difficult to understand each other.The aim of the study is to contribute with knowledge about how the differences in knowledge can affect the work in ensuring accounting data quality and give insight into how this work can be realized in practice. With the help of previous research, an analysis model was developed that illustrates identified factors and their influence on accounting data quality; knowledge gaps → internal control → accounting data quality.The study applies an instrumental case study with a qualitative research approach. Two focus group interviews were conducted on two different occasions with respondents from the accounting department and the IT department, both from the same company. Data was transcribed and coded using color coding to clarify the factors that form the basis of the analysis model. A survey was conducted with the other employees to complement and confirm the results found from the interviews.The result of the study showed that the differences in knowledge have little or no direct impact on accounting data quality, but rather affect the internal control, based on external factors that came into light during the analysis of the result. A revised analysis model was developed based on the result and replaced the initial hypothetical model.
15

Dealing with unstructured data : A study about information quality and measurement / Hantera ostrukturerad data : En studie om informationskvalitet och mätning

Vikholm, Oskar January 2015 (has links)
Many organizations have realized that the growing amount of unstructured text may contain information that can be used for different purposes, such as making decisions. Organizations can by using so-called text mining tools, extract information from text documents. For example within military and intelligence activities it is important to go through reports and look for entities such as names of people, events, and the relationships in-between them when criminal or other interesting activities are being investigated and mapped. This study explores how information quality can be measured and what challenges it involves. It is done on the basis of Wang and Strong (1996) theory about how information quality can be measured. The theory is tested and discussed from empirical material that contains interviews from two case organizations. The study observed two important aspects to take into consideration when measuring information quality: context dependency and source criticism. Context dependency means that the context in which information quality should be measured in must be defined based on the consumer’s needs. Source criticism implies that it is important to take the original source into consideration, and how reliable it is. Further, data quality and information quality is often used interchangeably, which means that organizations needs to decide what they really want to measure. One of the major challenges in developing software for entity extraction is that the system needs to understand the structure of natural language, which is very complicated. / Många organisationer har insett att den växande mängden ostrukturerad text kan innehålla information som kan användas till flera ändamål såsom beslutsfattande. Genom att använda så kallade text-mining verktyg kan organisationer extrahera information från textdokument. Inom till exempel militär verksamhet och underrättelsetjänst är det viktigt att kunna gå igenom rapporter och leta efter exempelvis namn på personer, händelser och relationerna mellan dessa när brottslig eller annan intressant verksamhet undersöks och kartläggs. I studien undersöks hur informationskvalitet kan mätas och vilka utmaningar det medför. Det görs med utgångspunkt i Wang och Strongs (1996) teori om hur informationskvalité kan mätas. Teorin testas och diskuteras utifrån ett empiriskt material som består av intervjuer från två fall-organisationer. Studien uppmärksammar två viktiga aspekter att ta hänsyn till för att mäta informationskvalitét; kontextberoende och källkritik. Kontextberoendet innebär att det sammanhang inom vilket informationskvalitét mäts måste definieras utifrån konsumentens behov. Källkritik innebär att det är viktigt att ta hänsyn informationens ursprungliga källa och hur trovärdig den är. Vidare är det viktigt att organisationer bestämmer om det är data eller informationskvalitét som ska mätas eftersom dessa två begrepp ofta blandas ihop. En av de stora utmaningarna med att utveckla mjukvaror för entitetsextrahering är att systemen ska förstå uppbyggnaden av det naturliga språket, vilket är väldigt komplicerat.
16

Data governance in big data : How to improve data quality in a decentralized organization / Datastyrning och big data

Landelius, Cecilia January 2021 (has links)
The use of internet has increased the amount of data available and gathered. Companies are investing in big data analytics to gain insights from this data. However, the value of the analysis and decisions made based on it, is dependent on the quality ofthe underlying data. For this reason, data quality has become a prevalent issue for organizations. Additionally, failures in data quality management are often due to organizational aspects. Due to the growing popularity of decentralized organizational structures, there is a need to understand how a decentralized organization can improve data quality. This thesis conducts a qualitative single case study of an organization currently shifting towards becoming data driven and struggling with maintaining data quality within the logistics industry. The purpose of the thesis is to answer the questions: • RQ1: What is data quality in the context of logistics data? • RQ2: What are the obstacles for improving data quality in a decentralized organization? • RQ3: How can these obstacles be overcome? Several data quality dimensions were identified and categorized as critical issues,issues and non-issues. From the gathered data the dimensions completeness, accuracy and consistency were found to be critical issues of data quality. The three most prevalent obstacles for improving data quality were data ownership, data standardization and understanding the importance of data quality. To overcome these obstacles the most important measures are creating data ownership structures, implementing data quality practices and changing the mindset of the employees to a data driven mindset. The generalizability of a single case study is low. However, there are insights and trends which can be derived from the results of this thesis and used for further studies and companies undergoing similar transformations. / Den ökade användningen av internet har ökat mängden data som finns tillgänglig och mängden data som samlas in. Företag påbörjar därför initiativ för att analysera dessa stora mängder data för att få ökad förståelse. Dock är värdet av analysen samt besluten som baseras på analysen beroende av kvaliteten av den underliggande data. Av denna anledning har datakvalitet blivit en viktig fråga för företag. Misslyckanden i datakvalitetshantering är ofta på grund av organisatoriska aspekter. Eftersom decentraliserade organisationsformer blir alltmer populära, finns det ett behov av att förstå hur en decentraliserad organisation kan arbeta med frågor som datakvalitet och dess förbättring. Denna uppsats är en kvalitativ studie av ett företag inom logistikbranschen som i nuläget genomgår ett skifte till att bli datadrivna och som har problem med att underhålla sin datakvalitet. Syftet med denna uppsats är att besvara frågorna: • RQ1: Vad är datakvalitet i sammanhanget logistikdata? • RQ2: Vilka är hindren för att förbättra datakvalitet i en decentraliserad organisation? • RQ3: Hur kan dessa hinder överkommas? Flera datakvalitetsdimensioner identifierades och kategoriserades som kritiska problem, problem och icke-problem. Från den insamlade informationen fanns att dimensionerna, kompletthet, exakthet och konsekvens var kritiska datakvalitetsproblem för företaget. De tre mest förekommande hindren för att förbättra datakvalité var dataägandeskap, standardisering av data samt att förstå vikten av datakvalitet. För att överkomma dessa hinder är de viktigaste åtgärderna att skapa strukturer för dataägandeskap, att implementera praxis för hantering av datakvalitet samt att ändra attityden hos de anställda gentemot datakvalitet till en datadriven attityd. Generaliseringsbarheten av en enfallsstudie är låg. Dock medför denna studie flera viktiga insikter och trender vilka kan användas för framtida studier och för företag som genomgår liknande transformationer.
17

Transformation till högre grad av datadrivna beslutsprocesser inom tillverkningsföretag : En kvalitativ studie av betydelsefulla organisatoriska förmågor och hinder / Transformation to a Higher Degree of Data-Driven DecisionMaking within Manufacturing Industries : A qualitative study on significant organizational capabilities and barriers

Håkansson, Andreas January 2024 (has links)
Digital transformation beskriver omfattande organisatoriska förändringar med digitalateknologier som grund och har en fundamental betydelse för organisationer idag. En viktiggrund för att transformeras till en datadriven organisation startar med att lita på data och etableraen datadriven kultur, vilket ofta kräver stora organisatoriska förändringar.Syftet med studien är att undersöka betydelsefulla organisatoriska förmågor som beslutsfattareuppfattar påverkar transformationen till högre grad av datadrivna beslutsprocesser samt hinderför att utveckla dessa organisatoriska förmågor i tillverkningsföretag inom den privata sektorn.En kvalitativ forskningsmetod har tillämpats där semistrukturerade intervjuer genomförts medfem personer som arbetar med beslutsfattande på ledningsnivå.Resultaten har analyserats utifrån en konceptuell modell baserad på identifieradeorganisatoriska förmågor berörande tre aspekter människa, kultur och data från tidigareforskning. Studien visar att de organisatoriska förmågorna människa, kultur och data påverkari hög grad transformationen mot en högre grad av datadrivna beslutsprocesser. Uppfattadehinder i transformationen inkluderar bristande datakvalitet, förståelse- och kunskap inomorganisationen, gamla system och att bryta gamla mönster. För att motverka dessa hinder visarstudien på utbildning, kommunikation, ledarskap samt strukturerad hantering av data.Resultaten belyser vikten av att adressera både tekniska och framför allt mänskliga aspekter föratt möjliggöra en digital transformation mot datadrivna beslutsprocesser.
18

Riktlinjer för att förbättra datakvaliteten hos data warehouse system / Guiding principles to improve data quality in data warehouse system

Carlswärd, Martin January 2008 (has links)
Data warehouse system är något som har växt fram under 1990-talet och det har implementeras hos flera verksamheter. De källsystem som en verksamhet har kan integreras ihop med ett data warehouse system för att skapa en version av verkligheten och ta fram rapporter för beslutsunderlag. Med en version av verkligheten menas att det skapas en gemensam bild som visar hur verksamhetens dagliga arbete sker och utgör grundinformation för de framtagna analyserna från data warehouse systemet. Det blir därför väsenligt för verksamheten att de framtagna rapporterna håller en, enligt verksamheten, tillfredställande god datakvalitet. Detta leder till att datakvaliteten hos data warehouse systemet behöver hålla en tillräckligt hög kvalitetsnivå. Om datakvaliteten hos beslutsunderlaget brister kommer verksamheten inte att ta de optimala besluten för verksamheten utan det kan förekomma att beslut tas som annars inte hade tagits. Att förbättra datakvaliteten hos data warehouse systemet blir därför centralt för verksamheten. Med hjälp av kvalitetsfilosofin Total Quality Management, TQM, har verksamheten ett stöd för att kunna förbättra datakvaliteten eftersom det möjliggör att ett helhetsgrepp om kvaliteten kan tas. Anledningen till att ta ett helhetsperspektiv angående datakvaliteten är att orsakerna till bristande datakvalitet inte enbart beror på orsaker inom själva data warehouse systemet utan beror även på andra orsaker. De kvalitetsförbättrande åtgärder som behöver utföras inom verksamheter varierar eftersom de är situationsanpassade beroende på hur verksamheten fungerar även om det finns mer övergripande gemensamma åtgärder. Det som kommuniceras i form av exempelvis rapporter från data warehouse systemet behöver anses av verksamhetens aktörer som förståeligt och trovärdigt. Anledningen till det är att de framtagna beslutunderlagen behöver vara förståliga och trovärdiga för mottagaren av informationen. Om exempelvis det som kommuniceras i form av rapporter innehåller skräptecken bli det svårt för mottagaren att anse informationen som trovärdig och förståelig. Förbättras kvaliteten hos det kommunikativa budskapet, det vill säga om kommunikationskvaliteten förbättras, kommer datakvaliteten hos data warehouse systemet i slutändan också förbättras. Inom uppsatsen har det tagits fram riktlinjer för att kunna förbättra datakvaliteten hos data warehouse system med hjälp av kommunikationskvaliteten samt TQM. Riktlinjernas syfte är att förbättra datakvaliteten genom att förbättra kvaliteten hos det som kommuniceras inom företagets data warehouse system. Det finns olika åtgärder som är situationsanpassade för att förbättra datakvaliteten med hjälp av kommunikationskvalitet. Ett exempel är att införa en möjlighet för mottagaren att få reda på vem som är sändaren av informationsinnehållet hos de framtagna rapporterna. Detta för att mottagaren bör ha möjlighet att kritisera och kontrollera den kommunikativa handlingen med sändaren, som i sin tur har möjlighet att försvara budskapet. Detta leder till att öka trovärdigheten hos den kommunikativa handlingen. Ett annat exempel är att införa inmatningskontroller hos källsystemen för att undvika att aktörer matar in skräptecken som sedan hamnar i data warehouse systemet. Detta leder till att mottagarens förståelse av det som kommuniceras förbättras. / The data warehouse system is something that has grown during the 1990s and has been implemented in many companies. The operative information system that a company has, can be integrated with a data warehouse system to build one version of the reality and take forward the decision basis. This means that a version of the reality creates a common picture that show how the company’s daily work occurs and constitutes the base of information for the created analysis reports from the data warehouse system. It is therefore important for a company that the reports have an acceptable data quality. This leads to that the data quality in the data warehouse system needs to hold an acceptable level of high quality. If data quality at the decision basis falls short, the company will not take the optimal decision for the company. Instead the company will take decision that normally would not have been taken. To improve the data quality in the data warehouse system would therefore be central for the company. With help from a quality philosophy, like TQM, the company have support to improve the data quality since it makes it possible for wholeness about the quality to be taken. The reason to take a holistic perspective about the data quality is because lacking of the data quality not only depends on reasons in the data warehouse system, but also on other reasons. The measurement of the quality improvement which needs to perform in the company depends on the situation on how the company works even in the more overall actions. The communication in form of for example reports from the data warehouse system needs to be understandable and trustworthy for the company’s actors. The reason is that the decision basis needs to be understandable and trustworthy for the receiver of the information. If for example the communication in form of reports contains junk characters it gets difficulty for the receiver of the information to consider if it is trustworthy and understandable. If the quality in the communication message is improving, videlicet that the communication quality improves, the data quality in the data warehouse will also improve in the end. In the thesis has guiding principles been created with the purpose to improve data quality in a data warehouse system with help of communication quality and TQM. Improving the quality in the communication, which is performed at the company’s data warehouse to improve the data quality, does this. There are different measures that are depending on the situations to improve the data quality with help of communication quality. One example is to introduce a possibility for the receiver to get information about who the sender of the information content in the reports is. This is because the receiver needs to have the option to criticize and control the communication acts with the sender, which will have the possibility to defend the message. This leads to a more improved trustworthy in the communication act. Another example is to introduce input controls in the operative system to avoid the actors to feed junk characters that land in the data warehouse system. This leads to that the receivers understanding of the communication improves.
19

Riktlinjer för att förbättra datakvaliteten hos data warehouse system / Guiding principles to improve data quality in data warehouse system

Carlswärd, Martin January 2008 (has links)
<p>Data warehouse system är något som har växt fram under 1990-talet och det har implementeras hos flera verksamheter. De källsystem som en verksamhet har kan integreras ihop med ett data warehouse system för att skapa en version av verkligheten och ta fram rapporter för beslutsunderlag. Med en version av verkligheten menas att det skapas en gemensam bild som visar hur verksamhetens dagliga arbete sker och utgör grundinformation för de framtagna analyserna från data warehouse systemet. Det blir därför väsenligt för verksamheten att de framtagna rapporterna håller en, enligt verksamheten, tillfredställande god datakvalitet. Detta leder till att datakvaliteten hos data warehouse systemet behöver hålla en tillräckligt hög kvalitetsnivå. Om datakvaliteten hos beslutsunderlaget brister kommer verksamheten inte att ta de optimala besluten för verksamheten utan det kan förekomma att beslut tas som annars inte hade tagits.</p><p>Att förbättra datakvaliteten hos data warehouse systemet blir därför centralt för verksamheten. Med hjälp av kvalitetsfilosofin Total Quality Management, TQM, har verksamheten ett stöd för att kunna förbättra datakvaliteten eftersom det möjliggör att ett helhetsgrepp om kvaliteten kan tas. Anledningen till att ta ett helhetsperspektiv angående datakvaliteten är att orsakerna till bristande datakvalitet inte enbart beror på orsaker inom själva data warehouse systemet utan beror även på andra orsaker. De kvalitetsförbättrande åtgärder som behöver utföras inom verksamheter varierar eftersom de är situationsanpassade beroende på hur verksamheten fungerar även om det finns mer övergripande gemensamma åtgärder.</p><p>Det som kommuniceras i form av exempelvis rapporter från data warehouse systemet behöver anses av verksamhetens aktörer som förståeligt och trovärdigt. Anledningen till det är att de framtagna beslutunderlagen behöver vara förståliga och trovärdiga för mottagaren av informationen. Om exempelvis det som kommuniceras i form av rapporter innehåller skräptecken bli det svårt för mottagaren att anse informationen som trovärdig och förståelig. Förbättras kvaliteten hos det kommunikativa budskapet, det vill säga om kommunikationskvaliteten förbättras, kommer datakvaliteten hos data warehouse systemet i slutändan också förbättras. Inom uppsatsen har det tagits fram riktlinjer för att kunna förbättra datakvaliteten hos data warehouse system med hjälp av kommunikationskvaliteten samt TQM. Riktlinjernas syfte är att förbättra datakvaliteten genom att förbättra kvaliteten hos det som kommuniceras inom företagets data warehouse system.</p><p>Det finns olika åtgärder som är situationsanpassade för att förbättra datakvaliteten med hjälp av kommunikationskvalitet. Ett exempel är att införa en möjlighet för mottagaren att få reda på vem som är sändaren av informationsinnehållet hos de framtagna rapporterna. Detta för att mottagaren bör ha möjlighet att kritisera och kontrollera den kommunikativa handlingen med sändaren, som i sin tur har möjlighet att försvara budskapet. Detta leder till att öka trovärdigheten hos den kommunikativa handlingen. Ett annat exempel är att införa inmatningskontroller hos källsystemen för att undvika att aktörer matar in skräptecken som sedan hamnar i data warehouse systemet. Detta leder till att mottagarens förståelse av det som kommuniceras förbättras.</p> / <p>The data warehouse system is something that has grown during the 1990s and has been implemented in many companies. The operative information system that a company has, can be integrated with a data warehouse system to build one version of the reality and take forward the decision basis. This means that a version of the reality creates a common picture that show how the company’s daily work occurs and constitutes the base of information for the created analysis reports from the data warehouse system. It is therefore important for a company that the reports have an acceptable data quality. This leads to that the data quality in the data warehouse system needs to hold an acceptable level of high quality. If data quality at the decision basis falls short, the company will not take the optimal decision for the company. Instead the company will take decision that normally would not have been taken.</p><p>To improve the data quality in the data warehouse system would therefore be central for the company. With help from a quality philosophy, like TQM, the company have support to improve the data quality since it makes it possible for wholeness about the quality to be taken. The reason to take a holistic perspective about the data quality is because lacking of the data quality not only depends on reasons in the data warehouse system, but also on other reasons. The measurement of the quality improvement which needs to perform in the company depends on the situation on how the company works even in the more overall actions.</p><p>The communication in form of for example reports from the data warehouse system needs to be understandable and trustworthy for the company’s actors. The reason is that the decision basis needs to be understandable and trustworthy for the receiver of the information. If for example the communication in form of reports contains junk characters it gets difficulty for the receiver of the information to consider if it is trustworthy and understandable. If the quality in the communication message is improving, videlicet that the communication quality improves, the data quality in the data warehouse will also improve in the end. In the thesis has guiding principles been created with the purpose to improve data quality in a data warehouse system with help of communication quality and TQM. Improving the quality in the communication, which is performed at the company’s data warehouse to improve the data quality, does this.</p><p>There are different measures that are depending on the situations to improve the data quality with help of communication quality. One example is to introduce a possibility for the receiver to get information about who the sender of the information content in the reports is. This is because the receiver needs to have the option to criticize and control the communication acts with the sender, which will have the possibility to defend the message. This leads to a more improved trustworthy in the communication act. Another example is to introduce input controls in the operative system to avoid the actors to feed junk characters that land in the data warehouse system. This leads to that the receivers understanding of the communication improves.</p>
20

Agila Business Intelligence System : Kritiska framgångsfaktorer / Agile Business Intelligence Systems : Critical Success Factors

Yoo, Sam, Naef, Petter January 2014 (has links)
Agila Business Intelligence System (ABIS) är en relativt ny och komplex typ av informationssystem, som kännetecknas av förkortade utvecklingstider, genom att exempelvis införa mer självbetjäning i de analytiska systemen, för att kunna möta ett behov av att analysera omvärldsfaktorer, som förändras i en allt snabbare takt. Eftersom ABIS är ett nytt och relativt outforskat område, finns ett behov av att utforska detta område. IT-investeringar är alltför ofta olönsamma och finns ett intresse av att visa på vad som bidrar till ett framgångsrikt införande av ett ABIS och på vilket sätt. Syftet med denna fallstudie var att identifiera högt rankade och gemensamma faktorer baserat på de kritiska framgångsfaktorer som belagts av tidigare forskning inom ABIS, beskriva hur dessa bidragit till ett framgångsrikt införande samt utröna skillnader och/eller likheter mellan hur dessa faktorer verkar ur kund- respektive leverantörsperspektiv. Som underlag för denna studie användes framför allt tidigare forskning kring kritiska framgångsfaktorer för Business Intelligence System. Speciellt en modell som utvecklades 2010 av Yeoh och Koronios användes som utgångspunkt för att lista de potentiella faktorer, som skulle beaktas av denna studie. Denna undersökning genomfördes som en fallstudie med hjälp av ett företag, som både levererar konsulttjänster och ABIS. En Delphipanel användes för att sortera fram framgångsfaktorer, som sedan studerades närmare genom semistrukturerade intervjuer för hur dessa kritiska framgångsfaktorer bidragit till ett framgångsrikt införande av ABIS från dels ett kundperspektiv, dels ett leverantörsperspektiv. De två faktorer som rankades högt och samtidigt delades av samtliga respondenter var: affärsvision och planer datakvalitet och dataintegritet Kundperspektivet var det styrande och leverantörens roll var ordentligt förstå kundens perspektiv, för att på så sätt framgångsrikt införa ABIS. Affärsvision och planer var av betydelse för att koppla införande till kundens målsättningar. Datakvalitet och dataintegritet var den mest betydelsefull faktorn utifrån den resursfördelningen skedde inom ett införandeprojekt för ABIS. / An Agile Business Intelligence System (ABIS) is a relatively new and complex type of information system, which is characterized by shortened development times, for by example introducing more self-service in the analytical systems, in order to meet the need to analyze the business environment, which is changing at an even faster pace. As the ABIS is a new and relatively uncharted area there is a need to explore this area. IT investments are too often unprofitable and there is an interest to show what contributes to a successful implementation of an ABIS and in which manner. The purpose of this case study was to identify highly ranked and common critical success factors based on the critical success factors faced by previous research in ABIS, describe how these contributed to a successful introduction of the system and examining differences and / or similarities between how these factors act from customer and supplier perspective. Earlier research on critical success factors for business intelligence systems was used as a basis for this study. Especially the model developed in 2010 by Yeoh and Koronios was used as a starting point to list potential factors to be considered by this study. This study was conducted as a case study with the help of a company that delivers both consulting services and ABIS. A Delphi panel was used to shortlist two success factors, which were then studied in more detail in semi-structured interviews to describe how these contributed to the successful introduction of ABIS from both a client as well as a supplier perspective. The two factors that both ranked high and were common for all respondents were: Clear vision and well-established business case Data quality and data integrity The leading perspective was the customer and the supplier role was to properly understand the customer perspective in order to successfully introduce ABIS. The vision and business case were important to link the introduction ABIS to client objectives. Data quality and data integrity was the most significant factor on the basis of the resource allocation of implementation projects for ABIS.

Page generated in 0.0447 seconds