• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1592
  • 457
  • 422
  • 170
  • 114
  • 102
  • 60
  • 49
  • 40
  • 36
  • 29
  • 23
  • 21
  • 17
  • 16
  • Tagged with
  • 3626
  • 849
  • 800
  • 747
  • 605
  • 540
  • 420
  • 400
  • 392
  • 363
  • 310
  • 304
  • 289
  • 273
  • 261
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Summarization of very large spatial dataset

Liu, Qing, Computer Science & Engineering, Faculty of Engineering, UNSW January 2006 (has links)
Nowadays there are a large number of applications, such as digital library information retrieval, business data analysis, CAD/CAM, multimedia applications with images and sound, real-time process control and scientific computation, with data sets about gigabytes, terabytes or even petabytes. Because data distributions are too large to be stored accurately, maintaining compact and accurate summarized information about underlying data is of crucial important. The summarizing problem for Level 1 (disjoint and non-disjoint) topological relationship has been well studied for the past few years. However the spatial database users are often interested in a much richer set of spatial relations such as contains. Little work has been done on summarization for Level 2 topological relationship which includes contains, contained, overlap, equal and disjoint relations. We study the problem of effective summatization to represent the underlying data distribution to answer window queries for Level 2 topological relationship. Cell-density based approach has been demonstrated as an effective way to this problem. But the challenges are the accuracy of the results and the storage space required which should be linearly proportional to the number of cells to be practical. In this thesis, we present several novel techniques to effectively construct cell density based spatial histograms. Based on the framework proposed, exact results could be obtained in constant time for aligned window queries. To minimize the storage space of the framework, an approximate algorithm with the approximate ratio 19/12 is presented, while the problem is shown NP-hard generally. Because the framework requires only a storage space linearly proportional to the number of cells, it is practical for many popular real datasets. To conform to a limited storage space, effective histogram construction and query algorithms are proposed which can provide approximate results but with high accuracy. The problem for non-aligned window queries is also investigated and techniques of un-even partitioned space are developed to support non-aligned window queries. Finally, we extend our techniques to 3D space. Our extensive experiments against both synthetic and real world datasets demonstrate the efficiency of the algorithms developed in this thesis.
102

Measuring the Impact of Financial Deregulation

Risman, Sveta, not supplied January 2006 (has links)
Extensive deregulation of the Australian financial system officially began in the early 1980s. Since 1979 there have been three inquiries into the Australian financial system. The Campbell, Martin and Wallis Inquiries all supported the notion of deregulation of the Australian financial system. Many of their recommendations focused on allowing the market to determine market outcomes without jeopardising stability. Reform to the system was expected to provide a number of benefits, including increased competition and efficiency. Due to the limited quantity of quality data, research in this area has been limited. This thesis attempts to address issues that have not been adequately dealt with in the current literature by creating a database of financial bank data and using that data to analyse the effects that deregulation has had on the banking industry with respect to competition, efficiency and overall industry profitability.
103

Databaser for dynamiske arbeidsprosesser

Engum, Erlend Agøy, Wathne, Rolf Axel January 2004 (has links)
<p>Bedrifter med sikkerhetskritiske arbeidsoppgaver kan oppnå sikrere og mer effektiv drift gjennom standardisering og formalisering av disse. Slike arbeidsbeskrivelser, eller arbeidsprosessdokumenter, må være tilgjengelige til enhver tid. Presentasjonen av dem bør være tilpasset konteksten de aksesseres i, og må kunne støttes med multimediadata. Ettersom arbeidsprosessene stadig forandres og økes i omfang er det viktig å sikre konsistensen internt og dem imellom.</p><p>Vi har sett på rammeverk og lagringsmetoder i et system som skal lagre og tilgjengeliggjøre arbeidsprosessdokumentene. Vi har definert et lagringsformat ved hjelp av et w3c xml-schema, som lar oss spesifisere regler og beskrankninger for dokumentene som vanlige behandlingsverktøy for xml kan verifisere dem opp mot. Et strengt spesifisert format sikrer interoperabilitet mellom de forskjellige systemkomponentene som skal behandle informasjonen.</p><p>Vårt dokumentformat beskriver arbeidsprosessene som flytskjemaer med tilhørende informasjon. For at store og komplekse arbeidsprosesser skal bli oversiktlige legger vi opp til at logiske grupperinger av aktiviteter innenfor en arbeidsprosess skilles ut som egne arbeidsprosesser, spesielt dersom en tilsvarende gruppering er å finne som en del av flere arbeidsprosesser. Disse lavere-nivåarbeidsprosessene inkluderes så i denne og andre arbeidsprosesser som subprosesser. Dersom man gjør forbedringer i en subprosess som benyttes i mange sammenhenger sikrer dette at den nye informasjonen er tilgjengelig for alle.</p><p>Vi har implementert et system som demonstrerer konseptet vårt, basert på en sql-database og en applikasjonsserver med webgrensesnitt. Systemet lar brukeren legge arbeidsprosesser inn i databasen, og kan vise disse som websider.</p>
104

InfiniBand i parallelle databasesystemer

Oftedal, Erlend Wathne January 2004 (has links)
<p>I et parallelt shared-nothing databasesystem er ytelsen svært avhengig av effektiv kommunikasjon. Mange parallelle databasesystemer benytter IP-protokollen og Ethernet for kommunikasjon mellom nodene, men det viser seg at denne protokollen medfører at prosessor bruker mye tid på oppgaver knyttet til meldingssending og mottak.</p><p>Det er gitt en beskrivelse av utvalgt alternativ teknologi for kommunikasjon både internt i datamaskinen og eksternt mot andre datamaskiner. InfiniBand er en av disse teknologiene, og denne ses på som et godt alternativ til Ethernet.</p><p>Det er gjort en kartlegging av hvorfor IP-protokollen medfører høy CPU-bruk, og det viser seg at dette skyldes avbrudd, checksum-beregninger og minne-tilminne-kopiering. User Direct Access Programming Library, eller uDAPL, er en API for kommunikasjon over InfiniBand. Gjennom denne kan minne-til-minnekopiering unngås, og checksum-beregning i hardware kombinert med bruk av DMA gjør at uDAPL og InfiniBand skal gi en reduksjon i CPU-bruk.</p><p>En ytelsestest og en begrenset implementasjon i Sun HADB ble utført for å sammenligne uDAPL og 4X InfiniBand mot UDP over Gigabit Ethernet. Resultatene viser at uDAPL og InfiniBand kan øke gjennomstrømningen og senke responstiden til et parallelt shared-nothing databasesystem.</p>
105

Perceptual metrics for image database navigation

Rubner, Yossi, January 1900 (has links)
Thesis (Ph.D)--Stanford University, 1999. / Title from pdf t.p. (viewed May 9, 2002). "May 1999." "Adminitrivia V1/Prg/19990823"--Metadata.
106

An Empirical Study on OCLC Catalog Record Errors for the Copy Cataloging of Chinese Monographs

BIN JIA 09 April 2007 (has links)
This paper explores and analyzes the errors in the sampled catalog records of Chinese monographs in the OCLC database. The author examined the errors by content, frequency, type and MARC field location to study the effect on both copy cataloging activities and library patrons’ access to an online catalog record. Finally, a number of recommendations are proposed for future research and error decreasing measures.
107

Databaser for dynamiske arbeidsprosesser

Engum, Erlend Agøy, Wathne, Rolf Axel January 2004 (has links)
Bedrifter med sikkerhetskritiske arbeidsoppgaver kan oppnå sikrere og mer effektiv drift gjennom standardisering og formalisering av disse. Slike arbeidsbeskrivelser, eller arbeidsprosessdokumenter, må være tilgjengelige til enhver tid. Presentasjonen av dem bør være tilpasset konteksten de aksesseres i, og må kunne støttes med multimediadata. Ettersom arbeidsprosessene stadig forandres og økes i omfang er det viktig å sikre konsistensen internt og dem imellom. Vi har sett på rammeverk og lagringsmetoder i et system som skal lagre og tilgjengeliggjøre arbeidsprosessdokumentene. Vi har definert et lagringsformat ved hjelp av et w3c xml-schema, som lar oss spesifisere regler og beskrankninger for dokumentene som vanlige behandlingsverktøy for xml kan verifisere dem opp mot. Et strengt spesifisert format sikrer interoperabilitet mellom de forskjellige systemkomponentene som skal behandle informasjonen. Vårt dokumentformat beskriver arbeidsprosessene som flytskjemaer med tilhørende informasjon. For at store og komplekse arbeidsprosesser skal bli oversiktlige legger vi opp til at logiske grupperinger av aktiviteter innenfor en arbeidsprosess skilles ut som egne arbeidsprosesser, spesielt dersom en tilsvarende gruppering er å finne som en del av flere arbeidsprosesser. Disse lavere-nivåarbeidsprosessene inkluderes så i denne og andre arbeidsprosesser som subprosesser. Dersom man gjør forbedringer i en subprosess som benyttes i mange sammenhenger sikrer dette at den nye informasjonen er tilgjengelig for alle. Vi har implementert et system som demonstrerer konseptet vårt, basert på en sql-database og en applikasjonsserver med webgrensesnitt. Systemet lar brukeren legge arbeidsprosesser inn i databasen, og kan vise disse som websider.
108

InfiniBand i parallelle databasesystemer

Oftedal, Erlend Wathne January 2004 (has links)
I et parallelt shared-nothing databasesystem er ytelsen svært avhengig av effektiv kommunikasjon. Mange parallelle databasesystemer benytter IP-protokollen og Ethernet for kommunikasjon mellom nodene, men det viser seg at denne protokollen medfører at prosessor bruker mye tid på oppgaver knyttet til meldingssending og mottak. Det er gitt en beskrivelse av utvalgt alternativ teknologi for kommunikasjon både internt i datamaskinen og eksternt mot andre datamaskiner. InfiniBand er en av disse teknologiene, og denne ses på som et godt alternativ til Ethernet. Det er gjort en kartlegging av hvorfor IP-protokollen medfører høy CPU-bruk, og det viser seg at dette skyldes avbrudd, checksum-beregninger og minne-tilminne-kopiering. User Direct Access Programming Library, eller uDAPL, er en API for kommunikasjon over InfiniBand. Gjennom denne kan minne-til-minnekopiering unngås, og checksum-beregning i hardware kombinert med bruk av DMA gjør at uDAPL og InfiniBand skal gi en reduksjon i CPU-bruk. En ytelsestest og en begrenset implementasjon i Sun HADB ble utført for å sammenligne uDAPL og 4X InfiniBand mot UDP over Gigabit Ethernet. Resultatene viser at uDAPL og InfiniBand kan øke gjennomstrømningen og senke responstiden til et parallelt shared-nothing databasesystem.
109

Queries, Data, and Statistics: Pick Two

Mishra, Chaitanya 21 April 2010 (has links)
The query processor of a relational database system executes declarative queries on relational data using query evaluation plans. The cost of the query evaluation plan depends on various statistics defined by the query and data. These statistics include intermediate and base table sizes, and data distributions on columns. In addition to being an important factor in query optimization, such statistics also influence various runtime properties of the query evaluation plan. This thesis explores the interactions between queries, data, and statistics in the query processor of a relational database system. Specifically, we consider problems where any two of the three - queries, data, and statistics - are provided, with the objective of instantiating the missing element in the triple such that the query, when executed on the data, satisfies the statistics on the associated subexpressions. We present multiple query processing problems that can be abstractly formulated in this manner. The first contribution of this thesis is a monitoring framework for collecting and estimating statistics during query execution. We apply this framework to the problems of monitoring the progress of query execution, and adaptively reoptimizing query execution plans. Our monitoring and adaptivity framework has a low overhead, while significantly reducing query execution times. This work demonstrates the feasibility and utility of overlaying statistics estimators on query evaluation plans. Our next contribution is a framework for testing the performance of a query processor by generating targeted test queries and databases. We present techniques for data-aware query generation, and query-aware data generation that satisfy test cases specifying statistical constraints. We formally analyze the hardness of the problems considered, and present systems that support best-effort semantics for targeted query and data generation. The final contribution of this thesis is a set of techniques for designing queries for business intelligence applications that specify cardinality constraints on the result. We present an interactive query refinement framework that explicitly incorporates user feedback into query design, refining queries returning too many or few answers. Each of these contributions is accompanied by a formal analysis of the problem, and a detailed experimental evaluation of an associated system.
110

Using metadata to implement eforms and their associated databases

Lelei, Edgar David Kiprop 18 January 2011
Web forms (eForms) and databases are at present widely used for data handling in most web applications. While eForms are used for data gathering and display, databases are used for data storage. To connect and interface an eForm to a database, an eForm processor is used. The eForm processor supports data saving, retrieval, update, and delete. In most web applications, eForms, eForm processors, and databases are designed and implemented separately. This leads to two main challenges: One, complexity in the manipulation of eForms and their associated database; and two, difficulty in the reproduction and reuse of existing eForms.<p> To address the above-identified challenges, this thesis proposes the use of metadata in the creation and implementation of both eForms and their associated databases. Our approach comprises a two-part solution: One, modeling domains metadata and two, creating a tool, called Delk eForm Creator. To model domain metadata, Resource Description Framework Schema (RDFS) was used. However, to analyse the tools requirement, Putting Usability First (PUF) approach was used.<p> In order to demonstrate the applicability of our solution approach, Delk eForm Creator was used to create a set of Metadata and three specific eForms based on a generic eForm. The created eForms were rendered in different web browsers and used to enter data into the associated databases. It was observed that Delk eForm Creator successfully generated a Generic eForm based on the Domain Metadata. Moreover, three different Specific eForms were successfully generated based on one Generic eForm, thereby leading to a reusable Generic eForm.<p> We conclude that the metadata-based approach of implementing eForms, as proposed in this thesis, is a viable technique to creating eForms and their associated databases. The approach enables users to easily create, maintain, and reuse eForms and databases.

Page generated in 0.0571 seconds