• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 4
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 13
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

SQL Query Disassembler: An Approach to Managing the Execution of Large SQL Queries

Meng, Yabin 25 September 2007 (has links)
In this thesis, we present an approach to managing the execution of large queries that involves the decomposition of large queries into an equivalent set of smaller queries and then scheduling the smaller queries so that the work is accomplished with less impact on other queries. We describe a prototype implementation of our approach for IBM DB2™ and present a set of experiments to evaluate the effectiveness of the approach. / Thesis (Master, Computing) -- Queen's University, 2007-09-17 22:05:05.304
2

Diseño e Implementación de una Solución de Distribución de Información de Gestión

Castro Gorostiza, José Miguel January 2007 (has links)
El objetivo general del presente trabajo de título es diseñar e implementar una solución de distribución de información de gestión, abordando el problema de modelamiento de sistemas de gestión para apoyar los procesos de inteligencia de negocios (Business Intelligence o BI) que las organizaciones requieren para poder entregar herramientas de monitoreo, análisis y evaluación de los procesos de negocio. Esta memoria se basa en un trabajo para la empresa Correos Chile y busca resolver el principal problema que presentan las áreas de análisis de esta organización que consiste en una baja capacidad para acceder e interactuar con información de gestión almacenada en el datawarehouse corporativo. Se determinaron los requerimientos de información de dos áreas comerciales encargadas de analizar las ventas de la compañía y definir la estrategia corporativa. Con estos requerimientos se determinaron las falencias del modelo previamente utilizado y las características necesarias del nuevo sistema para generar un cambio en los procesos de toma de decisiones. El desarrollo final consistió en implementar dos datamarts. Uno para el análisis de ventas y otro para el análisis de ventas regional que, junto a un portal de gestión, permite tener acceso en tiempo real a toda la información requerida por los usuarios. En base a los resultados y métricas que se definieron, se constató que, como resultado de la implementación de esta solución, Correos Chile logro reducir los tiempos de acceso a la información (desde horas a minutos) y simultáneamente mejoró la calidad de los reportes y la capacidad de análisis de las áreas involucradas. Se concluye que la implementación de esta infraestructura y aplicaciones son capaces de mejorar sustancialmente los procesos de negocio de Correos Chile, mejorando el apoyo a los procesos de toma de decisiones y la calidad del análisis que se realiza. Ampliando la solución implementada al resto de la organización efectivamente mejorará la competitividad de la empresa.
3

Scrambling av databaser : Validering och implementering av scrambling av databas

Öberg, Fredrik January 2019 (has links)
The demands on how personal data is handled have recently become much more strict with new regulations such as GDPR. Which means companies need to review how they save and manage data. Furthermore, there is a whole indust- ry that works with analyzing and anonymizing databases to create testdata for companies to use for tests. How can these companies guarantee that they can hand over their database for this particular purpose. Easit AB wants a system to be built for scrambling databases so that the structure and data in the database are unrecognizable, which can then be submitted to Easit for analysis.With the main objective, using existing functionality in the Easit Test Engine ETE, see if you can scramble customers databases and data to unrecognizable so that the handover of the database can be done without risk. But also to validate the scrambling methods that the solution contains. / Kraven hur personlig data hanteras har på senare tid blivit mycket mer strikta med nya förordningar som GDPR. Vilket betyder att företag måste se över hur dom spara och hanterar data. Vidare så finns det en hel bransch som jobbar med att analysera och anonymisera databaser för att skapa testdata för företag att an- vända för tester. Hur kan dessa företag garantera att de kan lämna över deras da- tabas för just detta. Easit AB vill att ett system ska byggas för att scrambla data- baser så att struktur och data i databasen är oigenkännligt som sedan kan läm- nas över till Easit för analysering. Med Huvudmålet att med hjälp av befintlig funktionalitet i Easit Test Engine ETE kunna scrambla kunders databaser och data till oigenkännlighet så att överlämning av databasen kan ske utan risk för tester. Men även att validera de scramblingmetoder som lösningen innehåller.
4

Srovnání robustních a open source databázových systémů / Comparison of robust and open source database management systems

Vích, Marek January 2007 (has links)
Práce se zabývá problematikou objektově-relačních databázových systémů. Cílem je analýza současné situace na poli databázových platforem ze sféry tradičních robustních i open source produktů, která by vedla k posouzení předpokladů uplatnění otevřených databázových platforem v oblastech dosud charakteristických především pro tradiční distributory. Na počátku práce nejprve přibližuji čtenáři otázky související s distribucí softwaru (proprietární vs. open source) a základní pojmy v oboru databázových systémů. Po tomto výchozím uvedení stanovuji kriteria pro následnou komparaci vybraných databázových platforem, která předurčují další postup v rozhodující části věnované komparační analýze. K dovršení celého rozboru práci uzavírám nastíněním přítomných možností využití tradičních robustních a především pak open source databázových systémů. Komparační analýza je vystavena na základě předem definovaných kritérií do pěti oddílů zohledňujících základní charakteristiky, technologické a funkční vlastnosti, bezpečnost, dostupnost i podporu produktů a nevěnuje se rozboru z hlediska výkonu a optimalizace. Za účelem srovnání byly vybrány čtyři přední databázové systémy ? Oracle, DB2, Teradata a PostgreSQL. V návaznosti na důkladnou analýzu, která vedla ke zmapování aktuální situace na databázovém trhu, jsou v závěru práce vytknuty hlavní faktory kolidující širšímu uplatnění open source platforem.
5

Realisierung des TPC-H-Schemas auf einem Oracle-Datenbanksystem

Müller, Thorsten. January 2004 (has links)
Stuttgart, Univ., Studienarb., 2004.
6

Analys och utveckling av en metod för distribution av data

Grahn, Göran January 2006 (has links)
<p>Detta examensarbete omfattar utveckling och test av en metod för distribution av data i ett multidatabassystem. Testen av metoden har gjorts genom att den har implementerats i en fallstudie. Fallstudien berör en organisation som har behov av att integrera tre av sina databassystem. Detta för att information ska kunna utbytas mellan dessa. Integrationen av databassystemen har gjorts på ett sådant sätt att de data som distribueras från dessa skickas till en central databas, med SQL Server som databashanterare.</p><p>Det verktyg som har valts att användas i examensarbetet för att lösa uppgiften är Data Transformation Services, DTS, i SQL Server.</p>
7

Generell DDL-Generering: metodik för olika databashanterare : Undersökning av metoder för generisk DDL-kod-generering över olika databassystem

Gabrielsson, Andreas January 2023 (has links)
Syftet med denna studie var att utveckla en generell applikation som kan generera DDL-skript från tre olika databaser: Oracle, SQL Server och DB2, genom att enbart använda en JDBC-uppkoppling. Behovet av denna studie kommer från att databasadministratörer och utvecklare effektivt ska kunna hantera databaser med olika system med varierande syntax och struktur. Processen genomfördes i IDEAn IntelliJ med java.sql-APIt för databasoperationer. Resultatet visade att trots skillnaderna mellan dessa databaser var det möjligt att utveckla en generell process för att extrahera DDL-kod med endast en JDBCuppkoppling. Dock krävdes vissa specifika anpassningar för varje databassystem. En observation var hanteringen av primärnycklar och index mellan systemen. Denna applikation har potential att vidareutvecklas till ett kraftfullt verktyg för databashantering, vilket sparar tid och resurser. Områden för framtida undersökning inkluderar hantering av komplexa datatyper och strukturer, samt prestanda med stora databaser. / This study was aimed at developing a generic application capable of generating DDL-code from three different databases: Oracle, SQL Server and DB2 by using JDBC. This research necessity origins from database administrators and developers need to effectively manage databases across different systems with different syntax and structure. The process was conducted in the IDEA IntelliJ using the java.sql-API for database operations. The result showed that despite the differences between these databases it was possible to develop a generic process for extracting DDL-code only using a JDBC connection. However, some specific adaptions were required for each database system. An observation was the managing of primary keys and indexes across the systems. This application has the potential to be developed further into a powerful tool for database management that saves time and resources. Areas for further investigation is handling of complex data types and structures and performance with large databases.
8

Verwaltung und Analyse von Software-Vertragsdaten Visualisierung und Interaktivität durch ein javabasiertes Interface /

Menzer, Tobias. January 2003 (has links)
Stuttgart, FH, Diplomarb., 2002.
9

Analys och utveckling av en metod för distribution av data

Grahn, Göran January 2006 (has links)
Detta examensarbete omfattar utveckling och test av en metod för distribution av data i ett multidatabassystem. Testen av metoden har gjorts genom att den har implementerats i en fallstudie. Fallstudien berör en organisation som har behov av att integrera tre av sina databassystem. Detta för att information ska kunna utbytas mellan dessa. Integrationen av databassystemen har gjorts på ett sådant sätt att de data som distribueras från dessa skickas till en central databas, med SQL Server som databashanterare. Det verktyg som har valts att användas i examensarbetet för att lösa uppgiften är Data Transformation Services, DTS, i SQL Server.
10

Conversión de la Base de Datos del Sistema de Cartera en el BBVA Banco BHIF

Cofré Catalán, Carlos Alberto January 2011 (has links)
El objetivo general del presente trabajo de título es compartir la experiencia real de un proyecto de conversión de bases de datos dentro de una entidad y organización bancaria, en un esquema de procesamiento de datos basado en computadores centrales mainframe IBM y con un administrador de base datos DB2. El proyecto se desarrolló en la entidad financiera BBVA banco BHIF en el año 2001. Para tal efecto se realizó el análisis, construcción, pruebas de sistema, pruebas de usuario, puesta en producción y seguimiento post-producción. Se determinó el uso de una metodología de desarrollo de software y una metodología de conversión de datos. El objetivo del proyecto era asegurar la conversión del 100% de la información para dar continuidad operacional al producto-negocio de Cobranza de Letras y Pagarés. De tal forma de garantizar un impacto mínimo en los servicios entregados a los clientes del banco y a los procedimientos realizados por los usuarios internos del banco. El resultado final fue el término exitoso del proyecto logrando realizar la conversión de la base de datos en ambiente real de producción y explotación de sistemas. Se alcanzó en primer término el objetivo de convertir la totalidad de registros de la base de datos a la nueva plataforma. En segundo lugar no se impactaron las actividades de negocio de los usuarios internos de las sucursales y fue trasparente para los clientes del banco. Las conclusiones más relevantes de esta experiencia son que los conocimientos adquiridos durante la carrera permiten enfrentar el desarrollo de proyectos de gran complejidad técnica, facilitando el aprendizaje de nuevas tecnologías para resolver los problemas que surgen en los proyectos informáticos. Otro aspecto relevante de esta experiencia es el de formar equipos de trabajo y establecer dinámicas de colaboración con profesionales extranjeros.

Page generated in 0.029 seconds