• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 90
  • 41
  • 12
  • 9
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 183
  • 183
  • 42
  • 31
  • 30
  • 29
  • 28
  • 25
  • 25
  • 22
  • 22
  • 21
  • 20
  • 20
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Metodologia Sistema de Informação Estratégico para o Gerenciamento Operacional (SIEGO)

Dalfovo, Oscar January 2001 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-19T09:46:43Z (GMT). No. of bitstreams: 1 195545.pdf: 15338335 bytes, checksum: 5d171f05f951d4d2042e6c76056847ac (MD5) / O presente trabalho visa propor a concepção de uma nova idéia sobre o desenvolvimento da metodologia Sistema de Informação Estratégico para o Gerenciamento Operacional (SIEGO), para auxiliar o executivo da organização na tomada de decisão. São apresentados os conceitos, históricos e evolução desta metodologia, bem como, as funções e características dos elementos que as compõem. O estudo visa apresentar um arcabouço para o modelo eficiente da informação, que seja útil à alta administração das organizações nas tomadas de decisões à nível estratégico, tático e operacional. Propõe-se, ainda, identificar os elementos básicos, utilizados nas decisões integrantes do modelo de informação. No desenvolvimento que está sendo proposto da metodologia SIEGO foi baseado em exaustiva revisão bibliográfica, como estado-da-arte, acrescido de um estudo de campo estatístico descritivo e dedutivo, que apontou os requisitos básicos da metodologia. Adicionalmente, para validação e viabilização desta metodologia, se fez necessário especificar, implementar e aplicar em uma área experimental, para isso escolheu-se a área de Gestão Ambiental da Universidade Regional de Blumenau. Pois a área ambiental tem sofrido, recentemente, fortes degradações das organizações e do homem. Para isto foi aplicado um modelo SIEGO baseado em Data Warehouse disponibilizando consultas e acessos a Universidade e Sociedade, quer através da rede interna da Universidade ou acesso via Internet.
62

Uma interface para consultas a Sistemas de Suporte à Decisão baseada em Linguagem Natural, Casamento de Padrões e Metadados

Nascimento, André Vinicius Rodrigues Passos 11 1900 (has links)
O crescimento da Internet e da World Wide Web veio acompanhado pelo desenvolvimento de tecnologias que permitiram o surgimento dos sistemas de suporte à decisão baseados na Web. Esse novo paradigma reduz barreiras tecnológicas e torna mais fácil e menos onerosa a tarefa de difundir informações para diversos tipos de usuários dentro de uma organização. Contudo, as interfaces tradicionais, desenvolvidas especialmente para usuários profissionais, nem sempre são adequadas para usuários casuais e não-especialistas. Esta dissertação apresenta uma proposta de interface para sistemas de suporte à decisão baseada em linguagem natural restrita, comparação de padrões e metadados. Essa nova arquitetura pretende auxiliar usuários sem o devido treinamento técnico a recuperar informações em sistemas de suporte à decisão. A solução proposta mostra que uma abordagem alternativa e mais simples para o problema de interfaces em linguagem natural para banco de dados pode alcançar bons resultados. A arquitetura apoia-se no modelo multdimensional e na modelagem dimensional para oferecer um acesso transparente e natural a banco de dados e solucionar o problema de transportabilidade entre aplicações. _________________________________________________________________________________________ ABSTRACT: The widespread use of the Word Wide Web and Internet has been accompanied by the development of technologies that enabled the emergence of web-based decision support systems. This new paradigm has reduced technological barriers and made it easier and less costly to make decision-relevant information available to all types of users in a company. However, traditional user interfaces specially designed for professional users will not work well for casual and non-specialist users. This dissertation presents a new interface to web-based decision support systems which is based on restricted natural language, pattern matching and metadata. This new architecture was designed with the aim of assisting users without technical instruction with the task of retrieving decision-relevant information. The proposed solution shows that an alternative and simpler approach to the problem of natural language interfaces to databases can achieve useful results. The architecture relies on the multidimensional model and dimensional modeling to provide a transparent and natural database access for non-specialist end-users, and address the domain portability problem.
63

Benchmarking of Data Warehouse Maintenance Policies

Andersson, Ola January 2000 (has links)
Many maintenance policies have been proposed for refreshing a warehouse. The difficulties of selecting an appropriate maintenance policy for a specific scenario with specific source characteristics, user requirements etc. has triggered researcher to develop algorithms and cost-models for predicting cost associated with a policy and a scenario. In this dissertation, we develop a benchmarking tool for testing scenarios and retrieve real world data that can be compared against algorithms and cost-models. The approach was to support a broad set of configurations, including the support of source characteristics proposed in [ENG00], to be able to test a diversity set of scenarios.
64

Observatorio Académico y de Investigación para LACCIR

Gayan Fanta, Gabriel Ignacio January 2012 (has links)
LACCIR (Latin American and Caribbean Collaborative ICT Research Federation) es la institución para la cual se desarrolló esta memoria. Esta organización fue creada el año 2007, con participación de la Organización de los Estados Americanos (OEA), el Banco Interamericano de Desarrollo (BID) y Microsoft Research. Su objetivo es proporcionar entornos virtuales de colaboración entre las universidades de Latinoamérica y el Caribe, en términos de investigación y educación. Entre las metas trazadas por LACCIR está la construcción de un repositorio de información sobre universidades, programas de postgrado e investigadores del área de computación en Latinoamérica y el Caribe. Este trabajo de memoria implementó el software de soporte para dicho repositorio. El sistema desarrollado permite el ingreso, actualización y análisis de dicha información. Además permite la realización de consultas interactivas y la obtención de estadísticas a través de un portal público, donde los resultados son entregados en distintos formatos, por ejemplo gráficos, tablas y listas. Gracias a este sistema las instituciones educativas pueden medir su desempeño y compararse con otras en base a distintos criterios. Por su parte los estudiantes pueden encontrar información relativa a programas de postgrado donde puedan continuar sus estudios y postular a becas. Utilizando el sistema en cuestión también se podría realizar un análisis de la evolución de la ciencia de la computación en la región. Junto al portal de consulta, se diseñó e implementó una herramienta para el almacenamiento estructurado de la información con la que LACCIR contaba de forma dispersa en distintas fuentes, como documentos PDF, archivos Word, planillas Excel o documentos impresos. Con este objetivo en mente, se desarrolló una estructura de roles de usuario que permite a las instituciones definir responsables de la información que se publica acerca de ellas. Para esto se crearon interfaces Web que permiten tanto la administración de usuarios, como la carga de datos. Para facilitar el trabajo de actualización de información, se agregaron también procesos de carga masiva mediante planillas Excel autogeneradas por el sistema. De esta manera, LACCIR puede manejar el proceso de carga de datos en forma distribuida. Una vez finalizado el desarrollo la aplicación, ésta se puso en producción en los servidores de LACCIR y se ingresó una porción de la información con la que actualmente cuenta la institución. Para medir el impacto de la solución, se realizó una encuesta de usabilidad y utilidad del sistema, cuyos usuarios entrevistados fueron estudiantes de ingeniería civil en computación. La percepción general de los encuestados fue que el sistema es una herramienta útil y prometedora como fuente de información de posgrados, a la hora de escoger un programa de magíster o doctorado al cual postular. Finalmente, en esta memoria se proponen mejoras al sistema que permitirían una mayor interacción con los usuarios e incentivarían a las instituciones a ingresar la información de sus programas, de manera de hacer que el portal sea más atractivo y fácil de usar.
65

Mejora de Procesos en la Generación de Reportes para Gerencia de Call Center de Empresa de Telecomunicaciones

Sánchez Suil, Sebastián Andrés January 2011 (has links)
No description available.
66

Implementación de un proyecto de inteligencia de negocios en la empresa constructora GyM S.A.

Cruz Garro, Miluska L., Olin Echevarría, Ángel G. January 2013 (has links)
El presente proyecto se realizó para la Empresa GyM S.A., esta organización se dedica a la construcción de obras civiles, obras electromecánicas y edificaciones, además brinda servicios a las principales Empresas del Perú y también cuenta con proyectos fuera del país. El propósito de nuestra investigación es demostrar cómo la Inteligencia de Negocios puede dar solución a la problemática actual de la corporación que, debido a la enorme cantidad de datos que procesan los sistemas con que trabajan, actualmente no cuentan con un control ni con una manera automatizada de consolidar toda esa información. Nuestra propuesta consta de integrar los sistemas de la empresa mediante técnicas presentadas por la Inteligencia de Negocios, con el fin, de que en base a la construcción de indicadores, reportes de análisis de la información, entre otras herramientas, podamos brindar una solución que sea de apoyo para la toma de decisiones en la empresa y así la alta gerencia pueda ejecutar las medidas correctivas en caso se amerite. Nuestro análisis demostrará que la solución es sumamente rentable, con respecto al costo que implica el proceso de realizar una consolidación manual de la información mensualmente, como es requerido. Así mismo, muestra efectos positivos en la utilización de Inteligencia de Negocios para la organización, debido a la calidad y mejor control de la información.
67

A Practical Approach to Merging Multidimensional Data Models

Mireku Kwakye, Michael January 2011 (has links)
Schema merging is the process of incorporating data models into an integrated, consistent schema from which query solutions satisfying all incorporated models can be derived. The efficiency of such a process is reliant on the effective semantic representation of the chosen data models, as well as the mapping relationships between the elements of the source data models. Consider a scenario where, as a result of company mergers or acquisitions, a number of related, but possible disparate data marts need to be integrated into a global data warehouse. The ability to retrieve data across these disparate, but related, data marts poses an important challenge. Intuitively, forming an all-inclusive data warehouse includes the tedious tasks of identifying related fact and dimension table attributes, as well as the design of a schema merge algorithm for the integration. Additionally, the evaluation of the combined set of correct answers to queries, likely to be independently posed to such data marts, becomes difficult to achieve. Model management refers to a high-level, abstract programming language designed to efficiently manipulate schemas and mappings. Particularly, model management operations such as match, compose mappings, apply functions and merge, offer a way to handle the above-mentioned data integration problem within the domain of data warehousing. In this research, we introduce a methodology for the integration of star schema source data marts into a single consolidated data warehouse based on model management. In our methodology, we discuss the development of three (3) main streamlined steps to facilitate the generation of a global data warehouse. That is, we adopt techniques for deriving attribute correspondences, and for schema mapping discovery. Finally, we formulate and design a merge algorithm, based on multidimensional star schemas; which is primarily the core contribution of this research. Our approach focuses on delivering a polynomial time solution needed for the expected volume of data and its associated large-scale query processing. The experimental evaluation shows that an integrated schema, alongside instance data, can be derived based on the type of mappings adopted in the mapping discovery step. The adoption of Global-And-Local-As-View (GLAV) mapping models delivered a maximally-contained or exact representation of all fact and dimensional instance data tuples needed in query processing on the integrated data warehouse. Additionally, different forms of conflicts, such as semantic conflicts for related or unrelated dimension entities, and descriptive conflicts for differing attribute data types, were encountered and resolved in the developed solution. Finally, this research has highlighted some critical and inherent issues regarding functional dependencies in mapping models, integrity constraints at the source data marts, and multi-valued dimension attributes. These issues were encountered during the integration of the source data marts, as it has been the case of evaluating the queries processed on the merged data warehouse as against that on the independent data marts.
68

SPACE ALLOCATION FOR MATERIALIZED VIEWS AND INDEXES USING GENETIC ALGORITHMS

MACHIRAJU, SIRISHA 16 September 2002 (has links)
No description available.
69

Investigating pluralistic data architectures in data warehousing

Oladele, Kazeem Ayinde January 2015 (has links)
Understanding and managing change is a strategic objective for many organisations to successfully compete in a market place; as a result, organisations are leveraging their data asset and implementing data warehouses to gain business intelligence necessary to improve their businesses. Data warehouses are expensive initiatives, one-half to two-thirds of most data warehousing efforts end in failure. In the absence of well-formalised design methodology in the industry and in the context of the debate on data architecture in data warehousing, this thesis examines why multidimensional and relational data models define the data architecture landscape in the industry. The study develops a number of propositions from the literature and empirical data to understand the factors impacting the choice of logical data model in data warehousing. Using a comparative case study method as the mean of collecting empirical data from the case organisations, the research proposes a conceptual model for logical data model adoption. The model provides a framework that guides decision making for adopting a logical data model for a data warehouse. The research conceptual model identifies the characteristics of business requirements and decision pathways for multidimensional and relational data warehouses. The conceptual model adds value by identifying the business requirements which a multidimensional and relational logical data model is empirically applicable.
70

Diseño y construcción de un Data Webhouse de apoyo a la industria del turismo de la X Región

Castro Astete, Manuel Alejandro January 2014 (has links)
Ingeniero Civil en Computación / El desafío propuesto en este trabajo de memoria consistió en el desarrollo y construcción de un Data Webhouse que albergue distintos componentes asociados a un sitio web que presenta un catálogo de productos en internet, como lo son los módulos de recomendador de productos (AWS), de análisis de opinión en internet (WOM), y de registro de acceso al sitio web (Web Log), aplicados a un proyecto real relativo al turismo de la X Región. Apoyado en los avances y desarrollo de memoristas anteriores en temas relativos al web Mining, análisis de log, y sitios adaptativos es que se presenta el proyecto W.H.A.L.E. que alberga a la industria del turismo de la X Región, bajo a supervisión del Gobierno Regional de la X Región y el Sernatur, para buscar potenciar ese sector económico a través del desarrollo y estudio del sitio patagonialoslagos en donde se aplican estos avances por medios de módulos independientes. El problema propuesto es justamente consolidar dichos avances en uno solo, a través de un modelo de datos que considere cada uno de los módulos mencionados y permita mejores puntos de vista a través de información agregada y combinada, bajo el supuesto que el conjunto es mayor que las individualidades. El desarrollo de la presente memoria consistió en el desarrollo de un modelo de Data Webhouse que contuviera la información del sitio web Patagonia, y que agregara información pública de valor, generando un modelo en la medida de la disponibilidad de esa información, además se crearon las interfaces de carga para incorporación del registro de visitas del sitio web a través de su web log, al igual que las interfaces de carga de datos desde el módulo de análisis de opinión, sin embargo esto no se logró con el módulo de recomendación de productos ya que su funcionamiento está codificado dentro de la aplicación tomando por sí mismo los datos de la base de datos de la página web. Con el modelo resultante se generó una base de reportes que combina los datos de los productos visitados y las características relacionadas. Como conclusiones más importantes está la prueba empírica de integración de datos entre los módulos, que se logra en parte, y que sugiere que en una próxima versión del mismo, el diseño de los módulos deben desarrollarse en conjunto con el sitio web para asegurar la compatibilidad esperada.

Page generated in 0.0955 seconds