• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 182
  • 9
  • 1
  • 1
  • Tagged with
  • 193
  • 193
  • 76
  • 69
  • 60
  • 52
  • 46
  • 46
  • 46
  • 46
  • 40
  • 39
  • 31
  • 31
  • 28
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

ServQual

Cremer, Rodolfo 21 September 2007 (has links)
Se adjunta la teoría y modelo ServQualFuente: IMS - Instituto de Marketing de Servicioswwwmarketingdeservicioscom
62

Programas de Fidelidad de Clientes: unidad 5

Cremer, Rodolfo 12 November 2007 (has links)
Se desarrollan los modelos de fidleidad de clientes propuestos por Josep Alet y el IMdS (Instituto de Marketing de Servicios), así como los concpetos básicos y estartegias vibculados a estos temas
63

Una Metodología para sectorizar pacientes en el consumo de medicamentos aplicando Datamart y Datamining en un hospital nacional

Tapia Rivas, Iván Gildo, Tapia Rivas, Iván Gildo January 2006 (has links)
La Minería de Datos (Data Mining) es la búsqueda de patrones interesantes y de regularidades importantes en grandes bases de datos. La minería de datos inteligente utiliza métodos de aprendizaje automático para descubrir y enumerar patrones presentes en los datos. Una forma para describir los atributos de una entidad de una base de datos es utilizar algoritmos de segmentación o clasificación. El presente trabajo, propone un método para el análisis de datos, para evaluar la forma con la que se consumen los medicamentos en un hospital peruano, poder identificar algunas realidades o características no observables que producirían desabastecimiento o insatisfacción del paciente, y para que sirva como una herramienta en la toma de decisión sobre el abastecimiento de medicamentos en el hospital. En esta investigación, se utilizan técnicas para la Extracción, Transformación y Carga de datos, y para la construcción de un Datamart, para finalmente un algoritmo de minería de datos adecuado para el tipo de información que se encuentra contenida. / The Mining of Data (Mining Data) is the search of interesting patterns and important regularities in great data bases. The intelligent mining of data uses methods of automatic learning to discover and to enumerate present patterns in the data. A form to describe the attributes of an organization of a data base is to use algorithms of segmentation or classification. The present work, proposes a method for the analysis of data, to evaluate the form with which the medicines in a Peruvian hospital are consumed, to be able to identify some non-observable realities or characteristics which they would produce shortage of supplies or dissatisfaction of the patient, and so that it serves as a tool in the decision making on the medicine supplying in the hospital. In this investigation, techniques for the Extraction, Transformation and Load of data are used, and for the construction of a Datamart, finally an algorithm of mining of data adapted for the type of information that is contained. / Tesis
64

Búsqueda y Visualización del Registro Genealógico del Caballo Chileno

Bobadilla Leal, Daniel Hernán January 2008 (has links)
El problema de visualización de redes y/o grafos es un área muy estudiada en ciencias de la computación y también ha sido objeto de gran atención de investigadores en los últimos años. El presente trabajo está motivado a construir una aplicación que ayude en la visualización de grafos obtenidos de consultas al registro genealógico del Caballo Chileno. En la primera parte de este trabajo se realiza un estudio de algoritmos y técnicas para la visualización de grafos en dos dimensiones, revisando distintos autores y clasificación de éstos debido a su utilización en cierto tipo de grafo y también de restricciones introducidas a la visualización para considerarse válida y admisible. Luego se procede a plantear una solución a los requerimientos del problema: se decribe una arquitectura de la aplicación a construir, decisiones de diseño involucradas debido a restricciones del problema mismo y una descripción de la implementación. Más tarde se revisan los algoritmos construidos para generar consultas y recuperación de información y se detallan los algoritmos elegidos para la visualización de grafos generados de las consultas al registro genealógico equino. El resultado de utilizar las tecnologías propuestas hace que el requerimiento primario de la aplicación se cumpla. No obstante por el diseño de la misma, ésta puede extenderse para nuevas interfaces que se requieran. El desempeño de la aplicación se verificó utilizando pruebas sintéticas que fueron satisfactorias. Debido a la naturaleza de la información genealógica equina y a los tipos de consultas realizadas, éstas no estuvieron exentas del problema que representa la visualización de grandes grafos; problema observado y estudiado. Para lo último se plantearon aproximaciones que pudiesen a agregar valor a la aplicación diseñada para el usuario.
65

Modelos de Base de Datos de Grafo y RDF

Angles Rojas, Renzo January 2009 (has links)
En el año 2004 el Consorcio de la World Wide Web (W3C) estandarizó un lenguaje de metadatos para la descripción de recursos en la Web denominado Resource Description Framework (RDF). La motivación fue el definir un lenguaje que sirva de base para el modelado extensible de dominios altamente interconectados y redes de información. La especificación de RDF puede ser vista, desde un punto de vista de base de datos, como un modelo de base de datos. En efecto, subyacente a RDF se encuentra un modelo el cual trae a la mente la noción de datos con estructura de grafo. Por otra parte, la cifra creciente de información representada en el lenguaje RDF ha sido acompañada de varias propuestas sobre como almacenar y consultar datos RDF. En consecuencia, resulta natural el estudio de RDF desde un punto de vista de base de datos. El objetivo principal de esta tesis es el estudio de RDF desde una perspectiva de base de datos. Nuestro estudio se concentra en el modelado de base de datos, enfocándonos en modelos particulares llamados modelos de base de datos de grafo, los cuales parecen estar más relacionados a RDF desde un punto de vista teórico. Asimismo, esta tesis sigue de cerca los desarrollos del W3C en el sentido de entregar a RDF el soporte de un modelo de base de datos, en particular desarrollar los aspectos de consulta de datos. La principal contribución de la tesis es haber clarificado y desarrollado la relación entre RDF y los modelos de base de datos de grafo. Para esto, primero se estudió RDF como un modelo de base de datos. Segundo, se realizó una conceptualización del área de modelos de base de datos de grafo. Tercero, se propuso un conjunto deseable de propiedades de grafo las cuales deberían ser soportadas por un lenguaje de consulta ideal para RDF. Cuarto, se demostró que el lenguaje de consulta estándar definido por el W3C, denominado SPARQL, no soporta las consultas de grafo esenciales que se esperaría encontrar en un lenguaje de consulta para bases de datos de grafo. Esto fue conseguido al estudiar y determinar el poder expresivo de SPARQL. Finalmente, y debido a los resultados anteriores, nos concentramos en la aplicación de los modelos de bases de datos de grafo a la visualización de datos, esto al definir formalmente y caracterizar un modelo de visualización de grafo para RDF.
66

Desarrollo de un Sistema de Replicación y Distribución de Consultas de Bases de Datos Infobright

Poillot Cartes, Ronald Elias January 2012 (has links)
La Inteligencia de Negocios (BI) y la Minería de Datos (DM) son áreas que han tenido un importante crecimiento en los últimos diez años. Estas disciplinas ayudan en la toma de decisiones de las compañías, entregando valiosa información extraída desde los datos de la empresa mediante complejos procedimientos. Resulta indispensable para los proveedores de servicios en estas áreas el contar con los datos disponibles la mayor cantidad de tiempo posible, para no incurrir en quiebres importantes de su continuidad operacional. El objetivo de la presente memoria fue crear un sistema básico de alta disponibilidad que incluye replicación y distribución de consultas a Bases de Datos, el cual pretende disminuir los riesgos asociados al downtime de los servidores de datos de la empresa Penta Analytics. Esta compañía utiliza Infobright como motor de almacenamiento de datos, el cual está orientado a Bases de Datos de tipo analítica y que actualmente no cuenta con una solución de alta disponibilidad que abarque ambos temas. La solución fue diseñada en base a tres componentes principales: un sistema de replicación de datos, un sistema de distribución de consultas y una tabla de estados de replicación. Para la replicación se desarrolló una aplicación ad-hoc programada en lenguaje Java, mientras que la distribución de consultas fue creada en base a una aplicación llamada MySQL-Proxy, que fue adaptada para funcionar con un clúster de Bases de Datos analíticas. La tabla de replicación resguarda el estado de actualización de cada componente del sistema, estado que debe ser consistente ante cualquier escenario. Como resultado se obtuvo un sistema que mejora los tiempos de respaldo de datos y de respuestas a consultas a Bases de Datos. La solución para la distribución de consultas es escalable y paralelizable, mientras que el sistema de replicación escala sólo verticalmente y requiere modificación de código para agregar paralelismo y escalabilidad horizontal. Este desarrollo constituye una innovación como solución de alta disponibilidad para este tipo de Bases de Datos. En base a la presente memoria se muestra un conjunto de posibles mejoras y trabajos futuros, como por ejemplo mejorar los algoritmos de selección de servidor en la distribución de consultas u optimizar el transporte de datos entre servidores del sistema de replicación.
67

Técnicas de inferencias, predicción y minería de datos

Apolaya Torres, Carlos Humberto, Espinosa Diaz, Adolfo 23 August 2018 (has links)
En el primer capítulo, se describe la problemática que se quiere solucionar y se detalla los objetivos específicos que aportan al cumplimiento del objetivo general y el alcance del proyecto. En el segundo capítulo, se definen los conceptos básicos más importantes como Data Mining y Machine Learning, los cuales están relacionados al tema de estudio de la investigación. En el tercer capítulo, se encuentra el Estado del Arte, en el cual se revisará la investigación previa relacionada al proyecto indicando el rubro en el que fue implementado. Esto permite entender cómo se encuentra el tema investigado en la actualidad y tener una visión más clara de lo que se puede desarrollar. En el cuarto capítulo, se describe el desarrollo del proyecto, la metodología a utilizar, se detalla las fases de dicha metodología y el proceso a seguir para la correcta implementación del modelo utilizando arboles de decisión y la metodología Knowledge Discovery in Databases (KDD). En el quinto capítulo se detalla cómo se obtuvo un porcentaje de error de predicción de aproximadamente 9.13%, las pruebas realizadas y recomendaciones. Así como también las propuestas de continuidad del proyecto enfocados en la mejora del modelo de predicción. Finalmente, en el sexto capítulo se describen los resultados finales en la gestión propia del proyecto, en los aspectos de Resultado Final y las Gestiones de alcance, tiempo, comunicación, recursos humanos y riesgos. / In the first chapter, it describes the problem to be solved and it details the specific objectives that contribute to the fulfillment of the general objective and the scope of the project. In the second chapter, the most important basic concepts like Data Mining and Machine Learning are defined, which are related to the subject of research study. In the third chapter, there is the State of Art, in which the previous research related to the project will be reviewed indicating the area in which it was implemented. This allows us to understand how the subject is currently investigated and to have a clearer vision of what can be developed. In the fourth chapter, we describe the development of the project, the methodology to be used, details the phases of the methodology and the process to be followed for the correct implementation of the model using decision trees and the Knowledge Discovery in Databases (KDD) methodology. The fifth chapter details how we obtained a prediction error rate of approximately 9.13%, the tests performed and recommendations. As well as proposals for project continuity focused on improving the prediction model. Finally in the sixth chapter, the final results are described in the project's own management, in the aspects of Final Result and the Outreach, Time, Communication, Human Resources and Risk Management. / Tesis
68

Propuesta metodológica para la validación de los modelos de recursos de Codelco, Chile

Cuevas Coloma, Claudia Andrea January 2017 (has links)
Geóloga / Este trabajo fue solicitado por Codelco, específicamente por la Gerencia de Recursos Mineros, con el fin de mejorar la base del proceso de planificación minera que sustenta los planes mineros e inventario de la empresa. Parte de esta base son los modelos de recursos junto a modelos de geometalurgia, hidrogeología y geotecnia. El modelo de recursos consta de tres pilares fundamentales, éstos son: base de datos de información básica, modelos geológicos y modelo de bloques. La captura de información básica e interpretación geológica está en constante e iterativa actualización, provocando confusión con los archivos que oficialmente constituyen el modelo de recursos, no pudiendo reproducirlo para su revisión. Además, en la Corporación no existe un procedimiento formal único para todas las Divisiones, que estandarice los plazos, los productos mínimos de entrega y el contenido mínimo de los informes del modelo de recursos. Por esto, mediante la revisión de material bibliográfico interno, tales como informes, normas, auditorías de los Modelos de Recursos de años anteriores, revisión de base de datos, sólidos de modelos geológicos, modelos de bloques que conforman los Modelos de Recursos y reuniones con las Divisiones, se recopiló toda información para realizar un procedimiento estandarizado para la actualización de los modelos de recursos conjuntamente con su aprobación, reglamentando el repositorio de los modelos, solicitando archivos mínimos para revisión, contenido mínimo de los informes del modelo y chequeos mínimos para asegurar la calidad y completitud de la información. De tal manera, que con esta propuesta se presentaría una mejora a largo plazo en el proceso de planificación minera y el modelo de recurso por División resulta trazable, auditable y reproducible, aunque esta metodología puede presentar contratiempos en la etapa de desarrollo e implementación en las Divisiones. / Este trabajo ha sido financiado por CODELCO
69

Diseño de Base de Datos para Creación y Manejo de Archivos Estándar de Sistemas Eléctricos. Desarrollo de casos prácticos

Carvajal Zuleta, Felipe Antonio January 2008 (has links)
No description available.
70

Detección de condición falla de encolamientos de cambios de estado de móviles prepago a través de divergencia de Kullvack-Leibler

Torres Huircaman, Milflen January 2012 (has links)
Magíster en Ingeniería de Redes de Comunicaciones / La industria de telefonía móvil de prepago chilena concentra al 70% de los clientes móviles de los principales operadores en el país. Este servicio utiliza un proceso de descuento y abono en línea que permite rebajar en forma casi instantánea los créditos consumidos al utilizar los servicios de voz y datos habilitados en el terminal, y abonar el crédito correspondientes cuando se hace aplica una recarga prepagada, que son las operaciones más habituales que se aplican para cambiar el estado de operación de un terminal móvil prepago. La dinámica de estas transiciones depende de manera íntima de la operatividad del sistema computacional que administra y ejecuta estos cambios. Su arquitectura, del tipo servidor-cola de comandos, utiliza una filosofía first-in first-out (FIFO) para procesar cada comando asociado a la transición de estado que debe aplicarse sobre cada terminal de la red. Este sistema de administración de comandos puede colapsar si la demanda por cambios de estado aumenta en forma repentina y supera la capacidad de procesamiento del servidor. Ello tiene como consecuencia un aumento desmedido del tamaño de la cola de comandos, lo que a su vez, puede originar problemas en las prestaciones de telecomunicaciones dentro de la red y pérdidas monetarias al operador al dejar fuera de línea el sistema de cobro. Este fenómeno, que se denomina encolamiento, es controlado en los sistemas comerciales utilizando alarmas por umbral, las que indican a los administradores del sistema la necesidad de activar las contramedidas necesarias para restablecer el correcto funcionamiento del sistema. Sin embargo, el valor de este umbral es fijado sin utilizar necesariamente criterios de optimalidad de desempeño, lo que reduce la eficiencia en la operación técnica y comercial del servicio. La hipótesis de trabajo de esta investigación es que el uso un umbral ``duro'' puede ser mejorado al emplear un enfoque que incorpore la historia del proceso que describe la longitud de la cola de comandos, como el basado en las distribuciones de probabilidad de las condiciones de operación normal y de encolamiento. Para validar esta conjetura, se diseñó un detector de encolamientos basado en la divergencia de Kullback-Leibler, la que permite comparar la distribución instantánea de las observaciones con las correspondientes a la condición de operación normal y de encolamiento. La metodología empleada para validar esta tesis se basó en la simulación computacional de las transiciones de estado descrita mediante el uso de una cadena de Markov de 3 estados, que se utilizó para cuantificar la operación del detector y compararla con las métricas asociadas a la detección dura mediante umbrales. Las métricas de desempeño empleadas fueron el porcentaje de errores de tipo I (no detección) y de tipo II (falso positivo), las cuales fueron calculadas en forma empírica en ambos detectores. Además, el funcionamiento del detector fue validado con datos reales de operación a partir de un registro de 14 meses de observaciones. Los resultados obtenidos avalan la hipótesis planteada, en el sentido que se observaron mejoras de desempeño de hasta un 60% en la detección de encolamiento y un 85% en la disminución de falsos positivos al comparar el detector de Kullback-Leibler con aquellos basados en umbral. En este sentido, estos resultados constituyen un avance importante en el aumento de la precisión y confiabilidad de detección de condiciones de fallas que justifica la incorporación de esta nueva estrategia en el ambiente de operaciones de una empresa de telecomunicaciones. Además, la hace eventualmente extensible a procesos controlados a través de colas.

Page generated in 0.0948 seconds