• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 7
  • 7
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 35
  • 35
  • 19
  • 19
  • 10
  • 10
  • 8
  • 8
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Beslutstödssystem för trafikplanering : från sparad tid till framtid

Johansson, Boel, Karlsson, Marie January 2004 (has links)
No description available.
2

Beslutstödssystem för trafikplanering : från sparad tid till framtid

Johansson, Boel, Karlsson, Marie January 2004 (has links)
No description available.
3

REAL TIME DATA WAREHOUSING AND ON LINE ANALYTICAL PROCESSING AT ABERDEEN TEST CENTER

Reil, Michael J., Bartlett, T. George, Henry, Kevin 10 1900 (has links)
ITC/USA 2006 Conference Proceedings / The Forty-Second Annual International Telemetering Conference and Technical Exhibition / October 23-26, 2006 / Town and Country Resort & Convention Center, San Diego, California / This paper is a follow on to a paper presented at the 2005 International Telemetry Conference by Dr. Samuel Harley et. al., titled Data, Information, and Knowledge Management. This paper will describe new techniques and provide further detail into the inner workings of the VISION (Versatile Information System – Integrated, Online) Engineering Performance Data Mart.
4

Diseño y construcción de un Data Mart para el análisis de preferencias del usuario en la web a partir de datos originados en el portal Educarchile

Arias Cuevas, Jaime Mijail January 2012 (has links)
Ingeniero Civil Industrial / El objetivo general del trabajo de título es diseñar y construir un Data Mart que permita obtener indicadores de uso de los escritorios del portal educarchile. Educarchile es un portal administrado por la Fundación Chile, y que fue creado por esta última en conjunto con el Ministerio de Educación. Su misión es contribuir al mejoramiento de la calidad de la educación en todos sus niveles, para lo cual cuenta con un sitio dirigido a todos los miembros de la comunidad educativa nacional. Para esto, el diseño del sitio se basa en un Home y 4 escritorios enfocados en cada segmento de usuarios, los que constan de secciones que sirven de enlace al contenido del portal. Educarchile, con el objetivo de obtener información acerca del comportamiento de sus usuarios, trabaja con dos herramientas de pago, Certifica y Google Analytics. Sin embargo, debido al tamaño del portal y el dinamismo del contenido publicado en sus escritorios, no obtiene de estas herramientas información acerca de las preferencias que tienen los usuarios respecto a las secciones de aquellas páginas, y las llamadas viñetas que las componen, que son recursos que permiten la publicación de contenido bajo la restricción que algunas sean visualizadas solo si se hace un click sobre ellas. Adicionalmente, el sitio permite la emisión de opiniones en los artículos, sin embargo, no existe ningún tipo de alerta o filtro para las publicaciones que no se ajustan al clima y objetivo del portal. La hipótesis del trabajo plantea que a través de la creación de indicadores limpios y consolidados respecto del uso de las secciones y viñetas que componen el portal, y que se almacenarán en un Data Mart, el equipo de administración del sitio podrá acceder a información detallada acerca del comportamiento de sus visitantes, la que no ha sido obtenida hasta hoy. Para llevar a cabo el trabajo, se diseñó una arquitectura que permite la extracción y el procesamiento de los datos, además de su posterior carga en un repositorio multidimensional, el que funciona como fuente de datos para consultas OLAP. La arquitectura consta de 3 elementos principales: los modelos de datos; el proceso de extracción, transformación y carga de los datos; y un modelo para clasificar y filtrar opiniones, basado en el algoritmo Naive Bayes. Para cada elemento se optó por la utilización de herramientas gratuitas. Los indicadores obtenidos a través del procesamiento de los archivos weblog entregaron información desconocida y valiosa al equipo del portal. Uno de los principales resultados fue: comprobar que las viñetas que componen las secciones de los escritorios producen un alto sesgo en el comportamiento de los usuarios, principalmente en aquellas secciones que contienen información de actualidad. En ellas los usuarios no visualizan los recursos que son publicados en las viñetas que se encuentran ocultas por defecto, lo que se traduce en una política ineficiente de edición y publicación de artículos. Por su parte, el algoritmo Naive Bayes obtuvo un alto índice de recall para aquellas clases que se deseaba predecir (ayuda y planificación), que en ambos casos supera el 85%. Sin embargo, la clase que representa el resto de los comentarios tiene un menor recall, habiendo un 30% de las opiniones clasificadas erróneamente. Como conclusión, el modelo propuesto es capaz de satisfacer las necesidades de información de la organización, entregando conocimiento útil a la hora de evaluar y definir nuevas políticas de publicación de contenidos que se ajusten a las reales preferencias de los usuarios. A pesar de aquello, se recomienda realizar una nueva medición de los indicadores una vez efectuados cambios en el diseño de las páginas, para así obtener resultados contundentes que permitan identificar las preferencias de diseño y contenido por parte de los usuarios. Además, se recomienda implementar en el sitio el modelo obtenido para las opiniones, y así detener la publicación de comentarios que no aportan valor al sitio.
5

Diseño y construcción de una data mart para el análisis del comportamiento de los usuarios de la web aplicado en Educarchile

Cerda Soto, Juan Antonio January 2012 (has links)
Ingeniero Civil Industrial / Autor no autoriza el acceso a texto completo de su tesis en el Repositorio Académico / El objetivo general del presente trabajo es diseñar y construir un data mart para almacenar indicadores que permitan el análisis del comportamiento de los usuarios del portal educarchile. Estos indicadores tienen como finalidad comprender el uso de las herramientas del sitio a partir del aprovechamiento de los datos generados por la navegación de los usuarios, los cuales hasta hoy no estaban siendo utilizados. El sitio educarchile.cl es un portal de apoyo a la educación, autónomo y de servicio publico administrado por la Fundación Chile que tiene por misión el mejoramiento de la calidad de la educación en todos sus niveles, ámbitos y modalidades. Su estructura principal se encuentra dividida en una portada y 4 secciones llamadas escritorios, los que apuntan a los perfiles principales en los que se enfoca el portal, que son: docentes, directivos, estudiantes y familia. Los analistas del sitio, a pesar de contar con estudios anteriores que se basan principalmente en encuestas, desconocen el impacto que tiene el actual diseño en la utilización de las herramientas, lectura de artículos y participación de los usuarios. Además se desea validar supuestos como que el ubicar artículos en determinadas partes de los escritorios logra dar una mayor visibilidad a aquellos contenidos. En éste trabajo se plantea que la consolidación de los datos, provenientes de los web logs, en un data mart, permitirá la determinación indicadores de uso del sitio, tanto tradicionales como ajustados a las necesidades de los analistas. En específico se podrá dar respuesta a las interrogantes relacionadas con el impacto del diseño de los escritorios. Con el apoyo de los integrantes de la fundación se establecieron las 14 páginas de las que se deseaba obtener información. Se procesaron cerca de 620 millones de registros, de los archivos de web logs, concernientes a los meses de septiembre y noviembre del 2011 lográndose obtener indicadores acerca de los escritorios, uso de viñetas y secciones. Adicionalmente se hizo un estudio de las sesiones que visitaron el escritorio directivos, con el fin de conocer los contenidos más requeridos y el comportamiento de navegación. Para esto se utilizó técnicas de minería de datos que permitieron crear grupos de sesiones con características distintivas de los visitantes. Como resultado, se concluyó que los indicadores obtenidos ayudaron a comprender de mejor forma el uso del portal y evidencian la necesidad de crear diseños personalizados a cada perfil de usuario, los que deben ir de la mano a sus competencias en el uso de la Web.
6

Aplicación de técnicas de minería de datos para mejorar el proceso de control de gestión de ENTEL

Martínez Álvarez, Clemente Antonio January 2012 (has links)
Magíster en Gestión de Operaciones / Ingeniero Civil Industrial / El presente estudio se enfoca en el análisis de ingresos no percibidos en la empresa de telecomunicaciones ENTEL, dentro del proceso de provisión de servicios privados de telefonía, internet y comunicaciones a los clientes de mercados no residenciales. Dicho proceso es controlado mediante indicadores de gestión, obtenidos a partir de la transformación de datos de clientes y servicios. La generación de estos indicadores demanda tiempo y esfuerzo por parte de los analistas de la empresa, debido a que es un trabajo realizado en forma manual. El objetivo principal de esta tesis consiste en reducir el tiempo de cálculo de los indicadores de servicios privados de ENTEL, para lo cual se aplicó modelamiento multidimensional, técnicas de minería de datos y automatización de procesos, y de este modo poder entregar información más oportunamente. La metodología de este trabajo se basa principalmente en las etapas del proceso conocido como Knowledge Discovery in Databases (KDD), implementadas de acuerdo a la metodología CRISP-DM, la cual es usada para el desarrollo de proyectos de minería de datos. Para comenzar, se hizo un levantamiento de las métricas existentes para la gestión de la provisión de servicios. Luego, se seleccionaron y procesaron las fuentes de datos para el estudio de forma automática, almacenando las variables más relevantes en un repositorio multidimensional (Data Mart), reduciendo drásticamente el tiempo de cálculo de indicadores y liberando recursos humanos altamente calificados. A partir de lo anterior, se aplicaron técnicas de clustering para obtener grupos de elementos con datos de clientes y servicios cuyas características fueran similares, asociándoles un valor de precio según información histórica de consumo. Por último, se generó un modelo de clasificación que asignara, de acuerdo a una medida de similitud, elementos que no habían sido facturados a los grupos previamente definidos, y de esta manera estimar los ingresos no percibidos. Con ayuda de minería de datos se logró diseñar nuevas métricas para el proceso e identificar a los clientes y servicios más críticos, lo que permite llegar a valores más exactos de los ingresos perdidos en cada segmento, y aplicar estrategias diferenciadas para hacer el cobro a sus clientes. El trabajo realizado permitió una reducción del tiempo de obtención de los indicadores en un 78%, pasando de un total de 14 horas inicialmente a tan sólo 3 horas, logrando además estimar los ingresos perdidos mensualmente por servicios no facturados en un monto de MM $ 210, con un error de la estimación menor al 5%. Se espera que, con ayuda de este estudio, la empresa pueda tomar decisiones informadas y mejorar su capacidad de control del proceso de provisión de servicios privados, con el fin de regularizar su flujo de ingreso mensual.
7

Analisando os dados do programa de melhoramento genético da raça nelore com data warehousing e data mining. / Analyzing the program of genetic improvement of nelore breed data with data warehousing and data mining.

Valmir Ferreira Marques 28 October 2002 (has links)
A base de dados do Programa de Melhoramento Genético da Raça Nelore está crescendo consideravelmente, com isso, a criação de um ambiente que dê apoio à análise dos dados do Programa é de fundamental importância. As tecnologias que são utilizadas para a criação de um ambiente analítico são os processos de Data Warehousing e de Data Mining. Neste trabalho, foram construídos um Data Warehouse e consultas OLAP para fornecer visões multidimensionais dos dados. Além das análises realizadas com as consultas, também foi utilizada uma ferramenta de Data Mining Visual. O ambiente analítico desenvolvido proporciona aos pesquisadores e criadores do Programa um maior poder de análise de seus dados. Todo o processo de desenvolvimento desse ambiente é aqui apresentado. / The Program of Genetic Improvement of Nelore Breed database have been growing considerably. Therefore, the creation of an environment to support the data analysis of Program is very important. The technologies that are used for the creation of an analytical environment are the Data Warehousing and the Data Mining processes. In this work, a Data Warehouse and OLAP consultations had been constructed to supply multidimensional views of the data. Beyond the analyses carried through with the consultations, a tool of Visual Data Mining also was used. The developed analytical environment provides to the researchers and cattlemen of the Program a greater power of data analysis. The whole process of development of this environment is presented here.
8

Analisando os dados do programa de melhoramento genético da raça nelore com data warehousing e data mining. / Analyzing the program of genetic improvement of nelore breed data with data warehousing and data mining.

Marques, Valmir Ferreira 28 October 2002 (has links)
A base de dados do Programa de Melhoramento Genético da Raça Nelore está crescendo consideravelmente, com isso, a criação de um ambiente que dê apoio à análise dos dados do Programa é de fundamental importância. As tecnologias que são utilizadas para a criação de um ambiente analítico são os processos de Data Warehousing e de Data Mining. Neste trabalho, foram construídos um Data Warehouse e consultas OLAP para fornecer visões multidimensionais dos dados. Além das análises realizadas com as consultas, também foi utilizada uma ferramenta de Data Mining Visual. O ambiente analítico desenvolvido proporciona aos pesquisadores e criadores do Programa um maior poder de análise de seus dados. Todo o processo de desenvolvimento desse ambiente é aqui apresentado. / The Program of Genetic Improvement of Nelore Breed database have been growing considerably. Therefore, the creation of an environment to support the data analysis of Program is very important. The technologies that are used for the creation of an analytical environment are the Data Warehousing and the Data Mining processes. In this work, a Data Warehouse and OLAP consultations had been constructed to supply multidimensional views of the data. Beyond the analyses carried through with the consultations, a tool of Visual Data Mining also was used. The developed analytical environment provides to the researchers and cattlemen of the Program a greater power of data analysis. The whole process of development of this environment is presented here.
9

Diseño y Construcción de un Data Mart para la Mantención de Indicadores de Sostenibilidad de la Industria del Salmón

Hernández Peñaloza, Lucía Victoria January 2008 (has links)
El objetivo de esta tesis es diseñar y construir una plataforma informática, basada en la arquitectura Data Warehouse y tecnología Web, para almacenar y entregar acceso a indicadores que permitan media la sostenibilidad de la industria del salmón en Chile. En los últimos años, la industria del salmón en Chile, ha experimentado un notable crecimiento situando a nuestro país en el segundo lugar de la producción mundial después de Noruega. Tan espectacular crecimiento, ha hecho que diversos grupos cuestionen si la explotación del recurso se está realizando de manera sustentable, es decir “satisfacer las necesidades actuales, sin perjudicar las futuras”. Para medir la sustentabilidad de la explotación de un recurso, se utilizan indicadores que en el caso del salmón, se relacionan con dimensiones ambientales, sociales y económicas. Estos indicadores representan información agregada sobre datos que se generan en las empresas, comunidades, gobierno, etc, es decir, en los interesados en analizar la sostenibilidad de la industria, también conocidos como Stakeholders. La adecuada gestión de la sustentabilidad requiere el acceso rápido, expedito y desde cualquier lugar, por parte de los Stakeholders, a los indicadores e información relacionada. Lo anterior es factible de ser implementado a través de la creación de una plataforma informática que permita mantener un repositorio de información con acceso a través de la Web. Se construyó una plataforma informática que esencialmente se compone de: un sitio web desarrollado a través de un Content Management System y un Data Mart estructurado en un modelo constelación con varias tablas de hechos. Lo anterior permite que se puedan agregar indicadores en el tiempo, con una intervención mínima del modelo, lo cual configura una solución eficaz y eficiente al problema de la mediación de la sustentabilidad, es decir, las variables que se utilizan para analizarla son dinámicas. Las pruebas de usabilidad aplicadas a la plataforma y la operación en tiempo real del repositorio, demuestran que la solución tecnológica es óptima para el objetivo perseguido en esta tesis. Finalmente, se concluye que el modelo constelación desarrollado para almacenar los indicadores, se puede extender a otros ámbitos, donde se requiera de una estructura que permita la anexión de nuevas medidas con alta variabilidad.
10

Mejora de Procesos en la Generación de Reportes para Gerencia de Call Center de Empresa de Telecomunicaciones

Sánchez Suil, Sebastián Andrés January 2011 (has links)
No description available.

Page generated in 0.0622 seconds