• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1432
  • 90
  • 31
  • 11
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1574
  • 511
  • 480
  • 355
  • 345
  • 345
  • 345
  • 345
  • 328
  • 292
  • 289
  • 222
  • 210
  • 193
  • 185
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Diseño de un sistema de información para mejorar la eficiencia en la planificación y control de los procesos productivos de una empresa del piping

Olguín Toledo, Hugo Andrés January 2015 (has links)
Ingeniero Civil Industrial / El presente Proyecto de Título fue realizado en la empresa FASTPACK S.A., especializada en la fabricación, suministro y distribución de productos y servicios asociados a la industria del piping (soluciones en distintos tipos de acero para la conformación de redes de tuberías para faenas y plantas). Una de las complejidades de esta industria, en conjunto con el proceso de fabricación mismo, es que las empresas clientes exigen la trazabilidad de la pieza durante todo su ciclo de vida. Adicionalmente, no existen soluciones en el mercado de software para abordar satisfactoriamente todas las aristas de dicha gestión, lo cual involucró el diseño de un software a medida. Dicha decisión se justificó en base al análisis de distintos tipos de sistemas de información disponibles en el mercado y en base a la generación de un estudio del estado del arte de la industria. Este proyecto se justifica en la necesidad por parte de la compañía de mejorar la eficiencia en el control de su producción, en base a la gestión de la información generada a través de sus procesos productivos. Como antecedente de lo anterior, alrededor del 40% de los costos totales para el año 2013 que asumió la compañía se debió a reprocesos y en cancelaciones de multas por incumplimiento de plazos de entrega. Este trabajo comprendió el modelamiento y análisis de los procesos productivos de la empresa, sumado al análisis del actual sistema de información inserto en determinadas actividades del ciclo de producción, en base a una elección previa de una metodología que justificó este procedimiento. Posterior a dicha etapa se llevó a cabo el proceso de análisis y levantamiento de los requerimientos críticos para la mejora del actual sistema de control de producción de la empresa, en conjunto con un equipo multidisciplinario de rediseño conocido como Spool Machine. Es así como finalmente se dio forma a la propuesta final de rediseño del sistema de información inserto en el ciclo de producción, en base a un análisis técnico sobre el tipo de sistema a implementar, considerando en todo momento los requerimientos de los usuarios, justificando a su vez el modelo de sistema más adecuado para la empresa. En conjunto con la elección de la alternativa más conveniente para la compañía, en términos económicos y funcionales, se realizó una valorización que arrojó una recuperación de la inversión inicial en menos de seis meses, permitiendo a la vez una cifra estimada de disminución en los tiempos de operación cercanos a un 42%. De manera paralela, se desarrolló un plan de implementación de manera tal de considerar todos los factores críticos de éxito para una efectiva implementación y puesta en marcha del nuevo sistema.
112

Caracterización de perfiles influyentes en Twitter de acuerdo a tópicos de opinión y la generación de contenido interesante

Vera Cid, Felipe Andrés January 2015 (has links)
Ingeniero Civil Industrial / Durante los últimos años en Chile ha aumentado el uso de Internet, de smartphones y de las redes sociales. Entre todas las redes sociales cabe destacar Twitter, dada la visibilidad que tiene al ser una red más abierta que otras. En Chile, el uso de Twitter se concentra en dos tipos: informarse y opinar. La cantidad de opiniones que se registran en Twitter es de gran interés para distintos actores del país, entre los cuales se encuentran empresas que utilizan Twitter como una herramienta de comunicación con sus clientes, para resolver quejas y dudas y hasta para realizar campañas de marketing viral en la red. Dada la masificación de Twitter y la gran cantidad de usuarios, existe la necesidad de poder saber el nivel de influencia de los usuarios y así poder priorizarlos en la resolución de sus necesidad como también poder hacer más efectivas diversas campañas de marketing. Hoy en día, existen diversos servicios que realizan este tipo de tareas, como Klout o BrandMetric. Sin embargo, estos modelos miden la influencia de los usuarios de diversas formas, pero ninguno intenta vaticinar a los usuarios que se volverán influyentes en un futuro próximo. El presente trabajo consiste en definir una influencia en Twitter para luego ver se proyectaría en el tiempo, tomando como hipótesis que es posible medir la influencia de un usuario a partir de su generación de contenido interesante, para lograrlo se definió la influencia en la red de Twitter como la capacidad de generar contenido interesante que repercute en la red social. Viendo los modelos existentes se escogió uno y se modificó levemente para poder obtener un puntaje de lo interesante del contenido generado por un perfil. Dado este modelo se generaron rankings sobre la influencia de un usuario en Twitter, además de rankings en agrupaciones de tópicos asociadas a política y deportes. No se pudo segregar en una mayor cantidad de tópicos por diversos motivos, por lo cual no se consideró que el modelo haya cumplido su objetivo de generar rankings de influencia para distintos grupos de tópicos. Luego, se realizaron los análisis de la predictibilidad para la influencia modelada, llegando a la conclusión que el periodo de datos es muy corto para poder predecir las series temporales. Aunque los resultados pueden parecer desalentadores, el trabajo realizado deja un camino abierto para realizar otros enfoques y trabajos que son explicados en el capítulo final de la memoria. Así, se espera que una buena segmentación y priorización de perfiles puede servir para mejorar la resolución de problemas, encontrar perfiles que serán influyentes en determinados tópicos y focalizar campañas de marketing utilizando perfiles que no sean de un alto costo.
113

Managing massive graphs

Hernández Rivas, Cecilia Paola January 2014 (has links)
Doctora en Ciencias, Mención Computación / Con la popularidad de la Web y, mas recientemente, el amplio uso de las redes sociales, la necesidad de procesar y encontrar información en grafos muy grandes impone varios desafíos: Cómo procesar grafos muy grandes e cientemente, dado que probablemente son muy grandes para la memoria disponible, o incluso si la memoria es su ciente, realizar un paso sobre el grafo es todavía caro computacionalmente? Cómo almacenar esos grafos e cientemente, para ser archivados, o para ejecutar algoritmos de grafos? Cómo descubrir información relevante tal como componentes densos, comunidades, u otras estructuras? Se han propuesto tres enfoques para manejar grafos grandes. El primero es usar formatos de grafos comprimidos que permiten consultas de navegación básicas directamentee sobre la estructura comprimida, sin la necesidad de descompresión. Esto permite simular cualquier algoritmo de grafo en memoria principal usando mucho menos espacio que la representación plana. Una segunda línea de investigación se focaliza en usar modelos de stream o semi- stream de datos de manera de procesar secuencialmente, idealmente en un paso sobre el disco, usando una cantidad limitada de memoria principal. La tercera línea es el uso de sistemas distribuidos y paralelos donde la memoria es agregada sobre múltiples unidades de procesamiento para procesar el grafo en paralelo. En esta tesis presentamos varios enfoques para manejar grafos grandes (con arcos sin etiquetas) considerando los tres enfoques. Primero, buscamos por patrones que aparecen en grafos de la Web y redes sociales los que podemos representar en forma compacta, en particular mostramos como generalizar algoritmos para encontrar cliques o bicliques para encontrar sub-estructuras densas que comprimen ambas. Segundo, basado en estos subgrafos densos, proponemos esquemas comprimidos que soportan consultas de vecinos directos y reversos, así como otras consultas mas complejas sobre subgrafos densos. Algunas de las contribuciones combinan técnicas del estado del arte mientras otras incluyen representaciones comprimidas novedosas basadas en estructuras de datos compactas. Encontrar subgrafos densos es una tarea que consume tiempo y espacio, así que proporcionamos algoritmos de streaming and algoritmos de memoria externa para descubrir subgrafos densos, asi como también algoritmos distribuidos para construir las estructuras básicas que usamos para las representaciones comprimidas.
114

Actualización de la normativa de relevancia ambiental y poblamiento de una base de datos ambiental : período 2005-2007

Espinoza Galdames, Ariel January 2008 (has links)
Memoria (licenciado en ciencias jurídicas y sociales) / No autorizada por el autor para ser publicada a texto completo / La memoria se compone de las siguentes partes: la primera parte contiene los aspectos teóricos vinculados a la tarea de recopilación de normativa ambiental relevante, incorporando el Listado Unificado de Descriptores y una sección de Estadísticas, que dan cuenta de los diversos enfoques y énfasis con que se aborda la temática ambiental. Las siguientes partes, contienen el resultado principal de este proyecto: la normativa de relevancia ambiental pesquisada, fichada e incorporada al Repertorio correspondiente al período 2005-2007, desagregada en forma anual y mensual. Así, cada sección se inicia con un índice de la normativa ambiental determinada en cada mes, luego se incorporan las fichas a texto completo y por artículo de cada norma, y finalmente, el texto de cada una de las normas en la versión publicada por el Diario Oficial. Los productos obtenidos se acompañan igualmente en formato digital (DVD), conteniendo planillas excel y fichas en formato word, que incorporan un listado de normas dudosas o relativas, mayoritariamente, normas emitidas por la Subsecretaría de Pesca, correspondientes a áreas de manejo y explotación de recursos bentónicos, cuotas globales anuales de captura y vedas extractivas y biológicas de especies marinas. Estos productos se encuentran desagregados anualmente y se incluyen asimismo planillas y fichas del período examinado. El formato digital constituye la pieza principal de la presente memoria, dada su operatividad y eficiencia.
115

Sistema de control de acceso para un Endpoint

Ahumada Oppici, Daniela Francesca January 2015 (has links)
Ingeniera Civil en Computación / Un endpoint es una aplicación similar a un servicio web que permite consultas estructuradas. Estas aplicaciones trabajan con el lenguaje de consulta SPARQL para consultar los datos y entender su semántica. Hoy día la mayoría de estas aplicaciones no tiene un sistema de seguridad que permita restringir el acceso de usuarios que tienen permisos para modificar estos datos. Este problema fue tomado como proyecto de memoria, y se implementó una solución genérica que permitire a los endpoints hoy existentes, agregar seguridad y administrar roles y usuarios mediante una interfaz gráfica. La implementación de esta solución consistió en tres grandes módulos. La primera parte fue una investigación del estado del arte, donde se estudió lo que otros académicos han investigado sobre el tema. Aquí se contactó a dos grupos de investigadores que han estado involucrados en la Web Semántica y han desarrollado soluciones parciales a este problema. La segunda, consistió en el diseño de la solución, donde se tomó varios conceptos encontrados en la etapa anterior, y en la implementación de ésta. Finalmente, se validó la solución en términos de usabilidad, aplicando dos métodos (Observación y Cuestionario de Usuario Final), y también en términos de rendimiento. La aplicación mostró resolver el problema planteado. Quedó a disposición de la comunidad con código abierto y licencia Atribución 4.0 Internacional de Creative Commons.
116

Clasificación fotométrica de supernovas

Cano Delgado, Ignacio January 2016 (has links)
Ingeniero Civil Eléctrico / Entre los desafíos mas importantes para la cosmología actual se encuentran la expansión y composición del universo. Una de las herramientas mas útiles para la investigación en estos campos son las supernovas de tipo Ia, eventos de gran liberacion energetica que siguen al colapso de una estrella en un sistema binario, esto debido a que las caracteristicas de esta explosión permiten calcular distancias en base a su corrimiento al rojo. El problema es que su identificación y clasificación es un problema no trivial, y el método clasico, el espectroscópico, resulta incapaz de adaptarse al rápido aumento en la información disponible, proveniente de sondeos de última generación. Por lo que resulta de gran importancia encontrar la forma de aprovechar al máximo la información fotométrica, mucho mas abundante que la espec- troscópica. El objetivo de esta memoria es diseñar una metodología para la clasificación de supernovas tipo Ia, que entregue resultados competitivos con los presentes en la literatura, esto mediante la aplicación de correntropía mutua ranurada, una medida discreta de disi- militud, sobre la información fotométrica de estas. Se generan matrices de disimilitud para cada uno de los filtros disponibles (griz ) y se prueban diferentes métodos para la combina- ción de esta información. Se explora el efecto de añadir la información de corrimiento al rojo fotométrico (photo-z ) y la forma de introducirla al proceso de clasificación. La clasificación es realizada utilizando tres implementaciones diferentes de algoritmos de vecinos cercanos (K-nearest neighbours, weighted K-nearest neighbours, y distance-weighted K-nearest neigh- bours). La base de datos utilizada corresponde a la versión corregida de un set de supernovas simuladas creada con motivo del Supernova Photometric Classification Challenge (SNPCC), que contiene la información fotométrica de cerca de 21000 supernovas. El entrenamiento se realiza utilizando un conjunto de 1100 objetos cuya clase ha sido espectroscópicamente confirmada, este subconjunto intenta simular las condiciones de captura esperables (e.g. dis- tribución no representativa de clases, preferencia por objetos mas brillantes) y por lo tanto se ha decidido mantenerlo. Tambien se exploran los resultados obtenidos al utilizar una versión de este conjunto modificada para tener una distribución mas representativa, tanto en ter- minos de clases como de corrimiento al rojo. Se obtiene pureza = 0.556(0.824), eficiencia = 0.567(0.307), y FoM = 0.167(0.187) utilizando el conjunto espectroscópicamente confirmado (en su versión modificada) para el entrenamiento.
117

Control y seguimiento de atención de incidencias utilizando minería de procesos

Contreras Muñoz, Néstor Eduardo January 2016 (has links)
Magíster en Ingeniería de Negocios con Tecnologías de Información / Telefónica es una de las mayores compañías de telecomunicaciones del mundo por capitalización bursátil y número de clientes. Empresa totalmente privada que cuenta con 1,5 millones de accionistas directos y que cotiza en el mercado continúo de las bolsas españolas y en las bolsas de Londres, Nueva York, Lima y Buenos Aires. El presente proyecto de tesis tiene como objetivo Mejorar la operación de la Subgerencia Soporte Servicios TI y sus actividades de Gestión de Incidencias para así cumplir con el servicio ofrecido a los clientes internos y mantener un alto nivel de cumplimiento y eficiencia operación. En particular, se ha constatado un déficit en las actividades de control y seguimiento, lo cual produce un descontrol en los tiempos de entrega de la solución lo que se traduce en problemas en la percepción del servicio aparte del alto costo de mantener el servicio por las malas distribuciones de los esfuerzos de los distintos actores que intervienen en la atención. El proyecto de acuerdo a la metodología de Gestión de Procesos Negocio del Magister de Negocios con Tecnologías de Información y gracias al uso de herramientas de Minería de Procesos crea una nueva área dentro de la compañía llamada Control y Seguimiento de procesos operacionales que utilizará como Solución tecnológica el procesamiento de información que envía el proceso de Atención de Incidencias, realizando de mejora innovadora y eficaz la atención a los distintos grupos de interés de Telefónica. Para dar solución a mejorar los servicios de gestión de incidentes, se desarrolló un modelo de control y seguimiento soportado por un proceso de análisis que utiliza técnicas y herramientas de Process Mining que nos permite administrar eficientemente la solución y entrega de los requerimientos generados por la compañía. Como resultado, se logró crear una nueva área de análisis de procesos ligados a la Gestión de Incidencia y validar la efectividad del análisis para aumentar la capacidad de reacción y mejora de servicio interno en Telefónica Chile.
118

Business Intelligence: Errores comunes en su implementación

Medina La Plata, Edison Humberto 04 November 2014 (has links)
Hoy las iniciativas de Business Intelligence se han vuelto una gran necesidad en las organizaciones de todo tipo y tamaño, sin embargo hemos encontrado que en muchos casos estas implementaciones no están generando los resultados esperados, quedando luego en desuso. Identificamos los errores típicos por las cuales fallan estos proyectos, que los hemos sintetizado en siete puntos que explican este deterioro, de los cuales estamos planteando recomendaciones para que puedan atenuarlos en sus propias iniciativas.
119

Implementación de una solución de inteligencia de negocios basado en el algoritmo de serie temporal para la mejora del proceso de toma de decisiones gerenciales en una empresa comercial

López Palacios, Anali del Rosario January 2015 (has links)
El presente trabajo de investigación tuvo como objetivo mejorar el proceso de toma de decisiones. Dentro de los problemas identificados se encontró que los reportes solicitados por la gerencia eran entregados con demoras debido a que el personal encargado de realizar dichos reportes tomaba mucho tiempo en la culminación de los mismos, generando adicionalmente, un costo para la empresa. Los reportes generados presentaban un nivel de calidad de la información bajo, por lo que varias veces los clientes solicitaban productos que no tenían en stock mientras existían otros productos que durante grandes periodos de tiempo no tenían movimientos de ventas, generando que la gerencia tuviera un nivel de satisfacción bajo por la información brindada en los reportes. La implementación de la solución de inteligencia de negocios basado en el algoritmo de serie temporal ha mejorado significativamente el proceso de toma decisiones en la empresa “El Ofertón SAC”. La solución redujo en un 96,25% el tiempo promedio en la elaboración de informes solicitados por la gerencia, se incrementó el nivel de calidad de la información solicitada de 1,8667 a 4,600 y se incrementó el nivel de satisfacción sobre la información solicitada de 2,2000 a 4,5333 , ambos basados en una escala de 5 puntos del estilo Likert. / Tesis
120

Implementación de una herramienta de inteligencia de negocios para la administración de justicia sobre una metodología ad-hoc

Parco Iquiapaza, Alex Alsey, Eguila Canales, Arturo January 2007 (has links)
En el presente trabajo se desarrolla el Análisis y Diseño para el desarrollo e implementación futura de una herramienta de Inteligencia de Negocios para la toma de decisiones en el Área de Defensoría de Oficio del Ministerio de Justicia, el propósito de la implementación de dicha herramienta es tener un mejor control y gestión de la información de el sistema de defensores de oficio de forma que, ayude a mejorar la calidad del servicio que presta dicha entidad, por la toma de decisiones eficientes conseguidas a partir de la información que este sistema proporcione a los directivos de dicha entidad. Este trabajo muestra la metodología utilizada para el desarrollo del Datamart, el cual plantearemos cómo desarrollarlo y mostraremos mediante prototipos su funcionamiento. / -- The present work develops the Analysis and Design for the development and future implementation of a tool of Business Intelligence for the taking of decisions in the Area of Defensoría de Oficio of the Justice Ministry, the intention of the implementation of this tool is to have a better control and management of the information of the office defenders system so, it will help to improve the quality of the service that gives this organization, by the efficient decision taking from the information that this system provides to the managers of this organization. This work shows the methodology used for the development of the Datamart, which we will show as to develop it and we will show by means of prototypes its operation.

Page generated in 0.0452 seconds