Spelling suggestions: "subject:"datos"" "subject:"ratos""
111 |
Reglas de asociación para líneas espectralesMiranda Castillo, Nicolás Martín January 2015 (has links)
Ingeniero Civil en Computación / Parte importante de la labor astronómica consiste en analizar observaciones de radiaciones electromagnéticas en la forma de espectros de frecuencia, procedentes del espacio y emitidas por objetos tales como estrellas, galaxias y otros. A partir de estos espectros se puede identificar una serie de propiedades y características de los objetos de los cuales provienen; en particular, las líneas espectrales (tanto de emisión como de absorción) presentes resultan ser un indicador de las especies (átomos, moléculas, isótopos, etc.) presentes en su composición química.
En el presente trabajo se llevó a cabo con el fin de obtener un cierto tipo de asociaciones lógicas, llamadas reglas de asociación, entre líneas espectrales presentes a lo largo de distintos espectros de frecuencia. En particular, se busca aplicar a conjuntos de espectros de frecuencia obtenidos a partir de datos de observaciones astronómicas, para así obtener información de las relaciones existentes entre estas líneas bajo distintas medidas de interés y relevancia estadística.
Para ello se llevó a cabo, en el lenguaje de programación Python, una implementación de algoritmos de Aprendizaje de Reglas de asociación, o Association Rule Learning (ARL); en particular los algoritmos Apriori y FP-Growth. La aplicación final, que hace uso de estos algoritmos, permite al usuario observar las reglas obtenidas bajo requerimientos mínimos de soporte y confianza de ellas, ordenarlas según estas dos medidas junto con su lift, y mostrar las que posean un cierto elemento en particular en su antecedente, consecuente o en ambos.
La aplicación y sus algoritmos se probaron sobre datos simulados y, posteriormente, sobre datos reales de observaciones en el espectro visible obtenidas del Sloan Digital Sky Survey (SDSS), previo un pre-procesamiento adecuado de estos. Los resultados obtenidos muestran un considerable mejor desempeño (de por lo menos la mitad del tiempo total de ejecución) por parte del algoritmo Apriori por sobre FP-Growth para valores pequeños de soporte (cercanos a 0.15). Esto puede deberse, principalmente, al tamaño reducido del universo de ítems (lineas espectrales detectadas) posibles presentes en cada transacción (espectro de frecuencias); lo cual hace perder sustancialmente la ventaja comparativa que posee FP-Growth al utilizar una estructura de datos tipo árbol.
Se espera a futuro poder realizar el proceso de ARL a partir datos en otras frecuencias del espectro electromagnético; como por ejemplo, los datos radioastronómicos del Atacama Large Millimeter/submillimeter Array (ALMA). Junto con esto, se espera más adelante poder mejorar la aplicación en términos de su interfaz gráfica y usabilidad.
|
112 |
Diseño de un sistema de información para mejorar la eficiencia en la planificación y control de los procesos productivos de una empresa del pipingOlguín Toledo, Hugo Andrés January 2015 (has links)
Ingeniero Civil Industrial / El presente Proyecto de Título fue realizado en la empresa FASTPACK S.A., especializada en la fabricación, suministro y distribución de productos y servicios asociados a la industria del piping (soluciones en distintos tipos de acero para la conformación de redes de tuberías para faenas y plantas). Una de las complejidades de esta industria, en conjunto con el proceso de fabricación mismo, es que las empresas clientes exigen la trazabilidad de la pieza durante todo su ciclo de vida. Adicionalmente, no existen soluciones en el mercado de software para abordar satisfactoriamente todas las aristas de dicha gestión, lo cual involucró el diseño de un software a medida. Dicha decisión se justificó en base al análisis de distintos tipos de sistemas de información disponibles en el mercado y en base a la generación de un estudio del estado del arte de la industria. Este proyecto se justifica en la necesidad por parte de la compañía de mejorar la eficiencia en el control de su producción, en base a la gestión de la información generada a través de sus procesos productivos. Como antecedente de lo anterior, alrededor del 40% de los costos totales para el año 2013 que asumió la compañía se debió a reprocesos y en cancelaciones de multas por incumplimiento de plazos de entrega.
Este trabajo comprendió el modelamiento y análisis de los procesos productivos de la empresa, sumado al análisis del actual sistema de información inserto en determinadas actividades del ciclo de producción, en base a una elección previa de una metodología que justificó este procedimiento. Posterior a dicha etapa se llevó a cabo el proceso de análisis y levantamiento de los requerimientos críticos para la mejora del actual sistema de control de producción de la empresa, en conjunto con un equipo multidisciplinario de rediseño conocido como Spool Machine. Es así como finalmente se dio forma a la propuesta final de rediseño del sistema de información inserto en el ciclo de producción, en base a un análisis técnico sobre el tipo de sistema a implementar, considerando en todo momento los requerimientos de los usuarios, justificando a su vez el modelo de sistema más adecuado para la empresa.
En conjunto con la elección de la alternativa más conveniente para la compañía, en términos económicos y funcionales, se realizó una valorización que arrojó una recuperación de la inversión inicial en menos de seis meses, permitiendo a la vez una cifra estimada de disminución en los tiempos de operación cercanos a un 42%. De manera paralela, se desarrolló un plan de implementación de manera tal de considerar todos los factores críticos de éxito para una efectiva implementación y puesta en marcha del nuevo sistema.
|
113 |
Caracterización de perfiles influyentes en Twitter de acuerdo a tópicos de opinión y la generación de contenido interesanteVera Cid, Felipe Andrés January 2015 (has links)
Ingeniero Civil Industrial / Durante los últimos años en Chile ha aumentado el uso de Internet, de smartphones y de las redes sociales. Entre todas las redes sociales cabe destacar Twitter, dada la visibilidad que tiene al ser una red más abierta que otras. En Chile, el uso de Twitter se concentra en dos tipos: informarse y opinar. La cantidad de opiniones que se registran en Twitter es de gran interés para distintos actores del país, entre los cuales se encuentran empresas que utilizan Twitter como una herramienta de comunicación con sus clientes, para resolver quejas y dudas y hasta para realizar campañas de marketing viral en la red. Dada la masificación de Twitter y la gran cantidad de usuarios, existe la necesidad de poder saber el nivel de influencia de los usuarios y así poder priorizarlos en la resolución de sus necesidad como también poder hacer más efectivas diversas campañas de marketing.
Hoy en día, existen diversos servicios que realizan este tipo de tareas, como Klout o BrandMetric. Sin embargo, estos modelos miden la influencia de los usuarios de diversas formas, pero ninguno intenta vaticinar a los usuarios que se volverán influyentes en un futuro próximo. El presente trabajo consiste en definir una influencia en Twitter para luego ver se proyectaría en el tiempo, tomando como hipótesis que es posible medir la influencia de un usuario a partir de su generación de contenido interesante, para lograrlo se definió la influencia en la red de Twitter como la capacidad de generar contenido interesante que repercute en la red social. Viendo los modelos existentes se escogió uno y se modificó levemente para poder obtener un puntaje de lo interesante del contenido generado por un perfil.
Dado este modelo se generaron rankings sobre la influencia de un usuario en Twitter, además de rankings en agrupaciones de tópicos asociadas a política y deportes. No se pudo segregar en una mayor cantidad de tópicos por diversos motivos, por lo cual no se consideró que el modelo haya cumplido su objetivo de generar rankings de influencia para distintos grupos de tópicos. Luego, se realizaron los análisis de la predictibilidad para la influencia modelada, llegando a la conclusión que el periodo de datos es muy corto para poder predecir las series temporales.
Aunque los resultados pueden parecer desalentadores, el trabajo realizado deja un camino abierto para realizar otros enfoques y trabajos que son explicados en el capítulo final de la memoria. Así, se espera que una buena segmentación y priorización de perfiles puede servir para mejorar la resolución de problemas, encontrar perfiles que serán influyentes en determinados tópicos y focalizar campañas de marketing utilizando perfiles que no sean de un alto costo.
|
114 |
Managing massive graphsHernández Rivas, Cecilia Paola January 2014 (has links)
Doctora en Ciencias, Mención Computación / Con la popularidad de la Web y, mas recientemente, el amplio uso de las redes sociales, la
necesidad de procesar y encontrar información en grafos muy grandes impone varios desafíos:
Cómo procesar grafos muy grandes e cientemente, dado que probablemente son muy grandes
para la memoria disponible, o incluso si la memoria es su ciente, realizar un paso sobre el
grafo es todavía caro computacionalmente? Cómo almacenar esos grafos e cientemente, para
ser archivados, o para ejecutar algoritmos de grafos? Cómo descubrir información relevante
tal como componentes densos, comunidades, u otras estructuras?
Se han propuesto tres enfoques para manejar grafos grandes. El primero es usar formatos
de grafos comprimidos que permiten consultas de navegación básicas directamentee sobre la
estructura comprimida, sin la necesidad de descompresión. Esto permite simular cualquier
algoritmo de grafo en memoria principal usando mucho menos espacio que la representación
plana. Una segunda línea de investigación se focaliza en usar modelos de stream o semi-
stream de datos de manera de procesar secuencialmente, idealmente en un paso sobre el
disco, usando una cantidad limitada de memoria principal.
La tercera línea es el uso de
sistemas distribuidos y paralelos donde la memoria es agregada sobre múltiples unidades de
procesamiento para procesar el grafo en paralelo.
En esta tesis presentamos varios enfoques para manejar grafos grandes (con arcos sin
etiquetas) considerando los tres enfoques.
Primero, buscamos por patrones que aparecen
en grafos de la Web y redes sociales los que podemos representar en forma compacta, en
particular mostramos como generalizar algoritmos para encontrar cliques o bicliques para
encontrar sub-estructuras densas que comprimen ambas. Segundo, basado en estos subgrafos
densos, proponemos esquemas comprimidos que soportan consultas de vecinos directos y
reversos, así como otras consultas mas complejas sobre subgrafos densos.
Algunas de las
contribuciones combinan técnicas del estado del arte mientras otras incluyen representaciones
comprimidas novedosas basadas en estructuras de datos compactas.
Encontrar subgrafos
densos es una tarea que consume tiempo y espacio, así que proporcionamos algoritmos de
streaming and algoritmos de memoria externa para descubrir subgrafos densos, asi como
también algoritmos distribuidos para construir las estructuras básicas que usamos para las
representaciones comprimidas.
|
115 |
Actualización de la normativa de relevancia ambiental y poblamiento de una base de datos ambiental : período 2005-2007Espinoza Galdames, Ariel January 2008 (has links)
Memoria (licenciado en ciencias jurídicas y sociales) / No autorizada por el autor para ser publicada a texto completo / La memoria se compone de las siguentes partes: la primera parte contiene los aspectos teóricos vinculados a la tarea de recopilación de normativa ambiental relevante, incorporando el Listado Unificado de Descriptores y una sección de Estadísticas, que dan cuenta de los diversos enfoques y énfasis con que se aborda la temática ambiental. Las siguientes partes, contienen el resultado principal de este proyecto: la normativa de relevancia ambiental pesquisada, fichada e incorporada al Repertorio correspondiente al período 2005-2007, desagregada en forma anual y mensual. Así, cada sección se inicia con un índice de la normativa ambiental determinada en cada mes, luego se incorporan las fichas a texto completo y por artículo de cada norma, y finalmente, el texto de cada una de las normas en la versión publicada por el Diario Oficial.
Los productos obtenidos se acompañan igualmente en formato digital (DVD), conteniendo planillas excel y fichas en formato word, que incorporan un listado de normas dudosas o relativas, mayoritariamente, normas emitidas por la Subsecretaría de Pesca, correspondientes a áreas de manejo y explotación de recursos bentónicos, cuotas globales anuales de captura y vedas extractivas y biológicas de especies marinas. Estos productos se encuentran desagregados anualmente y se incluyen asimismo planillas y fichas del período examinado. El formato digital constituye la pieza principal de la presente memoria, dada su operatividad y eficiencia.
|
116 |
Sistema de control de acceso para un EndpointAhumada Oppici, Daniela Francesca January 2015 (has links)
Ingeniera Civil en Computación / Un endpoint es una aplicación similar a un servicio web que permite consultas estructuradas.
Estas aplicaciones trabajan con el lenguaje de consulta SPARQL para consultar los
datos y entender su semántica. Hoy día la mayoría de estas aplicaciones no tiene un sistema
de seguridad que permita restringir el acceso de usuarios que tienen permisos para modificar
estos datos. Este problema fue tomado como proyecto de memoria, y se implementó una solución
genérica que permitire a los endpoints hoy existentes, agregar seguridad y administrar
roles y usuarios mediante una interfaz gráfica.
La implementación de esta solución consistió en tres grandes módulos. La primera parte
fue una investigación del estado del arte, donde se estudió lo que otros académicos han
investigado sobre el tema. Aquí se contactó a dos grupos de investigadores que han estado
involucrados en la Web Semántica y han desarrollado soluciones parciales a este problema.
La segunda, consistió en el diseño de la solución, donde se tomó varios conceptos encontrados
en la etapa anterior, y en la implementación de ésta. Finalmente, se validó la solución
en términos de usabilidad, aplicando dos métodos (Observación y Cuestionario de Usuario
Final), y también en términos de rendimiento.
La aplicación mostró resolver el problema planteado. Quedó a disposición de la comunidad
con código abierto y licencia Atribución 4.0 Internacional de Creative Commons.
|
117 |
Clasificación fotométrica de supernovasCano Delgado, Ignacio January 2016 (has links)
Ingeniero Civil Eléctrico / Entre los desafíos mas importantes para la cosmología actual se encuentran la expansión y
composición del universo. Una de las herramientas mas útiles para la investigación en estos
campos son las supernovas de tipo Ia, eventos de gran liberacion energetica que siguen al
colapso de una estrella en un sistema binario, esto debido a que las caracteristicas de esta
explosión permiten calcular distancias en base a su corrimiento al rojo. El problema es que su
identificación y clasificación es un problema no trivial, y el método clasico, el espectroscópico,
resulta incapaz de adaptarse al rápido aumento en la información disponible, proveniente de
sondeos de última generación. Por lo que resulta de gran importancia encontrar la forma
de aprovechar al máximo la información fotométrica, mucho mas abundante que la espec-
troscópica. El objetivo de esta memoria es diseñar una metodología para la clasificación de
supernovas tipo Ia, que entregue resultados competitivos con los presentes en la literatura,
esto mediante la aplicación de correntropía mutua ranurada, una medida discreta de disi-
militud, sobre la información fotométrica de estas. Se generan matrices de disimilitud para
cada uno de los filtros disponibles (griz ) y se prueban diferentes métodos para la combina-
ción de esta información. Se explora el efecto de añadir la información de corrimiento al rojo
fotométrico (photo-z ) y la forma de introducirla al proceso de clasificación. La clasificación
es realizada utilizando tres implementaciones diferentes de algoritmos de vecinos cercanos
(K-nearest neighbours, weighted K-nearest neighbours, y distance-weighted K-nearest neigh-
bours). La base de datos utilizada corresponde a la versión corregida de un set de supernovas
simuladas creada con motivo del Supernova Photometric Classification Challenge (SNPCC),
que contiene la información fotométrica de cerca de 21000 supernovas. El entrenamiento
se realiza utilizando un conjunto de 1100 objetos cuya clase ha sido espectroscópicamente
confirmada, este subconjunto intenta simular las condiciones de captura esperables (e.g. dis-
tribución no representativa de clases, preferencia por objetos mas brillantes) y por lo tanto se
ha decidido mantenerlo. Tambien se exploran los resultados obtenidos al utilizar una versión
de este conjunto modificada para tener una distribución mas representativa, tanto en ter-
minos de clases como de corrimiento al rojo. Se obtiene pureza = 0.556(0.824), eficiencia =
0.567(0.307), y FoM = 0.167(0.187) utilizando el conjunto espectroscópicamente confirmado
(en su versión modificada) para el entrenamiento.
|
118 |
Control y seguimiento de atención de incidencias utilizando minería de procesosContreras Muñoz, Néstor Eduardo January 2016 (has links)
Magíster en Ingeniería de Negocios con Tecnologías de Información / Telefónica es una de las mayores compañías de telecomunicaciones del mundo por capitalización bursátil y número de clientes.
Empresa totalmente privada que cuenta con 1,5 millones de accionistas directos y que cotiza en el mercado continúo de las bolsas españolas y en las bolsas de Londres, Nueva York, Lima y Buenos Aires.
El presente proyecto de tesis tiene como objetivo Mejorar la operación de la Subgerencia Soporte Servicios TI y sus actividades de Gestión de Incidencias para así cumplir con el servicio ofrecido a los clientes internos y mantener un alto nivel de cumplimiento y eficiencia operación. En particular, se ha constatado un déficit en las actividades de control y seguimiento, lo cual produce un descontrol en los tiempos de entrega de la solución lo que se traduce en problemas en la percepción del servicio aparte del alto costo de mantener el servicio por las malas distribuciones de los esfuerzos de los distintos actores que intervienen en la atención.
El proyecto de acuerdo a la metodología de Gestión de Procesos Negocio del Magister de Negocios con Tecnologías de Información y gracias al uso de herramientas de Minería de Procesos crea una nueva área dentro de la compañía llamada Control y Seguimiento de procesos operacionales que utilizará como Solución tecnológica el procesamiento de información que envía el proceso de Atención de Incidencias, realizando de mejora innovadora y eficaz la atención a los distintos grupos de interés de Telefónica.
Para dar solución a mejorar los servicios de gestión de incidentes, se desarrolló un modelo de control y seguimiento soportado por un proceso de análisis que utiliza técnicas y herramientas de Process Mining que nos permite administrar eficientemente la solución y entrega de los requerimientos generados por la compañía. Como resultado, se logró crear una nueva área de análisis de procesos ligados a la Gestión de Incidencia y validar la efectividad del análisis para aumentar la capacidad de reacción y mejora de servicio interno en Telefónica Chile.
|
119 |
Business Intelligence: Errores comunes en su implementaciónMedina La Plata, Edison Humberto 04 November 2014 (has links)
Hoy las iniciativas de Business Intelligence se han vuelto una gran necesidad en las organizaciones de todo tipo y tamaño, sin embargo hemos encontrado que en muchos casos estas implementaciones no están generando los resultados esperados, quedando luego en desuso. Identificamos los errores típicos por las cuales fallan estos proyectos, que los hemos sintetizado en siete puntos que explican este deterioro, de los cuales estamos planteando recomendaciones para que puedan atenuarlos en sus propias iniciativas.
|
120 |
Implementación de una solución de inteligencia de negocios basado en el algoritmo de serie temporal para la mejora del proceso de toma de decisiones gerenciales en una empresa comercialLópez Palacios, Anali del Rosario January 2015 (has links)
El presente trabajo de investigación tuvo como objetivo mejorar el proceso de toma de decisiones. Dentro de los problemas identificados se encontró que los reportes solicitados por la gerencia eran entregados con demoras debido a que el personal encargado de realizar dichos reportes tomaba mucho tiempo en la culminación de los mismos, generando adicionalmente, un costo para la empresa. Los reportes generados presentaban un nivel de calidad de la información bajo, por lo que varias veces los clientes solicitaban productos que no tenían en stock mientras existían otros productos que durante grandes periodos de tiempo no tenían movimientos de ventas, generando que la gerencia tuviera un nivel de satisfacción bajo por la información brindada en los reportes. La implementación de la solución de inteligencia de negocios basado en el algoritmo de serie temporal ha mejorado significativamente el proceso de toma decisiones en la empresa “El Ofertón SAC”. La solución redujo en un 96,25% el tiempo promedio en la elaboración de informes solicitados por la gerencia, se incrementó el nivel de calidad de la información solicitada de 1,8667 a 4,600 y se incrementó el nivel de satisfacción sobre la información solicitada de 2,2000 a 4,5333 , ambos basados en una escala de 5 puntos del estilo Likert. / Tesis
|
Page generated in 0.059 seconds