• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1426
  • 90
  • 31
  • 11
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1568
  • 511
  • 479
  • 345
  • 335
  • 335
  • 335
  • 335
  • 328
  • 288
  • 283
  • 220
  • 208
  • 193
  • 185
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Procesamiento paralelo distribuído heterogéneo aplicado a ingeniería de procesos

Vazquez, Gustavo E. 18 December 2010 (has links)
El objetivo de esta tesis ha sido diseñar nuevas estrategias de procesamiento paralelo en entornos de cómputo distribuido heterogéneo para facilitar la resolución de problemas tanto estructurales como numéricos del campo de la ingeniería de procesos. Como resultado de estas investigaciones se ha logrado el desarrollo de técnicas robustas y eficientes aplica-bles a un amplio espectro de problemas de búsquedas en gra-fos y de optimización con función objetivo y restricciones no lineales. En términos generales, es posible distinguir dos líneas de investigación para el desarrollo de algoritmos paralelos dis-tribuidos: la paralelización de algoritmos secuenciales existen-tes y la creación de alternativas intrínsecamente paralelas. En el caso de problemas estructurales, se estudiaron los métodos secuenciales clásicos de búsqueda en grafos y se establecie-ron las limitaciones para su uso en redes de estaciones de tra-bajo. Sobre esta base se propuso un nuevo método de distri-bución semi-dinámica y se la aplicó al algoritmo GS-FLCN para análisis de observabilidad. Por otra parte, en la línea de los algoritmos intrínsecamente paralelos se desarrolló un nuevo algoritmo de búsqueda totalmente distribuido con el objeto de aumentar la eficiencia de los recorridos para esta aplicación específica. En cuanto a los problemas numéricos, se conside-raron estrategias para aplicar el paralelismo a las secciones de cómputo intensivo de algoritmos secuenciales existentes para optimización no lineal con restricciones conocidos como GRG y SQP. Asimismo se desarrolló una nueva técnica de descompo-sición de dominio con el objeto de ampliar el rango de aplica-bilidad de un algoritmo intrínsecamente paralelo concebido originalmente para problemas sin restricciones de modo que se lo pudiera utilizar en forma eficiente para el tratamiento de los problemas de optimización no lineal con restricciones que sur-gen en ingeniería de procesos. En cuanto a las verificaciones de desempeño, se adaptaron las métricas de speedup con el objeto de tener en cuenta la heterogeneidad de los procesa-dores y así poder asegurar comparaciones justas. En tal senti-do, todos los nuevos algoritmos propuestos lograron un muy buen desempeño en cuanto al tiempo de ejecución en compa-ración con los algoritmos secuenciales correspondientes. Se analizaron casos de estudio académicos y problemas industria-les reales de mediano y gran tamaño pertenecientes al área de ingeniería de procesos. Por último, cabe destacar que los beneficios derivados de las propuestas descriptas en esta te-sis doctoral no se limitan al ámbito de ingeniería de proce-sos. Tanto las búsquedas en grafos como los problemas de optimi-zación surgen naturalmente en otras ramas de la inge-niería así como también en biología, economía, etc. No solo es fac-tible emplear en otras disciplinas los mismos algoritmos sino también aplicar la filosofía subyacente, tal como el criterio de descomposición de dominio o la distribución semidinámica de carga.
52

Diseño y puesta en marcha de base de datos financieras para el Centro de finanzas

Vildoso Castillo, Felipe Esteban January 2014 (has links)
Ingeniero Civil Industrial / Uno de los elementos primordiales en la investigación financiera, sin importar el propósito que se tenga, es la necesidad de contar con datos confiables y reales que permitan llevarlas a cabo. Sin embargo, hoy en día es difícil acceder a los datos que forman parte del mercado financiero, más aún, el tiempo que se utiliza en su recolección no es despreciable, haciendo finalmente que se pierda la motivación por el tema. Es por ello que nace la necesidad de crear sistemas automatizados que capturen datos financieros relevantes. Esta memoria se centra en la creación de un sistema de información que se encargue de capturar y proveer datos financieros relevante para los profesores, investigadores y alumnos que participan en el Centro de Finanzas del Departamento de Ingeniería Civil Industrial de la Universidad de Chile. Específicamente, mediante el diseño de una Aplicación Web en donde a través de un software se recopilan los datos necesarios y luego se muestran en la plataforma. Para esto se busca hacer un levantamiento de requerimientos, el diseño de los sistemas de información apropiados y la generación de un software que permita recopilar los datos. Hay que tener en consideración, que algunos datos no pueden ser almacenados directamente al no estar en una pagina web, como lo son los de la SBIF, por lo que se almacenan las URLs de los archivos en que están los datos. La metodología utilizada consiste en la recolección de los datos que necesitan o podrían necesitar en el futuro los miembros del Centro de Finanzas. Luego, se diseñan y construyen los sistemas de información apropiados, los que consideran varios filtros al momento de insertar datos para asegurar la calidad de estos. Por último se documenta el sistema permitiendo que a futuro pueda ser extendido a otras necesidades, por lo que su diseño e implementación tendrá que estar pensado para la escalabilidad que se pueda presentar. El proceso de extracción de datos se lleva a cabo, mediante la utilización de Crawlers, conformados de dos tipos de objetos, triggers y jobs. Los triggers se encargan de realizar las tareas que se necesitan cuantas veces sea necesario, puede ser en forma periódica. Y los jobs, de ejecutar cualquier tarea que se desee recalendarizar, en este caso los crawlers que recopilan datos financieros. En caso de que estos fallen, se vuelve a intentar en otro momento, y, si es que vuelve a fallar, se notifica al administrador vía correo electrónico, que cierta tarea no se ha ejecutado exitosamente. Una vez capturados los datos, el sistema sigue funcionando continuamente recopilando y actualizando nuevos datos del día a día para mantener la base de datos siempre actual, ayudando a que el sistema cumpla con su fin principal de mantener informados a todos los interesados. A la fecha de esta memoria, contabilizando data histórica más la extraída, se tienen más de 500 mil datos. Finalmente, gracias a la implementación de este sistema se logra tener acceso rápido a datos financieros importantes, cumpliéndose con los objetivos de este proyecto.
53

Herramienta ETL para Logs de procesos

Toro Valdivia, Jorge Francisco January 2016 (has links)
Ingeniero Civil en Computación / Hoy en día las empresas nacen como respuesta a distintos problemas o desafíos entregando diversas de soluciones, las cuales se llevan a cabo ejecutando una serie de procesos. Estos pueden estar definidos formalmente o se van construyendo de forma natural a partir de la forma en que las personas abordan los problemas. Por esto, se hace fundamental poder realizar distintos análisis sobre dichos procesos, en especial descubrir cómo se llevan a cabo en forma real. Estos análisis nos permiten optimizar, mejorar, transformar estos procesos permitiendo a las empresas y grupos de trabajo evolucionar. Muchos de estos análisis, y los programas que los implementan, suelen ser de alta complejidad y tienden a tomar datos de los procesos en formatos específicos. Esto ocasiona que los registros de datos, también conocidos como logs de procesos, deban adaptarse a dichos formatos y por consiguiente a las herramientas y/o personas que los generan. Otra opción, es realizar un desarrollo sobre los programas de análisis para que puedan aceptar un nuevo formato, lo que tiene un costo proporcional a la complejidad del software. Es por esto que se propuso una nueva opción: desarrollar una herramienta ETL intermediaria que nos permita transformar logs desde distintos formatos a un formato utilizado por programas de descubrimientos de procesos u otros tipos de análisis relacionados. Se logró desarrollar una aplicación que, a través de una GUI, permite hacer distintas transformaciones desde bases de datos y planillas Excel al formato XES, el cual es usado por varios programas de descubrimiento de procesos. Esta aplicación permite al usuario configurar sus conversiones eligiendo los datos de origen así como su tipo. Este programa fue validado a través de distintas pruebas, utilizando datos reales y un programa que realiza descubrimientos de procesos sobre archivos XES. Este desarrollo ha permitido abarcar una amplia gama de formatos sin tener que modificar datos ni los otros programas que los utilizaban, permitiendo que diversos procesos puedan ser estudiados y mejorados. / Este trabajo ha sido parcialmente financiado por Proyecto Gems.
54

Estudio sobre el acceso abierto a datos gubernamentales: El caso de transparencia en Chile, Costa Rica y Uruguay

Venegas Álvarez, Marcos Alexis January 2018 (has links)
Magíster en Ciencias, Mención Computación / En América Latina y alrededor del mundo las iniciativas de transparencia y gobierno abierto han aumentando en los últimos años. Los gobiernos están publicando datos abiertos para transparentar su administración, apoyar la toma de decisiones y promover el desarrollo. Es por ello, que los datos abiertos se han convertido en objeto de análisis y estudio. Esta tesis aborda el estudio de la apertura, capacidad de reutilización y accesibilidad de datos abiertos en algunos gobiernos de América Latina. En la primera parte de este trabajo se desarrolla el tema de datos, información y conocimiento, enfatizando las diferencias entre datos e información. También se profundiza en el tema de transparencia y su relación con la corrupción, el acceso a la información pública y el gobierno abierto. Posteriormente, se realiza una revisión bibliográfica sobre datos abiertos y gobierno abierto. También se estudian los usuarios de datos abiertos. Además, se plantean los posibles tipos de usos que los usuarios les pueden dar a los datos abiertos. Se hace una revisión de la literatura sobre dimensiones de datos (en sistemas de información cerrados) y a partir de ellas se propone dimensiones para los datos abiertos. Por otro lado, se realiza una revisión de la literatura sobre las métricas de evaluación de portales e información de transparencia. Considerando las dimensiones de datos abiertos planteadas, se propone una metodología genérica y métricas que permitan evaluar el nivel de apertura, usabilidad y accesibilidad de los datos de gobierno, particularmente los de transparencia. Por último, se valida la metodología evaluando el nivel de apertura, capacidad de reutilización y accesibilidad de los conjuntos de datos abiertos publicados en los sitios de transparencia de los gobiernos de Chile, Costa Rica y Uruguay. En la validación también se evalúan algunos sitios de estadística de los gobiernos que poseían datos abiertos. Esta validación concluye con un informe preliminar sobre datos abiertos de esos gobiernos, y con algunas recomendaciones sobre la publicación datos abiertos por parte de los gobiernos.
55

Construcción y pruebas de una herramienta de desarrollo de soluciones para inteligencia de negocios : módulo de extracción

Dall'Orto Gonzáles del Valle, Luis Fernando, Wu Yamashita, Raúl David 09 May 2011 (has links)
El presente proyecto de tesis busca implementar el módulo de extracción de una herramienta básica para Soluciones de Inteligencia de Negocios que cubra todos los procesos del ciclo de trabajo. La arquitectura permitirá que una organización provea el servicio de Inteligencia de Negocios a múltiples organizaciones. Además, se toma en cuenta la escalabilidad del producto para soportar mayor número de fuentes de datos en futuras versiones. / Tesis
56

Implementación de una aplicación para el análisis y visualización de eventos en español usando extracción automática de ontologías

Valeriano Loli, Enrique 12 February 2019 (has links)
La globalización y la aparición de diferentes tecnologías como las redes sociales han ocasionado que la información relacionada a noticias y eventos se propague de una manera más rápida. Ahora las empresas deben estar siempre pendientes a los datos generados para así ser más eficaces en su relación con ellos. Sin embargo, esta es una tarea difícil debido a la gran cantidad de datos y a la falta de procesos automáticos para analizar estos, sobre todo en el idioma español. Como objetivo de este proyecto, se busca brindar una aplicación la cual de manera automática pueda realizar análisis de datos de eventos en español y permitan visualizar los aspectos más importantes relacionados a estos datos. Para esto se implementarán algoritmos de Análisis de Formal de Conceptos y Análisis de Patrones Léxico-Sintácticos. Además, se usarán ontologías para poder estructurar la información recolectada a partir de los algoritmos. Se concluye que los algoritmos desarrollados permiten obtener las entidades y relaciones más relevantes encontradas en los datos con porcentajes relativamente altos de precisión y exhaustividad sobre todo usando datos limpios. Además, es posible mostrar la información recolectada de manera adecuada debido a la flexibilidad de las ontologías. / Tesis
57

Diseño de un sistema de monitoreo a distancia basado en tecnología Web para el proceso de tostado de granos de kiwicha / Javier Lazarte Paredes

Lazarte Paredes, Javier 09 May 2011 (has links)
El objetivo principal del objeto de estudio es el de mejorar la calidad de producción de granos, mediante un adecuado monitoreo y control de las variables del proceso y una distribución de los datos del mismo. / Tesis
58

Proceso de descubrimiento de conocimiento para predecir el abandono de tratamiento en una entidad de salud pública

Candela Cáceres, Julio Christians 04 June 2015 (has links)
El presente proyecto académico de fin de carrera tiene como objetivo mostrar el proceso automatizado de cada etapa del proceso de descubrimiento con el fin de predecir el abandono en los tratamientos de cáncer de una entidad de salud pública con una precisión eficiente basándose en características o factores determinados en la etapa de análisis junto con los miembros de la institución. La información resultante servirá de apoyo para que los administradores de la entidad de salud puedan plantear las políticas y estrategias personalizadas de retención de pacientes. Como se mencionó anteriormente, se tomaron en cuenta todas las etapas del proceso de descubrimiento de conocimiento - análisis, extracción, pre-procesamiento, estimación del modelo e interpretación - para que la información resultante pueda ser confiable y oportuna para la toma de decisiones. Adicionalmente, como parte de la etapa de extracción de datos, se encontró la necesidad de diseñar un DataMart que organice y facilite el análisis de información, no solo para el proyecto actual, sino para otras necesidades que puedan surgir en el futuro. Cada etapa tuvo apoyo de herramientas de software y metodologías que han sido ampliamente usadas con éxito en este tipo de proyectos. Se escogieron herramientas gratuitas que tendrían mayor apoyo a los requerimientos del proyecto como la automatización de los procesos, diseño del DataMart y el proceso general de Minería de Datos. En conclusión, el proyecto culminó con éxito cumpliendo los estipulado en cada uno de los resultados esperados, por lo cual, se puede determinar que el proceso automatizado podrá ser útil para determinar que pacientes abandonan su tratamiento y brindar la información oportuna a los encargados de tomar las decisiones. / Tesis
59

Análisis y diseño de una herramienta de desarrollo de soluciones para inteligencia de negocios módulo de extracción

Infantas Asunción, Pilar Eliana, Mendoza Suárez, César Manuel, Uribe Uribe, María Magdalena 09 May 2011 (has links)
La Tecnología de Información (TI) es, en la actualidad, un componente de gran importancia para cualquier organización. Sin embargo, son los datos y su adecuado manejo como transformaciones, búsqueda de patrones, y consolidaciones; lo que le da un carácter estratégico a la TI en la organización. En este contexto es donde aparecen conceptos como el de Inteligencia de Negocios, que apoyados en técnicas, estrategias, metodologías y herramientas buscan ofrecer información más adecuada para la toma de decisiones. Una solución de Inteligencia de Negocios puede, con gran posibilidad, cambiar el rumbo de una organización. La implementación de soluciones de Inteligencia de Negocios se apoya necesariamente en un conjunto de herramientas informáticas que tienen que cubrir un ciclo de trabajo que comienza con la definición de un almacén de datos o Data Warehouse, la extracción y transformación de los datos desde diversas fuentes de información, y finalmente, la explotación de la información a través de diversos reportes tabulares y gráficos que permitan a la alta dirección de una organización la toma de decisiones. El presente proyecto de tesis busca realizar el análisis y diseño del módulo de extracción de una herramienta básica para Soluciones de Inteligencia de Negocios que cubra todos los procesos del ciclo de trabajo. La arquitectura permitirá que una organización provea el servicio de Inteligencia de Negocios a múltiples organizaciones. Además, se toma en cuenta la escalabilidad del producto para soportar mayor número de fuentes de datos en futuras versiones. / Tesis
60

Sistema de adquisición de datos de un radar de onda continua en frecuencia modulada montado en un vehículo aéreo no tripulado

Caballero Cardenas, Diego Alberto 16 June 2017 (has links)
El trabajo desarrollado en la presente tesis consiste en diseñar un sistema de adquisición de datos de un radar de onda continua en frecuencia modulada y montarlo en un UAV (vehículo aéreo no tripulado), con la finalidad de simular un radar de apertura sintética. En el capítulo 1 nos enfocaremos en introducir los sistemas de radar de apertura sintética, analizaremos su importancia, ventajas, desventajas y limitaciones que existen hoy en día. En el capítulo 2 nos enfocaremos en el radar utilizado describiendo el diseño implementado, su funcionamiento y las etapas que integra todo el proyecto, haciendo hincapié en el sistema de adquisición de datos y almacenamiento. En el capítulo 3 se explica el desarrollo del proyecto del sistema de radar de onda continua en frecuencia modulada, se añade el sistema de adquisición de datos y almacenamiento. Finalmente se detalla el proceso de montado en el vehículo aéreo no tripulado con la finalidad de adquirir los datos en vuelo. En el capítulo 4 se muestran las pruebas y los resultados obtenidos del sistema de adquisición de datos tanto en tierra como en aire. Las pruebas en tierra servirán para validar que el sistema de adquisición funciona correctamente, ya que se tiene un procesamiento para el radar estático donde se mide la distancia que recorre un objeto en movimiento. Las pruebas en vuelo nos servirán para validar que el chasis elaborado fue capaz de ser montado en el UAV con la mayor estabilidad posible. Finalmente se plantean las conclusiones y opciones de mejora de la presente tesis. / Tesis

Page generated in 0.0549 seconds