Spelling suggestions: "subject:"procesamiento dde datos"" "subject:"procesamiento dee datos""
1 |
Procesamiento paralelo distribuído heterogéneo aplicado a ingeniería de procesosVazquez, Gustavo E. 18 December 2010 (has links)
El objetivo de esta tesis ha sido diseñar nuevas estrategias de procesamiento paralelo en entornos de cómputo distribuido heterogéneo para facilitar la resolución de problemas tanto estructurales como numéricos del campo de la ingeniería de procesos. Como resultado de estas investigaciones se ha logrado el desarrollo de técnicas robustas y eficientes aplica-bles a un amplio espectro de problemas de búsquedas en gra-fos y de optimización con función objetivo y restricciones no lineales. En términos generales, es posible distinguir dos líneas de investigación para el desarrollo de algoritmos paralelos dis-tribuidos: la paralelización de algoritmos secuenciales existen-tes y la creación de alternativas intrínsecamente paralelas. En el caso de problemas estructurales, se estudiaron los métodos secuenciales clásicos de búsqueda en grafos y se establecie-ron las limitaciones para su uso en redes de estaciones de tra-bajo. Sobre esta base se propuso un nuevo método de distri-bución semi-dinámica y se la aplicó al algoritmo GS-FLCN para análisis de observabilidad. Por otra parte, en la línea de los algoritmos intrínsecamente paralelos se desarrolló un nuevo algoritmo de búsqueda totalmente distribuido con el objeto de aumentar la eficiencia de los recorridos para esta aplicación específica. En cuanto a los problemas numéricos, se conside-raron estrategias para aplicar el paralelismo a las secciones de cómputo intensivo de algoritmos secuenciales existentes para optimización no lineal con restricciones conocidos como GRG y SQP. Asimismo se desarrolló una nueva técnica de descompo-sición de dominio con el objeto de ampliar el rango de aplica-bilidad de un algoritmo intrínsecamente paralelo concebido originalmente para problemas sin restricciones de modo que se lo pudiera utilizar en forma eficiente para el tratamiento de los problemas de optimización no lineal con restricciones que sur-gen en ingeniería de procesos. En cuanto a las verificaciones de desempeño, se adaptaron las métricas de speedup con el objeto de tener en cuenta la heterogeneidad de los procesa-dores y así poder asegurar comparaciones justas. En tal senti-do, todos los nuevos algoritmos propuestos lograron un muy buen desempeño en cuanto al tiempo de ejecución en compa-ración con los algoritmos secuenciales correspondientes. Se analizaron casos de estudio académicos y problemas industria-les reales de mediano y gran tamaño pertenecientes al área de
ingeniería de procesos. Por último, cabe destacar que los beneficios derivados de las propuestas descriptas en esta te-sis doctoral no se limitan al ámbito de ingeniería de proce-sos. Tanto las búsquedas en grafos como los problemas de optimi-zación surgen naturalmente en otras ramas de la inge-niería así como también en biología, economía, etc. No solo es fac-tible emplear en otras disciplinas los mismos algoritmos sino también aplicar la filosofía subyacente, tal como el criterio de descomposición de dominio o la distribución semidinámica de carga.
|
2 |
Construcción de un Datamart que apoye en la toma de decisiones de la gestión de incidencias en una mesa de ayuda: caso Consorcio Peruano de EmpresasAlfaro Mendoza, Luis Alfonso, Paucar Moreyra, Daphné Aurelia January 2016 (has links)
Construye un Datamart basado en el funcionamiento de la gestión de incidencias de la mesa de ayuda del Consorcio Peruano de Empresas con el objetivo de obtener tendencias e indicadores de grandes cantidades de datos de los incidentes reportados por los usuarios a la mesa de ayuda. Para el análisis rápido y oportuno se generan reportes de manera automática con gráficos estadísticos y dashboards, con esto el usuario logra identificar los focos de incidencias de manera rápida y tomar las acciones correctivas que sean necesarias para mitigarlos ya que el impacto de las incidencias reportadas a la mesa de ayuda afecta la operatividad de los usuarios y esto impacta de manera directa a la operación del servicio de la organización. / Tesis
|
3 |
Efficient algorithms for risk averse optimizationChicoisne, Renaud Pierre January 2015 (has links)
Doctor en Sistemas de Ingeniería / Muchos problemas de decisión industriales o logísticos pueden ser vistos como problemas
de optimización y para muchos de ellos no es razonable ocupar datos deterministas. Como
veremos en este trabajo en el contexto de despachos de emergencia o de planificación de
seguridad, las condiciones reales son desconocidas y tomar decisiones sin considerar esta incertidumbre pueden llevar a resultados catastróficos. La teoría y la aplicación de optimización
bajo incertidumbre es un tema que ha generado un amplio área de investigación. Sin embargo,
aún existen grandes diferencias en complejidad entre optimización determinista y su
versión incierta. En esta tesis, se estudian varios problemas de optimización con aversión
al riesgo con un enfasis particular en el problema de camino más corto (RASP), problemas
estocásticos en redes en general y juegos de seguridad de Stackelberg.
Para obtener distribuciones de tiempos de viaje precisos sobre una red vial a partir de
datos GPS del sistema de tránsito, se presenta una revisión de los métodos existentes para
proyectar trayectorias GPS y se definen dos nuevos algoritmos: Uno que permite la proyección
de datos óptima con respecto a una medida de error convenientemente definida (MOE), y
un método heurístico rápido que permite proyectar grandes cantidades de datos de manera
contínua (MMH). Se presentan resultados computacionales en redes reales y generadas
de gran tamaño. Luego, se desarrollan algoritmos eficientes para problemas de ruteo con
aversión al riesgo utilizando métodos de Sample Average Approximation, técnicas de linealización y métodos de descomposición. Se estudian la medida de riesgo entrópica y el Conditional Value at Risk considerando correlaciones entre las variables aleatorias. Se presentan resultados computacionales prometedores en instancias generadas de tamaño mediano. Sin embargo, la naturaleza combinatorial de los problemas los vuelve rapidamente intratable a medida que el tamaño del problema crece. Para hacer frente a esta dificultad computacional, se presentan nuevas formulaciones para problemas en redes difíciles, que tienen un menor número de variables enteras. Estas formulaciones ayudan a derivar esquemas de brancheo que se aprovechan de la estructura especial de las formulaciones propuestas. Se muestra como aplicar estas ideas a los conjuntos de camino simple y de circuito hamiltoniano en redes generales, así como los conjuntos de camino simple y de corte en grafos dirigidos acíclicos (DAG). Este trabajo preliminar muestra ideas prometedoras para resolver problemas difíciles. Finalmente, se exploran las implicaciones de los métodos algortmicos y las formulaciones desarrolladas para resolver RASP en un área diferente. Se presentan nuevas formulaciones y enfoques de resolución para juegos de seguridad de Stackelberg cuando el defensor es averso al riesgo con respecto a la estrategia del atacante. Esto se puede resolver de manera polinomial cuando se enfrenta a un adversario y resolviendo un problema de optimización convexa en números enteros cuando el defensor enfrenta varios tipos de adversarios.
|
4 |
Desarrollo de un modelo de calidad de datos aplicado a una solución de inteligencia de negocios en una institución educativa : Caso LambdaFernández Sáenz, Marshall André 08 May 2018 (has links)
La Inteligencia de Negocios comprende una serie de tecnologías que permiten la
extracción, transformación y carga de datos hacia Data Warehouse preparados para
recibir información útil para altos mandos de la organización. En la actualidad, las
soluciones basadas en Inteligencia de Negocios permiten que las organizaciones de
todo tipo cuenten con apoyo en la toma de decisiones de gran impacto.
Sin embargo, en un contexto en el que los datos están en rápido y constante
crecimiento, las soluciones de Inteligencia de Negocios son vulnerables a los
problemas de consistencia que puedan presentar los datos, por lo que los
procedimientos realizados para su transformación llevan a la obtención de reportes
inconsistentes que generan problemas en el manejo de la institución. Bajo esta
situación, se proponen diversas herramientas para garantizar la calidad de los datos,
como la descrita en el actual documento.
En el presente proyecto de tesis se propuso el desarrollo de un Modelo de Calidad de
Datos que permite la evaluación de los datos que guarda un Data Warehouse, así como
sus métricas relacionadas. Este modelo permitió la realización de investigaciones de
calidad sobre la base de los parámetros especificados en la familia de normas ISO/IEC
25000, enfocándose especialmente en la ISO/IEC 25012 y la ISO/IEC 25024.
Asimismo, se planificó su aplicación práctica en los datos relacionados a la solución
de Inteligencia de Negocios de una institución elegida, la institución educativa
Edu.Lambda.
Este proyecto forma parte de la iniciativa del Grupo de Investigación y Desarrollo de
Ingeniería de Software de la Pontificia Universidad Católica del Perú (GIDIS-PUCP),
dentro del marco del proyecto [Pro]ductividad y [Cal]idad en [Pro]ductos software y
[Ser]vicios software (ProCal-ProSer).
El presente trabajo consta de 4 capítulos; en el primero, se realiza la formulación del
proyecto al detalle de la problemática, objetivos, resultados esperados, herramientas y
alcances; en el segundo, se detallan los conceptos relacionados a la investigación, así
como los avances que se han realizado en la misma línea de trabajo; en el tercero, se
detalla el modelo de calidad propuesto y la aplicación del mismo sobre la solución de Inteligencia de Negocios de la institución mencionada; y en el cuarto, se muestran las
conclusiones, observaciones y recomendaciones relacionadas al proyecto. / Tesis
|
5 |
Un framework para la gestión de la memoria organizacional orientado a proyectos de investigación dentro de una institución de educación superiorCorro Portella, Linder Maycol 05 June 2015 (has links)
An institution of higher education that develops research projects can
learn and remember the knowledge generated by these projects. In this
applied research proposes a framework for the management of organizational
memory oriented research projects within a Higher Education
Institution to support the capture, storage and retrieval of knowledge
from research projects, which could provide access to documents or
documentation thereof, of the events that accompany them and are specific
for each research project, the sources of information necessary to
conduct a research project, the skills required for a given (s) project (s)
for research and solutions or results of research projects. / Una Institución de Educación Superior que desarrolla proyectos de investigación
puede aprender y recordar el conocimiento generado por
éstos proyectos. En la presente investigación aplicada se propone un
framework para la gestión de una memoria organizacional orientada
a proyectos de investigación dentro de una Institución de Educación
Superior para soportar la captura, almacenamiento y recuperación del
conocimiento de proyectos de investigación, con lo cual se podría brindar
acceso a los documentos o documentación de los mismos, de los
hechos que los acompañan y que son específicos para cada proyecto
de investigación, de las fuentes de información necesarias para llevar
a cabo un proyecto de investigación, de las competencias requeridas
para determinado(s) proyecto(s) de investigación y de las soluciones o
resultados de los proyectos de investigación. / Tesis
|
6 |
Revisión matemática y análisis asintóticoMuñoz Jugo, Cynthia Mariela 29 May 2007 (has links)
Introducción al análisis de algoritmos. Tiempos asintóticos. Descripción de problema.
|
7 |
Santiago hacia una Ciudad Inteligente. Distribución espacial de la producción de datos en el gran SantiagoHernández Milla, Cristián January 2014 (has links)
Memoria para optar al título de Geógrafo / La siguiente investigación busca explorar los patrones espaciales de la producción de datos en el Gran Santiago, en tanto “los datos”, como la piedra fundacional de lo que conocemos como una “Ciudad Inteligente”. Así también, se analiza la relación de dichos patrones espaciales generados por los datos, tanto activos como pasivos, con la distribución espacial del ingreso por hogar en el área estudiada, con el fin de establecer, si existe una relación entre ellos en el contexto de Santiago como una ciudad segregada. Finalmente, se entregan conclusiones en relación a la potencialidad de ciertas comunas del Gran Santiago, para transformarse en territorios que fomenten una “Sociedad Habilitada Espacialmente”, en términos del aprovechamiento de los datos para una mejor planificación y diseño de la Ciudad.
|
8 |
Segmentación de clientes de Corporación Lindley de la región Lima mediante el análisis cluster bietápico en octubre de 2016Manrique Pachas, Cesar Pedro January 2016 (has links)
Describe el método del análisis cluster bietápico y su aplicación para segmentar la cartera de clientes de Corporación Lindley de la región Lima en octubre de 2016. El método de análisis cluster bietápico es una herramienta de exploración diseñada para descubrir las agrupaciones naturales (o conglomerados) de un conjunto de datos. Este método combina los métodos jerárquicos y no jerárquicos (o de partición) permitiendo analizar a la vez variables de distinto tipo (categóricas y continuas) y puede ser utilizado en bases de datos grandes. / Trabajo de suficiencia profesional
|
9 |
Metodología de simplificación administrativa en el Perú: análisis comparativo con otras metodologías - caso Universidad Nacional Mayor de San MarcosCéspedes Sotelo, Rosa Maribel, Gonzales Urmachea, Mabel Lorena January 2012 (has links)
Manifiesta que actualmente, todas las instituciones apuntan a mejorar su productividad sacando el máximo provecho de sus recursos (tanto materiales como de personal) optimizando su rendimiento y reduciendo los costos. Sólo puede lograrse mediante la optimización de los procedimientos administrativos, de otra forma seria difícil e incluso imposible alcanzar dicho objetivo. En base a ello, el Estado Peruano, desarrolló una metodología de simplificación administrativa que ayude a sus organismos públicos a perseguir este fin. El presente trabajo, pretende realizar un análisis de ésta metodología y compararla con otras tres desarrolladas en América Latina y Europa, para comprobar la efectividad de la misma. / Trabajo de suficiencia profesional
|
10 |
Diseño de un sistema de información para mejorar la eficiencia en la planificación y control de los procesos productivos de una empresa del pipingOlguín Toledo, Hugo Andrés January 2015 (has links)
Ingeniero Civil Industrial / El presente Proyecto de Título fue realizado en la empresa FASTPACK S.A., especializada en la fabricación, suministro y distribución de productos y servicios asociados a la industria del piping (soluciones en distintos tipos de acero para la conformación de redes de tuberías para faenas y plantas). Una de las complejidades de esta industria, en conjunto con el proceso de fabricación mismo, es que las empresas clientes exigen la trazabilidad de la pieza durante todo su ciclo de vida. Adicionalmente, no existen soluciones en el mercado de software para abordar satisfactoriamente todas las aristas de dicha gestión, lo cual involucró el diseño de un software a medida. Dicha decisión se justificó en base al análisis de distintos tipos de sistemas de información disponibles en el mercado y en base a la generación de un estudio del estado del arte de la industria. Este proyecto se justifica en la necesidad por parte de la compañía de mejorar la eficiencia en el control de su producción, en base a la gestión de la información generada a través de sus procesos productivos. Como antecedente de lo anterior, alrededor del 40% de los costos totales para el año 2013 que asumió la compañía se debió a reprocesos y en cancelaciones de multas por incumplimiento de plazos de entrega.
Este trabajo comprendió el modelamiento y análisis de los procesos productivos de la empresa, sumado al análisis del actual sistema de información inserto en determinadas actividades del ciclo de producción, en base a una elección previa de una metodología que justificó este procedimiento. Posterior a dicha etapa se llevó a cabo el proceso de análisis y levantamiento de los requerimientos críticos para la mejora del actual sistema de control de producción de la empresa, en conjunto con un equipo multidisciplinario de rediseño conocido como Spool Machine. Es así como finalmente se dio forma a la propuesta final de rediseño del sistema de información inserto en el ciclo de producción, en base a un análisis técnico sobre el tipo de sistema a implementar, considerando en todo momento los requerimientos de los usuarios, justificando a su vez el modelo de sistema más adecuado para la empresa.
En conjunto con la elección de la alternativa más conveniente para la compañía, en términos económicos y funcionales, se realizó una valorización que arrojó una recuperación de la inversión inicial en menos de seis meses, permitiendo a la vez una cifra estimada de disminución en los tiempos de operación cercanos a un 42%. De manera paralela, se desarrolló un plan de implementación de manera tal de considerar todos los factores críticos de éxito para una efectiva implementación y puesta en marcha del nuevo sistema.
|
Page generated in 0.1138 seconds