• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 428
  • 11
  • 3
  • Tagged with
  • 442
  • 442
  • 175
  • 135
  • 112
  • 112
  • 112
  • 112
  • 112
  • 110
  • 104
  • 103
  • 94
  • 64
  • 59
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Procesamiento paralelo distribuído heterogéneo aplicado a ingeniería de procesos

Vazquez, Gustavo E. 18 December 2010 (has links)
El objetivo de esta tesis ha sido diseñar nuevas estrategias de procesamiento paralelo en entornos de cómputo distribuido heterogéneo para facilitar la resolución de problemas tanto estructurales como numéricos del campo de la ingeniería de procesos. Como resultado de estas investigaciones se ha logrado el desarrollo de técnicas robustas y eficientes aplica-bles a un amplio espectro de problemas de búsquedas en gra-fos y de optimización con función objetivo y restricciones no lineales. En términos generales, es posible distinguir dos líneas de investigación para el desarrollo de algoritmos paralelos dis-tribuidos: la paralelización de algoritmos secuenciales existen-tes y la creación de alternativas intrínsecamente paralelas. En el caso de problemas estructurales, se estudiaron los métodos secuenciales clásicos de búsqueda en grafos y se establecie-ron las limitaciones para su uso en redes de estaciones de tra-bajo. Sobre esta base se propuso un nuevo método de distri-bución semi-dinámica y se la aplicó al algoritmo GS-FLCN para análisis de observabilidad. Por otra parte, en la línea de los algoritmos intrínsecamente paralelos se desarrolló un nuevo algoritmo de búsqueda totalmente distribuido con el objeto de aumentar la eficiencia de los recorridos para esta aplicación específica. En cuanto a los problemas numéricos, se conside-raron estrategias para aplicar el paralelismo a las secciones de cómputo intensivo de algoritmos secuenciales existentes para optimización no lineal con restricciones conocidos como GRG y SQP. Asimismo se desarrolló una nueva técnica de descompo-sición de dominio con el objeto de ampliar el rango de aplica-bilidad de un algoritmo intrínsecamente paralelo concebido originalmente para problemas sin restricciones de modo que se lo pudiera utilizar en forma eficiente para el tratamiento de los problemas de optimización no lineal con restricciones que sur-gen en ingeniería de procesos. En cuanto a las verificaciones de desempeño, se adaptaron las métricas de speedup con el objeto de tener en cuenta la heterogeneidad de los procesa-dores y así poder asegurar comparaciones justas. En tal senti-do, todos los nuevos algoritmos propuestos lograron un muy buen desempeño en cuanto al tiempo de ejecución en compa-ración con los algoritmos secuenciales correspondientes. Se analizaron casos de estudio académicos y problemas industria-les reales de mediano y gran tamaño pertenecientes al área de ingeniería de procesos. Por último, cabe destacar que los beneficios derivados de las propuestas descriptas en esta te-sis doctoral no se limitan al ámbito de ingeniería de proce-sos. Tanto las búsquedas en grafos como los problemas de optimi-zación surgen naturalmente en otras ramas de la inge-niería así como también en biología, economía, etc. No solo es fac-tible emplear en otras disciplinas los mismos algoritmos sino también aplicar la filosofía subyacente, tal como el criterio de descomposición de dominio o la distribución semidinámica de carga.
2

Construcción de un Datamart que apoye en la toma de decisiones de la gestión de incidencias en una mesa de ayuda: caso Consorcio Peruano de Empresas

Alfaro Mendoza, Luis Alfonso, Paucar Moreyra, Daphné Aurelia January 2016 (has links)
Construye un Datamart basado en el funcionamiento de la gestión de incidencias de la mesa de ayuda del Consorcio Peruano de Empresas con el objetivo de obtener tendencias e indicadores de grandes cantidades de datos de los incidentes reportados por los usuarios a la mesa de ayuda. Para el análisis rápido y oportuno se generan reportes de manera automática con gráficos estadísticos y dashboards, con esto el usuario logra identificar los focos de incidencias de manera rápida y tomar las acciones correctivas que sean necesarias para mitigarlos ya que el impacto de las incidencias reportadas a la mesa de ayuda afecta la operatividad de los usuarios y esto impacta de manera directa a la operación del servicio de la organización. / Tesis
3

Efficient algorithms for risk averse optimization

Chicoisne, Renaud Pierre January 2015 (has links)
Doctor en Sistemas de Ingeniería / Muchos problemas de decisión industriales o logísticos pueden ser vistos como problemas de optimización y para muchos de ellos no es razonable ocupar datos deterministas. Como veremos en este trabajo en el contexto de despachos de emergencia o de planificación de seguridad, las condiciones reales son desconocidas y tomar decisiones sin considerar esta incertidumbre pueden llevar a resultados catastróficos. La teoría y la aplicación de optimización bajo incertidumbre es un tema que ha generado un amplio área de investigación. Sin embargo, aún existen grandes diferencias en complejidad entre optimización determinista y su versión incierta. En esta tesis, se estudian varios problemas de optimización con aversión al riesgo con un enfasis particular en el problema de camino más corto (RASP), problemas estocásticos en redes en general y juegos de seguridad de Stackelberg. Para obtener distribuciones de tiempos de viaje precisos sobre una red vial a partir de datos GPS del sistema de tránsito, se presenta una revisión de los métodos existentes para proyectar trayectorias GPS y se definen dos nuevos algoritmos: Uno que permite la proyección de datos óptima con respecto a una medida de error convenientemente definida (MOE), y un método heurístico rápido que permite proyectar grandes cantidades de datos de manera contínua (MMH). Se presentan resultados computacionales en redes reales y generadas de gran tamaño. Luego, se desarrollan algoritmos eficientes para problemas de ruteo con aversión al riesgo utilizando métodos de Sample Average Approximation, técnicas de linealización y métodos de descomposición. Se estudian la medida de riesgo entrópica y el Conditional Value at Risk considerando correlaciones entre las variables aleatorias. Se presentan resultados computacionales prometedores en instancias generadas de tamaño mediano. Sin embargo, la naturaleza combinatorial de los problemas los vuelve rapidamente intratable a medida que el tamaño del problema crece. Para hacer frente a esta dificultad computacional, se presentan nuevas formulaciones para problemas en redes difíciles, que tienen un menor número de variables enteras. Estas formulaciones ayudan a derivar esquemas de brancheo que se aprovechan de la estructura especial de las formulaciones propuestas. Se muestra como aplicar estas ideas a los conjuntos de camino simple y de circuito hamiltoniano en redes generales, así como los conjuntos de camino simple y de corte en grafos dirigidos acíclicos (DAG). Este trabajo preliminar muestra ideas prometedoras para resolver problemas difíciles. Finalmente, se exploran las implicaciones de los métodos algortmicos y las formulaciones desarrolladas para resolver RASP en un área diferente. Se presentan nuevas formulaciones y enfoques de resolución para juegos de seguridad de Stackelberg cuando el defensor es averso al riesgo con respecto a la estrategia del atacante. Esto se puede resolver de manera polinomial cuando se enfrenta a un adversario y resolviendo un problema de optimización convexa en números enteros cuando el defensor enfrenta varios tipos de adversarios.
4

Desarrollo de un modelo de calidad de datos aplicado a una solución de inteligencia de negocios en una institución educativa : Caso Lambda

Fernández Sáenz, Marshall André 08 May 2018 (has links)
La Inteligencia de Negocios comprende una serie de tecnologías que permiten la extracción, transformación y carga de datos hacia Data Warehouse preparados para recibir información útil para altos mandos de la organización. En la actualidad, las soluciones basadas en Inteligencia de Negocios permiten que las organizaciones de todo tipo cuenten con apoyo en la toma de decisiones de gran impacto. Sin embargo, en un contexto en el que los datos están en rápido y constante crecimiento, las soluciones de Inteligencia de Negocios son vulnerables a los problemas de consistencia que puedan presentar los datos, por lo que los procedimientos realizados para su transformación llevan a la obtención de reportes inconsistentes que generan problemas en el manejo de la institución. Bajo esta situación, se proponen diversas herramientas para garantizar la calidad de los datos, como la descrita en el actual documento. En el presente proyecto de tesis se propuso el desarrollo de un Modelo de Calidad de Datos que permite la evaluación de los datos que guarda un Data Warehouse, así como sus métricas relacionadas. Este modelo permitió la realización de investigaciones de calidad sobre la base de los parámetros especificados en la familia de normas ISO/IEC 25000, enfocándose especialmente en la ISO/IEC 25012 y la ISO/IEC 25024. Asimismo, se planificó su aplicación práctica en los datos relacionados a la solución de Inteligencia de Negocios de una institución elegida, la institución educativa Edu.Lambda. Este proyecto forma parte de la iniciativa del Grupo de Investigación y Desarrollo de Ingeniería de Software de la Pontificia Universidad Católica del Perú (GIDIS-PUCP), dentro del marco del proyecto [Pro]ductividad y [Cal]idad en [Pro]ductos software y [Ser]vicios software (ProCal-ProSer). El presente trabajo consta de 4 capítulos; en el primero, se realiza la formulación del proyecto al detalle de la problemática, objetivos, resultados esperados, herramientas y alcances; en el segundo, se detallan los conceptos relacionados a la investigación, así como los avances que se han realizado en la misma línea de trabajo; en el tercero, se detalla el modelo de calidad propuesto y la aplicación del mismo sobre la solución de Inteligencia de Negocios de la institución mencionada; y en el cuarto, se muestran las conclusiones, observaciones y recomendaciones relacionadas al proyecto. / Tesis
5

Un framework para la gestión de la memoria organizacional orientado a proyectos de investigación dentro de una institución de educación superior

Corro Portella, Linder Maycol 05 June 2015 (has links)
An institution of higher education that develops research projects can learn and remember the knowledge generated by these projects. In this applied research proposes a framework for the management of organizational memory oriented research projects within a Higher Education Institution to support the capture, storage and retrieval of knowledge from research projects, which could provide access to documents or documentation thereof, of the events that accompany them and are specific for each research project, the sources of information necessary to conduct a research project, the skills required for a given (s) project (s) for research and solutions or results of research projects. / Una Institución de Educación Superior que desarrolla proyectos de investigación puede aprender y recordar el conocimiento generado por éstos proyectos. En la presente investigación aplicada se propone un framework para la gestión de una memoria organizacional orientada a proyectos de investigación dentro de una Institución de Educación Superior para soportar la captura, almacenamiento y recuperación del conocimiento de proyectos de investigación, con lo cual se podría brindar acceso a los documentos o documentación de los mismos, de los hechos que los acompañan y que son específicos para cada proyecto de investigación, de las fuentes de información necesarias para llevar a cabo un proyecto de investigación, de las competencias requeridas para determinado(s) proyecto(s) de investigación y de las soluciones o resultados de los proyectos de investigación. / Tesis
6

Revisión matemática y análisis asintótico

Muñoz Jugo, Cynthia Mariela 29 May 2007 (has links)
Introducción al análisis de algoritmos. Tiempos asintóticos. Descripción de problema.
7

Santiago hacia una Ciudad Inteligente. Distribución espacial de la producción de datos en el gran Santiago

Hernández Milla, Cristián January 2014 (has links)
Memoria para optar al título de Geógrafo / La siguiente investigación busca explorar los patrones espaciales de la producción de datos en el Gran Santiago, en tanto “los datos”, como la piedra fundacional de lo que conocemos como una “Ciudad Inteligente”. Así también, se analiza la relación de dichos patrones espaciales generados por los datos, tanto activos como pasivos, con la distribución espacial del ingreso por hogar en el área estudiada, con el fin de establecer, si existe una relación entre ellos en el contexto de Santiago como una ciudad segregada. Finalmente, se entregan conclusiones en relación a la potencialidad de ciertas comunas del Gran Santiago, para transformarse en territorios que fomenten una “Sociedad Habilitada Espacialmente”, en términos del aprovechamiento de los datos para una mejor planificación y diseño de la Ciudad.
8

Segmentación de clientes de Corporación Lindley de la región Lima mediante el análisis cluster bietápico en octubre de 2016

Manrique Pachas, Cesar Pedro January 2016 (has links)
Describe el método del análisis cluster bietápico y su aplicación para segmentar la cartera de clientes de Corporación Lindley de la región Lima en octubre de 2016. El método de análisis cluster bietápico es una herramienta de exploración diseñada para descubrir las agrupaciones naturales (o conglomerados) de un conjunto de datos. Este método combina los métodos jerárquicos y no jerárquicos (o de partición) permitiendo analizar a la vez variables de distinto tipo (categóricas y continuas) y puede ser utilizado en bases de datos grandes. / Trabajo de suficiencia profesional
9

Metodología de simplificación administrativa en el Perú: análisis comparativo con otras metodologías - caso Universidad Nacional Mayor de San Marcos

Céspedes Sotelo, Rosa Maribel, Gonzales Urmachea, Mabel Lorena January 2012 (has links)
Manifiesta que actualmente, todas las instituciones apuntan a mejorar su productividad sacando el máximo provecho de sus recursos (tanto materiales como de personal) optimizando su rendimiento y reduciendo los costos. Sólo puede lograrse mediante la optimización de los procedimientos administrativos, de otra forma seria difícil e incluso imposible alcanzar dicho objetivo. En base a ello, el Estado Peruano, desarrolló una metodología de simplificación administrativa que ayude a sus organismos públicos a perseguir este fin. El presente trabajo, pretende realizar un análisis de ésta metodología y compararla con otras tres desarrolladas en América Latina y Europa, para comprobar la efectividad de la misma. / Trabajo de suficiencia profesional
10

Diseño de un sistema de información para mejorar la eficiencia en la planificación y control de los procesos productivos de una empresa del piping

Olguín Toledo, Hugo Andrés January 2015 (has links)
Ingeniero Civil Industrial / El presente Proyecto de Título fue realizado en la empresa FASTPACK S.A., especializada en la fabricación, suministro y distribución de productos y servicios asociados a la industria del piping (soluciones en distintos tipos de acero para la conformación de redes de tuberías para faenas y plantas). Una de las complejidades de esta industria, en conjunto con el proceso de fabricación mismo, es que las empresas clientes exigen la trazabilidad de la pieza durante todo su ciclo de vida. Adicionalmente, no existen soluciones en el mercado de software para abordar satisfactoriamente todas las aristas de dicha gestión, lo cual involucró el diseño de un software a medida. Dicha decisión se justificó en base al análisis de distintos tipos de sistemas de información disponibles en el mercado y en base a la generación de un estudio del estado del arte de la industria. Este proyecto se justifica en la necesidad por parte de la compañía de mejorar la eficiencia en el control de su producción, en base a la gestión de la información generada a través de sus procesos productivos. Como antecedente de lo anterior, alrededor del 40% de los costos totales para el año 2013 que asumió la compañía se debió a reprocesos y en cancelaciones de multas por incumplimiento de plazos de entrega. Este trabajo comprendió el modelamiento y análisis de los procesos productivos de la empresa, sumado al análisis del actual sistema de información inserto en determinadas actividades del ciclo de producción, en base a una elección previa de una metodología que justificó este procedimiento. Posterior a dicha etapa se llevó a cabo el proceso de análisis y levantamiento de los requerimientos críticos para la mejora del actual sistema de control de producción de la empresa, en conjunto con un equipo multidisciplinario de rediseño conocido como Spool Machine. Es así como finalmente se dio forma a la propuesta final de rediseño del sistema de información inserto en el ciclo de producción, en base a un análisis técnico sobre el tipo de sistema a implementar, considerando en todo momento los requerimientos de los usuarios, justificando a su vez el modelo de sistema más adecuado para la empresa. En conjunto con la elección de la alternativa más conveniente para la compañía, en términos económicos y funcionales, se realizó una valorización que arrojó una recuperación de la inversión inicial en menos de seis meses, permitiendo a la vez una cifra estimada de disminución en los tiempos de operación cercanos a un 42%. De manera paralela, se desarrolló un plan de implementación de manera tal de considerar todos los factores críticos de éxito para una efectiva implementación y puesta en marcha del nuevo sistema.

Page generated in 0.0724 seconds