• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 404
  • 36
  • 4
  • 3
  • 1
  • 1
  • Tagged with
  • 450
  • 106
  • 90
  • 82
  • 75
  • 74
  • 74
  • 74
  • 74
  • 68
  • 67
  • 61
  • 58
  • 51
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Desarrollo del software de un sistema SCADA para la distribución de agua potable en la quebrada de Manchay

Florencio Inga, Pedro Pablo 20 September 2012 (has links)
En la actualidad los sistemas de distribución de agua potable implementados son monitoreados, controlados y supervisados desde un Centro de Control, para lo cual se emplean los sistemas SCADA. El objetivo del presente trabajo es desarrollar la aplicación en el software del sistema SCADA, para el proyecto de distribución de agua potable en la quebrada de Manchay. La distribución de agua se realiza a través de 23 estaciones de bombeo distribuidas a lo largo de todo el pueblo. El sistema de distribución de agua potable en Manchay consiste de 4 partes fundamentales: telecomunicaciones, instrumentación, sistema eléctrico y el sistema de control y automatización, esta última parte se relaciona directamente con el presente trabajo, el cual incluye el desarrollo de la programación para realizar el monitorio, control y supervisión de las estaciones de bombeo. Como parte de la implementación del sistema, se hizo configuración de instrumentos para que puedan transmitir la información a los controladores para tener lecturas del proceso como presión, flujo y nivel. Se procedió con el desarrollo de aplicaciones para los Paneles de Operador o Interfaces Hombre Maquina (HMI) con el propósito de realizar un control y monitoreo local de los equipos instalados en cada estación. Se realizaron pruebas en el Centro de Control para verificar el enlace de las señales de campo, así como pruebas con los equipos en las estaciones de bombeo que realizan el control automático y remoto (comandos desde el Centro de Control) del proceso de distribución de agua. / Tesis
162

Aplicación web basada en un método de asignación multicriterio y programación lineal para apoyar la planificación de horarios del personal de seguridad de la Municipalidad Provincial de Chiclayo

Ortiz Huamán, Juan Manuel January 2018 (has links)
En cada ámbito del mundo laboral existen diversas tareas repetitivas que deben ser realizadas manualmente al no contar con algún medio de automatización, entre las que encontramos la elaboración o planificación de horarios: el cual consiste en la disposición de objetos dentro de un patrón en el tiempo o espacio, de tal manera que se logre el cumplimiento de unos objetivos determinados y que las restricciones sobre la forma en que se deben disponer dichos objetos se satisfagan. Cuando se analizó la problemática en la unidad de Serenazgo de la Municipalidad Provincial de Chiclayo, salió a flote diversos problemas que se presentaban durante el proceso de planificación y además otros problemas que traía como consecuencia dicho proceso. Es por eso que se tiene como objetivo apoyar el proceso de planificación de horarios del personal de seguridad ciudadana de la Municipalidad Provincial de Chiclayo a través de la implementación de una aplicación web. Para el desarrollo de la aplicación se utilizó el marco de trabajo SCRUM, la metodología de asignación multricriterio o ponderación lineal, y programación lineal para la distribución de horarios, además del plugin OpenStreetMaps el cual fue utilizado para tracear la ubicación de las unidades de Serenazgo. Como resultado se obtuvo un producto software que disminuyó considerablemente el tiempo promedio que tomaba el proceso de planificación de horarios, aumentó la frecuencia de planificación de horarios anualmente, disminuyó el grado de insatisfacción de los colaboradores con respecto al horario asignado, disminuyó el índice de los colaboradores que estaban en contra del proceso de planificación y finalmente disminuyó el porcentaje de renuncia de los colaboradores. / Tesis
163

Aplicación de la programación no lineal para la determinación de la cartera óptima de inversión: una aplicación al mercado de valores peruano

Castillo Montes, José Alberto January 2007 (has links)
Plantea un problema de programación no lineal, específicamente de Programación Cuadrática, requiriéndose datos del movimiento bursátil ofertados por la Bolsa de Valores de Lima y CONASEV, cuya recopilación estadística pertenece a las más importantes empresas accionarías de diversos sectores de la economía nacional. Para las pruebas de investigación se ha utilizado programas computacionales como Solver Excel, Premium Solver Plataform y el WinQSB, respectivamente. Con estos medios operativos, se va a generar la frontera eficiente de la cual se podrán obtener los portafolios óptimos de inversión. Este estudio muestra la importancia que tienen los Modelos de Investigación de Operaciones, constituyéndose en una herramienta poderosa de las decisiones financieras. / Tesis
164

Modelo de Programación Cuadrática y Ratios Financieros para minimizar el riesgo de las inversiones en la Bolsa de Valores de Lima

Martínez Angeles, Luis Alfredo January 2013 (has links)
En esta investigación se presenta un modelo de optimización, para minimizar el riesgo cuando se invierte en portafolios de activos bursátiles, en la Bolsa de Valores de Lima. Debido a la globalización de la economía y la política; el inversionista debe asumir un conjunto de riesgos. La Investigación de Operaciones nos ofrece como herramienta de análisis de activos bursátiles, el Modelo de Programación Cuadrática; algoritmo propuesto por Harry Markowitz. Las Ciencias Económicas, nos proporciona la técnica del Análisis Fundamental, para evaluar los activos bursátiles a partir del análisis de la macroeconomía, los sectores productivos y la situación financiera de la empresa a través de los ratios financieros: patrimonio neto, ganancias y pérdidas, precio/beneficio y precio/valor contable. El enfoque de esta investigación es usar la información que proporciona el análisis fundamental, específicamente los ratios financieros y los dividendos que se obtienen por la compra de los activos bursátiles, para formular el Modelo de Programación Cuadrática. Este modelo es más exigente, al usar las dos técnicas de análisis de los activos de las empresas y permitirá para una determinada rentabilidad, minimizar el riesgo cuando se invierte en portafolios de activos Bursátiles en la Bolsa de Valores. / -- In this investigation a model of optimization is presented, to minimize the risk when it is invested in portfolio asset of the Stock Exchange Market of Lima. Due to the globalization of the economy and the politics; the investor should assume a group of risks. The operations research offers as analysis tool of portfolio asset, the model of Quadratic Programming; algorithm proposed by Harry Markowitz. The Economic Sciences, it provides us the technique of the Fundamental Analysis, to evaluate the portfolio assets starting from the analysis of the macroeconomics, the productive sectors and the financial situation of the company through the financial ratios: net patrimony, earnings and losses, price earnings ratio (PER) and price countable value. The focus of this investigation is to use the information that provides the fundamental analysis, Specifically, the financial ratios and the dividends that are paid by the portfolio assets, to formulate the model of Quadratic Programming. This model is more demanding, when using the two techniques of analysis of the assets of the companies and it will allow for a certain profitability to minimize the risk when it is invested in briefcases in the Stock exchange Market. / Tesis
165

Visual Vertical profiling: Evaluar la performance y optimizar capas arquitectónicas

Sanfurgo Bauer, Cristóbal Felipe January 2015 (has links)
Magíster en Tecnologías de la Información / Un problema recurrente en un sistema es la degradación del rendimiento a través del tiempo, las variaciones suelen ser en un principio casi imperceptibles hasta que llega un punto de inflexión donde el aumento de los tiempos de respuesta se hace cada vez mayor. En este punto la identificación y corrección de las desviaciones en el comportamiento esperado del sistema, se vuelve crítico ya que dado el comportamiento exponencial en el aumento de los tiempos de respuesta, nos pone contra el tiempo para evitar el colapso del sistema. Lo anterior pone en riesgo la continuidad operacional de la organización, la posible disrupción del servicio puede traer consecuencias económicas para la compañía y nuestros clientes, dada esta situación se hace crítico corregir las desviaciones de manera oportuna, rápida y a un bajo costo, sin embargo, no contamos con una forma de identificar que piezas de software son las responsables de los problemas de performance detectados. Se propone el concepto de Vertical Profiling, la cual es una técnica y metodología que fue definida en la Universidad de Lugano, la cual utilizaremos para generar una representación del comportamiento de una aplicación basado en un set de métricas, donde cada métrica se representa como una serie de tiempo, esto nos permite entender el comportamiento a través del tiempo en cada capa del sistema, independiente de su nivel de abstracción y/o tipo de componente. Esto implica 2 etapas, la primera que consiste en un proceso de recolección de datos a través de todas las capas que componen el software y la segunda etapa que consiste en poder hacer un análisis que considere la variación en el tiempo del comportamiento del sistema. Para poder realizar el análisis del comportamiento, se propone una visualización gráfica, multidimensional, de fácil lectura y oportuna, con el fin de poder identificar los cuellos de botella. Para este estudio en particular, se utilizará la orientación a aspectos para la captura de datos, y el análisis se realizará utilizando Moose, la cual es una plataforma de análisis de datos, en este caso lo emplearemos para el análisis de Software, y para la visualización utilizaremos Mondrian que nos permite crear el meta-modelo y así realizar un análisis visual del rendimiento del aplicativo. Con la implementación de nuestro Vertical Profiling, se redujeron considerable los tiempos de respuesta de nuestra aplicación de forma rápida, algo que con un profiler tradicional no fue posible.
166

Análisis automático de prestaciones de aplicaciones paralelas basadas en paso de mensajes

Jorba Esteve, Josep 06 April 2006 (has links)
La tesis presenta, el desarrollo de una propuesta de arquitectura para el análisis automático de prestaciones de aplicaciones paralelas desarrolladas bajo paradigmas de programación de paso explicito de mensajes.A lo largo de los capítulos que configuran la misma: se han analizado diferentes aspectos que tienen que ver con el ámbito de aplicación, ya sea introduciendo los sistemas paralelos y distribuidos usados como base, así como las métricas base de prestaciones. Dando una visión de diferentes técnicas base para la monitorización, como el tracing y profiling, y como se han usado como primer paso de las herramientas clásicas de análisis de prestaciones, normalmente basadas en técnicas de visualización. Las deficiencias de estas, así como el amplio conocimiento necesario para intepretar correctamente los datos proporcionados, nos llevan a considerar herramientas de un nivel superior, que proporcionen automatismos más allá de la monitorización y nos permitan obtener resultados interpretables y útiles directamente para la mejora de las prestaciones de las aplicaciones.La arquitectura propuesta, mediante diferentes fases de monitorización, detección de problemas, clasificación según su relevancia, análisis de sus causas, y la emisión de sugerencias sobre actuaciones nos permite minimizar y/o hacer desaparecer las ineficiencias causadas por los problemas de prestaciones aparecidos durante la ejecución de las aplicaciones.Entre los objetivos de la arquitectura propuesta, se encuentran: a) La especificación del conocimiento de prestaciones, mediante la introducción de conocimiento en forma de estructura de problemas, y del análisis de sus causas, de forma que permita ampliar el conocimiento que en cada momento pueda disponer la herramienta. b) Independencia de los mecanismos de detección de los problemas concretos definidos. c) Independencia del sistema base de paso de mensajes utilizado. d) Relación de los problemas con el código fuente de la aplicación, para establecer que puntos están relacionados con los problemas. e) La emisión de sugerencias útiles de cara al usuario final para proporcionar actuaciones directas sobre el código de la aplicación para mejorar sus prestaciones.Los resultados experimentales obtenidos sobre un prototipo de herramienta basada en la arquitectura propuesta, demuestran la viabilidad de las de las propuestas formuladas en esta tesis. La herramienta ha sido probada con un amplio conjunto de aplicaciones paralelas y distribuidas para demostrar esta viabilidad, comprobando que la metodología es eficaz, fiable y beneficiosa y que puede ser usada para mejoras reales del rendimiento de las aplicaciones. / The thesis presents, the development of a architectural proposal for the automatic performance analysis of parallel applications developed in programming paradigms of explicit message passing.In the chapters that form the thesis: different aspects have been analyzed that they have to do with the field of application, by introducing the parallel and distributed systems used as base systems, as well the base metrics of performance. Giving a vision of different techniques for monitoring, like tracing and profiling, and since they have used like the first step in the classic tools of performance analysis, normally based on visualization techniques. The deficiencies of these tools, as well as the wide knowledge necessary to interpret the obtained data correctly, takes us to consider tools of a superior level, that provide automatism beyond the monitoring process and they allow us to directly obtain interpretable and useful results for the improvement of the performance of the applications.The architectural proposal, is composed of different phases: from monitoring, detection of problems, classification according to his relevance, analysis of its causes, and the emission of hints on performance that allows us to minimize and/or to make disappear the inefficiencies caused by the performance problems appeared during the execution of the applications.The main goals of the proposed architecture are: a) Ability to specify the performance knowledge, by means of the introduction of knowledge in a form of the structure of the performance problems, and of the analysis of its causes. So, this specification allows us to extend the performance knowledge that every moment can have the tool. b) Independence of the mechanisms of detection of the defined performance problems. c) Independence of environment of message passing used. d) Relation of the problems with the source code of the application, to establish that points are related to the performance problems. e) The emission of useful suggestions/hints facing the end user to provide direct operating points on the code of the application to improve its performance.The experimental results obtained in a tool prototype based on the architecture demonstrate the viability of those of the proposals formulated in this thesis. The tool has been proven with an ample set of parallel and distributed applications to demonstrate this viability, verifying that the methodology is effective, feasible, and profitable and that can be used for a real improvement of the program performance.
167

Modelos evaluativos, de optimización y de simulación de contaminantes del aire

Andrade Torres, William Julio January 2007 (has links)
En este trabajo, se presenta un modelo de optimización de costos para minimizar la contaminación del aire en base a dos tipos de medidas de control. El modelo se contrastó con datos históricos de la producción de cemento en una fábrica de este producto y de las emisiones diarias emanadas por ésta. Se presenta asimismo, dos modelos evaluativos de emisiones: El primero, de emisiones de tubos de escape y el segundo, de emisiones evaporables de compuestos orgánicos volátiles (COV), ambos modelos para vehículos ligeros con motor a gasolina en condiciones específicas de clima, de conducción de vehículos y de volatilidad de la gasolina. Además se considera un modelo de simulación por eventos en base a los datos utilizados en los modelos evaluativos mencionados anteriormente, para lo cual se tomaron en cuenta los tipos de autos según el tipo de motor para los arribos y los tipos de servicios requeridos para diferentes periodos de tiempo. Para la obtención del modelo de optimización de costos se utiliza la técnica de Programación Lineal y para los modelos evaluativos se emplea la técnica de Simulación de eventos discretos. / In this work, a model of optimization of costs is presented against the environmental contamination of air based on two types of control measures. The pattern was contrasted with historical data of the production of cement in a factor of this product and of the daily emissions emanated for this. It is presented also, two model of emissions evaporate is presented: The first one, of emissions of exhaust pipes and the second, of emissions evaporate of compound organic volatile (COV), both models for slight vehicles with motor of gasoline under specific conditions of climate, of conduction of vehicles and of volatility of the gasoline. Lastly it is considered a simulation model by events based on the data used in the model evaluate mentioned previously, for that which they took into account the types of cars according to the motor type for the arrivals and the types of services required for different periods of time. For the obtaining of the pattern of optimization of costs the technique of Lineal Programming it is used and for the model evaluate the technique of Simulation of discreet events it is used.
168

Adaptación del algoritmo Grasp en el diseño eficiente de la interfaz gráfica de usuario

Zamudio Díaz, Juan José January 2007 (has links)
Existen algunos métodos en la actualidad para el mejoramiento de la interfaz gráfica de usuario (GUI), métodos que, muchas veces, se basan en la recopilación de información vía test de usuarios y en la creatividad del diseñador; de acuerdo a las funcionalidades que debe proporcionar la GUI para el procesamiento de los datos. En el presente trabajo desarrollaremos una metodología de optimización para el diseño de una GUI utilizando un algoritmo de procedimiento de búsqueda adaptativa aleatoria (GRASP), que tendrá como base un algoritmo goloso de tipo FFD (first fit decreassing), que nos permitirá encontrar un diseño óptimo de una GUI, basado en la eficiente distribución de objetos visuales. Este diseño óptimo servirá para la correcta comunicación hombre-maquina en el eficiente procesamiento de los datos. Cabe recalcar que siempre un diseño de una GUI guarda una estrecha relación con el desarrollo cognitivo del usuario. Esto puede ocasionar una pequeña variación en el diseño final de una GUI. / There are ome methods at the present time for the improvement of the Graphic User Interface (GUI), methods that, often, are based on the compilation of information through test of users and on the creativity of the designer; according to the functionalities that must provide the GUIs to data processing. In the present work we will develop to a methodology of optimization for the design of a GUI, using a Greedy Randomized Adaptative Procedures Search (GRASP), which it will have as it bases a goloso algorithm of FFD (first fit decreassing) type, that will allow to find an optimal design of a GUI optimal, based on the efficient distribution of visual objects. This optimal design will be used for the man machine right communication in the efficient data processing. It is important to stress that a design of a GUI always keepsa narrow relation with a user’s cognitive development. It can cause a little variation in the final design of a GUI.
169

Un Algoritmo GRASP para resolver el problema de la programación de tareas dependientes en máquinas diferentes (task scheduling)

Tupia Anticona,Manuel Francisco January 2005 (has links)
La planificación de las operaciones involucradas en un proyecto de desarrollo de software ha sido un problema a superar, desde el auge del uso de metodologías que guían dicho proceso. Tanto la eficiencia como la sofisticación de los algoritmos que buscan resolver los estos ordenamientos, han ido evolucionando durante la segunda mitad del siglo XX. Al mencionado problema de ordenar tareas con dependencias se le conoce en la algorítmica como programación de tareas o task scheduling y es definido de la siguiente forma: dado un conjunto de tareas a ser programadas en determinado grupo de máquinas (o recursos hombre-máquina como podrían ser programadores, analistas, etc.), encontrar un orden adecuado de ejecución. Es un problema de complejidad NP-difícil por lo que se justifica el uso de métodos heurísticos para obtener soluciones aproximadas. El presente trabajo de tesis presenta una meta heurística GRASP para resolver la variante en donde las tareas son dependientes y los organismos ejecutores son diferentes entre sí: con esto se podrían planificar las tareas de las etapas iniciales de un proceso particular de desarrollo de software. En la tesis, se incide en la metodología RUP, y en particular en sus disciplinas de modelamiento de negocios (business modeling) y captación de requerimientos (requirement). Se han desarrollado tanto un algoritmo voraz como una meta heurística GRASP con dos parámetros de relajación, planteamiento novedoso pues hasta el momento no se había intentado resolver el problema de esta forma. Igualmente se muestra un modelo matemático para la variante específica del problema a tratar. Para demostrar la corrección de los algoritmos, se desarrolló un prototipo que los implementa obteniéndose como resultado que el algoritmo GRASP mejora casi en un 6% los resultados del algoritmo voraz, para instancias de hasta 12500 variables involucradas. Palabras clave: Programación de tareas, algoritmos GRASP, Desarrollo de Software, planificación de recursos en proyectos de desarrollo software, RUP. / Operation’s planning for Software Development has been a complicated by-solve problem experienced since the golden age of the use methodologies whose rule those process. In which it is used, as well as in the efficiency and sophistication of the algorithms that try to solve the problems that appear in a software project, since its origin in the middle of the 20th century. The previously mentioned problem is known within algorithmic as task scheduling and it is defined as follows: given a group of tasks (operations) to be scheduled within a group of machines (or human resources, or human-machine resources), find an appropriate execution order. It is a NP-difficult complexity problem, so it justifies the usage of heuristic methods to obtain approximate solutions. This thesis presents a GRASP heuristic goal to solve the variant in which tasks are dependent and executing entities are different one from the other: now it could be possible the planning of the operation s from the inception’s RUP phase. We are remarking in particular, two disciplines of RUP methodology: business modeling and requirement. Both a greedy algorithm and a GRASP heuristic goal with two relaxation parameters have been developed. Innovative proposition because until now nobody has tried to solve the problem this way. Likewise a mathematical model for the specific variant of the problem to be considered is shown. To show efficiency of the GRASP algorithm, we developed a prototype program that executes and compares the results obtained by greedy and GRASP algorithms. The GRASP algorithm improves by 6% the results of the greedy algorithm, for instances with up to 12500 variables involved. Finally we measured the quality of these results with those of the mathematical model which would obtain the exact solution for smaller instances, taking advantage of software that solves linear programming problems: the GRASP algorithm got close to the exact result within a range of 95 to 99%, and even equaled it in some tests. Keywords: Task scheduling, GRASP algorithm, Software development, resource planning in software projects, RUP.
170

Mapping sobre arquitecturas heterógenas

De Giusti, Laura Cristina January 2011 (has links)
Entre todas las ideas esparcidas por la Ciencia de la Computación en los últimos años, pocas han transformado el área de manera tan profunda como la computación paralela. Virtualmente todos los aspectos se vieron afectados, y se generó un gran número de conceptos nuevos. Desde la Arquitectura de Computadoras hasta los Sistemas Operativos, desde los Lenguajes de Programación y Compiladores hasta Bases de Datos e Inteligencia Artificial, y desde la Computación numérica hasta las Combinatorias, cada rama sufrió un renacimiento. / Tesis doctoral de la Facultad de Informática (UNLP). Grado alcanzado: Doctor en Ciencias Informáticas. Director de tesis: Guillermo Simari; co-director de tesis: Emilio Luque y Marcelo Naiouf.

Page generated in 0.0476 seconds