781 |
Diseño de un Sistema de Criptografía Asimétrica para dotar Seguridad de Confidencialidad e Integridad a las Comunicaciones SMTP y SFTP para Scharff Logística Integrada S.A.Fernández Asencios, Nery Benjamín 24 April 2021 (has links)
El correo electrónico se ha convertido en uno de los métodos de comunicación más importantes para cualquier persona y organización. Sin embargo, los estándares actuales de la industria no ponen énfasis en la seguridad del correo electrónico. Los correos electrónicos pueden ser interceptados fácilmente por otros. Potencialmente, cada correo electrónico no cifrado enviado a través de una red o almacenado en un servidor de correo electrónico puede leerse, copiarse o modificarse. Existe una gran necesidad de entrega segura de correo electrónico.
Algunos proveedores de servicios de correo electrónico, como Google, tomaron algunas medidas para mejorar la protección de la privacidad basada en el protocolo https. La principal motivación para https es evitar las escuchas telefónicas y los ataques de hombre en el medio. Esto, proporciona autenticación del sitio web de Gmail y el servidor web asociado con el que se está comunicando, y proporciona cifrado bidireccional de las comunicaciones entre una computadora cliente y el servidor de Gmail. En la práctica, esta es una garantía razonable de que uno se está comunicando con el servidor de Gmail con el que está destinado a comunicarse, así como también asegurar que el contenido de las comunicaciones entre el usuario y el servidor de Gmail no pueda ser leído o falsificado por ningún tercero. Sin embargo, https solo evita que los correos electrónicos sean rastreados durante la transmisión de red. No impide que los administradores del servidor de correo electrónico, o cualquier otra persona que pueda acceder a varios servidores de correo electrónico para leer los mensajes de correo electrónico, porque https no es un cifrado de extremo a extremo. La organización en la que se basa este trabajo tiene más de 30 años en el mercado con las comunicaciones por correo electrónico y SFTP. La tesis identificó problemas de comunicación por correo electrónico y otros protocolos sin asegurar la data enviada, así como en quiénes debían tener acceso a los datos; además, se encontró problemas en la confidencialidad e integridad en la información enviada; finalmente, se requería un diseño de un sistema criptográfico para dotar de seguridad las comunicaciones y así tener acceso a la información desde cualquier lugar, dispositivo, y cualquier momento. La tesis analizó las opciones en el mercado y determinó el uso del estándar PGP como la solución más adecuada para el proyecto. / Email has become one of the most important communication methods for any person and organization. However, current industry standards do not emphasize email security. Emails can be intercepted by others easily. Potentially, every not encrypted email sent over a network or stored on an email server can be read, copied, or modified. There is a great need for safe email delivery.
Some email service providers, such as Google, took some steps to improve privacy protection based on the https protocol. The main motivation for https is to prevent wiretapping and the attacks of man in the middle. This provides authentication of the Gmail website and the associated web server with which you are communicating, and provides bidirectional encryption of communications between a client computer and the Gmail server. In practice, this is a reasonable guarantee that one is communicating with the Gmail server with which it is destined to communicate, as well as ensuring that the content of the communications between the user and the Gmail server cannot be read or falsified by any third party. However, https only prevents emails from being tracked during network transmission. It does not prevent email server administrators, or anyone else who can access multiple email servers to read email messages, because https is not end to end encryption. The organization on which this work is based, has been in the market for email and SFTP communications for more than 30 years. The thesis identified communication problems by email and other protocols without securing the data sent, as well as who should have access to the data; Furthermore, confidentiality and integrity problems were found in the information sent. Finally, a cryptographic system design is required to provide security for communications and thus have access to information from any place, device, and at any time. The thesis analyzed the options in the market and determined the use of the PGP standard as the most suitable solution for the project. / Tesis
|
782 |
[pt] ALOCAÇÃO DE RECURSOS ONLINE DA PERSPECTIVA DE ANUNCIANTES / [en] ONLINE ADVERTISER-CENTRIC BUDGET ALLOCATIONEDUARDO CESAR NOGUEIRA COUTINHO 18 August 2020 (has links)
[pt] Nesse trabalho, propomos o problema AdInvest, que modela o processo decisiório de alocação de investimento em marketing digital do ponto de vista do anunciante. Para o problema proposto, definimos um algoritmo chamado balGreedy, e provamos suas garantias para instâncias determísticas e estocásticas do AdInvest. Os teoremas provados garantem ao nosso algoritmo resultados de pior caso relativamente próximos ao OPT, em diversos tipos de instâncias levantadas ao decorrer do trabalho. Em especial, focamos nas instâncias que modelam o efeito de saturação das audiências, que se faz presente na dinâmica de anúncios online. Como mostrado nos experimentos computacionais, o algoritmo balGreedy se mostrou consistentemente eficiente em comparação com as políticas alternativas adotadas, tanto nas instâncias que foram geradas por simulação, quanto em instâncias reais obtidas a partir de dados de um anunciante do Facebook Ads. / [en] In this work, we propose the problem AdInvest, which models the decision-making process for allocating investment in digital marketing from the advertiser perspective. For the proposed problem, we define an algorithm called balGreedy, and we prove its guarantees in deterministic and stochastic instances of the AdInvest. The proven theorems assure to our algorithm worst-case results relatively close to OPT, in several types of instances raised during the work. In particular, we focus on the instances that model the audience saturation effect, which is present in the dynamics of online advertisements. As shown in the computational experiments, the balGreedy algorithm had been consistently efficient compared to the alternative policies adopted, both in the instances generated by simulation and in real instances built from the data of a certain Facebook Ads advertiser.
|
783 |
[en] A GEOMETRIC ALGORITHM TO GENERATE RANDOM POLYDISPERSE DENSE ARRANGEMENTS OF NON OVER-LAPPING DISK PARTICLES / [pt] UM ALGORITMO GEOMÉTRICO GERADOR DE ARRANJOS POLIDISPERSOS DENSOS DE DISCOS SEM SOBREPOSIÇÃOELIAS FUKIM LOZANO CHING 05 November 2020 (has links)
[pt] O objetivo deste trabalho é apresentar uma nova estratégia para o problema de empacotamento de discos sem sobreposição para gerar arranjos aleatórios densos. O algoritmo geométrico adota uma abordagem frente de avanço que, com o apoio de uma malha poligonal, utiliza novas heurísticas para determinar as próximas posições para as próximas partículas. Além disso, propomos esquemas de realocação para melhorar o empacotamento no interior do arranjo e perto das bordas dos objetos arbitrários que contêm as partículas.
Os resultados provam que nosso algoritmo pode superar trabalhos anteriores, não apenas com a função de distribuição de raios de partículas desejada, mas também aumentando a densidade de empacotamento e o número médio de contatos. / [en] This work aims to present a new strategy for the non-overlapping disk packing problem to generate dense random assemblies. The geometric algorithm adopts an advancing front approach that uses new heuristics to
determine the next positions for the incoming particles with the support of a polygonal mesh. Furthermore, we propose relocation schemes to improve the packing at the pack s interior and near the container borders. Experiments prove that our algorithm outperforms previous results, w.r.t the desired particle radii distribution function and increases the packing density and mean number of particle contacts.
|
784 |
[pt] TOO BIG TO BOYCOTT: JORNALISMO E AS DISPUTAS PELO PODER DE INFORMAR / [en] TOO BIG TO BOYCOTT: JOURNALISM AND DISPUTES OVER THE POWER TO INFORMCLAUDIA MARIA MONTEIRO MONTENEGRO 18 February 2021 (has links)
[pt] O objetivo desta dissertação de mestrado é analisar o impacto das redes sociais no jornalismo. Constatamos o processo de transformação do jornalismo em rede para a jornalismo plataformizado, com a transposição da notícia para o sistema de funcionamento das plataformas que, por sua vez, se apropriam, desagregam e redistribuem as notícias de maneira personalizada para os usuários pelo uso de algoritmos. Ainda sem conseguir encontrar uma solução financeira para se inserir neste novo ecossistema midiático, os jornais se adaptam ao domínio das plataformas digitais, assumindo uma posição resumida pelo presidente da Associação Nacional de Jornais, Marcelo Rech, como Too Big to Boycott (grande demais para boicotar). A expressão foi tão representativa do que observamos que escolhemos como título desta dissertação. Apresentamos os diversos desafios pelos quais passam as organizações jornalísticas, em suas diversas camadas. A sociedade, impactada pelas novas tecnologias, passa por mudanças estruturais e o jornalismo, como uma instituição social, também se transforma. O objeto empírico foi o jornal O Globo. Fizemos um percurso pelo processo de digitalização do jornal desde a estreia do site em 1996 até 2019. Com foco na atuação nas redes sociais, realizamos uma observação participante das rotinas produtivas na redação. Utilizamos as técnicas de pesquisas qualitativa e quantitativa, para levantarmos e analisarmos os critérios de noticiabilidade utilizados pelos jornalistas na seleção das notícias para o Facebook e o Instagram. Exploramos tanto os elementos intrínsecos – os valores-notícia – quanto os valores extrínsecos aqueles que estavam presentes no processo escolha. / [en] The objective of this master s thesis is to analyze the impact of social media on journalism. We perceived the process of transforming network journalism into platform journalism, with the transposition of the news to the operating system of the platforms that, in turn, appropriate, disaggregate and redistribute the news in a personalized way for users through the use of algorithms. Still unable to find a financial solution to insert themselves in this new media ecosystem, newspapers adapt to the domain of digital platforms, assuming a position summarized by the president of the National Association of Newspapers, Marcelo Rech, as Too Big to Boycott. The expression was so representative of what we observed that we chose it as the title of this work. We present the different challenges undergone by journalistic organizations, in their different layers. Society, impacted by new technologies, goes through structural changes and journalism, as a social institution, follows suit. The empirical object was the newspaper O Globo. We took a journey through the digitalization process of the newspaper from the website s debut in 1996 until 2019. Focusing on social media, we made a participant observation of the productive routines in the newsroom. We made use of the techniques of qualitative and quantitative research to survey and analyze the news criteria used by journalists in the selection of news for Facebook and Instagram. We explored both the intrinsic elements - the news values - and the extrinsic values to those that were present in the selection process.
|
785 |
[pt] O PROBLEMA DE ALOCAÇÃO DO RSI: MÉTODOS EXATOS E HEURÍSTICOS / [en] THE RSI ALLOCATION PROBLEM: EXACT AND HEURISTIC METHODSMARIANA ALVES LONDE 06 July 2021 (has links)
[pt] Desde sua introdução, a comunicação móvel sem fio cresceu e se modificou
severamente. Seu crescimento acentuado significa que a alocação de diferentes
parâmetros para rádios ou estações-base ganhou diversos graus de complexidade.
Um parâmetro é o Root Sequence Index (RSI), relacionado com os
preâmbulos do Random Access Channel (PRACH), usado para alocar canais
de upload entre o equipamento do usuário e a estação rádio-base. A alocação
de RSIs próximos a radios ou antenas vizinhas pode causar colisões, que
são responsáveis por falhas no estabelecimento do serviço de comunicação e,
portanto, degradação no desempenho da rede. Em geral, tais problemas de
alocação são modelados como um Problema de Coloração de Grafos, incluindo
diversas restrições. Contudo, não há estudos que foquem na alocação de RSI e
colisões. O objetivo deste estudo é explorar e comparar modelos exatos e heurísticos
para esse problema. Para isso, diversos modelos matemáticos foram
elaborados, além de um algoritmo genético de chaves aleatórias viciadas. Os
resultados apontam que a utilização de uma estratégia baseada nas relações
de vizinhança é eficaz para a obtenção de boas soluções. / [en] Since its introduction, mobile wireless communication has grown and
changed substantially. This massive growth leads to different levels of complexity,
mainly concerned with the assignment of different parameters to radio
or base stations. One parameter is the Root Sequence Index (RSI), related
to the Physical Random Access Channel (PRACH) preambles, used to allocate
uplink channels between the user equipment and the base station. The
assignment of RSIs close-in-range to neighbor antennas may cause collisions,
which are responsible for failures on service establishment, and therefore, performance
degradation. Such allocation problems can be modeled as Graph Coloring
Problems, including several additional constraints. However, few studies
focus on RSI allocation and collisions from the optimization perspective. The
objective of this study is to develop methods for allocating the RSI, trying
to lessen the risk of collision, and obeying other constraints. In this study,
both exact and heuristics methods are explored and compared. For this, several
mathematical models were made, alongside a biased random key genetic
algorithm. The results show that the utilization of an allocation strategy based
on neighbor relations is efficient for finding good solutions.
|
786 |
[pt] MODELAGEM USANDO INTELIGÊNCIA ARTIFICIAL PARA ESTUDAR O PRÉ-TRATAMENTO DE BIOMASSA LIGNOCELULÓSICA / [en] MODELLING USING ARTIFICIAL INTELLIGENCE TO STUDY THE PRETREATMENT OF LIGNOCELLULOSIC BIOMASSJULIANA LIMA GUERHARD FIDALGO 09 June 2020 (has links)
[pt] Os polissacarídeos constituintes da biomassa lignocelulósica podem ser beneficiados através de processos industriais. Entretanto, para manipulá-los é necessário que a biomassa seja submetida ao processo de pré-tratamento. Esta é uma das etapas mais caras e relevantes para a disposição e aplicação das frações lignocelulósicas. O presente estudo consiste em uma investigação detalhada do processo de pré-tratamento da biomassa lignocelulósica com H2O2, a qual foi realizada através de tecnologias inteligentes que viabilizaram a otimização deste processo. Ferramentas de inteligência artificial revelam-se vantajosas na solução dos gargalos associados aos avanços tecnológicos. Possibilitam a modelagem matemática de um processo com máxima eficiência, otimizando sua produtividade, transformando dados experimentais em
informações úteis e demonstrando as infinitas possibilidades das relações das variáveis envolvidas. As variáveis independentes estudadas foram a temperatura (25 – 45 graus Celsius) e a concentração de peróxido de hidrogênio (1.5 – 7.5 porcento m/v). Técnicas analíticas qualitativas (Raman e FTIR) e quantitativa (Método de Klason) foram aplicadas para produzir um banco de dados referente a extração da lignina com H2O2, o qual foi utilizado no desenvolvimento de modelos neurais aplicando Redes Neurais Artificiais (ANN, do inglês Artificial Neural Networks) e Sistema de Inferência Adaptativa Neuro-Difusa (ANFIS, do inglês Adaptive neuro fuzzy inference system). E modelos polinomiais, os quais tiveram seus parâmetros estimados por Algoritmos Genéticos (GA, do inglês Genetic Algorithms). Os modelos desenvolvidos conseguiram predizer: o Teor de Lignina Extraída (porcento) por Espectroscopia Raman, o Teor de Lignina Oxidada (porcento) por FTIR, o Teor de Lignina Residual (porcento) pelo Método de Klason, e por último, dois modelos para a comparação da resposta analítica qualitativa com a resposta analítica quantitativa. Os modelos polinomiais, que tiveram seus parâmetros estimados por GA foram avaliados estatisticamente através da ANOVA e pelo coeficiente de correlação (R2). E os modelos neurais desenvolvidos foram avaliados pelo coeficiente de correlação (R2), número de parâmetros e índices de erro (SSE, MSE e RMSE). Para cada modelo polinomial e neural proposto, quando coerente, superfícies de
resposta e curvas de contorno foram plotadas permitindo a identificação da região operacional mais indicada para a realização do pré-tratamento com H2O2. Dentre as estratégias inteligentes propostas, os modelos desenvolvidos com ANN mostraram-se mais eficientes para as predições relacionadas à extração da lignina. / [en] Industrial processes benefit the polysaccharides constituting the lignocellulosic biomass. However to manipulate them it is necessary that the biomass is submitted to the pre-treatment process. This is one of the most expensive and relevant steps for the arrangement and application of lignocellulosic fractions. The present study consists of a detailed investigation of the pretreatment process of lignocellulosic biomass with H2O2, applying intelligent technologies that enabled the optimization of this process. Artificial intelligence tools prove to be advantageous in solving the bottlenecks associated with technological advances. They enable the mathematical modeling of a process with maximum efficiency, optimizing its productivity, transforming experimental data into useful information and demonstrating the infinite possibilities of the relationships of the variables involved. The independent variables studied were the temperature (25-45 Celsius degrees) and the concentration of hydrogen peroxide (1.5 - 7.5 percent m / v). Qualitative analytical techniques (Raman and FTIR) and quantitative (Klason method) were applied to
produce a database for the extraction of lignin with H2O2, which was used in the development of neural models applying Artificial Neural Networks (ANN) and Adaptive Neuro-Fuzzy Inference System (ANFIS). And polynomial models, which had their parameters estimated by Genetic Algorithms (GA). The models
developed were able to predict: the Extracted Lignin Content (percent) by Raman Spectroscopy, the Oxidized Lignin Content (percent) by FTIR, the Residual Lignin Content (percent) by the Klason Method, and lastly, two models for the comparison of the qualitative analytical response with the quantitative analytical response. The polynomial models, which had their parameters estimated by GA, were statistically
evaluated using ANOVA and correlation coefficient (R2) evaluated the polynomial models developed by GA statistically. And the neural models developed were evaluated by the coefficient of correlation (R2), number of parameters and error indexes (SSE, MSE and RMSE). For each proposed polynomial and neural model,
when coherent, response surfaces and contour curves were plotted allowing the identification of the most suitable operational region for the pretreatment with H2O2. Among the proposed intelligent strategies, the models developed with ANN proved to be more efficient for the predictions related to lignin extraction.
|
787 |
Estudio de Arquitecturas VLSI de la etapa de predicción de la compensación de movimiento, para compresión de imágenes y video con Algoritmos full-search. Aplicación al estándar H.264/AVCMora Campos, Armando 27 October 2008 (has links)
En esta tesis doctoral se presenta el diseño y realización de arquitecturas VLSI de estimación de movimiento, en sus versiones de pixeles enteros y fraccionarios, para la etapa de predicción de la compensación de movimiento del estándar de codificación de video H.264/AVC. Las arquitecturas propuestas son estructuras de procesamiento pipeline-paralelas con alta eficiencia en su data_path y una administración optima de la memoria. Utilizando el algoritmo full-search block matching, los diseños cumplen los requerimientos de tamaño de bloque variable y resolución de ¼ de píxel del estándar con máxima calidad. Los estimadores de movimiento combinan las características de las arquitecturas consideradas en el estado del arte junto con la aplicación de nuevos esquemas y algoritmos hardware, en el proceso de codificación del componente luma de la señal de video. Diseñadas como coprocesadores de aceleración hardware para procesadores de 32 bits, las arquitecturas que se presentan han sido simuladas y sintetizadas para FPGA Virtex-4 de Xilinx, utilizando el lenguaje de descripción de hardware VHDL. / Mora Campos, A. (2008). Estudio de Arquitecturas VLSI de la etapa de predicción de la compensación de movimiento, para compresión de imágenes y video con Algoritmos full-search. Aplicación al estándar H.264/AVC [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3446
|
788 |
Metodología para la generación de agendas de rotación de puestos de trabajo desde un enfoque ergonómico mediante algoritmos evolutivosAsensio Cuesta, Sabina 22 October 2009 (has links)
Los trastornos músculo-esqueléticos de origen laboral representan un importante problema al que se enfrentan las empresas y las organizaciones encargadas de velar por la salud de los trabajadores. Los factores de riesgo que pueden influir en la aparición de los trastornos músculo-esqueléticos son múltiples y variados, lo cual dificulta el desarrollo de mecanismos que permitan la prevención integral de los trabajadores frente a éste tipo de dolencias. La rotación de puestos de trabajo es una solución de índole administrativa cada vez más extendida como sistema de prevención de los trastornos músculo-esqueléticos. La rotación se presenta como un mecanismo de disminución del tiempo de exposición de los trabajadores a factores de riesgo susceptibles de causar lesiones músculo-esqueléticas. Sin embargo, aspectos como la inclusión en la rotación de puestos críticos que exigen al trabajador picos de esfuerzo, o la exposición combinada a diferentes factores de riesgo derivada de la alternancia entre puestos, podrían repercutir negativamente sobre la salud de los trabajadores. Así pues, un diseño inadecuado de la agenda de rotación puede, incluso, incrementar el
riesgo de lesión para algunos de ellos. Por tanto, la generación de agendas de rotación capaces de prevenir los trastornos músculo-esqueléticos supone un problema complejo, debido al elevado número criterios y estricciones que, simultáneamente, es necesario considerar.
En el presente trabajo se ha desarrollado una metodología que dota al planificador de una herramienta sistemática de obtención de agendas de rotación para la prevención de los trastornos músculo-esqueléticos. Dicha metodología supone una guía para el planificador en la consideración de los aspectos fundamentales relacionados con la rotación, al tiempo que explota la capacidad de los Algoritmos Genéticos para resolver problemas de optimización combinatoria, entre los que se encuentra el problema de la generación de agendas de rotación bajo múltiples criterios y restricciones. / Asensio Cuesta, S. (2009). Metodología para la generación de agendas de rotación de puestos de trabajo desde un enfoque ergonómico mediante algoritmos evolutivos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/6287
|
789 |
Modelo de optimización en la generación de plantas industriales, considerando las actividades de mantenimiento y las condiciones ambientales mediante el uso de la metodología de los algoritmos genéticosContreras Pérez, Román Augusto 12 March 2010 (has links)
El entorno competitivo donde se desenvuelven actualmente las organizaciones empresariales, obliga a plantearse esquemas de operación bajo requerimientos de alta calidad y mínimos costes de producción. En los costes de producción, influyen, considerablemente, la distribución de las diferentes actividades en planta y el mantenimiento de los equipos que la conforman. Para la distribución de las actividades, es imperioso diseñar la ordenación, que favorezca el recorrido óptimo de los materiales de producción, para minimizar los gastos asociados al desplazamiento y a otros criterios de implantación. En relación al mantenimiento, es indispensable habilitar aquellas acciones que permitan conservar, plenamente operativos, los equipos del proceso y que a su vez impliquen costes mínimos. Hasta el presente, no se ha propuesto una metodología que contemple ambas consideraciones en el diseño de plantas. En este trabajo, se propone un primer modelo, cuya finalidad es minimizar tanto los costes relacionados por el posicionamiento de las actividades, como los esperados por la aplicación del mantenimiento a los equipos, y la influencia que tiene la distribución en éstos. Como metodología de búsqueda y validación se emplea un algoritmo genético. / Contreras Pérez, RA. (2010). Modelo de optimización en la generación de plantas industriales, considerando las actividades de mantenimiento y las condiciones ambientales mediante el uso de la metodología de los algoritmos genéticos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7344
|
790 |
Reducción del Tiempo de Simulación de Redes de Distribución de Agua, mediante el Método de Mallas y la Computación de Altas PrestacionesAlvarruiz Bermejo, Fernando 14 March 2016 (has links)
[EN] Computer simulation of water distribution networks by means of mathematical models is nowadays an indispensable tool for the design and exploitation of those networks. Simulation is used not only for the design of new supply systems, or modifications and extensions of existing systems, but also for the normal operation tasks carried out in any network. Two main types of simulation can be differentiated: hydraulic simulation, by means of which the pressures and flows registered in the network are computed, and water quality simulation, the objective of which is to obtain information about chemical substance concentrations.
The need for simulation comes often in the context of a wider problem of optimization or reliability analysis, which requires performing a large number of simulations, thus resulting in a process with considerable computational complexity. This fact, added to the growing size and level of detail of network models, as a consequence of the automatic incorporation of data coming from Geographical Information Systems, means that the performance of the simulation solver has a great impact in the overall computing time.
In this context, this thesis considers and explores different strategies to improve the performance of water distribution network simulation. The first strategy consists of making some contributions to the hydraulic simulation method known as Looped Newton-Raphson (or more simply the loop method), which is based on the consideration of flow corrections associated to a set of independent loops within the network. Even though the method known as Global Gradient Algorithm (GGA) is more widely used and accepted, the loop method has the potential to be faster, owing to the smaller size of the underlying linear systems. In this thesis some contributions are presented to improve the performance of the loop method for hydraulic simulation. Firstly, efficient algorithms are developed for the selection of a suitable set of independent loops, leading to a highly sparse linear system. Secondly, methods are developed for efficient modeling of hydraulic valves, and especially pressure reducing/sustaining valves.
The second strategy explored is the introduction of high performance computing in the hydraulic simulation using distributed memory platforms. In particular, the code of Epanet, a widely accepted water distribution network simulation software, is taken as the starting point for the introduction of parallel simulation algorithms, using the Message Passing Interface (MPI) tool for inter-process communications. As a result of this work, firstly a parallel algorithm is presented for the simulation of flows and pressures by means of the GGA method, making use of multifrontal algorithms for the parallel solution of the underlying linear systems. Secondly, a parallel algorithm for water quality simulation by means of the Discrete Volume Element Method (DVEM) is described, based on partitioning the network by means of multilevel recursive bisection algorithms. Thirdly, a parallel method is presented for leakage minimization by finding the optimal pressure settings for a set of pressure-reducing valves.
In distributed memory platforms the overhead due to communication and synchronization can be excessively high, counterbalancing the gain derived from the division of the computation among the processors. This effect is less pronounced in shared memory platforms such as multicore systems, which have gained popularity over the last years. This fact motivates the third strategy explored in this thesis, which is the development of parallel algorithms for simulation of flows and pressures using multicore systems. OpenMP is the tool used for the parallelization, both of the method GGA as implemented in Epanet software and of the loop method with the contributions on it that have been made in the context of this thesis. / [ES] La simulación por computador de las redes de distribución de agua potable, mediante el uso de modelos matemáticos, es hoy en día una herramienta indispensable para el diseño y la explotación de dichas redes. La simulación se utiliza tanto en el diseño de nuevos abastecimientos y en ampliaciones o modificaciones de abastecimientos existentes, como en las tareas de operación normales de cualquier red. Se puede diferenciar entre dos tipos de simulación: la simulación hidráulica, que permite obtener las presiones y caudales que se registran en la red, y la simulación de la calidad del agua, cuyo objetivo es obtener información sobre concentraciones de sustancias químicas.
A menudo la necesidad de simulación surge dentro de un problema más amplio de optimización o de análisis de fiabilidad, que requiere llevar a cabo un gran número de simulaciones, con lo que el proceso completo resulta de una complejidad computacional considerable. Esto, añadido al hecho de que el tamaño y nivel de detalle de los modelos de redes crece constantemente, como consecuencia de la incorporación automática de datos contenidos en Sistemas de Información Geográfica, hace que las prestaciones del solver de simulación tengan un gran impacto en el tiempo total de cálculo necesario.
En este contexto, esta tesis considera y explora distintas vías para mejorar las prestaciones de la simulación de redes de distribución de agua. La primera de estas vías consiste en realizar algunas aportaciones al método de simulación hidráulica conocido como método de Newton-Raphson de mallas, el cual se basa en la consideración de caudales correctores asociados a un conjunto de mallas independientes definidas sobre la red. Aunque el método conocido como Algoritmo del Gradiente Global (GGA) goza de mayor aceptación, el método de mallas tiene el potencial de ser más rápido, debido al menor tamaño de los sistemas lineales subyacentes. Esta tesis presenta aportaciones para mejorar las prestaciones del método de mallas de simulación hidráulica. En primer lugar, se desarrollan algoritmos eficientes para la selección de un conjunto de mallas adecuado, que conduzca a un sistema altamente disperso. En segundo lugar se desarrollan métodos para la modelización eficiente de válvulas, y especialmente válvulas reductoras/sostenedoras de presión.
La segunda vía explorada es la introducción de la computación de altas prestaciones en la simulación hidráulica usando plataformas de memoria distribuida. En particular, se parte del código de Epanet, un software de simulación de redes de amplia aceptación, y se introducen en él algoritmos paralelos de simulación, usando la herramienta Message Passing Interface (MPI) para la comunicación entre procesos. Como resultado de ello, se presenta en primer lugar un algoritmo paralelo para la simulación de caudales y presiones por medio del método GGA, haciendo uso de algoritmos multifrontales para la resolución paralela de los sistemas lineales subyacentes. En segundo lugar, se describe un algoritmo paralelo para la simulación de la calidad del agua mediante el Método de Elementos Discretos de Volumen (DVEM), particionando la red por medio de algoritmos de bisección recursiva multinivel. En tercer lugar, se presenta un método paralelo para la minimización de fugas mediante la determinación de las consignas óptimas de una serie de válvulas reductoras de presión.
Finalmente, la tercera vía explorada es el desarrollo de algoritmos paralelos sobre memoria compartida para la simulación de presiones y caudales. Se considera con ello un tipo de plataformas que han ganado popularidad en los últimos años. Se utiliza la herramienta OpenMP para la paralelización, tanto de Epanet y de su implementación del método GGA, como del método de mallas, con las aportaciones al mismo que se han realizado en el contexto de esta tesis. / [CA] La simulació per computador de les xarxes de distribució d'aigua potable, per mitjà de l'ús de models matemàtics, es hui en dia una ferramenta indispensable per al disseny i l'explotació d'abastiments d'aigua. La simulació s'utilitza tant per al disseny de nous abastiments o ampliacions i modificacions d'abastiments existents, com per a les tasques d'operació normals en qualsevol xarxa. Es pot diferenciar entre dos tipus de simulació: la simulació hidràulica, que permet obtindre les pressions i cabals que es produeixen en la xarxa, i la simulació de la qualitat de l'aigua, l'objectiu de la qual és obtindre informació sobre concentracions de substàncies químiques.
Sovint la necessitat de simulació sorgeix dins d'un problema més ampli d'optimització o d'anàlisi de fiabilitat, que requereix dur a terme un gran nombre de simulacions, amb la qual cosa el procés complet resulta d'una complexitat computacional considerable. Això, afegit al fet de que la grandària i nivell de detall del models de xarxes creix constantment, com a conseqüència de la incorporació automàtica de dades contingudes en Sistemes d'Informació Geogràfica, fa que les prestacions del solver de simulació tinguen un gran impacte en el temps total de càlcul necessari.
En este context, esta tesi considera i explora diferents vies per a millorar les prestacions de la simulació de xarxes de distribució d'aigua. La primera d'estes vies consisteix en realitzar algunes contribucions al mètode de simulació hidràulica conegut com mètode de Newton-Raphson de malles (o simplement mètode de malles), el qual es basa en la consideració de cabals correctors associats a un conjunt de malles independents definides en la xarxa. Encara que el mètode conegut com Algorisme del Gradient Global (GGA) gaudeix de major acceptació, el mètode de malles té el potencial de ser més ràpid, degut a la menor grandària dels sistemes lineals subjacents. En esta tesi es presenten contribucions per a millorar les prestacions del mètode de malles de simulació hidràulica. En concret, en primer lloc es desenvolupen algorismes eficients per a la selecció d'un conjunt de malles adequat, que conduïsca a un sistema lineal altament dispers. En segon lloc es desenvolupen mètodes per a la modelització eficient de vàlvules, i especialment vàlvules reductores/sostenidores de pressió.
La segona via explorada és la introducció de la computació d'altes prestacions en la simulació hidràulica utilitzant plataformes de memòria distribuïda. En concret, es parteix del codi d'Epanet, un programari de simulació de xarxes de distribució d'aigua d'amplia acceptació, i s'hi introdueixen algorismes paral·lels de simulació, utilitzant la ferramenta Message Passing Interface (MPI) per a la comunicació entre processos. Com a resultat d'este treball, es presenta en primer lloc un algorisme paral·lel per a la simulació de cabals i pressions per mitjà del mètode GGA, fent ús d'algorismes multifrontals per a la resolució en paral·lel dels sistemes lineals subjacents. En segon lloc, es descriu un algorisme paral·lel per a la simulació de la qualitat d'aigua amb el Mètode d'Elements Discrets de Volum (DVEM), particionant la xarxa per mitjà d'algoritmes de bisecció recursiva multinivell. En tercer lloc es presenta un mètode paral·lel per a la minimització de fugues mitjançant la determinació de les consignes òptimes d'una sèrie de vàlvules reductores de pressió.
Finalment, la tercera via explorada és el desenvolupament d'algorismes paral·lels sobre memòria compartida per a la simulació de pressions i cabals. Es considera amb això un tipus de plataformes que han guanyat popularitat en els últims anys. S'utilitza la ferramenta OpenMP per a la paral·lelització, tant del programari Epanet i de la seua implementació del mètode GGA, com del mètode de malles, amb les contribucions al mateix que s'han realitzat en el context d'esta tesi. / Alvarruiz Bermejo, F. (2016). Reducción del Tiempo de Simulación de Redes de Distribución de Agua, mediante el Método de Mallas y la Computación de Altas Prestaciones [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/61764
|
Page generated in 0.1918 seconds