• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 352
  • 313
  • 107
  • 2
  • 2
  • 1
  • Tagged with
  • 777
  • 777
  • 214
  • 145
  • 143
  • 127
  • 126
  • 126
  • 126
  • 126
  • 111
  • 103
  • 98
  • 96
  • 92
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
461

Constructing Covering Arrays using Parallel Computing and Grid Computing

Avila George, Himer 10 September 2012 (has links)
A good strategy to test a software component involves the generation of the whole set of cases that participate in its operation. While testing only individual values may not be enough, exhaustive testing of all possible combinations is not always feasible. An alternative technique to accomplish this goal is called combinato- rial testing. Combinatorial testing is a method that can reduce cost and increase the effectiveness of software testing for many applications. It is based on con- structing functional test-suites of economical size, which provide coverage of the most prevalent configurations. Covering arrays are combinatorial objects, that have been applied to do functional tests of software components. The use of cov- ering arrays allows to test all the interactions, of a given size, among the input parameters using the minimum number of test cases. For software testing, the fundamental problem is finding a covering array with the minimum possible number of rows, thus reducing the number of tests, the cost, and the time expended on the software testing process. Because of the importance of the construction of (near) optimal covering arrays, much research has been carried out in developing effective methods for constructing them. There are several reported methods for constructing these combinatorial models, among them are: (1) algebraic methods, recursive methods, (3) greedy methods, and (4) metaheuristics methods. Metaheuristic methods, particularly through the application of simulated anneal- ing has provided the most accurate results in several instances to date. Simulated annealing algorithm is a general-purpose stochastic optimization method that has proved to be an effective tool for approximating globally optimal solutions to many optimization problems. However, one of the major drawbacks of the simulated an- nealing is the time it requires to obtain good solutions. In this thesis, we propose the development of an improved simulated annealing algorithm / Avila George, H. (2012). Constructing Covering Arrays using Parallel Computing and Grid Computing [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/17027
462

Building task-oriented machine translation systems

Sanchis Trilles, Germán 20 September 2012 (has links)
La principal meta de esta tesis es desarrollar sistemas de traduccion interactiva que presenten mayor sinergia con sus usuarios potenciales. Por ello, el objetivo es hacer los sistemas estado del arte mas ergonomicos, intuitivos y eficientes, con el fin de que el experto humano se sienta mas comodo al utilizarlos. Con este fin se presentan diferentes t�ecnicas enfocadas a mejorar la adaptabilidad y el tiempo de respuesta de los sistemas de traduccion automatica subyacentes, as�ÿ como tambien se presenta una estrategia cuya finalidad es mejorar la interaccion hombre-m�aquina. Todo ello con el proposito ultimo de rellenar el hueco existente entre el estado del arte en traduccion automatica y las herramientas que los traductores humanos tienen a su disposici�on. En lo que respecta al tiempo de respuesta de los sistemas de traducci�on autom�atica, en esta tesis se presenta una t�ecnica de poda de los par�ametros de los modelos de traducci�on actuales, cuya intuici�on est�a basada en el concepto de segmentaci�on biling¤ue, pero que termina por evolucionar hacia una estrategia de re-estimaci�on de dichos par�ametros. Utilizando esta estrategia se obtienen resultados experimentales que demuestran que es posible podar la tabla de segmentos hasta en un 97%, sin mermar por ello la calidad de las traducciones obtenidas. Adem�as, estos resultados son coherentes en diferentes pares de lenguas, lo cual evidencia que la t�ecnica que se presenta aqu�ÿ es efectiva en un entorno de traducci�on autom�atica tradicional, y por lo tanto podr�ÿa ser utilizada directamente en un escenario de post-edici�on. Sin embargo, los experimentos llevados a cabo en traducci�on interactiva son ligeramente menos convincentes, pues implican la necesidad de llegar a un compromiso entre el tiempo de respuesta y la calidad de los sufijos producidos. Por otra parte, se presentan dos t�ecnicas de adaptaci�on, con el prop�osito de mejorar la adaptabilidad de los sistemas de traducci�on autom�atica. La primera / Sanchis Trilles, G. (2012). Building task-oriented machine translation systems [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/17174
463

SLA-Driven Cloud Computing Domain Representation and Management

García García, Andrés 24 March 2014 (has links)
The assurance of Quality of Service (QoS) to the applications, although identified as a key feature since long ago [1], is one of the fundamental challenges that remain unsolved. In the Cloud Computing context, Quality of Service is defined as the measure of the compliance of certain user requirement in the delivery of a cloud resource, such as CPU or memory load for a virtual machine, or more abstract and higher level concepts such as response time or availability. Several research groups, both from academia and industry, have started working on describing the QoS levels that define the conditions under which the service need to be delivered, as well as on developing the necessary means to effectively manage and evaluate the state of these conditions. [2] propose Service Level Agreements (SLAs) as the vehicle for the definition of QoS guarantees, and the provision and management of resources. A Service Level Agreement (SLA) is a formal contract between providers and consumers, which defines the quality of service, the obligations and the guarantees in the delivery of a specific good. In the context of Cloud computing, SLAs are considered to be machine readable documents, which are automatically managed by the provider's platform. SLAs need to be dynamically adapted to the variable conditions of resources and applications. In a multilayer architecture, different parts of an SLA may refer to different resources. SLAs may therefore express complex relationship between entities in a changing environment, and be applied to resource selection to implement intelligent scheduling algorithms. Therefore SLAs are widely regarded as a key feature for the future development of Cloud platforms. However, the application of SLAs for Grid and Cloud systems has many open research lines. One of these challenges, the modeling of the landscape, lies at the core of the objectives of the Ph. D. Thesis. / García García, A. (2014). SLA-Driven Cloud Computing Domain Representation and Management [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/36579
464

Inexact Mapping of Short Biological Sequences in High Performance Computational Environments

Salavert Torres, José 30 October 2014 (has links)
La bioinformática es la aplicación de las ciencias computacionales a la gestión y análisis de datos biológicos. A partir de 2005, con la aparición de los secuenciadores de ADN de nueva generación surge lo que se conoce como Next Generation Sequencing o NGS. Un único experimento biológico puesto en marcha en una máquina de secuenciación NGS puede producir fácilmente cientos de gigabytes o incluso terabytes de datos. Dependiendo de la técnica elegida este proceso puede realizarse en unas pocas horas o días. La disponibilidad de recursos locales asequibles, tales como los procesadores multinúcleo o las nuevas tarjetas gráfi cas preparadas para el cálculo de propósito general GPGPU (General Purpose Graphic Processing Unit ), constituye una gran oportunidad para hacer frente a estos problemas. En la actualidad, un tema abordado con frecuencia es el alineamiento de secuencias de ADN. En bioinformática, el alineamiento permite comparar dos o más secuencias de ADN, ARN, o estructuras primarias proteicas, resaltando sus zonas de similitud. Dichas similitudes podrían indicar relaciones funcionales o evolutivas entre los genes o proteínas consultados. Además, la existencia de similitudes entre las secuencias de un individuo paciente y de otro individuo con una enfermedad genética detectada podría utilizarse de manera efectiva en el campo de la medicina diagnóstica. El problema en torno al que gira el desarrollo de la tesis doctoral consiste en la localización de fragmentos de secuencia cortos dentro del ADN. Esto se conoce bajo el sobrenombre de mapeo de secuencia o sequence mapping. Dicho mapeo debe permitir errores, pudiendo mapear secuencias incluso existiendo variabilidad genética o errores de lectura en el mapeo. Existen diversas técnicas para abordar el mapeo, pero desde la aparición de la NGS destaca la búsqueda por pre jos indexados y agrupados mediante la transformada de Burrows-Wheeler [28] (o BWT en lo sucesivo). Dicha transformada se empleó originalmente en técnicas de compresión de datos, como es el caso del algoritmo bzip2. Su utilización como herramienta para la indización y búsqueda posterior de información es más reciente [22]. La ventaja es que su complejidad computacional depende únicamente de la longitud de la secuencia a mapear. Por otra parte, una gran cantidad de técnicas de alineamiento se basan en algoritmos de programación dinámica, ya sea Smith-Watterman o modelos ocultos de Markov. Estos proporcionan mayor sensibilidad, permitiendo mayor cantidad de errores, pero su coste computacional es mayor y depende del tamaño de la secuencia multiplicado por el de la cadena de referencia. Muchas herramientas combinan una primera fase de búsqueda con la BWT de regiones candidatas al alineamiento y una segunda fase de alineamiento local en la que se mapean cadenas con Smith-Watterman o HMM. Cuando estamos mapeando permitiendo pocos errores, una segunda fase con un algoritmo de programación dinámica resulta demasiado costosa, por lo que una búsqueda inexacta basada en BWT puede resultar más e ficiente. La principal motivación de la tesis doctoral es la implementación de un algoritmo de búsqueda inexacta basado únicamente en la BWT, adaptándolo a las arquitecturas paralelas modernas, tanto en CPU como en GPGPU. El algoritmo constituirá un método nuevo de rami cación y poda adaptado a la información genómica. Durante el periodo de estancia se estudiarán los Modelos ocultos de Markov y se realizará una implementación sobre modelos de computación funcional GTA (Aggregate o Test o Generate), así como la paralelización en memoria compartida y distribuida de dicha plataforma de programación funcional. / Salavert Torres, J. (2014). Inexact Mapping of Short Biological Sequences in High Performance Computational Environments [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/43721
465

Algoritmos paralelos para la reducción de sistemas lineales de control estables

Guerrero López, David 07 January 2016 (has links)
[EN] In the field of control theory, sometimes system models of big size (with many state variables) appear. When one of these high order systems needs to be simulated, studied or controlled, it is convenient to perform a previous work of model reduction in order to reduce the necessary (economic and temporal) costs. This process of obtaining a low order adequate representation of the original system usually has a high cost, because it has to be done with the original unreduced system. Thus, it is important to have high performance implementations for the problem of reducing linear control systems. In this thesis high performance implementations for some methods of model reduction have been developed. Current algorithms for model reduction of stable linear control systems and their implementation in the control library SLICOT have been analysed. New parallel algorithms for the methods strongly based on solving Lyapunov equations have been proposed. The new developed routines are incorporated in the high performance library for control PSLICOT. Apart from the main functions in charge of model reduction, all operations appearing in the problem and not having a high performance version yet have also been parallelised. One of these operations is the solution of Lyapunov equations in standard form. Parallel routines for solving these equations have been developed. These routines solve the equation obtaining directly the Cholesky factor of the solution, which fits better their application in model reduction. For this, Hammarling's method has been parallelised. The new routines solve in parallel and for dense matrices the four possible variants of standard Lyapunov equations: discrete and continuous versions, both transposed and not transposed. Interfaces offered by all the parallelised routines are similar to that of the existing routines in ScaLAPACK library, so they are easy to use from a user of this kind of libraries. The new routines work with the same data distribution used in this library: 2D block cyclic distribution, which allows many other distributions. Thanks to the developed work, now there are available high performance parallel routines to reduce linear control systems by using different variants of the Square-Root Balance & Truncate model reduction method: with or without balancing and with or without using the singular perturbation approximation formulas. They are parallel implementations of the same algorithms and methods used in the sequential routines of the SLICOT library. This allows to efficiently reduce models of linear control systems of big size. Moreover, existing software in ScaLAPACK for the eigenvalue problem has been improved by covering cases not treated there: the solution of the generalised problem (by transforming it into standard form, which is not always possible) and the computation of the eigenvectors. This part of the work has been applied to a real problem of simulation of oceanic flows. Here, it is necessary to compute all the eigenvalues and eigenvectors of a generalised eigenvalue problem with a very big dimension. As a consequence, enormous eigenvalue problems have been solved (with matrices of order greater than 400000), that could not be solved previously. Solving them allows to improve the precision in the studies of the behaviour of oceanic flows. / [ES] En el campo de la teoría de control en ocasiones aparecen modelos de sistemas con un tamaño elevado (muchas variables de estado). Cuando se pretende simular, estudiar o controlar uno de estos sistemas de orden elevado, conviene realizar un trabajo previo de reducción del modelo del sistema con el propósito de reducir los costes (económicos/temporales) necesarios en un tratamiento posterior. El proceso de obtención de un sistema de orden reducido que represente adecuadamente el sistema original suele ser costoso, ya que necesariamente se tiene que hacer con el sistema original sin reducir. Por esto, resulta conveniente disponer de implementaciones de altas prestaciones para el problema de reducción de sistemas lineales de control. En esta tesis se han desarrollado implementaciones de altas prestaciones para algunos métodos de reducción de modelos. Se han analizado los algoritmos existentes para la reducción de modelos de sistemas lineales de control estables y sus implementaciones en la librería de control SLICOT. Se han propuesto nuevos algoritmos paralelos para los métodos cuyo núcleo principal es la resolución de ecuaciones de Lyapunov. Las nuevas rutinas desarrolladas se incorporan a la librería de computación de altas prestaciones para control PSLICOT. Aparte de las funciones principales a cargo de la reducción de modelos, se han tenido que paralelizar también todas aquellas operaciones numéricas que aparecen en este problema y de las que no se disponía de versiones de altas prestaciones. De estas operaciones, cabe destacar rutinas paralelas para la resolución de la ecuación de Lyapunov en su forma estándar obteniendo directamente el factor de Cholesky de la solución, que es lo que se necesita para la reducción de modelos. El método utilizado es una versión paralela del método de Hammarling. Las rutinas implementadas resuelven en paralelo y para matrices densas las cuatro variantes posibles de la ecuación de Lyapunov: en su forma discreta y continua, traspuestas y sin trasponer. Todas las rutinas paralelizadas ofrecen una interfaz como la de las rutinas de la librería ScaLAPACK, para que puedan ser usadas con facilidad por el usuario habituado a trabajar con este tipo de librerías. Se permiten las mismas distribuciones de datos que en esta librería: una distribución cíclica 2D por bloques, que engloba muchas otras distribuciones. Gracias al trabajo desarrollado, ahora se dispone de versiones paralelas de altas prestaciones para reducir sistemas lineales de control mediante diferentes variantes del método de balanceado y truncamiento de la raíz cuadrada (the Square-Root Balance & Truncate model reduction method): con o sin balanceado y con o sin usar las fórmulas de perturbación singular. Se trata de versiones paralelas de los mismos algoritmos y métodos que se utilizan en las versiones secuenciales de la librería SLICOT. Esto permitirá reducir de forma eficiente modelos de sistemas lineales de control de gran tamaño. También se ha mejorado la aplicabilidad del software existente en ScaLAPACK para el problema de valores propios cubriendo casos que no se contemplaban. Se ha trabajado en la solución del problema generalizado (mediante su transformación a forma estándar, lo que no es aplicable en todos los casos) y también en el cálculo de los vectores propios. Ambas operaciones se han utilizado en un problema real de simulación de flujos oceánicos. En esta aplicación se requiere el cálculo de todos los valores y vectores propios de un problema generalizado de gran dimensión. Como consecuencia, ha sido posible resolver problemas de valores propios generalizados enormes (con matrices de más de 400000 filas y columnas) que no habían podido resolverse con anterioridad, permitiendo así un estudio más preciso del comportamiento de las corrientes oceánicas. / [CA] En el camp de la teoria de control de vegades apareixen models de sistemes amb un tamany elevat (moltes variables d'estat). Quan es pretén simular, estudiar o controlar un d'aquests sistemes d'ordre elevat, convé realitzar un treball previ de reducció del model del sistema amb el propòsit de reduir els costos (econòmics/temporals) necesaris en un tractament posterior. El procés d'obtenció d'un sistema d'ordre reduit que represente adequadament el sistema original sol ser costós, perque necessàriament ha de fer-se amb el sistema original sense reduir. Per aquest motiu, resulta convenient disposar d'implementacions d'altes prestacions per al problema de reducció de sistemes lineals de control. En aquesta tesis s'han desenvolupat implementacions d'altes prestacions per a alguns mètodes de reducció de models. S'han anal·litzat els algoritmes existents per a la reducció de models de sistemes lineals de control estables i les seues implementacions en la llibreria de control SLICOT. S'han proposat nous algoritmes paral·lels per als mètodes basats en la resolució d'equacions de Lyapunov. Les noves rutines desenvolupades s'incorporen a la llibreria de computació d'altes prestacions per a control PSLICOT. Apart de les funcions principals a càrrec de la reducció de models, s'han hagut de paral·le\-lit\-zar també totes aquelles operacions numèriques que apareixen en aquest problema i per a les que no es disposava de versions d'altes prestacions. D'aquestes operacions, destaquen rutines paral·leles per a la resolució de l'equació de Lyapunov en la seua forma estàndard obtenint directament el factor de Cholesky de la solució, que és el que es necessita per a la reducció de models. El mètode emprat és una versió paral·lela del mètode de Hammarling. Les rutines implementades resolen en paral·lel i per a matrius denses les quatre variants possibles de l'equació de Lyapunov: en la seua forma discreta i contínua, traspostes i sense trasposar. Totes les rutines paral·lelitzades ofereixen una interfaç com la de les rutines de la llibreria ScaLAPACK, per a que puguen ser usades fàcilment per l'usuari acostumat a treballar amb aquest tipus de llibreries. Es permeten les mateixes distribucions de dades que en aquesta llibreria: distribució cíclica 2D per blocs, que engloba moltes altres distribucions. Gràcies al treball desenvolupat, ara es disposa de versions paral·leles d'altes prestacions per a reduir sistemes lineals de control mitjançant diferents variants del mètode de balancejat i truncament de l'arrel quadrada (the Square-Root Balance & Truncate model reduction method): amb o sense balancejat i amb o sense usar les fórmules de perturbació singular. Son versions paral·leles dels mateixos algoritmes i mètodes que s'utilitzen en les versions sequencials de la llibreria SLICOT. Això permetrà reduir de forma eficient models de sistemes lineals de control de gran tamany. També s'ha mitjorat l'aplicabilitat del software existent en ScaLAPACK per al problema de valors propis cobrint casos que no es contemplaven. S'ha treballat en la solució del problema generalitzat (mitjançant la seua transformació a forma estàndard, cosa que no es pot fer sempre) i també en el càlcul dels vectors propis. Ambdues operacions s'han utilitzat en un problema real de simulació de fluxos oceànics. En aquesta aplicació es requereix el càlcul de tots els valors i vectors propis d'un problema generalitzat de gran dimensió. Com a conseqüència, ha sigut possible resoldre problemes de valors propis generalitzats molt grans (amb matrius de més de 400000 files i columnes) que no s'havien pogut resoldre anteriorment, permetent així un estudi més precís del comportament de les corrents oceàniques. / Guerrero López, D. (2015). Algoritmos paralelos para la reducción de sistemas lineales de control estables [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/59415
466

PLAtaforma TEcnológica Multimedia para la Agricultura de Precisión (PLATEM Precision Agriculture)

Cambra Baseca, Carlos 27 January 2020 (has links)
[ES] Hay muchos trabajos relacionados con la automatización de procesos en agricultura. Con la revolución del Internet de las Cosas (del Inglés, Internet of things o IoT) están apareciendo en el mercado multitud de dispositivos capaces de interconectar sensores. Más enfocado a la agricultura intensiva, aparecen muchas comercializadoras de productos IoT que, aunque sus desarrolladores aseguran que son capaces de automatizar las tareas en los cultivos, vemos que no es así. Muchos productos tecnológicos desarrollados para ser usados en la agricultura de precisión, como son los programadores de riego tele-gestionados funcionan de forma independiente con otras tecnologías de la agricultura. En estos momentos y con el avance tecnológico actual, se debe integrar una programación de riego acorde a las necesidades reales del cultivo en tierra y con unas mediciones de necesidades de cultivo tomadas vía satélite o mediante dron desde el aire adaptando las variables de forma automática en una única plataforma de gestión. Si el patrón de producción de mi explotación funciona bien, la PLAtaforma TEcnológica Multimedia (PLATEM) permitirá compartir la estrategia seguida para que socios cooperativistas o personas que estén registrados en la red social, puedan verla y ver los contenidos publicados en ella sobre sistemas de control agrícolas. Esta tesis se centra en la investigación, diseño y desarrollo de nuevas tecnologías para integrar todos los sistemas presentes en un sistema automáticos, considerando, desde la monitorización de parámetros, hasta el procesado y toma de decisiones para una administración eficiente, siendo plata una herramienta óptima para la comunidad profesional de agricultores y con una usabilidad cercana al agricultor. Primeramente, se presentan trabajos previos relacionados con la captura de datos procedentes de cultivo y funcionamiento de riego a través del procesado de vídeo realizado con drones de vuelo autónomo. Seguidamente, se presentan los dispositivos presentes en la red inalámbrica de sensores orientada a captura de datos de los sensores terrestres y actuadores en sistemas de riego telegestionados de ultra bajo consumo energético. Por esto, nuestro trabajo se centra en redes de comunicaciones de banda estrecha, muy adecuadas para el uso en el medio rural. Nuestro sistema permite mantener un dispositivo comunicado y capaz de maniobrar las válvulas de hasta una extensión de 16 hectáreas con una pila comercial de 9 voltios toda una campaña de riego, sin necesidad de placas solares. Por último, toda la información e interoperabilidad de los apartados anteriores necesitan una gestión integral en un único sistema amigable con el usuario. En este punto presentamos un servidor con un motor de reglas de negocio y machine learning con autoaprendizaje capaz de generar decisiones para los controladores de riego, datos sensoriales de parcela o ambientales. Esta información es capaz de publicarse entre grupos sociales de usuarios e intercambiar métodos de trabajo y consignas. Todos los desarrollos y propuestas han sido precedidos de estudios de consumos energéticos en todos los dispositivos incluidos en el sistema. Además, se ha realizado un estudio en campo de las redes inalámbricas de sensores desplegadas en el medio rural bajo condiciones altamente problemáticas para comprobar el correcto funcionamiento del sistema entero. / [CA] Existeixen gran quantitat de treballs relacionats amb l'automatització de processos en agricultura. Amb la revolució la Internet de les coses (de l'anglès Internet of Things o IoT) estan apareixent al mercat multitud de dispositius capaços d'interconnectar sensors. Més enfocat a l'agricultura intensiva, s'estan comercialitzant productes IoT que, tot i que els seus desenvolupadors asseguren que són capaços d'automatitzar les tasques en els cultius, veiem que no és així. Molts productes tecnològics desenvolupats per a utilitzar-los a l'agricultura de precisió, com són els programadors de reg tele gestionats, funcionen de forma independent amb altres tecnologies usades en l'agricultura. En aquests moments i amb l'avanç tecnològic actual, existeix la possibilitat d'aplicar unes rutines de reg adequades amb les necessitats reals del cultiu en terra, combinat amb la mesura de les necessitats de cultiu preses via satèl·lit o mitjançant vehicles aeris no tripulats o dron des de l'aire, adaptant les variables de forma automàtica en una única plataforma de gestió. Si el patró de producció de la meva explotació funciona bé, la PLAtaforma TEcnològica Multimedia (PLATEM) permetrà compartir l'estratègia seguida per tal que socis cooperativistes o persones que estiguin registrats en la xarxa social, puguen vore-la i veure els continguts publicats en ella sobre sistemes de control agrícoles. Aquesta tesi es centra en la investigació, disseny i desenvolupament de noves tecnologies per a integrar tots els sistemes presents en un sistema automàtics, considerant, des de la monitorització de paràmetres, fins al processat i pressa de decisions per a una administració eficient, sent PLATEM una ferramenta òptima per a la comunitat professional d'agricultors i amb una usabilitat propera a l'agricultor. Primerament, es presenten treballs previs relacionats amb la captura de dades procedents de cultiu i funcionament de reg a través del processat de vídeo realitzat amb drons de vol autònom. Seguidament, es presenten els dispositius presents en la xarxa sense fils de sensors orientada a captura de dades terrestres i els actuadors utilitzats per al reg tele-gestionats d'ultra baix consum energètic. Per això, el nostre treball se centra en xarxes de comunicacions de banda estreta, molt adequades per a l'ús en el medi rural. El nostre sistema permet mantenir un dispositiu comunicat i capaç de controlar les vàlvules en terrenys extensió de 16 hectàrees amb una pila comercial de 9 volts durant tota una campanya de reg, sense necessitat de plaques solars. Finalment, tota la informació i interoperabilitat dels dispositius que integren la xarxa necessiten una gestió integral en un únic sistema amigable amb l'usuari. En aquest punt presentem un servidor amb un motor de regles de negoci que aplica machine learning amb autoaprenentatge capaç de generar decisions per als controladors de reg, tenint en compte les dades dels sensors de parcel·la i ambientals. Aquesta informació és capaç de publicar-se entre grups socials d'usuaris i intercanviar mètodes de treball i consignes. Tots els desenvolupaments i propostes han estat combinats amb estudis de consums energètics. A més, s'ha realitzat un estudi en camp de les xarxes sense fils de sensors desplegades en el medi rural sota condicions altament problemàtiques per a comprovar el correcte funcionament del sistema sencer. / [EN] There are many works related to the automation of processes in agriculture. With the revolution of the Internet of Things (IoT), many devices capable of interconnecting sensors are appearing on the market. The focus is on intensive agriculture in a market where designers and marketers of IoT products present designs for the automation of crop production, claiming systematic achievements that ar not always compatible with agricultural reality. Many technological products, such as remote or WiFi management of irrigation programmers, focused on precision agriculture, are independent systems with no connection to other agricultural technologies. At this time and with the current technological advance, it must be integrated irrigation schedules in response to the real time needs of crop nutrition determining cultivation needs are transmitted via satellite or drone, in a platform will automatically integrate intelligent irrigation systems on the plot of land in relation to thermal analysis and crop vigor. If the production patterns of a farm are promising, PLAtaforma TEcnologica Multimedia (PLATEM) will allow disseminate a strategy followed to cooperative partners or people who are registered in the social network can see it and see the contents published in it on agricultural control systems. This thesis will attempt to solve the above-mentioned issues: the integration from start to finish of data capture and open data decisions for a community of professional farmers. Firtsly, we will review the literature on data harvesting of irrigation decisions for cultivation through computer-processed videos recorded by drones with autonomous flight mapping. Next, the devices present in a Wireless Sensor Network (WSN) are presented aimed at capturing terrestrial sensory data connected to tele-managed irrigation systems with ultra-low energy consumption. Hence, the focus of this work is firmly set on narrowband communication networks that are very suitable for use in rural areas. Our system maintains a communicated device capable of maneuvering valves within an area of 16 hectares with a commercial 9-volt battery throughout an irrigation campaign, with no need for solar panels. Finally, all the information and interoperability described in the previous sections will need integral management. At this point, we present a server with a business rules engine and machine learning with (self-learning) decision trees capable of generating decisions for irrigation controllers. The basic layer consists of the data processing of data mining models. The second layer consists of model training with historical data and the third layer applies to machine learning that generates the best results for guidance on recommendations. This information can be published and shared on social media between groups of users for the exchange of working methods and opinions regarding crops, cultivation strategies and demonstration plots. All of the proposed developments and proposals have been grounded in systematic energy consumption studies of all devices in the intelligent irrigation systems. In addition, a field study is conducted of the WSN deployed in rural areas under highly problematic conditions to determine the correct functioning of the entire system. / Cambra Baseca, C. (2019). PLAtaforma TEcnológica Multimedia para la Agricultura de Precisión (PLATEM Precision Agriculture) [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/135820
467

Implementación paralela de métodos iterativos para la resolución de problemas polinómicos de valores propios

Campos González, María Carmen 01 September 2017 (has links)
The polynomial eigenvalue problem appears in many areas of scientific and technical computing. It can be seen as a generalization of the linear eigenvalue problem in which the equation P(lambda)x = 0, that defines the problem, involves a polynomial P(lambda), of degree d, in the parameter lambda (the eigenvalue), and d+1 matrix coefficients. In its turn, the polynomial eigenvalue problem is a particular case of the nonlinear eigenvalue problem, T(lambda)x = 0, in which T is a nonlinear matrix function. These problems appear in diverse areas of application such as acoustics, fluid mechanics, structure analysis, or photonics. This thesis focuses on the study of methods for the numerical resolution of the polynomial eigenvalue problem, as well as the adaptation of such methods to the most general nonlinear case. Mainly, we consider methods of projection, that are appropriate for the case of sparse matrices of large dimension, where only a small percentage of eigevalues and eigenvectors are required. The algorithms are studied from the point of view of high-performance computing, considering issues like (computational and memory) efficiency and parallel computation. SLEPc, Scalable Library for Eigenvalue Problem Computations, is a software library for the parallel solution of large-scale eigenvalue problems. It is of general purpose and can be used for standard and generalized problems, both symmetric and nonsymmetric, with real or complex arithmetic. As a result of this thesis, we have developed several solvers for polynomial an nonlinear eigenproblems, which have included in the last versions of this software. On one hand, we consider methods based on the linearization of the polynomial problem, that solves an equivalent linear eigenproblem of dimension several times the initial size. Among them, the TOAR method stands out, that repre- sents the search subspace basis in an efficient way in terms of memory, and is appropriate to handle the increase of dimension of the linear problem. The thesis also proposes specific variants for the particular case of symmetric matrices. In all these methods we consider several aspects to provide the implementations with robustness and flexibility, such as spectral transformations, scaling, and techniques of extraction. In addition to the methods of linearization, we propose methods of Newton type, such as the method of Jacobi-Davidson with deflation and the method of Newton for invariant pairs. Due to its characteristics, the latter is not usually employed as a proper method, but as a technique for refinement of the solutions obtained with another method. The previous methods can also be applied to the resolution of the nonlinear problem, using techniques like polynomial or rational interpolation, being necessary in some cases to adapt the algorithms. This thesis covers also these cases. For all the considered algorithms we have made parallel implementations in SLEPc, and have studied its numerical behaviour and its parallel performance in problems coming from real applications. / El problema polinómico de valores propios aparece en muchas áreas de la computación científica y técnica. Puede verse como una generalización del problema lineal de valores propios en el que la ecuación P(lambda)x=0, que define el problema, involucra un polinomio P(lambda), de grado d, en el parámetro lambda del autovalor, y d+1 coeficientes matriciales. A su vez, el problema polinómico de valores propios es un caso particular del problema no lineal de valores propios, T(lambda)x=0, en el que T es una función matricial no lineal. Estos problemas aparecen en diversas áreas de aplicación como acústica, mecánica de fluidos, análisis de estructuras, o fotónica. Esta tesis se centra en el estudio de métodos para la resolución numérica del problema polinómico de valores propios, así como la adaptación de dichos métodos al caso más general no lineal. Principalmente, se consideran métodos de proyección, que son apropiados para el caso de matrices dispersas de gran dimensión cuando se requiere solo un pequeño porcentaje de los valores y vectores propios. Los algoritmos se estudian desde el punto de vista de la computación de altas prestaciones, teniendo en consideración aspectos como la eficiencia (computacional y de memoria) y la computación paralela. SLEPc, Scalable Library for Eigenvalue Problem Computations, es una biblioteca software para la resolución de problemas de valores propios de gran dimensión en paralelo. Es de propósito general y puede usarse para problemas estándares y generalizados, simétricos y no simétricos, con aritmética real o compleja. Como fruto de esta tesis, se han desarrollado diversos solvers para problemas polinómicos y no lineales, los cuales se han incluido en las últimas versiones de este software. Por un lado, se abordan métodos basados en la linealización del problema polinómico, que resuelven un problema lineal equivalente de dimensión varias veces la del inicial. Entre ellos se destaca el método TOAR, que representa la base del subespacio de búsqueda de una forma eficiente en términos de memoria, y es adecuado para manejar el aumento de dimensión del problema lineal. La tesis también propone variantes específicas para el caso particular de matrices simétricas. En todos estos métodos se consideran diversos aspectos para dotar a las implementaciones de robustez y flexibilidad, tales como transformaciones espectrales, escalado, y técnicas de extracción. Además de los métodos de linealización, se proponen métodos de tipo Newton, como el método de Jacobi-Davidson con deflación y el método de Newton para pares invariantes. Por sus características, este último no suele utilizarse como un método en sí mismo sino como técnica de refinamiento de las soluciones obtenidas con otro método. Los métodos anteriores pueden aplicarse a la resolución del problema no lineal, utilizando técnicas como la interpolación polinómica o racional, siendo necesario en algunos casos adaptar los algoritmos. La tesis cubre también estos casos. Para todos los algoritmos considerados se han realizado implementaciones paralelas en SLEPc, y se ha estudiado su comportamiento numérico y sus prestaciones paralelas en problemas procedentes de aplicaciones reales. / El problema polinòmic de valors propis apareix en moltes àrees de la computació científica i tècnica. Pot veure's com una generalització del problema lineal de valors propis en el qual l'equació P(lambda)x=0, que defineix el problema, involucra un polinomi P(lambda), de grau d, en el paràmetre lambda de l'autovalor, i d+1 coeficients matricials. Al seu torn, el problema polinòmic de valors propis és un cas particular del problema no lineal de valors propis, T(lambda)x=0, en el qual T és una funció matricial no lineal. Aquests problemes apareixen en diverses àrees d'aplicació com a acústica, mecànica de fluids, anàlisis d'estructures, o fotònica. Aquesta tesi se centra en l'estudi de mètodes per a la resolució numèrica del problema polinòmic de valors propis, així com l'adaptació d'aquests mètodes al cas més general no lineal. Principalment, es consideren mètodes de projecció, que són apropiats per al cas de matrius disperses de gran dimensió quan es requereix solament un reduït percentatge dels valors i vectors propis. Els algorismes s'estudien des del punt de vista de la computació d'altes prestacions, tenint en consideració aspectes com l'eficiència (computacional i de memòria) i la computació paral·lela. SLEPc, Scalable Library for Eigenvalue Problem Computations, és una biblioteca software per a la resolució de problemes de valors propis de gran dimensió en paral·lel. És de propòsit general i pot usar-se per a problemes estàndards i generalitzats, simètrics i no simètrics, amb aritmètica real o complexa. Com a fruit d'aquesta tesi, s'han desenvolupat diversos solvers per a problemes polinòmics i no lineals, els quals s'han inclòs en les últimes versions d'aquest software. D'una banda, s'aborden mètodes basats en la linealització del problema polinòmic, que resolen un problema lineal equivalent de dimensió diverses vegades la de l'inicial. Entre ells es destaca el mètode TOAR, que representa la base del subespai de cerca d'una forma eficient en termes de memòria, i és adequat per a manejar l'augment de dimensió del problema lineal. La tesi també proposa variants específiques per al cas particular de matrius simètriques. En tots aquests mètodes es consideren diversos aspectes per a dotar a les implementacions de robustesa i flexibilitat, tals com a transformacions espectrals, escalat, i tècniques d'extracció. A més dels mètodes de linealització, es proposen mètodes de tipus Newton, com el mètode de Jacobi-Davidson amb deflació i el mètode de Newton per a parells invariants. Per les seues característiques, aquest últim no sol utilitzar-se com un mètode en si mateix sinó com a tècnica de refinament de les solucions obtingudes amb un altre mètode. Els mètodes anteriors poden aplicar-se a la resolució del problema no lineal, utilitzant tècniques com la interpolació polinòmica o racional, sent necessari en alguns casos adaptar els algorismes. La tesi cobreix també aquests casos. Per a tots els algorismes considerats s'han realitzat implementacions paral·leles en SLEPc, i s'ha estudiat el seu comportament numèric i les seues prestacions paral·leles en problemes procedents d'aplicacions reals. / Campos González, MC. (2017). Implementación paralela de métodos iterativos para la resolución de problemas polinómicos de valores propios [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/86134
468

Herramienta de gestión integral en innovación en imagen médica

Ruiz Martínez, Enrique 03 November 2017 (has links)
La implementació de les Tecnologies de la informació i la Comunicació (TIC) i la digitalització de la imatge medica ha suposat un canvi en tot el progres clínic assistencial per part de radiòlegs i metges nuclears encarregats de realitzar l'informe diagnòstic i les intervencions radiològiques. Actualment, els sistemes d'informació coneguts com Picture Archiving and Communication System (PACS), Radiology Information System (RIS), i Hospital Information System (HIS) permeten el maneig dels estudis adquirits, el seu informat i el seguiment dels processos de gestió associats als fluxos de l'activitat assistencial. Propiciat per aquest profund canvi han nascut noves oportunitats i necessitats que, desafortunadament, no han sigut resoltes i integrades en la majoria dels entorns hospitalaris. Per exemple, gracies a la digitalització de la imatge i als avanços en investigació, és possible obtindré dades quantitatives de l'exploració adquirida que reflecteixen l'estat d'una malaltia o de l'efecte d'un fàrmac sobre aquesta. Aquestes mesures es coneixen com biomarcadors d'imatge. Per altra part, actualment els informes realitzats pels metges especialistes no tenen una estructura que impedisca una variabilitat en el contingut i en conseqüència l'absència potencial d'informació rellevant pel metge peticionari de l'exploració. El disseny i desenvolupament dels informes estructurats mitjançant l'ús de lèxics normalitzats i plantilles es factible amb les TIC. Aquests informes deuen establir-se per malalties i lesions concretes, i deuen estar consensuats entre els metges especialistes de la imatge i els metges peticionaris. Degut al volum de dades generades pels sistemes d'informació citats anteriorment, es crea contínuament una font de coneixement de dades que no son explotades. L'extracció d'aquest coneixement a través d'indicadors deu de permetre visualitzar l'estat actual dels serveis de radiologia i de medicina nuclear, de tal manera que es possibilite corregir els colls de botella i realitzar accions correctores oportunes front a una situació critica. El proposit final és promoure un funcionament òptim dels serveis i facilitar la presa de decisions fonamentades a les dades d'activitat que millor s'ajusten per a una millor atenció al pacient. Aquesta Tesi Doctoral té per objectiu l'integració eficient dels biomarcadors d'imatge, els informes estructurats, i els indicadors d'activitat en la pràctica assistencial dels serveis de radiologia i de medicina nuclear. Per aconseguir aquest objectiu s'utilitzaren estàndards d'imatge medica com el Digital Imaging and Communication in Medicine (DICOM) i altres com eXtensible Language Market (XML). Mitjançant la tecnologia JAVA es desenvolupà una plataforma per a la integració dels biomarcadors d'imatge. Mitjançant l'utilització de lèxics com el Systematized Nomenclature of Medicine - Clinical Terms (SNOMED-CT) i Radiology Lexicon (RADLEX), més l'estàndard DICOM i l'estàndard HML5, es va implantar una aplicació que permet l'integració de l'informe estructurat. D'aquesta manera es poden realitzar estudis poblacionals, així com analitzar la relació de determinats factors en una malaltia especifica. Per últim, de l'informació obtinguda del RIS i del PACS, es va construir una plataforma d'indicadors amb tecnologia JAVA per a permetre visualitzar l'estat dels serveis respecte a l'activitat assistencial; activitat d'innovació; i activitat d'investigació i docent. Per tant, la present Tesi Doctoral aporta als servicis de radiologia i de medicina nuclear una ferramenta d'innovació amb tres camps fonamentals per a oferir un millor diagnòstic, una millor cura i atenció al pacient. A través de la quantificació dels biomarcadors d'imatge i l'informe estructurat per a una medicina personalitzada, i amb els indicadors d'activitat per a una presa de decisions i d'accions basades en l'evidència. / La implantación de las Tecnologías de la Información y la Comunicación (TIC) y la digitalización de la imagen médica supuso un cambio en todo el proceso clínico asistencial por parte de los radiólogos y médicos nucleares encargados de realizar el informe diagnóstico y las intervenciones radiológicas. Actualmente, los sistemas de información conocidos como Picture Archiving and Communication System (PACS), Radiology Information System (RIS), y Hospital Information System (HIS) permiten el manejo de los estudios adquiridos, su informado y el seguimiento de los procesos de gestión asociados a los flujos de la actividad asistencial. A raíz de este profundo cambio han nacido nuevas oportunidades y necesidades que, desafortunadamente, no han sido resueltas e integradas en la mayoría de los entornos hospitalarios. Por ejemplo, gracias a la digitalización de la imagen y a los avances en investigación, es posible obtener datos cuantitativos de la exploración adquirida que reflejen el estado de una enfermedad o el efecto de un fármaco sobre ella. Estas medidas se conocen como biomarcadores de imagen. Por otra parte, actualmente los informes realizados por los médicos especialistas carecen de un esqueleto que impida la variabilidad de contenido y en consecuencia la ausencia potencial de información relevante para el médico peticionario de la exploración. El diseño y desarrollo de los informes estructurados mediante el uso de léxicos normalizados y plantillas es factible con el uso de las TIC. Estos informes deben establecerse para enfermedades y lesiones concretas, y deben estar consensuados entre los médicos especialistas en la imagen y los médicos peticionarios. Debido a los volúmenes de datos generados por los sistemas de información citados anteriormente, se crea continuamente una fuente de conocimiento con datos no explotados. La extracción de este conocimiento a través de indicadores debe permitir visualizar el estado actual de los servicios de radiología y medicina nuclear, de tal forma que se posibilite corregir los cuellos de botella y realizar las acciones correctoras oportunas ante una situación crítica. El propósito final es promover un funcionamiento óptimo de los servicios y facilitar la toma de decisiones en base a los datos de actividad que mejor se ajusten para una mejor atención al paciente. Esta Tesis Doctoral tiene por justificación la integración eficiente de los biomarcadores de imagen, los informes estructurados, y los indicadores de actividad en la práctica asistencial de los servicios de radiología y medicina nuclear. Para lograr este objetivo se utilizaron estándares de imagen médica como el Digital Imaging and Communication in Medicine (DICOM) y otros como eXtensible Language Market (XML). A través de tecnología JAVA se desarrolló una plataforma para la integración de los biomarcadores de imagen. Mediante la utilización de léxicos como el Systematized Nomenclature of Medicine - Clinical Terms (SNOMED-CT) y Radiology Lexicon (RADLEX), más el estándar DICOM y el estándar HTML5, se implantó una aplicación que permite la integración del informe estructurado. De este modo se podrán realizar estudios poblacionales así como analizar la relación de determinados factores con una patología determinada. Por último, de la información obtenida del RIS y del PACS, se construyó una plataforma de indicadores con tecnología JAVA para permitir visualizar el estado de los servicios respecto a la actividad asistencial; actividad de innovación; y actividad científico-docente. Por tanto, la presente Tesis Doctoral aporta a los servicios de radiología y de medicina nuclear una herramienta de innovación en tres campos fundamentales para ofrecer un mejor diagnostico, cuidado y atención al paciente. A través de cuantificación de los biomarcadores de imagen y el informe estructurado para una medicina personalizada, y con los indicadores de actividad para una toma de de / The implementation of Information and Communication Technologies (ICT) and the digitization of medical images implies a change in the entire clinical care process for radiologists and nuclear physicians responsible for the diagnostic report and the radiological interventions. Nowadays, information systems such as Picture Archiving and Communication System (PACS), Radiology Information System (RIS) and Hospital Information System (HIS) enable the management of medical imaging studies, their reports and the follow-up of the management processes associated to the workflow of healthcare activities. These changes (use of ICT and digitization in hospitals) have created new opportunities and needs. Unfortunately, they have not been solved and integrated in most hospital settings. For example, thanks to the digitization of the image and research advances, it is possible to obtain quantitative data from the acquired exploration that reflect the state of a disease or the effect of a drug on it. These measures are known as image biomarkers. Reports made by specialist physicians currently lack of a skeleton that reduces the variability of content and consequently there are potential lack of relevant information for the applicant¿s physician. The design and development of structured reports using standard lexicon and templates is feasible with the use of ICT. These reports should be set up for diseases and specific injuries, and should be agreed upon between specialists and applicant¿s physicians. Due to the volume of data generated by the information systems mentioned above, a source of knowledge is continuously growing but data remains unexploited. The extraction of this knowledge through indicators could enable us to improve the processes in radiology and nuclear medicine departments which should help to correct bottlenecks and take corrective actions in critical situations. The final purpose is to promote the optimal functioning of the services departments and to facilitate the decision-making for a better attention to the patient care based on data activity. This Doctoral Thesis aims at integrating efficiently image biomarkers, structured reports and activity indicators into the clinical practice in the radiology and nuclear medicine departments. To achieve this goal, we have used medical imaging standards such as Digital Imaging and Communication in Medicine (DICOM) and eXtensible Language Market (XML). We used JAVA technology to develop a platform for the integration of image biomarkers. An application was implemented using lexicons such as the Systematized Nomenclature of Medicine - Clinical Terms (SNOMED-CT), Radiology Lexicon (RADLEX), the DICOM standard and the HTML5 standard. This application allows the integration of the structured report. In this way, it will be possible to make population studies, as well as to analyze the relation of certain factors with a certain disease. Finally, based on RIS and PACS data, a platform was developed using JAVA technology to provide the visualization of the status of key indicators of the performance of radiology departments; innovation activity; and research & teaching activities. This Doctoral Thesis provides the radiology and nuclear medicine departments with an innovative tool in three fundamental fields, offering a better diagnosis, health-care and attention to the patient. This has been done, using the quantification of image biomarkers and the structured report for a personalized medicine, and selecting those indicators of activity to make decisions based on data evidence. / Ruiz Martínez, E. (2017). Herramienta de gestión integral en innovación en imagen médica [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/90429
469

Dense and sparse parallel linear algebra algorithms on graphics processing units

Lamas Daviña, Alejandro 13 November 2018 (has links)
Una línea de desarrollo seguida en el campo de la supercomputación es el uso de procesadores de propósito específico para acelerar determinados tipos de cálculo. En esta tesis estudiamos el uso de tarjetas gráficas como aceleradores de la computación y lo aplicamos al ámbito del álgebra lineal. En particular trabajamos con la biblioteca SLEPc para resolver problemas de cálculo de autovalores en matrices de gran dimensión, y para aplicar funciones de matrices en los cálculos de aplicaciones científicas. SLEPc es una biblioteca paralela que se basa en el estándar MPI y está desarrollada con la premisa de ser escalable, esto es, de permitir resolver problemas más grandes al aumentar las unidades de procesado. El problema lineal de autovalores, Ax = lambda x en su forma estándar, lo abordamos con el uso de técnicas iterativas, en concreto con métodos de Krylov, con los que calculamos una pequeña porción del espectro de autovalores. Este tipo de algoritmos se basa en generar un subespacio de tamaño reducido (m) en el que proyectar el problema de gran dimensión (n), siendo m << n. Una vez se ha proyectado el problema, se resuelve este mediante métodos directos, que nos proporcionan aproximaciones a los autovalores del problema inicial que queríamos resolver. Las operaciones que se utilizan en la expansión del subespacio varían en función de si los autovalores deseados están en el exterior o en el interior del espectro. En caso de buscar autovalores en el exterior del espectro, la expansión se hace mediante multiplicaciones matriz-vector. Esta operación la realizamos en la GPU, bien mediante el uso de bibliotecas o mediante la creación de funciones que aprovechan la estructura de la matriz. En caso de autovalores en el interior del espectro, la expansión requiere resolver sistemas de ecuaciones lineales. En esta tesis implementamos varios algoritmos para la resolución de sistemas de ecuaciones lineales para el caso específico de matrices con estructura tridiagonal a bloques, que se ejecutan en GPU. En el cálculo de las funciones de matrices hemos de diferenciar entre la aplicación directa de una función sobre una matriz, f(A), y la aplicación de la acción de una función de matriz sobre un vector, f(A)b. El primer caso implica un cálculo denso que limita el tamaño del problema. El segundo permite trabajar con matrices dispersas grandes, y para resolverlo también hacemos uso de métodos de Krylov. La expansión del subespacio se hace mediante multiplicaciones matriz-vector, y hacemos uso de GPUs de la misma forma que al resolver autovalores. En este caso el problema proyectado comienza siendo de tamaño m, pero se incrementa en m en cada reinicio del método. La resolución del problema proyectado se hace aplicando una función de matriz de forma directa. Nosotros hemos implementado varios algoritmos para calcular las funciones de matrices raíz cuadrada y exponencial, en las que el uso de GPUs permite acelerar el cálculo. / One line of development followed in the field of supercomputing is the use of specific purpose processors to speed up certain types of computations. In this thesis we study the use of graphics processing units as computer accelerators and apply it to the field of linear algebra. In particular, we work with the SLEPc library to solve large scale eigenvalue problems, and to apply matrix functions in scientific applications. SLEPc is a parallel library based on the MPI standard and is developed with the premise of being scalable, i.e. to allow solving larger problems by increasing the processing units. We address the linear eigenvalue problem, Ax = lambda x in its standard form, using iterative techniques, in particular with Krylov's methods, with which we calculate a small portion of the eigenvalue spectrum. This type of algorithms is based on generating a subspace of reduced size (m) in which to project the large dimension problem (n), being m << n. Once the problem has been projected, it is solved by direct methods, which provide us with approximations of the eigenvalues of the initial problem we wanted to solve. The operations used in the expansion of the subspace vary depending on whether the desired eigenvalues are from the exterior or from the interior of the spectrum. In the case of searching for exterior eigenvalues, the expansion is done by matrix-vector multiplications. We do this on the GPU, either by using libraries or by creating functions that take advantage of the structure of the matrix. In the case of eigenvalues from the interior of the spectrum, the expansion requires solving linear systems of equations. In this thesis we implemented several algorithms to solve linear systems of equations for the specific case of matrices with a block-tridiagonal structure, that are run on GPU. In the computation of matrix functions we have to distinguish between the direct application of a matrix function, f(A), and the action of a matrix function on a vector, f(A)b. The first case involves a dense computation that limits the size of the problem. The second allows us to work with large sparse matrices, and to solve it we also make use of Krylov's methods. The expansion of subspace is done by matrix-vector multiplication, and we use GPUs in the same way as when solving eigenvalues. In this case the projected problem starts being of size m, but it is increased by m on each restart of the method. The solution of the projected problem is done by directly applying a matrix function. We have implemented several algorithms to compute the square root and the exponential matrix functions, in which the use of GPUs allows us to speed up the computation. / Una línia de desenvolupament seguida en el camp de la supercomputació és l'ús de processadors de propòsit específic per a accelerar determinats tipus de càlcul. En aquesta tesi estudiem l'ús de targetes gràfiques com a acceleradors de la computació i ho apliquem a l'àmbit de l'àlgebra lineal. En particular treballem amb la biblioteca SLEPc per a resoldre problemes de càlcul d'autovalors en matrius de gran dimensió, i per a aplicar funcions de matrius en els càlculs d'aplicacions científiques. SLEPc és una biblioteca paral·lela que es basa en l'estàndard MPI i està desenvolupada amb la premissa de ser escalable, açò és, de permetre resoldre problemes més grans en augmentar les unitats de processament. El problema lineal d'autovalors, Ax = lambda x en la seua forma estàndard, ho abordem amb l'ús de tècniques iteratives, en concret amb mètodes de Krylov, amb els quals calculem una xicoteta porció de l'espectre d'autovalors. Aquest tipus d'algorismes es basa a generar un subespai de grandària reduïda (m) en el qual projectar el problema de gran dimensió (n), sent m << n. Una vegada s'ha projectat el problema, es resol aquest mitjançant mètodes directes, que ens proporcionen aproximacions als autovalors del problema inicial que volíem resoldre. Les operacions que s'utilitzen en l'expansió del subespai varien en funció de si els autovalors desitjats estan en l'exterior o a l'interior de l'espectre. En cas de cercar autovalors en l'exterior de l'espectre, l'expansió es fa mitjançant multiplicacions matriu-vector. Aquesta operació la realitzem en la GPU, bé mitjançant l'ús de biblioteques o mitjançant la creació de funcions que aprofiten l'estructura de la matriu. En cas d'autovalors a l'interior de l'espectre, l'expansió requereix resoldre sistemes d'equacions lineals. En aquesta tesi implementem diversos algorismes per a la resolució de sistemes d'equacions lineals per al cas específic de matrius amb estructura tridiagonal a blocs, que s'executen en GPU. En el càlcul de les funcions de matrius hem de diferenciar entre l'aplicació directa d'una funció sobre una matriu, f(A), i l'aplicació de l'acció d'una funció de matriu sobre un vector, f(A)b. El primer cas implica un càlcul dens que limita la grandària del problema. El segon permet treballar amb matrius disperses grans, i per a resoldre-ho també fem ús de mètodes de Krylov. L'expansió del subespai es fa mitjançant multiplicacions matriu-vector, i fem ús de GPUs de la mateixa forma que en resoldre autovalors. En aquest cas el problema projectat comença sent de grandària m, però s'incrementa en m en cada reinici del mètode. La resolució del problema projectat es fa aplicant una funció de matriu de forma directa. Nosaltres hem implementat diversos algorismes per a calcular les funcions de matrius arrel quadrada i exponencial, en les quals l'ús de GPUs permet accelerar el càlcul. / Lamas Daviña, A. (2018). Dense and sparse parallel linear algebra algorithms on graphics processing units [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/112425
470

HPC algorithms for nonnegative decompositions

San Juan Sebastián, Pablo 26 November 2018 (has links)
Muchos problemas procedentes de aplicaciones del mundo real pueden ser modelados como problemas matemáticos con magnitudes no negativas, y por tanto, las soluciones de estos problemas matemáticos solo tienen sentido si son no negativas. Estas magnitudes no negativas pueden ser, por ejemplo, las frecuencias en una señal sonora, las intensidades de los pixeles de una imagen, etc. Algunos de estos problemas pueden ser modelados utilizando un sistema de ecuaciones lineales sobredeterminado. Cuando la solución de dicho problema debe ser restringida a valores no negativos, aparece un problema llamado problema de mínimos cuadrados no negativos (NNLS por sus siglas en inglés). La solución de dicho problema tiene múltiples aplicaciones en ciencia e ingeniería. Otra descomposición no negativa importante es la Factorización de Matrices No negativas (NMF por sus siglas en inglés). La NMF es una herramienta muy popular utilizada en varios campos, como por ejemplo: clasificación de documentos, aprendizaje automático, análisis de imagen o separación de señales sonoras. Esta factorización intenta aproximar una matriz no negativa con el producto de dos matrices no negativas de menor tamaño, creando habitualmente representaciones por partes de los datos originales. Los algoritmos diseñados para calcular la solución de estos dos problemas no negativos tienen un elevado coste computacional, y debido a ese elevado coste, estas descomposiciones pueden beneficiarse mucho del uso de técnicas de Computación de Altas Prestaciones (HPC por sus siglas en inglés). Estos sistemas computacionales de altas prestaciones incluyen desde los modernos computadores multinucleo a lo último en aceleradores de calculo (Unidades de Procesamiento Gráfico (GPU), Intel Many Integrated Core (MIC), etc.). Para obtener el máximo rendimiento de estos sistemas, los desarrolladores deben utilizar tecnologías software tales como la programación paralela, la vectoración o el uso de librerías de computación altas prestaciones. A pesar de que existen diversos algoritmos para calcular la NMF y resolver el problema NNLS, no todos ellos disponen de una implementación paralela y eficiente. Además, es muy interesante reunir diversos algoritmos con propiedades diferentes en una sola librería computacional. Esta tesis presenta una librería computacional de altas prestaciones que contiene implementaciones paralelas y eficientes de los mejores algoritmos existentes actualmente para calcular la NMF. Además la tesis también incluye una comparación experimental entre las diferentes implementaciones presentadas. Esta librería centrada en el cálculo de la NMF soporta múltiples arquitecturas tales como CPUs multinucleo, GPUs e Intel MIC. El objetivo de esta librería es ofrecer un abanico de algoritmos eficientes para ayudar a científicos, ingenieros o cualquier tipo de profesionales que necesitan hacer uso de la NMF. Otro problema abordado en esta tesis es la actualización de las factorizaciones no negativas. El problema de la actualización se ha estudiado tanto para la solución del problema NNLS como para el calculo de la NMF. Existen problemas no negativos cuya solución es próxima a otros problemas que ya han sido resueltos, el problema de la actualización consiste en aprovechar la solución de un problema A que ya ha sido resuelto, para obtener la solución de un problema B cercano al problema A. Utilizando esta aproximación, el problema B puede ser resuelto más rápido que si se tuviera que resolver sin aprovechar la solución conocida del problema A. En esta tesis se presenta una metodología algorítmica para resolver ambos problemas de actualización: la actualización de la solución del problema NNLS y la actualización de la NMF. Además se presentan evaluaciones empíricas de las soluciones presentadas para ambos problemas. Los resultados de estas evaluaciones muestran que los algoritmos propuestos son más rápidos que reso / Molts problemes procedents de aplicacions del mon real poden ser modelats com problemes matemàtics en magnituts no negatives, i per tant, les solucions de estos problemes matemàtics només tenen sentit si son no negatives. Estes magnituts no negatives poden ser, per eixemple, la concentració dels elements en un compost químic, les freqüències en una senyal sonora, les intensitats dels pixels de una image, etc. Alguns d'estos problemes poden ser modelats utilisant un sistema d'equacions llineals sobredeterminat. Quant la solució de este problema deu ser restringida a valors no negatius, apareix un problema nomenat problema de mínims quadrats no negatius (NNLS per les seues sigles en anglés). La solució de este problema te múltiples aplicacions en ciències i ingenieria. Un atra descomposició no negativa important es la Factorisació de Matrius No negatives(NMF per les seues sigles en anglés). La NMF es una ferramenta molt popular utilisada en diversos camps, com per eixemple: classificacio de documents, aprenentage automàtic, anàlisis de image o separació de senyals sonores. Esta factorisació intenta aproximar una matriu no negativa en el producte de dos matrius no negatives de menor tamany, creant habitualment representacions a parts de les dades originals. Els algoritmes dissenyats per a calcular la solució de estos dos problemes no negatius tenen un elevat cost computacional, i degut a este elevat cost, estes descomposicions poden beneficiar-se molt del us de tècniques de Computació de Altes Prestacions (HPC per les seues sigles en anglés). Estos sistemes de computació de altes prestacions inclouen des dels moderns computadors multinucli a lo últim en acceleradors de càlcul (Unitats de Processament Gràfic (GPU), Intel Many Core (MIC), etc.). Per a obtindre el màxim rendiment de estos sistemes, els desenrolladors deuen utilisar tecnologies software tals com la programació paralela, la vectorisació o el us de llibreries de computació de altes prestacions. A pesar de que existixen diversos algoritmes per a calcular la NMF i resoldre el problema NNLS, no tots ells disponen de una implementació paralela i eficient. Ademés, es molt interessant reunir diversos algoritmes en propietats diferents en una sola llibreria computacional. Esta tesis presenta una llibreria computacional de altes prestacions que conté implementacions paraleles i eficients dels millors algoritmes existents per a calcular la NMF. Ademés, la tesis també inclou una comparació experimental entre les diferents implementacions presentades. Esta llibreria centrada en el càlcul de la NMF soporta diverses arquitectures tals com CPUs multinucli, GPUs i Intel MIC. El objectiu de esta llibreria es oferir una varietat de algoritmes eficients per a ajudar a científics, ingeniers o qualsevol tipo de professionals que necessiten utilisar la NMF. Un atre problema abordat en esta tesis es la actualisació de les factorisacions no negatives. El problema de la actualisació se ha estudiat tant per a la solució del problema NNLS com per a el càlcul de la NMF. Existixen problemes no negatius la solució dels quals es pròxima a atres problemes no negatius que ya han sigut resolts, el problema de la actualisació consistix en aprofitar la solució de un problema A que ya ha sigut resolt, per a obtindre la solució de un problema B pròxim al problema A. Utilisant esta aproximació, el problema B pot ser resolt molt mes ràpidament que si tinguera que ser resolt des de 0 sense aprofitar la solució coneguda del problema A. En esta tesis es presenta una metodologia algorítmica per a resoldre els dos problemes de actualisació: la actualisació de la solució del problema NNLS i la actualisació de la NMF. Ademés es presenten evaluacions empíriques de les solucions presentades per als dos problemes. Els resultats de estes evaluacions mostren que els algoritmes proposts son més ràpits que resoldre el problema des de 0 en tots els / Many real world-problems can be modelled as mathematical problems with nonnegative magnitudes, and, therefore, the solutions of these problems are meaningful only if their values are nonnegative. Examples of these nonnegative magnitudes are the concentration of components in a chemical compound, frequencies in an audio signal, pixel intensities on an image, etc. Some of these problems can be modelled to an overdetermined system of linear equations. When the solution of this system of equations should be constrained to nonnegative values, a new problem arises. This problem is called the Nonnegative Least Squares (NNLS) problem, and its solution has multiple applications in science and engineering, especially for solving optimization problems with nonnegative restrictions. Another important nonnegativity constrained decomposition is the Nonnegative Matrix Factorization (NMF). The NMF is a very popular tool in many fields such as document clustering, data mining, machine learning, image analysis, chemical analysis, and audio source separation. This factorization tries to approximate a nonnegative data matrix with the product of two smaller nonnegative matrices, usually creating parts based representations of the original data. The algorithms that are designed to compute the solution of these two nonnegative problems have a high computational cost. Due to this high cost, these decompositions can benefit from the extra performance obtained using High Performance Computing (HPC) techniques. Nowadays, there are very powerful computational systems that offer high performance and can be used to solve extremely complex problems in science and engineering. From modern multicore CPUs to the newest computational accelerators (Graphics Processing Units(GPU), Intel Many Integrated Core(MIC), etc.), the performance of these systems keeps increasing continuously. To make the most of the hardware capabilities of these HPC systems, developers should use software technologies such as parallel programming, vectorization, or high performance computing libraries. While there are several algorithms for computing the NMF and for solving the NNLS problem, not all of them have an efficient parallel implementation available. Furthermore, it is very interesting to group several algorithms with different properties into a single computational library. This thesis presents a high-performance computational library with efficient parallel implementations of the best algorithms to compute the NMF in the current state of the art. In addition, an experimental comparison between the different implementations is presented. This library is focused on the computation of the NMF supporting multiple architectures like multicore CPUs, GPUs and Intel MIC. The goal of the library is to offer a full suit of algorithms to help researchers, engineers or professionals that need to use the NMF. Another problem that is dealt with in this thesis is the updating of nonnegative decompositions. The updating problem has been studied for both the solution of the NNLS problem and the NMF. Sometimes there are nonnegative problems that are close to other nonnegative problems that have already been solved. The updating problem tries to take advantage of the solution of a problem A, that has already been solved in order to obtain a solution of a new problem B, which is closely related to problem A. With this approach, problem B can be solved faster than solving it from scratch and not taking advantage of the already known solution of problem A. In this thesis, an algorithmic scheme is proposed for both the updating of the solution of NNLS problems and the updating of the NMF. Empirical evaluations for both updating problems are also presented. The results show that the proposed algorithms are faster than solving the problems from scratch in all of the tested cases. / San Juan Sebastián, P. (2018). HPC algorithms for nonnegative decompositions [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/113069

Page generated in 0.0993 seconds