• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • Tagged with
  • 5
  • 5
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

El Método de Neville : un enfoque basado en computación de altas prestaciones

Cortina Parajón, Raquel 10 September 2008 (has links)
En esta memoria se ha llevado a cabo un trabajo original sobre las prestaciones de varios algoritmos organizados por bloques para aplicar la eliminación de Neville sobre un sistema de ecuaciones lineales (Ax=b) en un computador paralelo, utilizando el paradigma de paso de mensajes y distintas métricas que nos han permitido analizar las prestaciones de los algoritmos estudiados. La eliminación de Neville es un procedimiento alternativo a la eliminación de Gauss para transformar una matriz cuadrada A en una matriz triangular superior. Estrictamente hablando, la eliminación de Neville hace ceros en una columna de A añadiendo a cada fila un múltiplo de la fila previa. Esta estrategia se ha probado especialmente útil cuando se trabaja con cierto tipo de matrices, como por ejemplo, las totalmente positivas o las signo-regulares. Una matriz se dice totalmente positiva si todos sus menores son no negativos. Este tipo de matrices aparecen en muchas ramas de la ciencia, como por ejemplo en, Matemáticas, Estadística, Economía, o en Diseño Geométrico Asistido por Ordenador. En esta línea, los trabajos de un amplio número de autores han mostrado en los últimos años que la eliminación de Neville es una alternativa interesante a la de Gauss para cierto tipo de estudios.En el desarrollo de algoritmos paralelos para resolver problemas de Algebra Lineal Numérica la organización por bloques se muestra como la más eficiente para obtener el máximo provecho de las máquinas actuales, tanto en cuanto al buen uso de la jerarquía de memorias en máquinas con memoria compartida como al aprovechamiento del paralelismo explícito en máquinas de memoria distribuida. Con esta organización se suelen obtener algoritmos eficientes y escalables. Dos librerías bien conocidas como Lapack y ScaLapack utilizan como principal estrategia de diseño de sus algoritmos paralelos la organización por bloques. Para poder llegar a códigos óptimos es necesario definir los parámetros del problema y hacer un análisis profundo del comportamiento de los algoritmos desarrollados en función de las propiedades de éstos. Este análisis debe tener en cuenta el comportamiento de los algoritmos en cuanto a tiempo de ejecución, speedup/eficiencia y escalabilidad. Cuando los algoritmos se organizan por bloques es especialmente importante la relación entre el tamaño del bloque y las prestaciones en cada una de las métricas citadas. El tamaño de los bloques puede influir notablemente en las prestaciones. Es importante conocer como influye en cada una de ellas, si se desea un tipo de algoritmo concreto que optimice las prestaciones en una u otra métrica, o en el conjunto de todas ellas. En nuestro trabajo proponemos una organización del algoritmo de eliminación de Neville para computadores que sigan el modelo de paso de mensajes, y llevamos a cabo un análisis general basado en tres métricas: tiempo, speedup/eficiencia y escalabilidad. Este análisis se considera para las distribuciones por bloques más usuales de los datos, distribuciones unidimensionales (por filas y columnas) y bidimensionales, y se compara con el caso experimental en dos tipos de máquinas representativas del modelo de paso de mensajes: una red de estaciones de trabajo y un multicomputador, para lo que previamente se ha modelizado el comportamiento de ambos entornos.
2

Algoritmos paralelos segmentados para los problemas de mínimos cuadrados recursivos (RLS) y de detección por cancelación ordenada y sucesiva de interferencia (OSIC)

Martínez Zaldívar, Francisco José 06 May 2008 (has links)
Dentro del marco de los sistemas de comunicaciones de banda ancha podemos encontrar canales modelados como sistemas MIMO (Multiple Input Multiple Output) en el que se utilizan varias antenas en el transmisor (entradas) y varias antenas en el receptor (salidas), o bien sistemas de un solo canal que puede ser modelado como los anteriores (sistemas multi-portadora o multicanal con interferencia entre ellas, sistemas multi-usuario con una o varias antenas por terminal móvil y sistemas de comunicaciones ópticas sobre fibra multimodo). Estos sistemas pretenden alcanzar valores de capacidad de transmisión relativa al ancho de banda muy superiores al de un único canal SISO (Single Input Single Output). Hoy en dÍa, existe, desde un punto de vista de implementación del sistema, una gran actividad investigadora dedicada al desarrollo de algoritmos de codificación, ecualización y detección, muchos de ellos de gran complejidad, que ayuden a aproximarse a las capacidades prometidas. En el aspecto relativo a la detección, las soluciones actuales se pueden clasificar en tres tipos: soluciones subóptimas, ML (Maximum Likelihood) o cuasi-ML e iterativas. En estas ultimas, se hace uso explicito de técnicas de control de errores empleando intercambio de información soft o indecisa entre el detector y el decodificador; en las soluciones ML o cuasi-ML se lleva a cabo una búsqueda en árbol que puede ser optimizada llegando a alcanzar complejidades polinómicas en cierto margen de relación señal-ruido; por ultimo dentro de las soluciones subóptimas destacan las técnicas de forzado de ceros, error cuadrático medio y cancelación sucesiva de interferencias SIC (Succesive Interference Cancellation), esta última con una versión ordenada -OSIC-. Las soluciones subóptimas, aunque no llegan al rendimiento de las ML o cuasi-ML son capaces de proporcionar la solución en tiempo polinómico de manera determinista. En la presente tesis doctoral, hemos implementado un método basado en la literatura para l / Martínez Zaldívar, FJ. (2007). Algoritmos paralelos segmentados para los problemas de mínimos cuadrados recursivos (RLS) y de detección por cancelación ordenada y sucesiva de interferencia (OSIC) [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1873 / Palancia
3

Modelo de optimización en la generación de plantas industriales, considerando las actividades de mantenimiento y las condiciones ambientales mediante el uso de la metodología de los algoritmos genéticos

Contreras Pérez, Román Augusto 12 March 2010 (has links)
El entorno competitivo donde se desenvuelven actualmente las organizaciones empresariales, obliga a plantearse esquemas de operación bajo requerimientos de alta calidad y mínimos costes de producción. En los costes de producción, influyen, considerablemente, la distribución de las diferentes actividades en planta y el mantenimiento de los equipos que la conforman. Para la distribución de las actividades, es imperioso diseñar la ordenación, que favorezca el recorrido óptimo de los materiales de producción, para minimizar los gastos asociados al desplazamiento y a otros criterios de implantación. En relación al mantenimiento, es indispensable habilitar aquellas acciones que permitan conservar, plenamente operativos, los equipos del proceso y que a su vez impliquen costes mínimos. Hasta el presente, no se ha propuesto una metodología que contemple ambas consideraciones en el diseño de plantas. En este trabajo, se propone un primer modelo, cuya finalidad es minimizar tanto los costes relacionados por el posicionamiento de las actividades, como los esperados por la aplicación del mantenimiento a los equipos, y la influencia que tiene la distribución en éstos. Como metodología de búsqueda y validación se emplea un algoritmo genético. / Contreras Pérez, RA. (2010). Modelo de optimización en la generación de plantas industriales, considerando las actividades de mantenimiento y las condiciones ambientales mediante el uso de la metodología de los algoritmos genéticos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7344 / Palancia
4

Patrones de circulación oceánica en el litoral español

Liste Muñoz, María 30 July 2009 (has links)
En esta Tesis, se ha desarrollado el Modelo MEDiNA, que simula la circulación oceánica tridimensional del Atlántico Norte y del Mar Mediterráneo y da como resultado series temporales de salinidad, temperatura y componente u, v y w de la velocidad. Mediante la ejecución de dicho modelo, se han generado 46 años de datos que se han validado mediante la comparación de los mismos con una base de datos de climatologías (GDP), además de mediante el cálculo del transporte en los principales canales y estrechos de la cuenca occidental mediterránea y del Golfo de México. Una vez que se han validado los resultados se ha demostrado además, la capacidad que tiene el modelo MEDiNA para simular la formación y la propagación de la masa de agua MOW (Mediterranean Overflow Water) y se ha conseguido demostrar que los modelos-z, como el modelo MEDiNA, son capaces de simular adecuadamente las corrientes de densidad, como por ejemplo la MOW (Dietrich et al., 2008). Por último se han aplicado dos herramientas estadísticas para el análisis de los resultados; la primera de ellas es la técnica estadística estándar, análisis de Componentes Principales, también denominada análisis de Funciones Ortogonales Empíricas (Empirical Orthogonal Function, EOF), y la segunda son las Redes Neuronales Auto-Organizativas (Self Organizing Maps, SOM). Se ha demostrado que tanto los EOF como las SOM, además de ser potentes herramientas estadísticas, son adecuadas para estudiar en este caso, las series temporales de variables oceanográficas obtenidas a partir del modelo MEDiNA, con el fin de obtener patrones de circulación, así como la relación de éstos con los patrones atmosféricos. / In this thesis, it has developed the MEDiNA model, which simulates three-dimensional ocean circulation in the North Atlantic and the Mediterranean Sea and results time series of salinity, temperature and component u, v and w of the velocity. By implementing this model it has generated 46 years of data that it has been validated by comparing with a climatology database (GDP), and by calculating the main transport in the narrow channels Western Mediterranean basin and the Gulf of Mexico. Once it has validated the results also demonstrated the ability of the Medina model to simulate the formation and spread of the water body MOW (Mediterranean Overflow Water) and has succeeded in demonstrating that the z-models, as MEDINA model, are able to adequately simulate density currents, such as the MOW (Dietrich et al., 2008). Finally, it has applied two statistical tools for analyzing the results, the first of these is the standard statistical technique, principal component analysis, also called Empirical Orthogonal Function analysis (Empirical Orthogonal Function, EOF) and the second is Self-Organizing Neural Networks (Self Organizing Maps, SOM). Its have been shown that both, SOM and EOF, as well as being powerful statistical tools are adequate to study in this case, the time series of oceanographic variables of the model obtained from Medina, to obtain ocean patterns and their relationship to atmospheric patterns.
5

Integración de los procesos agronómicos e hidráulicos del riego a presión en un entorno SIG para la gestión eficiente de comunidades de regantes

Jiménez Bello, Miguel Ángel 04 February 2009 (has links)
La realización de nuevas infraestructuras para la mejora de la eficiencia global del riego, deben de venir acompañadas de una gestión adecuada, ya que sin ésta no se justifican las grandes inversiones acometidas. Para optimizar el uso de todos los insumos que participan en el riego, agua, energía y fertilizantes, se necesita realizar un seguimiento de todos los procesos en que están implicados, con el fin de detectar los puntos débiles de la gestión y mejorarlos. Dada la gran cantidad de información requerida para ello, resulta recomendable desarrollar un Sistema de Soporte a la toma de Decisiones (DSS). Puesto que la mayoría de la información utilizada es de carácter espacial, los Sistemas de Información Geográfica (SIG) se muestran como la herramienta de trabajo más idónea para ello. En el trabajo desarrollado se describe la metodología seguida para la elaboración de un DSS orientado a la gestión del riego en redes a presión, denominado HuraGIS (Herramientas para el Uso Racional del Agua con el soporte de un GIS). Con este fin se ha diseñado primeramente un modelo de datos relacional, vinculado al propio tiempo con la información espacial. Para su implementación, se han desarrollado una serie de módulos que permiten la captura y edición de los datos, así como su depuración. Otros módulos de la aplicación HuraGIS permiten simular todos los procesos agronómicos del riego. Además, con el fin de reproducir los procesos hidráulicos se ha integrado el módulo de cálculo de EPANET. Finalmente, como herramientas de optimización se han incorporado librerías de programación lineal y de optimización heurística, como son los Algoritmos Genéticos. La metodología desarrollada se ha aplicado a un caso real de estudio, la Comunidad de Regantes de Senyera (Valencia). Para ello se tomaron los datos necesarios en campo y se introdujeron en la aplicación HuraGIS. En una primera fase se realizó un diagnóstico sobre la gestión llevada a cabo durante la campaña de riegos de 2006, media / Jiménez Bello, MÁ. (2008). Integración de los procesos agronómicos e hidráulicos del riego a presión en un entorno SIG para la gestión eficiente de comunidades de regantes [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/4101 / Palancia

Page generated in 0.0817 seconds