• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 208
  • 72
  • 21
  • 1
  • Tagged with
  • 301
  • 301
  • 301
  • 82
  • 47
  • 45
  • 44
  • 35
  • 35
  • 35
  • 32
  • 32
  • 24
  • 22
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Comparison between surface and subsurface drip irrigation systems using effluents

Abdelhameed Elbana, Maha 28 July 2011 (has links)
Els sistemes de reg per degoteig es consideren com un mètode apropiat per a la reutilització d’aigües regenerades, ja que disminueixen els riscos sanitaris. No obstant això, el problema més important en l’aplicació dels efluents en els sistemes de reg localitzat és l’obturació dels filtres i degoters, el que disminueix la uniformitat de distribució del aigua. L’objectiu principal d’aquesta tesi doctoral va ser comparar el comportament hidràulic d’un sistema de reg per degoteig superficial (DI) i un d’enterrat (SDI) aplicant un efluent terciari amb tres freqüències de rentat dels laterals (sense rentat, un rentat al final de cada temporada de reg i un rentat mensual) amb dos tipus d’emissors (autocompensant i no autocompensant). Altres objectius han estat investigar la influència de la qualitat de l’efluent en el procés de filtració i calcular la pèrdua de càrrega i la durada dels cicles de filtració en el filtre de sorra mitjançant l’anàlisi dimensional. Els resultats van demostrar que la durada del cicle de filtració va dependre principalment de la qualitat de l’efluent aplicat i del diàmetre efectiu de la sorra utilitzada. També es va constatar que l’eficàcia del procés de filtració va ser deguda al diàmetre efectiu de la sorra del filtre i que quan menor va ser el diàmetre efectiu de la sorra utilitzada, més eficaç va ser la filtració. L’anàlisi dimensional va ajudar a desenvolupar un model matemàtic per a descriure la pèrdua de càrrega en el filtre amb un alt coeficient de determinació ajustat i una bona distribució del residus. A més, es va trobar que el cabal del lateral va dependre significativament del tipus de degoter, sistema de reg, la temporada de reg i la freqüència de neteja. En el sistema de DI, el cabal de l’emissor no autocompensant es va incrementar significativament durant l’experiment a causa d’un desgast de l’emissor i es va disminuir significativament en el sistema de SDI degut a l’obturació del degoters. El cabal del degoter autocompensant va augmentar durant l’experiment en els sistemes de DI i SDI. També es va observar que la causa principal de l’obturació de l’emissor en el sistema de DI va ser el desenvolupament de biofilm, mentre que en el SDI es va correspondre a una combinació de factors biològics i físics. Finalment, es va trobar que rentar els laterals una sola vegada al final de cada temporada de reg va ser la millor opció de maneig per assolir la major eficiència de distribució de l’aigua després de 1620 h de reg, tant en DI com SDI. / Los sistemas de riego por goteo se consideran como un método apropiado para la reutilización de aguas regeneradas, ya que disminuyen los riesgos sanitarios. Sin embargo, el problema más importante en la aplicación de los efluentes en sistemas de riego localizado es la obturación tanto de filtros como de goteros, lo que disminuye la uniformidad de distribución del agua. El objetivo principal de esta tesis doctoral es comparar el comportamiento de un sistema de riego por goteo superficial (DI) y otro enterrado (SDI) aplicando un efluente terciario con tres frecuencias de lavado de los laterales (sin lavado, un lavado al final de cada temporada de riego y otro mensual) con dos tipos de emisores (autocompensante y no autocompensante). Otros objetivos fueron investigar la influencia de la calidad del efluente en el proceso de filtración y calcular la pérdida de carga y la duración de los ciclos de filtración en filtro de arena mediante el análisis dimensional. Los resultados demostraron que la duración del ciclo de filtración dependió principalmente de la calidad del efluente aplicado y del diámetro efectivo de la arena utilizada. También se constató que la eficacia del proceso de filtración fue debida al diámetro efectivo de la arena del filtro, pues cuanto menor era el diámetro efectivo de la arena utilizada, más eficaz fue la filtración. El análisis dimensional ayudó a desarrollar un modelo matemático para describir la pérdida de carga en el filtro con un alto coeficiente de determinación ajustado y una buena distribución de los residuos. Además, se encontró que el caudal del lateral dependió significativamente del tipo del gotero, sistema de riego, temporada de riego y la frecuencia del lavado. En el sistema de DI, el caudal del emisor no autocompensante se incrementó significativamente durante el experimento debido a un deterioro del gotero y se disminuyó significativamente por culpa de la elevada porcentaje de los emisores obturados. El caudal del gotero autocompensante aumentó durante el experimento en los sistemas de DI y SDI. También se observó que la causa principal de la obturación del emisor en el sistema de DI fue el desarrollo de un biofilm, mientras que el de SDI se correspondió a una combinación de factores biológicos y físicos. Sin embargo, se encontró que lavar los laterales una sola vez al final de cada temporada de riego fue la mejor opción de manejo para lograr la mayor eficiencia de distribución del agua después de 1620 h de riego tanto en el sistema de riego por goteo superficial como en el enterrado. / Microirrigation is considered as an appropriate method for reclaimed wastewater reuse because it diminishes the health risks. However, the most important problem when applying reclaimed effluents in microirrigation systems is emitter and filter clogging, which lead to low system distribution uniformity. The main target of this PhD dissertation is to compare the performance of a surface (DI) and a subsurface (SDI) drip irrigation systems when applying a tertiary treated effluent under three flushing frequency (no flushing, seasonal flushing and monthly flushing) using two emitter types (pressure and non-pressure compensating). In addition, the study aimed to investigate the influence of effluent quality on the sand filtration process. Another purpose was to compute head loss across the sand media filter and time between backwashing in a sand filter media through dimensional analysis. The results revealed that sand filtration cycle duration depended mainly on the applied effluent quality and sand filter effective diameter. It was also found that the effectiveness of filtration process was significantly due to sand effective diameter, being the smaller the effective diameter the more effective the filtration process. The dimensional analysis helped to develop a mathematical model to calculate head loss across sand filter with a high adjusted coefficient of determination and a good distribution of residuals. Besides, it was found that lateral flow rates depended significantly on emitter type, irrigation system, irrigation season and flushing frequency. In DI system, lateral flow of the non-pressure compensating emitter was significantly increased throughout the experimental time due to emitter failure and significantly decreased in SDI one due to the elevated percentage of clogged emitters. The pressure compensating emitter lateral flow was increased during the experiment for DI and SDI systems. The study, as well, showed that emitter clogging in DI system was primarily due to biological factors and in the SDI one was due to a combination of biological and physical factors. However, it was found that the seasonal flushing frequency was the best management practice for achieving the highest system distribution uniformity after 1620 h of irrigation for both DI and SDI systems.
252

Encapsulation of omega-3 fatty acids by premix membrane emulsification

Ramakrishnan, Sarathiraja 08 November 2013 (has links)
In food and pharma industry, fish oils are highly demanded due to the many associated health benefits of omega-3 fatty acids. However, the delivery of fish oil through food is a major challenge as this oil is susceptible to oxidation and to produce off-flavors. To prevent these undesired effects, microencapsulation techniques are used. Typically oil encapsulation is carried out by two steps (i) emulsion preparation (ii) drying. The main objective is to study the effect of the emulsification method, emulsion formulation, membrane type and microcapsule formulation on relevant physic-chemical parameters of fish oil microcapsules.The approach of the project is to combine, for the first time, the advantages of using a low energy emulsification technique (membrane emulsification) and spray drying to obtain food-grade fish oil microcapsules. The results show a clear improvement in the oil encapsulation efficiency (OEE) when decreasing the droplet size of the emulsion and increasing the amount of wall material. The combination of a polysaccharide with a protein has been found to improve protection against oxidation during storage of the microcapsules, while the addition of denatured proteins as a part of the microcapsule wall material enhances OEE but does not improve the mechanical strength of the microcapsules. / El aceite de pescado es altamente valorado en la industria alimentaria por su demostrada actividad en la prevención y tratamiento de numerosas patologías, asociada a su contenido en ácidos grasos omega-3. La incorporación de aceite de pescado en alimentos presenta algunas dificultades relacionadas con su rápida oxidación y su característico aroma y sabor. La encapsulación del aceite de pescado retrasa la oxidación y permite enmascarar sus propiedades sensoriales. Tradicionalmente, la encapsulación se lleva a cabo combinando una etapa de emulsificación seguida de secado por atomización. El objetivo principal del trabajo es estudiar el efecto del método de emulsificación y la formulación de la emulsión y las microcápsulas en los parámetros físico-químicos más relevantes de las microcápsulas. En este proyecto se combina por primera vez la emulsificación por membranas con el secado por atomización para obtener microcápsulas de aceite de pescado aplicables a la industria alimentaria. Los resultados muestran una clara mejora en la eficiencia de encapsulación del aceite cuando se reduce el tamaño de gota de la emulsión y se incrementa la cantidad de material de pared de las microcápsulas. La combinación de un polisacárido con una proteína para la formación de la pared mejora la estabilidad oxidativa de las microcápsulas durante el almacenamiento. Por otra parte la adición de proteínas desnaturalizadas para reforzar las paredes de las microcápsulas ha resultado en una mejora de la eficiencia de encapsulación de aceite pero no ha mejora su resistencia mecánica
253

Sonar scan matching for simultaneous localization and mapping in confined underwater environments

Mallios, Angelos 15 May 2014 (has links)
This thesis presents the development of a localization and mapping algorithm for an autonomous underwater vehicle (AUV). It is based on probabilistic scan matching of raw sonar scans within a pose-based simultaneous localization and mapping(SLAM) framework / Aquesta tesis presenta el desenvolupament d’un algoritme de localització i mapeig per un vehicle submarí autònom (AUV). L’algoritme es basa en tècniques probabilístiques de scan matching utilitzant scans de sonar dins un sistema de localització i construcció simultània de mapes (SLAM) basat en posició
254

Surface reconstruction methods for seafloor modelling

Campos Dausà, Ricard 02 June 2014 (has links)
Underwater maps are an important source of information for the scientific community, since mapping the seafloor is the starting point for underwater exploration. The advance of range scanning methodologies (both acoustic and optical), enables the mapping of the seabed to attain increasingly larger resolutions. However, all these techniques sample the surface to reconstruct in the form of a point cloud. Surface reconstruction methods try to recover from these points a continuous surface representing the object in the form of a mesh of triangles, easing visualization and further processing. This thesis proposes four different strategies to tackle the problem of surface reconstruction from point sets corrupted with high levels of noise and outliers, while also recovering the boundaries of these surfaces. The results obtained by our algorithms are discussed and compared both qualitatively and quantitatively with other state-of-the-art approaches / Els mapes del fons del marí són una important font d'informació per la comunitat científica. Els avenços en les metodologies d'escaneig (acústic o òptic), permeten que la construcció de mapes del fons marí es realitzi cada cop a més altes resolucions. Tot i això, totes aquestes tècniques mostregen la superfície de l'àrea d’interès en la forma d'un núvol de punts. Els mètodes de reconstrucció de superfícies són els encarregats d’obtenir una superfície continua que representi l'objecte en forma d'una malla de triangles, que facilitarà la visualització i el processat posterior d'aquestes dades. Aquest treball contribueix a l'àrea de reconstrucció de superfícies amb quatre mètodes diferents, capaços de treballar amb núvols de punts que continguin alts nivells de soroll i outliers, i que recuperen al mateix moment els llindars d’aquestes superfícies. Els resultats obtinguts han estat avaluats i comparats tant qualitativament com quantitativament contra altres mètodes de l'estat de l'art
255

Development and calibration of automatic real-time environmental radioactivity monitors using gamma-ray spectrometry

Casanovas Alegre, Ramon 09 April 2014 (has links)
This doctoral thesis presents a collection of six scientific papers, which have been published in peer-reviewed scientific journals, in the field of real-time environmental radioactivity detection. After the contributions of this thesis, the automatic real-time environmental radiation surveillance network of Catalonia provides new and better radiological information. This was achieved thanks to the development and calibration of three types of radioactivity monitors using gamma-ray spectrometry, either with NaI(Tl) or LaBr3(Ce) detectors, which permit the real-time identification and quantification of radioactive isotope content in water and in air. In the thesis, details on general calibration methodologies can be found. The mentioned developments as well as their specific calibrations are also discussed. For each monitor, an evaluation of their measurement capabilities is also performed. / Esta tesis doctoral presenta una colección de seis artículos científicos, que han estado publicados en revistas científicas revisadas, en el campo de la detección de radiactividad ambiental en tiempo real. Después de las contribuciones de esta tesis, la red automática de vigilancia radiológica ambiental en tiempo real de Cataluña dispone de nueva y mejor información radiológica. Esto ha sido logrado gracias al desarrollo y calibración de tres tipos de monitores de radiactividad mediante espectrometría gamma, ya sea con detectores de NaI(Tl) o de LaBr3(Ce), que permiten la identificación y cuantificación en tiempo real del contenido isotópico radiactivo en agua y aire. En esta tesis, se pueden encontrar detalles sobre metodologías generales de calibración así como una discusión de los mencionados desarrollos y sus correspondientes calibraciones específicas. Además, se efectúa una evaluación de las capacidades de medida para cada uno de los monitores.
256

Numerical modeling of the global wave climate variability and associated environmental and technological risks. Modelado numérico de la variabilidad del clima marítimo global y riesgos ambientales y tecnológicos asociados

González Reguero, Borja 23 January 2013 (has links)
El clima se entiende, en general, como la descripción estadística de las condiciones medias y la variabilidad del mismo durante un determinado periodo de tiempo. En general, se denomina “clima marítimo” a la descripción estadística del oleaje en el océano en diversas escalas espaciales y temporales, principalmente a partir del análisis de ciertos estadísticos agregados. Esta tesis analiza la variabilidad global del clima marítimo en distintas escalas temporales. Las variaciones temporales de las condiciones tienen repercusiones de distinta índole en las costas del planeta, hasta ahora no contempladas en la práctica en muchas ocasiones. En esta tesis se ha desarrollado una nueva base de datos de oleaje global que permite abarcar el estudio de esta variabilidad. Apoyándose en un marco teórico de evaluación del riesgo, la variabilidad del clima marítimo se aplica a los riesgos de operación y supervivencia de la tecnología undimotriz dada la esperable modificación del recurso medio a largo-plazo y de las condiciones más extremas de oleaje en el planeta. Además, también se abordan los riesgos asociados a la erosión e inundación en las costas de América Latina y el Caribe, como caso particular.
257

New basic catalysts for fine chemicals synthesis

Cota, Iuliana 28 June 2010 (has links)
En los últimos años, existe un creciente interés en la sustitución de viejas tecnologías por alternativas catalíticas más limpias para el desarrollo de procesos respetuosos con el medio ambiente para la industria química. De esta manera, es un desafío continuo encontrar nuevos catalizadores básicos capaces de realizar, con alta actividad y selectividad, las reacciones para la síntesis de productos de alto valor añadido tanto químicos como farmacéuticos. La investigación descrita en esta Tesis se ha centrado en el estudio de nuevos protocolos de síntesis para catalizadores básicos. Nuevos materiales con basicidad controlada, tipo hidrotalcita, se han sintetizado a lo largo de esta Tesis. Por otra parte, se ha desarrollado un nuevo protocolo de síntesis para líquidos iónicos alifáticos de cadena corta. Además, se presenta un amplio estudio de las propiedades físico-químicas de los líquidos iónicos sintetizados. Las propiedades básicas de los catalizadores desarrollados se han caracterizado por diversas técnicas y así como mediante el empleo de reacciones modelo. Por consiguiente, el trabajo realizado en esta Tesis permite avanzar en el diseño de nuevos sistemas catalíticos más activos y eficientes para su utilización en procesos de química fina. / In the last years, there is an increasing interest in substituting old technologies by cleaner catalytic alternatives to afford more environmental friendly processes in the chemical industry. In this way, it is a continuous challenge to find new base catalysts able to perform, with high activity and selectivity, reactions for the synthesis of pharmaceutical and fine chemicals.The research described in this thesis has focused on the study of new synthesis protocols for base catalysts. New types of hydrotalcite-like materials with controlled basicity were obtained. Also, a new synthesis protocol for short aliphatic chain ionic liquids and an extensive study of their physico-chemical properties is presented. Their basic properties have been characterized by several techniques and by illustrative test reactions. The work done in this thesis can be regarded as a progress in the design of new catalytic systems, more active and efficient for use in fine chemical processes.
258

Analysis of night-time climate in plastic-covered grenhouses

Piscia, Davide 18 December 2012 (has links)
Este trabajo analiza el clima nocturno del invernadero. EL objeto del estudio es el invernadero de plástico sin calefacción, cuyo clima se estudia utilizando modelos CFD, modelos basados en los balance de energía (ES) y s datos experimentales. El fin es doble, por un lado se trata de analizar y comprender el clima nocturno del invernadero, y proponer soluciones a los problemas relacionados con las altas tasas de humedad. Por otro lado se investigan nuevos métodos de simulación del clima del invernadero, métodos basados en el uso conjunto o acoplamiento de modelos CFD y ES , y también basados en la técnica de optimización. El Capitulo 1 introduce el contexto general y los objetivos que plantea el trabajo. El Capitulo 2 estudia el clima nocturno en un invernadero de capa sencilla. Para ello desarrolla un modelo CFD que incluye una UDF (User Define Function) para calcular la tasa de condensación. Una vez validado el modelo se analiza el comportamiento del invernadero bajo distintas condiciones de contorno.. El Capitulo 3 analiza una solución para combatir las bajas temperaturas nocturnas, la pantalla térmica. Los efectos de la pantalla se analizan mediante el uso del CFD. Se lleva a cabo una comparación completa entre el invernadero de capa sencilla y el invernadero con pantalla. El capitulo proporciona información detallada sobre el clima del invernadero y presenta un estudio paramétrico del efecto de la temperatura equivalente del cielo y la cesión de calor desde el suelo en el clima del invernadero con pantalla térmica. EL Capitulo 4 presenta un nuevo método para optimizar el diseño del invernadero. El método se basa en el acoplamiento de dos algoritmos de optimización que operan con el modelo ES. A su vez el modelo ES está conectado con el modelo CFD. El objetivo es doble, por un lado introducir una nueva manera de optimizar el diseño del invernadero, y por el otro lado tratar de resolver uno de los problemas evidenciados en el capítulo 2. El resultado muestra que un material de cubierta de alto poder de reflexión del infrarrojo lejano aportaría mejorías relevantes al clima del invernadero. El Capitulo 5 presenta un modelo acoplado para el estudio del clima del invernadero. EL CFD se utiliza para proporcionar las tasas de ventilación y los coeficientes convectivos al modelo ES. Esta técnica se utiliza para estudiar los efectos de diferentes estrategias de ventilación sobre el régimen de humedad con diferentes condiciones externas. Finalmente, el Capitulo 6 resume las conclusiones y propone algunos temas para futuras investigaciones / This work studied night-time greenhouse climate. The focus was on unheated plastic greenhouses and analyses were carried out using CFD models, Energy balance (ES) models and experimental data. The aims were twofold: on the one hand, it was intended to analyse and understand night-time greenhouse climate and propose solutions to the high-humidity issue. On the other hand, the aim was to investigate novel simulation approaches based on the coupling of CFD and ES models as well as the use of optimisation algorithms to study greenhouse climate. Chapter 1 is an introductory chapter which includes the general context and overall research objectives. Chapter 2 studies night-time climate in single-layer greenhouses by means of CFD. The model is validated and condensation User Defined Function (UDF) is introduced which accounted for the condensation rate found on the inner face of the greenhouse cover. Chapter 3 studies a commonly used solution to the issue of low night-time temperature. A thermal screen was analysed by means of CFD simulations. A thorough comparison was made between single-layer and screened greenhouses and detailed information was provided in order to build a framework for taking decisions as to whether to use a screen or not. Chapter 4 introduces a novel approach to optimizing greenhouse design; the approach relies on two optimization algorithms linked to an ES model which was coupled to a CFD model. The aim of the study was twofold: on the one hand to introduce a method offering a general approach for optimizing greenhouse design and on the other, to attempt to solve one of the issues highlighted in Chapter 2. It was shown that using a highly reflective covering material would have a theoretically significant impact on greenhouse performance. Chapter 5 introduces a coupled model for studying greenhouse climate. The CFD was used to provide the ventilation rate and convective coefficients for the ES model. This approach was applied to study the effects of different ventilation strategies on humidity under different outside air conditions. Finally Chapter 6 summarizes the conclusions and proposes themes for future research.
259

Algoritmos de ordenación conscientes de la arquitectura y las características de los datos

Jiménez González, Daniel 02 July 2004 (has links)
En esta tesis analizamos y presentamos algoritmos de ordenación secuencial y paralelo que explotan la jerarquía de memoria del computador usado y/o reducen la comunicación de los datos. Sin embargo, aunque los objetivos de esta tesis son los mismo que los de otros trabajos, la forma de conseguirlos es diferente.En esta tesis los conseguimos haciendo que los algoritmos de ordenación propuestos sean conscientes de la arquitectura del computador y las características de los datos que queremos ordenar.Los conjuntos de datos que consideramos son conjuntos que caben en memoria principal, pero no en memoria cache.Los algoritmos presentados se adaptan, en tiempo de ejecución, a las características de los datos (duplicados, con sesgo, etc.) para evitar pérdidas de rendimiento dependiendo de estas características. Para ello, estos algoritmos realizan un particionado de los datos, utilizando una técnica que llamamos Mutant Reverse Sorting y que presentamos en esta tesis. Mutant Reverse Sorting se adapta dinámicamente a las características de los datos y del computador. Esta técnica analiza una muestra del conjunto de datos a ordenar para seleccionar la forma más rápida de particionar los datos. Esta técnica elige entre Reverse Sorting y Counting Split en función de la distribución de los datos. Estas técnicas también son propuestas en esta tesis. El análisis de estas técnicas, junto con los algoritmos de ordenación presentados, se realiza en un computador IBM basado en módulos p630 con procesadores Power4 y en un computador SGI O2000 con procesadores R10K. En el análisis realizado para ambos computadores se presentan modelos de comportamiento que se comparan con ejecuciones reales.Con todo ello, conseguimos los algoritmos de ordenación secuencial y paralelo más rápidos para las características de los datos y los computadores utilizados. Esto es gracias a que estos algoritmos se adaptan a los computadores y las características de los datos mejor que el resto de algoritmos analizados.Así, por un lado, el algoritmo secuencial propuesto, SKC-Radix sort, consigue unas mejoras de rendimiento de más de 25% comparado con los mejores algoritmos que encontramos en la literatura. Es más, cuanto mayor es el número de duplicados o el sesgo de los datos, mayor es la mejora alcanzada por el SKC-Radix sort.Por otro lado, el algoritmo paralelo presentado, PSKC-Radix sort, es capaz de ordenar hasta 4 veces más datos que Load Balanced Radix sort en la misma cantidad de tiempo. Load Balanced Radix sort era el algoritmo más rápido de ordenación en memoria y en paralelo para los conjunto de datos que ordenamos hasta la publicación de nuestros trabajos. / In this thesis we analyze and propose parallel and sequential sorting algorithms that exploit the memory hierarchy of the computer used and/or reduce the data communication. So, the objectives of this thesis are not different from the objectives of other works. However, the way to achieve those objectives is different.We achieve those objectives by being conscious of the computer architecture and the data characteristics of the data set we want to sort.We have focused on the data sets that fit in main memory but not in cache.So, the sorting algorithms that we present take into account the data characteristics (duplicates, skewed data, etc.) in order to avoid any lose of performance in execution time depending on those characteristics. That is done by partitioning the data set using Mutant Reverse Sorting, which is a partition technique that we propose in this thesis.Mutant Reverse Sorting dynamically adapts to the data characteristics and the computer architecture. This technique analyzes a set of samples of the data set to choose the best way to partition this data set. This chooses between Reverse Sorting and Counting Split, which are selected depending on the data distribution. Those techniques are also proposed in this thesis.The analysis of the partitioning techniques and the sorting algorithms proposed is done in an IBM computer based on p630 nodes with Power4 processors and in a SGI O2000 with R10K processors. Also, we present models of the behavior of the algorithms for those machines.The sequential and parallel algorithms proposed are the fastest for the computer architectures and data set characteristics tested. That is so because those algorithms adapt to the computer architecture and data characteristics better than others.On one hand, the sequential sorting algorithm presented, SKC-Radix sort, achieves performance improvements of more than 25% compared to other sequential algorithms found in the literature. Indeed, the larger the number of duplicates or data skew, the larger the improvement achieved by SKC-Radix sort. On the other hand, the parallel sorting algorithm proposed, PSKC-Radix sort, sorts 4 times the number of keys that Load Balanced Radix can sort in the same amount of time. Load Balanced Radix sort was the fastest in-memory parallel sorting algorithm for the kind of data set we focus on.
260

Contributions to the continuum modelling of strong discontinuities in two-dimensional solids

Samaniego Alvarado, Esteban 28 March 2003 (has links)
El estudio de la mecánica computacional de fallo ha ganado creciente popularidad en los últimos años. Modelizar el comportamiento poscrítico de estructuras puede alcanzar un grado elevado de complejidad, debido a la multiplicidad de aspectos que es necesario considerar.Desde el punto de vista de la mecánica de medios continuos, el fallo está estrechamente relacionado con la localización de deformaciones. Se dice que un sólido presenta localización de deformaciones cuando existen bandas en las cuales se producen modos de deformación intensos. Este fenómeno ha sido clasificado como una inestabilidad material, ya que está ligado a modelos constitutivos con ablandamiento o con reglas de flujo no asociadas. Un enfoque fenomenológico del problema de localización de deformaciones permite su estudio mediante saltos en el campo de desplazamientos, conocidos como discontinuidades fuertes.Este trabajo propone varias técnicas numéricas que contribuyen a la modelización de discontinuidades fuertes en sólidos bidimensionales dentro del marco de la mecánica de medios continuos. Con este objetivo, se hace una revisión sistemática de los fundamentos teóricos con los cuales se puede emprender el estudio del fallo en estructuras sin salir del ámbito de la mecánica de medios continuos clásica.En primer lugar, mediante el análisis de bifurcación discontinua, se establecen las condiciones necesarias para la aparición de discontinuidades en sólidos. A continuación, se analizan las implicaciones de adoptar la cinemática de discontinuidades fuertes en el contexto de la modelización constitutiva de medios continuos mediante el análisis de discontinuidades fuertes. Establecidas estas herramientas conceptuales, se procede a estudiar una serie de formulaciones de elementos finitos con discontinuidades internas que posibiliten la simulación numérica eficiente de la evolución de interfaces de discontinuidad en sólidos.El marco de trabajo escogido se basa en el planteamiento de las ecuaciones de gobierno del problema de valores de contorno mediante una formulación de varios campos. A partir de un análisis comparativo, se determina que el elemento más eficiente es el conocido como elemento asimétrico. Su uso implica la utilización de algoritmos de trazado del camino de la discontinuidad. Luego de estudiar este tipo de algoritmos, se propone uno que, basado en una analogía con el problema de conducción del calor, permite determinar todos las posibles líneas de discontinuidad para cada paso en un proceso de carga. Este algoritmo es especialmente eficiente para gestionar la evolución de varias líneas de discontinuidad.Se estudian, además, algunos posibles problemas de estabilidad que podrían surgir. La adición de un término viscoso a la ecuación de equilibrio se adopta como solución a las posibles inestabilidades. Finalmente, se presenta una serie de ejemplos que ponen de manifiesto la potencia de las técnicas propuestas. / The study of Computational Failure Mechanics has attracted increasing attention over the past years. Modelling the postcritical behaviour of structures is by no means trivial, due to high level of complexity that it can reach . From the continuum mechanics point of view, failure is tightly related to strain localization. When bands with modes of intense deformation are observed in a solid, it is said to undergo strain localization. It has been classified as a material instability due to its close relationship with constitutive models either equipped with strain softening or having non-associative flow rules. From a phenomenological standpoint, strain localization can be regarded as an interface where a jump in the displacement field develops. These jumps in the displacement field are termed strong discontinuities. In this work, several techniques that contribute to the continuum modelling of strong discontinuities in two-dimensional solids are proposed.To this end, a systematic review of the fundamentals of the study of failure in solids within the context of Classical Continuum Mechanics is made. First, the necessary conditions for the appearance of discontinuities in solids are established by using the socalled discontinuous bifurcation analysis. Then, the implications of adopting the strong discontinuity kinematics plus the use of continuum constitutive models are studied by means of the so-called strong discontinuity analysis. With these concepts on hand, the study of finite elements with embedded discontinuities is undertaken. A very general multi-field statement of the governing equations of the boundary value problem is used as the framework to formulate the different families of elements. The comparative analysis of all the formulations leads to the conclusion that the so-called non-symmetric element is the most efficient. However, the use of this element entails the necessity of a tracking algorithm. This kind of algorithms are also studied. A tracking algorithm based on a heat-conduction-like boundary value problem that gives all the possible discontinuity lines for a given time step in a loading process is proposed. This algorithm is specially suitable for managing multiple discontinuity interfaces. The problems of stability and uniqueness that can appear when simulating the evolution of discontinuity interfaces are analyzed and the addition of a regularizing damping term to the momentum balance equation was proposed. Finally, the proposed techniques were tested by means of some numerical examples.

Page generated in 0.0552 seconds