• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 147
  • 40
  • 29
  • Tagged with
  • 216
  • 216
  • 75
  • 65
  • 46
  • 44
  • 44
  • 34
  • 18
  • 17
  • 16
  • 13
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Contributions to privacy protection for ubiquitous computing

Pérez-Martínez, Pablo Alejandro 24 November 2015 (has links)
El desenvolupament de noves tecnologies ha introduït el concepte de Computació Ubiqua, a on els objectes que ens envolten poden tenir processadors integrats i establir la comunicació amb altres sistemes, amb la finalitat d'oferir serveis personalitzats per ajudar-nos amb les nostres tasques habituals. No obstant això, a causa de que és possible tenir ordinadors en gairebé qualsevol lloc o objecte, això ha obert noves discussions sobre temes tals com la privadesa i la seguretat, considerats des de diferents punts de vista, com el desenvolupaments jurídics, socials, econòmics i tecnològics, amb una importància cada vegada major al món actual. En aquesta tesi discutim i analitzem algunes de les principals qüestions de seguretat i privadesa a les tecnologies actuals, tals com a telèfons intel·ligents, dispositius RFID o ciutats intel·ligents, i proposem alguns protocols per fer front a aquests temes garantint la privadesa dels usuaris a tot moment. / El desarrollo de nuevas tecnologías ha introducido el concepto de Computación Ubicua , en donde los objetos que nos rodean pueden tener procesadores integrados y establecer la comunicación con otros sistemas, con el fin de ofrecer servicios personalizados para ayudarnos con nuestras tareas habituales. Sin embargo, debido a que es posible tener ordenadores en casi cualquier lugar u objeto, esto ha abierto nuevas discusiones sobre temas tales como la privacidad y la seguridad, considerado desde diferentes puntos de vista, como el desarrollos jurídicos, sociales, económicos y tecnológicos, con una importancia cada vez mayor en el mundo actual. En esta tesis discutimos y analizamos algunas de las principales cuestiones de seguridad y privacidad en las tecnologías actuales, tales como teléfonos inteligentes, dispositivos RFID o ciudades inteligentes, y proponemos algunos protocolos para hacer frente a estos temas garantizando la privacidad de los usuarios en todo momento. / The development of new technologies has introduced the concept of Ubiquitous Computing, whereby the objects around us can have an embedded computer and establish communications with each other, in order to provide personalized services to assist with our tasks. However, because it is possible to have computers almost anywhere and within any object, this has opened up new discussions on issues such as privacy and security, considered from many different views, such as the legal, social, economic and technological development perspectives, all taking an increasingly significant importance in today’s world. In this dissertation we discuss and analyze some of the main privacy and security issues in current technologies, such as smartphones, RFIDs or smart cities, and we propose some protocols in order to face these issues guarantying users' privacy anytime.
82

Stochastic optimization and interactive machine learning for human motion analysis

Alcoverro Vidal, Marcel 17 December 2014 (has links)
The analysis of human motion from visual data is a central issue in the computer vision research community as it enables a wide range of applications and it still remains a challenging problem when dealing with unconstrained scenarios and general conditions. Human motion analysis is used in the entertainment industry for movies or videogame production, in medical applications for rehabilitation or biomechanical studies. It is also used for human computer interaction in any kind of environment, and moreover, it is used for big data analysis from social networks such as Youtube or Flickr, to mention some of its use cases. In this thesis we have studied human motion analysis techniques with a focus on its application for smart room environments. That is, we have studied methods that will support the analysis of people behavior in the room, allowing interaction with computers in a natural manner and in general, methods that introduce computers in human activity environments to enable new kind of services but in an unobstrusive mode. The thesis is structured in two parts, where we study the problem of 3D pose estimation from multiple views and the recognition of gestures using range sensors. First, we propose a generic framework for hierarchically layered particle filtering (HPF) specially suited for motion capture tasks. Human motion capture problem generally involve tracking or optimization of high-dimensional state vectors where also one have to deal with multi-modal pdfs. HPF allow to overcome the problem by means of multiple passes through substate space variables. Then, based on the HPF framework, we propose a method to estimate the anthropometry of the subject, which at the end allows to obtain a human body model adjusted to the subject. Moreover, we introduce a new weighting function strategy for approximate partitioning of observations and a method that employs body part detections to improve particle propagation and weight evaluation, both integrated within the HPF framework. The second part of this thesis is centered in the detection of gestures, and we have focused the problem of reducing annotation and training efforts required to train a specific gesture. In order to reduce the efforts required to train a gesture detector, we propose a solution based on online random forests that allows training in real-time, while receiving new data in sequence. The main aspect that makes the solution effective is the method we propose to collect the hard negatives examples while training the forests. The method uses the detector trained up to the current frame to test on that frame, and then collects samples based on the response of the detector such that they will be more relevant for training. In this manner, training is more effective in terms of the number of annotated frames required. / L'anàlisi del moviment humà a partir de dades visuals és un tema central en la recerca en visió per computador, per una banda perquè habilita un ampli espectre d'aplicacions i per altra perquè encara és un problema no resolt quan és aplicat en escenaris no controlats. L'analisi del moviment humà s'utilitza a l'indústria de l'entreteniment per la producció de pel·lícules i videojocs, en aplicacions mèdiques per rehabilitació o per estudis bio-mecànics. També s'utilitza en el camp de la interacció amb computadors o també per l'analisi de grans volums de dades de xarxes socials com Youtube o Flickr, per mencionar alguns exemples. En aquesta tesi s'han estudiat tècniques per l'anàlisi de moviment humà enfocant la seva aplicació en entorns de sales intel·ligents. És a dir, s'ha enfocat a mètodes que puguin permetre l'anàlisi del comportament de les persones a la sala, que permetin la interacció amb els dispositius d'una manera natural i, en general, mètodes que incorporin les computadores en espais on hi ha activitat de persones, per habilitar nous serveis de manera que no interfereixin en la activitat. A la primera part, es proposa un marc genèric per l'ús de filtres de partícules jeràrquics (HPF) especialment adequat per tasques de captura de moviment humà. La captura de moviment humà generalment implica seguiment i optimització de vectors d'estat de molt alta dimensió on a la vegada també s'han de tractar pdf's multi-modals. Els HPF permeten tractar aquest problema mitjançant multiples passades en subdivisions del vector d'estat. Basant-nos en el marc dels HPF, es proposa un mètode per estimar l'antropometria del subjecte, que a la vegada permet obtenir un model acurat del subjecte. També proposem dos nous mètodes per la captura de moviment humà. Per una banda, el APO es basa en una nova estratègia per les funcions de cost basada en la partició de les observacions. Per altra, el DD-HPF utilitza deteccions de parts del cos per millorar la propagació de partícules i l'avaluació de pesos. Ambdós mètodes són integrats dins el marc dels HPF. La segona part de la tesi es centra en la detecció de gestos, i s'ha enfocat en el problema de reduir els esforços d'anotació i entrenament requerits per entrenar un detector per un gest concret. Per tal de reduir els esforços requerits per entrenar un detector de gestos, proposem una solució basada en online random forests que permet l'entrenament en temps real, mentre es reben noves dades sequencialment. El principal aspecte que fa la solució efectiva és el mètode que proposem per obtenir mostres negatives rellevants, mentre s'entrenen els arbres de decisió. El mètode utilitza el detector entrenat fins al moment per recollir mostres basades en la resposta del detector, de manera que siguin més rellevants per l'entrenament. D'aquesta manera l'entrenament és més efectiu pel que fa al nombre de mostres anotades que es requereixen.
83

From community structure to the physics of multiplex networks

Granell Martorell, Clara 05 February 2016 (has links)
Els sistemes complexes són sistemes que estan formats per un gran nombre d'unitats individuals, les quals interactuen entre elles, generalment de manera no-lineal, donant lloc a xarxes complexes d'interaccions. Sistemes biològics, socials i econòmics, entre d'altres, són sovint sistemes d'aquest tipus, el caràcter complex dels quals és mereixedor d'estudi. En els últims anys, un gran nombre de publicacions científiques han recolzat la conveniència d'analitzar aquest tipus de sistemes a través d'un conjunt d'eines i mètodes especialment dissenyats per la descripció de sistemes complexes. L'objectiu d'aquesta tesi és estudiar les xarxes complexes, i en particular, les xarxes multiplex. Estudiarem la caracterització topològica de les xarxes fent servir eines d'anàlisi de comunitats, posant especial èmfasi en els mètodes de multi-resolució, que són capaços d'informar-nos de tota la mesoescala. També ens ocuparem de caracteritzar processos dinàmics en xarxes multiplex, en el cas especial on dos processos epidèmics competeixen l'un contra l'altre sobre la mateixa estructura. Finalment, demostrarem l'aplicabilitat de les eines de xarxes complexes en un treball experimental dedicat a caracteritzar l'estructure funcional de cultius de neurones clusteritzades.
84

Mac-Phy Cross-Layer analysis and design of Mimo-Ofdm Wlans based on fast link adaptation

Martorell Lliteras, Gabriel 10 July 2013 (has links)
The latestWLAN standard, known as IEEE 802.11n, has notably increased the network capacity with respect to its predecessors thanks to the incorporation of the multipleinput multiple-output (MIMO) technology. Nonetheless, the new amendment, as its previous ones, does not specify how crucial configuration mechanisms, most notably the adaptive modulation and coding (AMC) algorithm should be implemented. The AMC process has proved essential to fully exploit the system resources in light of varying channel conditions. In this dissertation, a closed-loop AMC technique, referred to as fast link adaption (FLA) algorithm, that effectively selects themodulation and coding scheme (MCS) for multicarriermultiantennaWLAN networks is proposed. The FLA algorithm determines the MCS that maximizes the throughput while satisfying a quality of service (QoS) constraint, usually defined in the form of an objective packet error rate (PER). To this end, FLA uses a packet/bit error rate prediction methodology based on the exponential effective SNRmetric (EESM). The FLA algorithm performance has been evaluated under IEEE 802.11n systems that thanks to the incorporation of a feedbackmechanismare able to implement closed- loop AMC mechanisms. Initially, this AMC technique relies only on physical layer information but it is subsequently extended to also take into account themediumaccess control (MAC) sublayer performance. At the physical layer, the FLA algorithm has demonstrated its effectivity by performing very close to optimality in terms of throughput, while satisfying a prescribed PER constraint. The FLA algorithm has also been evaluated using imperfect channel information. It has been observed that the proposed FLA technique is rather robust against imperfect channel information, and only in highly-frequency selective channels, imperfect channel knowledge causes a noticeable degradation in throughput. At the MAC sublayer, the FLA algorithm has been complemented with a timeout strategy that weighs down the influence of the available channel information as this becomes outdated. This channel information outdate is caused by the MAC sublayer whose user multiplexing policy potentially results in large delays between acquiring the instant in which the channel state information is acquired and that in which the channel is accessed. Results demonstrate the superiority of FLA when compared to open-loop algorithms under saturated and non-saturated conditions and irrespective of the packet length, number of users, protocol (CSMA/CA or CDMA/E2CA) and access scheme (Basic Access or RTS/CTS). Additionally, several analytical models have been developed to estimate the system performance at the MAC sublayer. These models account for all operational details of the IEEE 802.11n MAC sublayer, such as finite number of retries, anomalous slot or channel errors. In particular, a semi-analytical model that assesses the MAC layer throughput under saturated conditions, considering the AMC performance is first introduced. Then, an analytical model that allows the evaluation of the QoS performance under non-saturated conditions is presented. This model focuses on single MCS and it is able to accurately predict very important system performance metrics such as blocking probability, delay, probability of discard or goodput thanks to the consideration of the finite queues on each station. Finally, the previous non-saturated analytical approach is used to define a semi-analytical model in order to estimate the system performance when considering AMC algorithms (i.e. whenmultiple MCSs are available). / La darrera versió de l’estàndard deWLAN, anomenada IEEE 802.11n, ha augmentat la seva capacitat notablement en relació als sistemes anteriors gràcies a la incorporació de la tecnologia de múltiples antenes en transmissió i recepció (MIMO). No obstant això, la nova proposta, al igual que les anteriors, segueix sense especificar com s’han d’implementar elsmecanismes de configuraciómés crucials, un dels quals és l’algoritme de codificació imodulació adaptativa (AMC). Aquests algoritmes ja han demostrat la seva importància a l’hora demaximitzar el rendiment del sistema tenint en compte les condicions canviants del canal. En aquesta tesis s’ha proposat un algoritme AMC de llaç tancat, anomenat adaptació ràpida de l’enllaç (FLA), que selecciona eficientment l’esquema demodulació i codificació adaptativa per xarxes WLAN basades en arquitectures multiportadora multiantena. L’algoritme FLA determina el mode de transmissió capaç de maximitzar el throughput per les condicions de canal actuals, mentre satisfà un requisit de qualitat de servei en forma de taxa d’error per paquet (PER). FLA utilitza una metodologia de predicció de PER basada en l’estimació de la relació senyal renou (SNR) efectiva exponencial (EESM). El rendiment de l’algoritme FLA ha estat avaluat en sistemes IEEE 802.11n, ja que aquests, gràcies a la incorporació d’unmecanisme de realimentació demodes de transmissió, poden adoptar solucions AMC de llaç tancat. En una primera part, l’estudi s’ha centrat a la capa física i després s’ha estès a la subcapa MAC. A la capa física s’ha demostrat l’efectivitat de l’algoritme FLA aconseguint un rendiment molt proper al que ens proporcionaria un esquema AMC òptim en termes de throughput, alhora que es satisfan els requisits de PER objectiu. L’algoritme FLA també ha estat avaluat utilitzant informació imperfecte del canal. S’ha vist que l’algoritme FLA proposat és robust en front dels efectes d’estimació imperfecte del canal, i només en canals altament selectius en freqüència, la informació imperfecte del canal provoca una davallada en el rendiment en termes de throughput. A la subcapa MAC, l’algoritme FLA ha estat complementat amb una estratègia de temps d’espera que disminueix la dependència amb la informació de canal disponible a mesura que aquesta va quedant desfassada respecte de l’estat actual. Aquesta informació de canal desfassada és conseqüència de la subcapa MAC que degut a la multiplexació d’usuaris introdueix grans retards entre que es determina el mode de transmissió més adequat i la seva utilització per a l’accés al canal. Els resultats obtinguts han demostrat la superioritat de FLA respecte d’altres algoritmes de llaç obert en condicions de saturació i de no saturació, i independentment de la longitud de paquet, nombre d’usuaris, protocol (CSMA/CA i CSMA/E2CA) i esquema d’accés (Basic Access i RTS/CTS). Amés, s’han desenvolupat diversosmodels analítics per tal d’estimar el rendiment del sistema a la subcapa MAC. Aquests models consideren tots els detalls de funcionament de la subcapaMAC del 802.11n, comper exemple un nombre finit de retransmissions de cada paquet, l’slot anòmal o els errors introduïts pel canal. Inicialment s’ha proposat unmodel semi-analític que determina el throughtput en condicions de saturació, considerant el rendiment dels algoritmes AMC. Després s’ha presentat un model analític que estima el rendiment del sistema per condicions de no saturació, mitjançat elmodelat de cues finites a cada estació. Aquestmodel consideramodes de transmissió fixes i és capaç de determinar de manera molt precisa mètriques de rendimentmolt importants comsón la probabilitat de bloqueig de cada estació, el retard mitjà del paquets, la probabilitat de descart o la mesura del goodput. Finalment, el model analític de no saturació s’ha utilitzat per definir un model semi-analític per tal d’estimar el rendiment del sistema quan es considera l’ús d’algoritmes AMC.
85

Comparaciones Multivariantes de Vectores Aleatorios con Aplicaciones

Mulero González, Julio 25 July 2012 (has links)
El resultado de un experimento es variable y está modelado por variables y vectores aleatorios. Comúnmente, las comparaciones entre están cantidades aleatorias están basadas en algunas medidas asociadas, pero a menudo no son demasiado informativas. En este caso, los órdenes estocásticos proporcionan una comparación más completa. A veces, estamos interesados en estudiar propiedades de una variable o vector aleatorio, es decir, sus propiedades de envejecimiento. Los órdenes estocásticos son también herramientas útiles para caracterizar y estudiar estas nociones de envejecimiento. A lo largo de esta memoria, proponemos y estudiamos nuevos órdenes mutivariantes y nuevas nociones de envejecimiento para comparar y clasificar vectores aleatorios. Asímismo, establecemos condiciones para la comparación de vectores aleatorios en el orden estocástico usual, el orden estocástico más importante, para la clase de los modelos TTE, que contiene, por ejemplo, la familia de los modelos de fragilidad, así como ejemplos y aplicaciones / The outcome of an experiment or game is random and is modeled by random variables and vectors. The comparisons between these random values are mainly based on the comparison of some measures associated to random quantities. Stochastic orders and aging notions are a growing field of research in applied probability and statistics. In this chapter, we present the main definitions and properties that we will use along this memory
86

Fair exchange in e-commerce and certified e-mail, new scenarios and protocols

Draper Gil, Gerard 22 July 2013 (has links)
We are witnessing a steady growth in the use of Internet in the electronic commerce field. This rise is promoting the migration from traditional processes and applications (paper based) to an electronic model. But the security of electronic transactions continues to pose an impediment to its implementation. Traditionally, most business transactions were conducted in person. Signing a contract required the meeting of all interested parties, the postman delivered certified mail in hand, and when paying for goods or services both customer and provider were present. When all parties are physically present, a transaction does not require a complex protocol. The participants acknowledge the presence of the other parties as assurance that they will receive their parts, whether a signature on a contract, or a receipt, etc. But with e-commerce growing in importance as sales and business channel, all these transactions have moved to its digital counterpart. Therefore we have digital signature of contracts, certified delivery of messages and electronic payment systems. With electronic transactions, the physical presence is not required,moreover, most of the times it is even impossible. The participants in a transaction can be thousands of kilometers away from each other, and they may not even be human participants, they can be machines. Thus, the security that the transaction will be executed without incident is not assured per se, we need additional security measures. To address this problem, fair exchange protocols were developed. In a fair exchange every party involved has an item that wants to exchange, but none of the participants is willing to give his item away unless he has an assurance he will receive the corresponding item from the other participants. Fair exchange has many applications, like digital signature of contracts, where the items to be exchanged are signatures on contracts, certified delivery of messages, where we exchange a message for evidence of receipt, or a payment process, where we exchange a payment (e-cash, e-check, visa, etc.) for digital goods or a receipt. The objective of this dissertation is the study of the fair exchange problem. In particular, it presents two new scenarios for digital contracting, the Atomic Multi- Two Party (AM2P) and the Agent Mediated Scenario (AMS), and proposes one optimistic contract signing protocol for each one. Moreover, it studies the efficiency of Multi-Party Contract Signing (MPCS) protocols from their architecture point of view, presenting a new lower bound for each architecture, in terms of minimum number of transactions needed. Regarding Certified Electronic Mail (CEM), this dissertation presents two optimistic CEMprotocols designed to be deployed on thecurrent e-mail infrastructure, therefore they assume the participation of multiple Mail Transfer Agents (MTAs). In one case, the protocol assumes untrusted MTAs whereas in the other one it assumes each User Agent (UA) trusts his own MTA. Regarding payment systems, this dissertation presents a secure and efficient electronic bearer bank check scheme allowing the electronic checks to be transferred fairly and anonymously. / L’ús d’Internet en l’àmbit del comerç electrònic està experimentant un creixement estable. Aquest increment d’ús està promovent lamigració de processos tradicionals i aplicacions (basades en paper) cap a un model electrònic. Però la seguretat de les transaccions electròniques continua impedint la seva implantació. Tradicionalment, la majoria de les transaccions s’han dut a terme en persona. La firma d’un contracte requeria la presència de tots els firmants, el carter entrega les cartes certificades enmà, i quan es paga per un bé o servei ambdós venedor i comprador hi són presents. Quan totes les parts hi són presents, les transaccions no requereixen un protocol complex. Els participants assumeixen la presència de les altres parts com assegurança que rebran el que esperen d’elles, ja sigui la firma d’un contracte, un rebut d’entrega o un pagament. Però amb el creixement del comerç electrònic com a canal de venda i negoci, totes aquestes transaccions s’hanmogut al seu equivalent en el món electrònic. Així doncs tenim firma electrònica de contractes, enviament certificat de missatges, sistemes de pagament electrònic, etc. En les transaccions electròniques la presència física no és necessària, de fet, la majoria de vegades és fins it tot impossible. Els participants poden estar separats permilers de kilòmetres, i no és necessari que siguin humans, podrien sermàquines. Llavors, la seguretat de que la transacció s’executarà correctament no està assegurada per se, necessitem proporcionar mesures de seguretat addicionals. Per solucionar aquest problema, es van desenvolupar els protocols d’intercanvi equitatiu. En un intercanvi equitatiu totes les parts involucrades tenen un objecte que volen intercanviar, però cap de les parts implicades vol donar el seu objecte si no té la seguretat que rebrà els objectes de les altres parts. L’intercanvi equitatiu té multitud d’aplicacions, com la firma electrònica de contractes, on els elements a intercanviar son firmes de contractes, enviament certificat demissatges, on s’intercanvien unmissatge per una evidència de recepció, o un procés de pagament, on intercanviemun pagament (e-cash, visa, e-xec, etc.) per bens digitals o per un rebut. L’objectiu d’aquesta tesi és estudiar el problema de l’intercanvi equitatiu. En particular, la tesi presenta dos nous escenaris per a la firma electrònica de contractes, l’escenari multi-two party atòmic i l’escenari amb agents intermediaris, i proposa un protocol optimista per a cada un d’ells. A més, presenta un estudi de l’eficiència dels protocols de firma electrònica multi-part (Multi-Party Contract Signing (MPCS) protocols) des del punt de vista de la seva arquitectura, presentant una nova fita per a cada una, en termes de mínim nombre de transaccions necessàries. Pel que fa al correu electrònic certificat, aquesta tesi presenta dos protocols optimistes dissenyats per a ser desplegats damunt l’infraestructura actual de correu electrònic, per tant assumeix la participació demúltiples agents de transferència de correu. Un dels protocols assumeix que cap dels agents de transferència de correu participants és de confiança,mentre que l’altre assumeix que cada usuari confia en el seu propi agent. Pel que fa a sistemes de pagament, la tesi presenta un esquema de xec bancari al portador, eficient i segur, que garanteix que la transferència dels xecs es fa demanera anònima i equitativa.
87

Three-dimensional numerical simulation of fluid flow and heat transfer in fin-and-tube heat exchangers at different flow regimes

Paniagua Sánchez, Leslye 30 July 2014 (has links)
This thesis aims at unifying two distinct branches of work within the Heat Transfer Technological Center (CTTC). On one side, extensive experimental work has been done during the past years by the researchers of the laboratory. This experimental work has been complemented with numerical models for the calculation of fin and tube heat exchangers thermal and fluid dynamic behavior. Such numerical models can be referred to as fast numerical tool which can be used for industrial rating and design purposes. On the other hand, the scientists working at the research center have successfully developed a general purpose multi-physics Computational Fluid Dynamics (CFD) code (TermoFluids). This high performance CFD solver has been extensively used by the co-workers of the group mainly to predict complex flows of great academic interest. The idea of bringing together this two branches, comes from the necessity of a reliable numerical platform with detailed local data of the flow and heat transfer on diverse heat exchanger applications. Being able to use local heat transfer coefficients as an input on the rating and design tool will lead to affordable and accurate prediction of industrial devices performance, by which the center can propose enhanced alternatives to its industrial partners. To accomplish these goals, several contributions have been made to the existing TermoFluids software which is in continuous evolution in order to meet the competitive requirements. The most significant problematics to adequately attack this problem are analyzed and quite interesting recommendations are given. Some of the challenging arising issues involve the generation of suitable and affordable meshes, the implementation and validation of three dimensional periodic boundary condition and coupling of different domains with important adjustments for the study of cases with different flow physics like time steps and thermal development. Turbulence is present in most of engineering flows, and refrigeration evaporator heat exchangers are not an exception. The presence of many tubes (acting like bluff bodies for the flow) arranged in different configurations and the fact that the flow is also confined by fins, create complex three dimensional flow features that have usually turbulent or transition to turbulent regime. Therefore, three dimensional turbulent forced convection in a matrix of wall-bounded pins is analyzed. Large Eddy Simulations (LES) are performed in order to assess the performance of three different subgrid-scale models, namely WALE, QR and VMS. The Reynolds numbers of the study were set to 3000, 10000 and 30000. Some of the main results included are the pressure coefficient around the cylinders, the averaged Nusselt number at the endwalls and vorticity of the flow. The final part of the thesis is devoted to study the three dimensional fluid flow and conjugated heat transfer parameters encountered in a plate fin and tube heat exchanger used for no-frost refrigeration. The numerical code and post processing tools are validated with a very similar but smaller case of a heat exchanger with two rows of tubes at low Reynolds for which experimental data is available. The next analysis presented is a typical configuration for no-frost evaporators with double fin spacing (for which very few numerical data is reported in the scientific literature). Conjugated convective heat transfer in the flow field and heat conduction in the fins are coupled and considered. The influence of some geometrical and flow regime parameters is analyzed for design purposes. In conclusion, the implementations and general contributions of the present thesis together with the previous existent multi-physics computational code, has proved to be capable to perform successful top edge three dimensional simulations of the flow features and heat transfer mechanisms observed on heat exchanger devices. / Esta tesis tiene como objetivo unificar dos ramas de trabajo dentro del Centro Tecnológico de Transferencia de Calor (CTTC). Por un lado, se ha realizado un amplio trabajo experimental durante los últimos años. Este trabajo experimental se ha complementado con modelos numéricos para el estudio de intercambiadores de calor de tipo aleta-tubo. Tales modelos numéricos pueden considerarse una herramienta numérica de bajo coste empleada con propósitos de diseño principalmente. Por otro lado, los científicos que trabajan en el centro han desarrollado con éxito un código de Dinámica de Fluidos Computacionales (TermoFluids). Este código de alto rendimiento ha sido ampliamente utilizado principalmente para predecir flujos complejos de gran interés académico. La idea de unir a estas dos ramas, proviene de la necesidad de una plataforma numérica fiable con datos locales propios del flujo y de la transferencia de calor en diversas aplicaciones de intercambiadores de calor. Ser capaz de generar coeficientes locales de transferencia de calor para abastecer con datos propios los modelos existentes de bajo coste, permitirá la correcta predicción del rendimiento de dichos dispositivos. Para lograr estos objetivos, se han hecho varias contribuciones al código TermoFluids que está en continua evolución. Algunas de las mayores cuestiones que se plantean implican la generación de mallas adecuadas y asequibles, la implementación y validación de la condición de contorno periódica tridimensional y el acoplamiento de los diferentes dominios para el estudio de casos con diferentes comportamientos físicos, como desarrollo transitorio e inercia térmica. La turbulencia está presente en la mayoría de los flujos de ingeniería, y los intercambiadores de calor de evaporadores para refrigeración no son una excepción. La presencia de muchos tubos (que actúan como obstáculos para el fluido) colocados en diferentes configuraciones y el hecho de que el flujo también está confinado por aletas, crean características de flujo tridimensionales complejas que tienen generalmente régimen turbulento o en transición. Por lo tanto, se analiza la convección forzada turbulenta en una matriz de pines delimitados por paredes. simulando las grandes escalas de turbulencia y modelando las pequeñas (LES) con el fin de evaluar el desempeño de los tres modelos seleccionados, a saber WALE, QR y VMS. Los números de Reynolds establecidos para el estudio son 3000, 10000 y 30000. Algunos de los principales resultados que se incluyen son el coeficiente de presión alrededor los cilindros, el número de Nusselt promedio en las paredes y la vorticidad del flujo. La parte final de la tesis se dedica a estudiar el flujo tridimensional y los parámetros de transferencia de calor encontrados en un intercambiador de calor de tipo aleta-tubo utilizado para la refrigeración doméstica en equipos de 'no-escarcha'. Las implementaciones del código y el postproceso numéricos se validan en un caso muy similar para un intercambiador de calor con dos filas de tubos a bajos Reynolds para el cual se dispone de datos experimentales. El siguiente análisis que se presenta es una configuración típica para evaporadores 'no-escarcha' con paso de aleta doble (para el que se tiene muy poca información numérica en la literatura). Se considera el acoplamiento conjugado de la transferencia de calor convectiva entre fluido y sólido y conductiva dentro de la aleta. La influencia de algunos parámetros geométricos y de régimen de flujo se analizan con propósitos de diseño. En conclusión, las contribuciones generales de esta tesis junto con el código computacional ya existente, ha demostrado ser capaz de realizar con éxito simulaciones tridimensionales para predecir las características del flujo y los mecanismos responsables de la transferencia de calor en intercambiadores de calor de tipo aleta-tubo
88

Numerical investigation of particle-fluid interaction system based on discrete element method

Zhang, Hao 28 November 2014 (has links)
This thesis focuses on the numerical investigation of the particle-fluid systems based on the Discrete Element Method (DEM). The whole thesis consists of three parts, in each part we have coupled the DEM with different schemes/solvers on the fluid phase. In the first part, we have coupled DEM with Direct Numerical Simulation (DNS) to study the particle-laden turbulent flow. The effect of collisions on the particle behavior in fully developed turbulent flow in a straight square duct was numerically investigated. Three sizes of particles were considered with diameters equal to 50 µm, 100 µm and 500 µm. Firstly, the particle transportation by turbulent flow was studied in the absence of the gravitational effect. Then, the particle deposition was studied under the effect of the wall-normal gravity force in which the influence of collisions on the particle resuspension rate and the final stage of particle distribution on the duct floor were discussed, respectively. In the second part, we have coupled DEM with Lattice Boltzmann Method (LBM) to study the particle sedimentation in Newtonian laminar flow. A novel combined LBM-IBM-DEM scheme was presented with its application to model the sedimentation of two dimensional circular particles in incompressible Newtonian flows. Case studies of single sphere settling in a cavity, and two particles settling in a channel were carried out, the velocity characteristics of the particle during settling and near the bottom were examined. At last, a numerical example of sedimentation involving 504 particles was finally presented to demonstrate the capability of the combined scheme. Furthermore, a Particulate Immersed Boundary Method (PIBM) for simulating the fluid-particle multiphase flow was presented and assessed in both two and three-dimensional applications. Compared with the conventional IBM, dozens of times speedup in two-dimensional simulation and hundreds of times in three-dimensional simulation can be expected under the same particle and mesh number. Numerical simulations of particle sedimentation in the Newtonian flows were conducted based on a combined LBM - PIBM - DEM showing that the PIBM could capture the feature of the particulate flows in fluid and was indeed a promising scheme for the solution of the fluid-particle interaction problems. In the last part, we have coupled DEM with averaged Navier-Stokes equations (NS) to study the particle transportation and wear process on the pipe wall. A case of pneumatic conveying was utilized to demonstrate the capability of the coupling model. The concrete pumping process was then simulated, where the hydraulic pressure and velocity distribution of the fluid phase were obtained. The frequency of the particles impacting on the bended pipe was monitored, a new time average collision intensity model based on impact force was proposed to investigate the wear process of the elbow. The location of maximum erosive wear damage in elbow was predicted. Furthermore, the influences of slurry velocity, bend orientation and angle of elbow on the puncture point location were discussed. / Esta tesis se centra en la investigación numérica de sistemas partícula-líquido basado en la técnica Discrete Element Method (DEM). La tesis consta de tres partes, en cada una de las cuales se ha acoplado el método DEM con diferentes esquemas/solucionadores en la fase fluida. En la primera parte, hemos acoplado los métodos DEM con Direct Numerical Simulation (DNS) para estudiar casos de "particle-laden turbulent flow". Se investigó numéricamente el efecto de las colisiones en el comportamiento de las partículas en el flujo turbulento completamente desarrollado en un conducto cuadrado recto. Tres tamaños de partículas se consideraron con diámetros de 50, 100 y 500 micrometros. En primer lugar, el transporte de partículas por el flujo turbulento se estudió en la ausencia del efecto gravitacional. Entonces, la deposición de partículas se estudió bajo el efecto de la fuerza de gravedad normal a la pared, en el que se discutieron la influencia de la tasa de colisiones en re-suspensión de las partículas y la fase final de la distribución de partículas en el suelo del conducto, respectivamente. En la segunda parte, se ha acoplado los métodos DEM con Lattice Boltzmann Method (LBM) para estudiar la sedimentación de partículas en flujo laminar newtoniano. Un nuevo metodo combinado LBM-IBM-DEM se presentó y ha sido aplicado para modelar la sedimentación de dos partículas circulares bi-dimensionales en flujos Newtonianos incompresibles. Se estudiaron casos de sedimentación en una cavidad de una sola esfera, y sedimentación de dos partículas en un canal, las características de la velocidad de la partícula durante la sedimentación y cerca de la base fueron también examinados. En el último caso, un ejemplo numérico de sedimentación de 504 partículas fue finalmente presentado para demostrar la capacidad del método combinado. Además, se ha presentado un método "Particulate Immersed Boundary Method" (PIBM) para la simulación de flujos multifásicos partícula-fluido y ha sido evaluado en dos y tres dimensiones. En comparación con el método IBM convencional, se puede esperar con el mismo número de partículas y de malla un SpeedUp docenas de veces superior en la simulación bidimensional y cientos de veces en la simulación en tres dimensiones. Se llevaron a cabo simulaciones numéricas de la sedimentación de partículas en los flujos newtonianos basados en una combinación LBM - PIBM - DEM, mostrando que el PIBM podría capturar las características de los flujos de partículas en el líquido y fue en efecto un esquema prometedor para la solución de problemas de interacción fluido-partícula. En la última parte, se ha acoplado el método DEM con las ecuaciones promediadas de Navier-Stokes (NS) para estudiar el transporte de partículas y el proceso de desgaste en la pared de una tubería. Se utilizó un caso de transporte neumático para demostrar la capacidad del modelo acoplado. Entonces se simuló el proceso de bombeo de hormigón, de donde se obtuvo la presión hidráulica y la distribución de la velocidad de la fase fluida. Se monitoreó la frecuencia de impacto de las partículas en la tubería doblada, se propuso un nuevo modelo de intensidad de colisión promediado en tiempo para investigar el proceso de desgaste del codo basado en la fuerza de impacto. Se predijo la ubicación del daño máximo desgaste por erosión en el codo. Además, se examinaron las influencias de la velocidad de pulpa, la orientación y el ángulo de curvatura del codo en la ubicación del punto de punción.
89

Particle-in-cell algorithms for plasma simulations on heterogeneous architectures

Sáez Pous, Xavier 25 January 2016 (has links)
During the last two decades, High-Performance Computing (HPC) has grown rapidly in performance by improving single-core processors at the cost of a similar growth in power consumption. The single-core processor improvement has led many scientists to exploit mainly the process level parallelism in their codes. However, the performance of HPC systems is becoming increasingly limited by power consumption and power density, which have become a primary concern for the design of new computer systems. As a result, new supercomputers are designed based on the power efficiency provided by new homogeneous and heterogeneous architectures. The growth in computational power has introduced a new approach to science, Computational Physics. Its impact on the study of nuclear fusion and plasma physics has been very significant. This is because the experiments are difficult and expensive to perform whereas computer simulations of plasma are an efficient way to progress. Particle-In-Cell (PIC) is one of the most used methods to simulate plasma. The improvement in the processing power has enabled an increase in the size and complexity of the PIC simulations. Most PIC codes have been designed with a strong emphasis on the physics and have traditionally included only process level parallelism. This approach has not taken advantage of multiprocessor platforms. Therefore, these codes exploit inefficiently the new computing platforms and, as a consequence, they are still limited to using simplified models. The aim of this thesis is to incorporate in a PIC code the latest technologies available in computer science in order to take advantage of the upcoming multiprocessor supercomputers. This will enable an improvement in the simulations, either by introducing more physics in the code or by incorporating more detail to the simulations. This thesis analyses a PIC code named EUTERPE on different computing platforms. EUTERPE is a production code used to simulate fusion plasma instabilities in fusion reactors. It has been implemented for traditional HPC clusters and it has been parallelized prior to this work using only Message Passing Interface (MPI). Our study of its scalability has reached up to tens of thousands of processors, which is several orders of magnitude higher than the scalability achieved when this thesis was initiated. This thesis also describes the strategies adopted for porting a PIC code to a multi-core architecture, such as introducing thread level parallelism, distributing the work among different computing devices, and developing a new thread-safe solver. These strategies have been evaluated by applying them to the EUTERPE code. With respect to heterogeneous architectures, it has been possible to port this kind of plasma physics codes by rewriting part of the code or by using a programming model called OmpSs. This programming model is specially designed to make this computing power easily available to scientists without requiring expert knowledge on computing. Last but not least, this thesis should not be seen as the end of a way, but rather as the beginning of a work to extend the physics simulated in fusion codes through exploiting available HPC resources. / Durant les darreres dues dècades, la Computació d'Alt Rendiment (HPC) ha crescut ràpidament en el rendiment mitjançant la millora dels processadors d'un sol nucli a costa d'un creixement similar en el consum d'energia. La millora en els processadors d'un sol nucli ha portat a molts científics a explotar tot el paral·lelisme a nivell de procés en els seus codis. No obstant això, el rendiment dels sistemes HPC està cada cop més limitat pel consum d'energia i la densitat de potència, que s'han convertit en una de les principals preocupacions en el disseny dels nous sistemes informàtics. Com a resultat, els nous supercomputadors estan dissenyats sobre la base de l'eficiència energètica proporcionada per les noves arquitectures homogènies i heterogènies. El creixement de la potència de càlcul ha introduït un nou enfocament a la ciència, la Física Computacional. El seu impacte en l'estudi de la fusió nuclear i la física del plasma ha estat molt significatiu. Això és perquè els experiments són difícils i costosos de realitzar mentre que les simulacions del plasma amb computadors són una manera eficaç de progressar. Particle-In-Cell (PIC) és un dels mètodes més utilitzats per simular el plasma. La millora en la potència de processament ha permès un augment en la grandària i la complexitat de les simulacions PIC. La majoria dels codis PIC s'han dissenyat amb un fort èmfasi en la física i tradicionalment han inclòs només paral·lelisme a nivell de procés. Aquest enfocament no ha aprofitat les plataformes multiprocessador. Per tant, aquests codis exploten ineficientment les noves plataformes de computació i, com a conseqüència, encara estan limitats a tractar amb models simplificats. L'objectiu d'aquesta tesi és incorporar en un codi PIC les últimes tecnologies disponibles en informàtica per tal d'aprofitar els propers supercomputadors multiprocessador. Això permetrà una millora en les simulacions, ja sigui mitjançant la introducció de més física en el codi o mitjançant la incorporació de més detall en les simulacions. Aquesta tesi analitza un codi PIC anomenat EUTERPE en diferents plataformes de computació. EUTERPE és un codi de producció utilitzat per simular les inestabilitats del plasma en els reactors de fusió. S'ha implementat per clústers HPC tradicionals i s'ha paral·lelitzat prèviament a aquest treball usant només la Interfície de Pas de Missatges (MPI). El nostre estudi de la seva escalabilitat ha arribat fins a desenes de milers de processadors, que és diversos ordres de magnitud més gran que l'escalabilitat que s'havia assolit quan es va iniciar aquesta tesi. Aquesta tesi també descriu les estratègies adoptades per portar un codi PIC a una arquitectura multi-nucli, com ara la introducció de paral·lelisme a nivell de thread, la distribució de la feina entre diferents dispositius de computació i el desenvolupament d'un nou solver thread-safe. Aquestes estratègies han estat avaluades amb la seva aplicació al codi EUTERPE. Pel que fa a les arquitectures heterogènies, ha estat possible portar aquest tipus de codis de la física del plasma reescrivint part del codi o mitjançant l'ús d'un model de programació anomenat OmpSs. Aquest model de programació està especialment dissenyat per posar aquesta potència de càlcul a l'abast dels científics sense necessitat de coneixements d'experts en computació. Finalment, però no menys important, aquesta tesi no ha de ser vista com el final d'un camí, sinó més aviat com l'inici d'un treball per estendre la física simulada en els codis de fusió nuclear mitjançant l'explotació dels recursos disponibles de HPC.
90

Syntax-directed translations, tree transformations and bimorphisms

Tirnauca, Catalin Ionut 01 February 2016 (has links)
La traducció basada en la sintaxi va sorgir en l'àmbit de la traducció automàtica dels llenguatges naturals. Els sistemes han de modelar les transformacions d'arbres, reordenar parts d'oracions, ser simètrics i posseir propietats com la componibilitat o simetria. Existeixen diverses maneres de definir transformacions d'arbres: gramàtiques síncrones, transductors d'arbres i bimorfismes d'arbres. Les gramàtiques síncrones fan tot tipus de rotacions, però les propietats matemàtiques són més difícils de provar. Els transductors d'arbres són operacionals i fàcils d'implementar, però les classes principals no són tancades sota la composició. Els bimorfismes d'arbres són difícils d'implementar, però proporcionen una eina natural per provar componibilitat o simetria. Per millorar el procés de traducció, les gramàtiques síncrones es relacionen amb els bimorfismes d'arbres i amb els transductors d'arbres. En aquesta tesi es duu a terme un ampli estudi de la teoria i les propietats dels sistemes de traducció dirigides per la sintaxi, des d'aquestes tres perspectives molt diferents que es complementen perfectament entre si: com a dispositius generatius (gramàtiques síncrones), com a màquines acceptadores (transductors) i com a estructures algebraiques (bimorfismes). S'investiguen i comparen al nivell de la transformació d'arbres i com a dispositius que defineixen translacions. L'estudi es centra en bimorfismes, amb especial èmfasi en les seves aplicacions per al processament del llenguatge natural. També es proposa una completa i actualitzada visió general sobre les classes de transformacions d'arbres definits per bimorfismes, vinculant-los amb els tipus coneguts de gramàtiques síncrones i transductors d'arbres. Provem o recordem totes les propietats interessants que les esmentades classes posseeixen, millorant així els coneixements matemàtics previs. A més, s'exposen les relacions d'inclusió entre les principals classes de bimorfismes mitjançant un diagrama Hasse, com a dispositius de traducció i com a mecanismes de transformació d'arbres. / La traducción basada en la sintaxis surgió en el ámbito de la traducción automática de los lenguajes naturales. Los sistemas deben modelar las transformaciones de árboles, reordenar partes de oraciones, ser simétricos y poseer propiedades como la composición o simetría. Existen varias maneras de definir transformaciones de árboles: gramáticas síncronas, transductores de árboles y bimorfismos de árboles. Las gramáticas síncronas hacen todo tipo de rotaciones, pero las propiedades matemáticas son más difíciles de probar. Los transductores de árboles son operacionales y fáciles de implementar pero las clases principales no son cerradas bajo la composición. Los bimorfismos de árboles son difíciles de implementar, pero proporcionan una herramienta natural para probar composición o simetría. Para mejorar el proceso de traducción, las gramáticas síncronas se relacionan con los bimorfismos de árboles y con los transductores de árboles. En esta tesis se lleva a cabo un amplio estudio de la teoría y las propiedades de los sistemas de traducción dirigidas por la sintaxis, desde estas tres perspectivas muy diferentes que se complementan perfectamente entre sí: como dispositivos generativos (gramáticas síncronas), como máquinas aceptadores (transductores) y como estructuras algebraicas (bimorfismos). Se investigan y comparan al nivel de la transformación de árboles y como dispositivos que definen translaciones. El estudio se centra en bimorfismos, con especial énfasis en sus aplicaciones para el procesamiento del lenguaje natural. También se propone una completa y actualizada visión general sobre las clases de transformaciones de árboles definidos por bimorfismos, vinculándolos con los tipos conocidos de gramáticas síncronas y transductores de árboles. Probamos o recordamos todas las propiedades interesantes que tales clases poseen, mejorando así los previos conocimientos matemáticos. Además, se exponen las relaciones de inclusión entre las principales clases de bimorfismos a través de un diagrama Hasse, como dispositivos de traducción y como mecanismos de transformación de árboles. / Syntax-based machine translation was established by the demanding need of systems used in practical translations between natural languages. Such systems should, among others, model tree transformations, re-order parts of sentences, be symmetric and possess composability or forward and backward application. There are several formal ways to define tree transformations: synchronous grammars, tree transducers and tree bimorphisms. The synchronous grammars do all kind of rotations, but mathematical properties are harder to prove. The tree transducers are operational and easy to implement, but closure under composition does not hold for the main types. The tree bimorphisms are difficult to implement, but they provide a natural tool for proving composability or symmetry. To improve the translation process, synchronous grammars were related to tree bimorphisms and tree transducers. Following this lead, we give a comprehensive study of the theory and properties of syntax-directed translation systems seen from these three very different perspectives that perfectly complement each other: as generating devices (synchronous grammars), as acceptors (transducer machines) and as algebraic structures (bimorphisms). They are investigated and compared both as tree transformation and translation defining devices. The focus is on bimorphisms as they only recently got again into the spotlight especially given their applications to natural language processing. Moreover, we propose a complete and up-to-date overview on tree transformations classes defined by bimorphisms, linking them with well-known types of synchronous grammars and tree transducers. We prove or recall all the interesting properties such classes possess improving thus the mathematical knowledge on synchronous grammars and/or tree transducers. Also, inclusion relations between the main classes of bimorphisms both as translation devices and as tree transformation mechanisms are given for the first time through a Hasse diagram. Directions for future work are suggested by exhibiting how to extend previous results to more general classes of bimorphisms and synchronous grammars.

Page generated in 0.0728 seconds