• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 137
  • 33
  • 14
  • Tagged with
  • 184
  • 183
  • 183
  • 183
  • 183
  • 183
  • 183
  • 183
  • 183
  • 183
  • 56
  • 46
  • 34
  • 29
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Deterministically assessing the robustness against transient faults of programs

Dias Lima Gramacho, João Artur 17 July 2014 (has links)
Los procesadores están evolucionando para obtener más rendimiento, utilizando más transistores y siendo cada vez más densos y más complejos. Un efecto secundario de este escenario es que los procesadores son cada vez menos robustos frente a fallos transitorios. Como las soluciones integradas en los propios procesadores son caras o tienden a degradar el rendimiento del procesador, estas soluciones para hacer frente a estos fallos transitorios se complementan con propuestas en las capas superiores, como en el sistema operativo, o incluso en los programas. Las propuestas de tolerancia a fallos para tratar fallos transitorios integrados en la capa de aplicación, para su validación y evaluación usan frecuentemente experimentos de inyección de fallos, de este modo pueden evaluar el comportamiento de los programas con y sin sus propuestas de detección de fallas. Utilizar experimentos de inyección de fallos para evaluar el comportamiento de los programas en presencia de fallos transitorios, requiere ejecutar el programa evaluado, haciendo la inyección de un fallo (por lo general cambiando un solo bit en un registro del procesador) una cantidad significativa de veces, siempre observando el comportamiento del programa y si este ha finalizado presentando el resultado esperado. Un problema con esta estrategia es que el espacio de inyección de fallos es proporcional a la cantidad de instrucciones ejecutadas multiplicado por la cantidad de bits en el archivo de registros de la arquitectura del procesador. En lugar de ser exhaustivos (que sería inviable), este método consume mucho tiempo de CPU ejecutando o simulando el programa que se está evaluando tantas veces como sea necesario para obtener una aproximación estadística válida razonable (por lo general sólo unos pocos miles de veces). Así, el tiempo requerido para evaluar cómo se comportaría un solo programa en presencia de fallos transitorios podría ser proporcional al tiempo necesario para ejecutar el programa cerca de cinco mil veces. En este trabajo se presenta el concepto de robustez de un programa frente a fallos transitorios y también presenta una metodología llamada ARTFUL diseñada para, en lugar de utilizar las ejecuciones con inyecciones de fallos, hacer el cálculo de la robustez de forma determinística, basada en una traza de ejecución del programa y en la información sobre la arquitectura utilizada. Nuestro método fue evaluado calculando la robustez precisa de conocidos benchmarks reduciendo significativamente el tiempo necesario para realizar la evaluación. / Computer chips are evolving to obtain more performance, using more transistors and becoming denser and more complex. One side effect of such a scenario is that processors are becoming less robust than ever against transient faults. As on-chip solutions are expensive or tend to degrade processor performance, the efforts to deal with these transient faults in higher levels, such as the operating system or even by the programs, are increasing. Software based fault tolerance approaches to deal with transient faults often use fault injection experiments to evaluate the behavior of programs with and without their fault detection proposals. Using fault injection experiments to evaluate programs behavior in presence of transient faults require running the program under evaluation and injecting a fault (usually by flipping a single bit in a processor register) for a sufficient amount of times, always observing the program behavior and if it ended presenting the expected result. One problem with this strategy is that the fault injection space is proportional to the amount of instructions executed multiplied by the amount of bits in the processor architecture register file. Instead of being exhaustive (it would be unfeasible), this approach consumes lots of CPU time by running or simulating the program being evaluated as many times as necessary to obtain a reasonable valid statistical approximation (usually just a few thousand times). So, the time required to evaluate how a single program would behave in presence of transient faults might be proportional to the time needed to run the program for five thousand times. In this work we present the concept of a program's robustness against transient faults and also present a methodology named ARTFUL (from Assessing the Robustness against Transient Faults) designed to, instead of using executions with fault injections, deterministically calculate this robustness based on program’s execution trace over an given processor architecture and on information about the used architecture. Our approach was able to calculate the precise robustness of some benchmarks using just the time need to run the evaluated program for tents of times in the best cases.
122

Interactive transmission and visually lossless strategies for JPEG2000 imagery

Jiménez Rodríguez, Leandro 30 May 2014 (has links)
Cada dia, vídeos i imatges es transmeten per Internet. La compressió d’imatges permet reduir la quantitat total de dades transmeses i accelera la seva entrega. En escenaris de vídeo-sota-demanda, el vídeo s’ha de transmetre el més ràpid possible utilitzant la capacitat disponible del canal. En aquests escenaris, la compressió d’imatges es mandatària per transmetre el més ràpid possible. Comunament, els vídeos són codificats permeten pèrdua de qualitat en els fotogrames, el que es coneix com ha compressió amb pèrdua. Els mètodes de compressió amb pèrdua són els més utilitzats per transmetre per Internet degut als seus elevats factors de compressió. Un altre característica clau en els escenaris de vídeo-sota-demanda és la capacitat del canal. Dependent de la capacitat, un mètode de assignació de rati assigna la quantitat de dades que es deu transmetre per cada fotograma. La majoria d’aquests mètodes tenen com a objectiu aconseguir la millor qualitat possible donat un ample de banda. A la pràctica, l’ample de banda del canal pot sofrir variacions en la seva capacitat degut a la congestió en el canal o problemes en la seva infraestructura. Aquestes variacions poden causar el desbordament o buidament del buffer del client, provocant pauses en la reproducció del vídeo. La primera contribució d’aquesta tesis es un mètode d’assignació de rati basat en JPEG2000 per a canals variants en el temps. La seva principal avantatja és el ràpid processament aconseguint una qualitat quasi òptima en la transmissió. Encara que la compressió amb pèrdua sigui la més usada per la transmissió d’imatges i vídeo per Internet, hi ha situacions on la pèrdua de qualitat no està permesa, en aquests casos la compressió sense pèrdua ha de ser utilitzada. La compressió sense pèrdua pot no ser viable en alguns escenaris degut als seus baixos factors de compressió. Per superar aquest inconvenient, la compressió visualment sense pèrdua pot ser utilitzada. La compressió visualment sense pèrdua és una tècnica basada en el sistema de visió humana per codificar només les dades visualment rellevants. Això permet factors de compressió majors que els de la compressió sense pèrdua, aconseguint pèrdues no perceptibles a l’ull humà. La segona contribució d’aquesta tesis és un sistema de codificació visualment sense pèrdua per a imatges JPEG2000 prèviament codificades. El propòsit d’aquest mètode es permetre la descodificació i/o transmissió de imatges dins en un règim visualment sense pèrdua. / Cada día, vídeos e imágenes se transmiten por Internet. La compresión de imágenes permite reducir la cantidad total de datos transmitidos y acelera su entrega. En escenarios de vídeo-bajodemanda, el vídeo debe transmitirse lo más rápido posible usando la capacidad disponible del canal. En éstos escenarios, la compresión de imágenes es mandataria para transmitir lo más rápido posible. Comúnmente, los videos son codificados permitiendo pérdida de calidad en los fotogramas, lo que se conoce como compresión con pérdida. Los métodos de compresión con pérdida son los más usados para transmitir por Internet dados sus elevados factores de compresión. Otra característica clave en escenarios de video-bajo-demanda es la capacidad del canal. Dependiendo de la capacidad, un método de asignación de ratio asigna la cantidad de datos que deben ser transmitidos por cada fotograma. La mayoría de estos métodos tienen como objetivo conseguir la mejor calidad posible dado un ancho de banda. A la práctica, el ancho de banda del canal puede sufrir variaciones en su capacidad debido a congestión en el canal o problemas en su infraestructura. Estas variaciones pueden causar el desbordamiento o vaciado del buffer del cliente, provocando pausas en la reproducción del vídeo. La primera contribución de esta tesis es un método de asignación de ratio basado en JPEG2000 para canales variantes en el tiempo. Su principal ventaja es el procesado rápido consiguiendo una calidad casi óptima en la transmisión. Aunque la compresión con pérdida sea la más usada para la transmisión de imágenes y vídeos por Internet, hay situaciones donde la pérdida de calidad no está permitida, en éstos casos la compresión sin pérdida debe ser usada. La compresión sin pérdida puede no ser viable en escenarios debido sus bajos factores de compresión. Para superar este inconveniente, la compresión visualmente sin pérdida puede ser usada. La compresión visualmente sin pérdida es una técnica que está basada en el sistema de visión humano para codificar sólo los datos de una imagen que son visualmente relevantes. Esto permite mayores factores de compresión que en la compresión sin pérdida, consiguiendo pérdidas no perceptibles al ojo humano. La segunda contribución de esta tesis es un sistema de codificación visualmente sin pérdida para imágenes JPEG2000 que ya han sido codificadas previamente. El propósito de este método es permitir la decodificación y/o transmisión de imágenes en un régimen visualmente sin pérdida. / Every day, videos and images are transmitted over the Internet. Image compression allows to reduce the total amount of data transmitted and accelerates the delivery of such data. In video-on-demand scenarios, the video has to be transmitted as fast as possible employing the available channel capacity. In such scenarios, image compression is mandatory for faster transmission. Commonly, videos are coded allowing quality loss in every frame, which is referred to as lossy compression. Lossy coding schemes are the most used for Internet transmission due its high compression ratios. Another key feature in video-on-demand scenarios is the channel capacity. Depending on the capacity a rate allocation method decides the amount of data that is transmitted for every frame. Most rate allocation methods aim at achieving the best quality for a given channel capacity. In practice, the channel bandwidth may suffer variations on its capacity due traffic congestion or problems in its infrastructure. This variations may cause buffer under-/over-flows in the client that causes pauses while playing a video. The first contribution of this thesis is a JPEG2000 rate allocation method for time-varying channels. Its main advantage is that allows fast processing achieving transmission quality close to the optimal. Although lossy compression is the most used to transmit images and videos in Internet, when image quality loss is not allowed, lossless compression schemes must be used. Lossless compression may not be suitable in scenarios due its lower compression ratios. To overcome this drawback, visually lossless coding regimes can be used. Visually lossless compression is a technique based in the human visual system to encode only the visually relevant data of an image. It allows higher compression ratios than lossless compression achieving losses that are not perceptible to the human eye. The second contribution of this thesis is a visually lossless coding scheme aimed at JPEG2000 imagery that is already coded. The proposed method permits the decoding and/or transmission of images in a visually lossless regime.
123

Fault Tolerance in Multicore Clusters. Techniques to Balance Performance and Dependability

Meyer, Hugo Daniel 16 July 2014 (has links)
En Computación de Altas Prestaciones (HPC), con el objetivo de aumentar las prestaciones se ha ido incrementando el número de recursos de cómputo. Con el aumento del tamaño de las aplicaciones ejecutadas en computadores de altas prestaciones, también ha aumentado el número de interrupciones como consecuencia de fallos de hardware. La disminución en el tiempo medio entre fallos (MTBF) en los sistemas de cómputo actuales, fomenta la propuesta de soluciones de tolerancia a fallos apropiadas que permitan la finalización correcta de aplicaciones paralelas afectadas por fallos de componentes físicos. Por lo tanto, las técnicas de tolerancia a fallos son cruciales para aumentar la disponibilidad en computadores de altas prestaciones. Cuando son ejecutadas aplicaciones paralelas en computadores de altas prestaciones, los principales objetivos normalmente son: lograr una aceleración (speedup) cercana a la lineal, utilización eficiente de recursos y finalización correcta de las ejecuciones. Por lo tanto, los sistemas paralelos se enfrentan a un problema multiobjetivo que consiste en incrementar las prestaciones mientras se utilizan técnicas de tolerancia a fallos; dicha combinación en la cual se consideran prestaciones y confiabilidad se denomina en la literatura Performability. Las estrategias de tolerancia a fallos basadas en rollback-recovery han sido extensamente utilizadas en computación de altas prestaciones. Estas estrategias se basan en salvar el estado de la aplicación y cuando ocurren fallos las aplicaciones pueden volver atrás y re-ejecutar desde el último estado guardado (checkpoint). Estas estrategias introducen una sobrecarga durante la ejecución de las aplicaciones en aspectos que afectan a las prestaciones, tales como una sobrecarga en el tiempo de cómputo, uso de recursos, etc. Las estrategias de checkpoint no coordinadas permiten a los procesos salvar sus estados independientemente. Cuando estas estrategias se combinan con mecanismos de log de mensajes, se evitan problemas como el efecto dominó o la aparición de mensajes huérfanos. Las técnicas de log de mensajes son responsables de la mayor parte de la sobrecarga introducida durante ejecuciones libre de fallos. En esta tesis nos hemos centrado en disminuir el impacto de las técnicas de log de mensajes considerando tanto el impacto en las ejecuciones libres de fallos así en como en el tiempo de recuperación. Una de las contribuciones de esta tesis es un mecanismo de log denominado Hybrid Message Pessimistic Logging (HMPL). Este protocolo se enfoca en combinar las características de rápida recuperación de los mecanismos de log pesimistas basados en el receptor con la baja sobrecarga que introducen los mecanismos de log basados en el emisor en ejecuciones libres de fallos. Sin perder las ventajas de un sistema de log de mensajes pesimista basado en el receptor, el HMPL permite a las aplicaciones paralelas continuar con su ejecución inclusive cuando un mensaje no ha sido guardado totalmente en el log del receptor, y de esta manera se reducen las sobrecargas en comparación con los mecanismos de log pesimistas basados en el receptor. Para poder garantizar que no se pierde ningún mensaje, un mecanismo de log pesimista basado en el emisor es utilizado para guardar temporalmente mensajes, mientras los receptores se encargan de guardar totalmente el mensaje recibido. Además proponemos otras estrategias que permiten incrementar la performability de aplicaciones paralelas. Una estrategia consiste en evitar la degradación que ocurre como consecuencia de un fallo mediante la utilización automática de nodos de repuesto (Spare Nodes) para reemplazar nodos que han fallado. Teniendo en cuenta que las tareas de tolerancia a fallos son gestionadas por un middleware transparente al usuario, hemos propuesto una metodología que permite determinar configuraciones apropiadas de las tareas de tolerancia a fallos para disminuir la sobrecarga en ejecuciones libres de fallos. Esta metodología se basa en analizar el impacto del mecanismo de log de mensajes utilizado y configurar las ejecuciones paralelas disminuyendo la perturbación introducida. Además, hemos desarrollado una metodología para la ejecución de aplicaciones pertenecientes al paradigma Single Problem Multiple Data (SPMD). Dicha metodología permite obtener el máximo speedup teniendo en cuenta un umbral de eficiencia computacional definida y considerando el impacto de las tareas de un mecanismo de log de mensajes. Los resultados experimentales han mostrado que mediante la caracterización del impacto del log de mensajes en el cómputo y en las comunicaciones, es posible seleccionar un número de procesos o cores de cómputo que permitan hacer un uso eficiente de los recursos mientras se aumenta la performability. / In High Performance Computing (HPC) the demand for more performance is satisfied by increasing the number of components. With the growing scale of HPC applications has came an increase in the number of interruptions as a consequence of hardware failures. The remarkable decrease of Mean Times Between Failures (MTBF) in current systems encourages the research of suitable fault tolerance solutions which makes it possible to guarantee the successful completion of parallel applications. Therefore, fault tolerance mechanisms are a valuable feature to provide high availability in HPC clusters. When running parallel applications on HPC clusters the prior objectives usually are: almost linear speedup, efficient resources utilization, scalability and successful completion. Hence, parallel applications executions are now facing a multiobjective problem which is focused on improving Performance while giving Fault Tolerance (FT) support; this combination is defined as Performability. A widely used strategy to provide FT support is rollback-recovery, which consists in saving the application state periodically. In the presence of failures, applications resume their executions from the most recent saved state. These FT protocols usually introduce overheads during applications' executions. Uncoordinated checkpoint allows processes to save their states independently. By combining this protocol with message logging, problems such as the domino effect and orphan messages are avoided. Message logging techniques are usually responsible for most of the overhead during failure-free executions in uncoordinated solutions. Considering this fact, in this thesis we focus on lowering the impact of message logging techniques taking into account failure-free executions and recovery times. A contribution of this thesis is a Hybrid Message Pessimistic Logging protocol (HMPL). It focuses on combining the fast recovery feature of pessimistic receiver-based message logging with the low overhead introduced by pessimistic sender-based message logging during failure-free executions. The HMPL aims to reduce the overhead introduced by pessimistic receiver-based approaches by allowing applications to continue normally before a received message is properly saved. In order to guarantee that no message is lost, a pessimistic sender-based logging is used to temporarily save messages while the receiver fully saves its received messages. In this thesis we propose strategies to increase the performability of parallel applications. One approach focuses on avoiding performance degradation when failure occurs by using automatic spare node management to replace failed nodes. Taking into account that the fault tolerance tasks are managed by an user-transparent middleware, we propose a methodology that allows us to determine suitable configurations of these tasks in order to lower overheads in failure-free executions. This methodology is based on analyzing the message log impact and configuring the parallel executions decreasing the introduced disturbance. Another contribution of this thesis is a methodology that allows to obtain the maximum speedup under a defined efficiency threshold, considering the impact of message logging tasks for Single Program Multiple Data (SPMD) applications. Experiments have shown that characterizing the message logging effects in computation and communication, allows us to select a better number of processes or computational cores to be used in order to improve resource utilization while increasing performability.
124

Tracheal structure characterization using geometric and appearance models for effcient assessment of stenosis in videobronchoscopy

Sánchez Ramos, Carles 16 December 2014 (has links)
Els aventatges recents en les òptiques dels dispositius endoscopis han fet que hi hagi un creixement en el seu us per a diagnostics i intervencions no ivasives. Dins de tots els procediments endoscopics (els cuals s'incloeix l'exploració dels organs interns del pacient des de el nas al anus), la broncoscopia es un dels mes freqüents amb 261 millions d'intervencions a l'any. Encara que el seu us s'exten per per la majoria de les cliniques presenta alguns problemes o inconvenients com per exemple el més important de tots: el mesurament de forma visual de les estructures anotòmiques. Una de les intervencions més bàsiques implica l'obtenció del percentatge d'obtrucció anomenat estenosis. Enrrors en aquesta mesura tenen un impacte directe al tractament del pacient, per tant, un mesurament objectiu de les estenosis traqueals en videos de broncoscòpia constituiria una roptura en la utilització d'aquesta tècnica no invasiva i una reducció en el cost de les operacions per la sanitat pública per un decreixement en les operacions repetides per mesuraments visuals errornis. El càlcul del grau d'estenosis esta basat en la comparació de la regió delimitada per líarea luminal (en un frame patològic) amb la regió delimitada per el primer anell visible de referència (en un frame sa). Per aconseguir tenir una bona delimitació d'aquestes regions, una bona definició de les estructures traqueals (anells i lumen) es necessària. En aquesta tesis proposem una estrategia paramètrica per a l'extracció de les estructures traqueals necessaries per al càlcul de l'estenosis. Per assegurar una aplicabilitat del sistema presentem un protocol estadístic per seleccionar els paràmetres més òptims. Els experiments demostren que el nostre mètode està dins de la variabilitat dels metges, per tant el rendiment es comparable a un metge amb la particularitat que el temps de computació permet una implementació on-line en el moment del diagnòstic. / Los últimos avances en la óptica de los dispositivos de endoscopia han motivado un incremento en su uso en procedimientos mínimamente invasivos de diagnóstico y exploración. La broncoscopia, con más de 261 millones de intervenciones al a±o, es una de las técnicas endoscópicas -exploración de órganos internos desde la boca hasta el ano- más extendidas. Aunque su uso se ha popularizado en las instalaciones sanitarias aún dista de funcionar de manera perfecta, presentando algunas carencias como la imposibilidad de obtener medidas anatómicas exactas debido a que éstas son tomadas mediante inspección visual. De entre todas las intervenciones broncoscópicas nos centramos en el cálculo de estenosis que permite obtener el porcentaje de obstrucción traqueal. Un error en la estimación del grado de obstrucción tiene impacto en el tratamiento que se le prescribe al paciente, por tanto un cálculo objetivo de la estenosis supondría un salto cualitativo para la técnica así como una reducción de costes para el sistema sanitario al evitar repeticiones de operaciones debido a toma de medidas erróneas. El cálculo del porcentaje de estenosis se basa en la comparación de la región delimitada por el lumen en una imagen de obstrucción traqueal y la región delimitada por el primer anillo visible en una imagen normal de tráquea. Para obtener una definición adecuada de dichas regiones necesitamos de una caracterización eficiente de las estructuras traqueales involucradas: anillos y área luminal. En esta tesis proponemos una estrategia paramétrica para la extracción de dichas estructuras basándonos en un modelo de geometría y apariencia que guía un modelo deformable. Con el fin de potenciar una aplicabilidad real de nuestra propuesta proponemos un marco estadístico para elegir de manera automática los parámetros que optimizan el rendimiento de nuestro método. Nuestra propuesta es validada tanto a nivel de caracterización de estructuras anatómicas como a nivel global de porcentaje de estenosis. Dicha validación se ha realizado sobre bases de datos generadas en el contexto de esta tesis, validadas y anotadas por personal clínico. Los experimentos realizados certifican un rendimiento comparable al de los expertos clínicos, suponiendo nuestro método un coste computacional asumible de cara a una prometedora futura integración en los protocolos actuales. / Recent advances in the optics of endoscopic devices have increased their use for minimal invasive diagnostic and intervention procedures. Among all endoscopic procedures (which include exploration of patient internal organs from mouth to anus), bronchoscopy is one of the most frequents with around 261 millions of procedures per year. Although the use of bronchoscopy is spread among clinical facilities it presents some drawbacks, being the visual inspection for the acquisition and assessment of anatomical measurements the most prevalent of them. One of the basic interventions implies to obtain the percentage of airway obstruction, which is known as stenosis. Errors in this measurement have a direct impact in the treatment the patient will be prescribed. Therefore an objective computation of tracheal stenosis in bronchoscopy videos would constitute a breakthrough for this non-invasive technique and a reduction in operation cost for the public health service due to the decrease in interventions because of bad visual measurements. The calculation of the degree of stenosis is based on the comparison of the region delimited by the lumen in an obstructed frame and the region delimited by the first visible ring in a healthy frame. In order to obtain a good delimitation of these regions a reliable characterization of the needed tracheal structures: rings and luminal area is needed. We propose in this thesis a parametric strategy for the extraction of lumen and tracheal rings regions based on models of their geometry and appearance that guide a deformable model. In order to ensure a systematic applicability we present a statistical framework to select the optimal parameters of our method. We have validated our method in two ways: accuracy of the anatomical structures extraction and comparison of the performance of our automatic method over manually annotated stenosis. Experiments report results within inter-observer variability for both quality metrics. The performance of our method is comparable to the one provided by clinicians and its computation time allows for a on-line implementation in the operating room.
125

Planificación de trabajos en clusters hadoop compartidos

Lopes Bezerra, Aprigio Augusto 30 January 2015 (has links)
La industria y los científicos han buscado alternativas para procesar con eficacia el gran volumen de datos que se generan en diferentes áreas del conocimiento. MapReduce se presenta como una alternativa viable para el procesamiento de aplicaciones intensivas de datos. Los archivos de entrada se dividen en bloques más pequeños. Posteriormente, se distribuyen y se almacenan en los nodos donde serán procesados. Entornos Hadoop han sido utilizados para ejecutar aplicaciones MapReduce. Hadoop realiza automáticamente la división y distribución de los archivos de entrada, la división del trabajo en tareas Map y Reduce, la planificación de tareas entre los nodos, el control de fallos de nodos; y gestiona la necesidad de comunicación entre los nodos del cluster. Sin embargo, algunas aplicaciones MapReduce tienen un conjunto de características que no permiten que se beneficien plenamente de las políticas de planificación de tareas construídas para Hadoop. Los archivos de entrada compartidos entre múltiples trabajos y aplicaciones con grandes volúmenes de datos intermedios son las características de las aplicaciones que manejamos en nuestra investigación. El objetivo de nuestro trabajo es implementar una nueva política de planificación de trabajos que mejore el tiempo de makespan de lotes de trabajos Hadoop de dos maneras: en un nivel macro (nivel de planificación de trabajos), agrupar los trabajos que comparten los mismos archivos de entrada y procesarlos en lote; y en un nivel micro (nivel de planificación de tareas) las tareas de los diferentes trabajos procesados en el mismo lote, que manejan los mismos bloques de datos, se agrupan para ser ejecutas en el mismo nodo donde se asignó el bloque. La política de planificación de trabajos almacena los archivos compartidos de entrada y los datos intermedios en una RAMDISK, durante el procesamiento de cada lote. / Industry and scientists have sought alternatives to process effectively the large volume of data generated in different areas of knowledge. MapReduce is presented as a viable alternative for the processing of data intensive application. Input files are broken into smaller blocks. So they are distributed and stored in the nodes where they will be processed. Hadoop clusters have been used to execute MapReduce applications. The Hadoop framework automatically performs the division and distribution of the input files, the division of a job into Map and Reduce tasks, the scheduling tasks among the nodes, the failures control of nodes; and manages the need for communication between nodes in the cluster. However, some MapReduce applications have a set of features that do not allow them to benefit fully from the default Hadoop job scheduling policies. Input files shared between multiple jobs and applications with large volumes of intermediate data are the characteristics of the applications we handle in our research. The objective of our work is to improve execution efficiency in two ways: On a macro level (job scheduler level), we group the jobs that share the same input files and process them in batch. Then we store shared input files and intermediate data on a RAMDISK during batch processing. On a micro level (task scheduler level) tasks of different jobs processed in the same batch that handle the same data blocks are grouped to be executed on the same node where the block was allocated.
126

Privacy-preserving and data utility in graph mining

Casas Roma, Jordi 24 November 2014 (has links)
En los últimos años, ha sido puesto a disposición del público una gran cantidad de los datos con formato de grafo. Incrustado en estos datos hay información privada acerca de los usuarios que aparecen en ella. Por lo tanto, los propietarios de datos deben respetar la privacidad de los usuarios antes de liberar los conjuntos de datos a terceros. En este escenario, los procesos de anonimización se convierten en un proceso muy importante. Sin embargo, los procesos de anonimización introducen, generalmente, algún tipo de ruido en los datos anónimos y también en sus resultados en procesos de minería de datos. Generalmente, cuanto mayor la privacidad, mayor será el ruido. Por lo tanto, la utilidad de los datos es un factor importante a tener en cuenta en los procesos de anonimización. El equilibrio necesario entre la privacidad de datos y utilidad de éstos puede mejorar mediante el uso de medidas y métricas para guiar el proceso de anonimización, de tal forma que se minimice la pérdida de información. En esta tesis hemos trabajo los campos de la preservación de la privacidad del usuario en las redes sociales y la utilidad y calidad de los datos publicados. Un compromiso entre ambos campos es un punto crítico para lograr buenos métodos de anonimato, que permitan mejorar los posteriores procesos de minería de datos. Parte de esta tesis se ha centrado en la utilidad de los datos y la pérdida de información. En primer lugar, se ha estudiado la relación entre las medidas de pérdida de información genéricas y las específicas basadas en clustering, con el fin de evaluar si las medidas genéricas de pérdida de información son indicativas de la utilidad de los datos para los procesos de minería de datos posteriores. Hemos encontrado una fuerte correlación entre algunas medidas genéricas de pérdida de información (average distance, betweenness centrality, closeness centrality, edge intersection, clustering coefficient y transitivity) y el índice de precisión en los resultados de varios algoritmos de clustering, lo que demuestra que estas medidas son capaces de predecir el perturbación introducida en los datos anónimos. En segundo lugar, se han presentado dos medidas para reducir la pérdida de información en los procesos de modificación de grafos. La primera, Edge neighbourhood centrality, se basa en el flujo de información de a través de la vecindad a distancia 1 de una arista específica. El segundo se basa en el core number sequence y permite conservar mejor la estructura subyacente, mejorando la utilidad de los datos. Hemos demostrado que ambos métodos son capaces de preservar las aristas más importantes del grafo, manteniendo mejor las propiedades básicas estructurales y espectrales. El otro tema importante de esta tesis ha sido los métodos de preservación de la privacidad. Hemos presentado nuestro algoritmo de base aleatoria, que utiliza el concepto de Edge neighbourhood centrality para guiar el proceso de modificación preservando los bordes más importantes del grafo, logrando una menor pérdida de información y una mayor utilidad de los datos. Por último, se han desarrollado dos algoritmos diferentes para el k-anonimato en los grafos. En primer lugar, se ha presentado un algoritmo basado en la computación evolutiva. Aunque este método nos permite cumplir el nivel de privacidad deseado, presenta dos inconvenientes: la pérdida de información es bastante grande en algunas propiedades estructurales del grafo y no es lo suficientemente rápido para trabajar con grandes redes. Por lo tanto, un segundo algoritmo se ha presentado, que utiliza el micro-agregación univariante para anonimizar la secuencia de grados. Este método es cuasi-óptimo y se traduce en una menor pérdida de información y una mejor utilidad de los datos. / In recent years, an explosive increase of graph-formatted data has been made publicly available. Embedded within this data there is private information about users who appear in it. Therefore, data owners must respect the privacy of users before releasing datasets to third parties. In this scenario, anonymization processes become an important concern. However, anonymization processes usually introduce some kind of noise in the anonymous data, altering the data and also their results on graph mining processes. Generally, the higher the privacy, the larger the noise. Thus, data utility is an important factor to consider in anonymization processes. The necessary trade-off between data privacy and data utility can be reached by using measures and metrics to lead the anonymization process to minimize the information loss, and therefore, to maximize the data utility. In this thesis we have covered the fields of user's privacy-preserving in social networks and the utility and quality of the released data. A trade-off between both fields is a critical point to achieve good anonymization methods for the subsequent graph mining processes. Part of this thesis has focused on data utility and information loss. Firstly, we have studied the relation between the generic information loss measures and the clustering-specific ones, in order to evaluate whether the generic information loss measures are indicative of the usefulness of the data for subsequent data mining processes. We have found strong correlation between some generic information loss measures (average distance, betweenness centrality, closeness centrality, edge intersection, clustering coefficient and transitivity) and the precision index over the results of several clustering algorithms, demonstrating that these measures are able to predict the perturbation introduced in anonymous data. Secondly, two measures to reduce the information loss on graph modification processes have been presented. The first one, Edge neighbourhood centrality, is based on information flow throw 1-neighbourhood of a specific edge in the graph. The second one is based on the core number sequence and it preserves better the underlying graph structure, retaining more data utility. By an extensive experimental set up, we have demonstrated that both methods are able to preserve the most important edges in the network, keeping the basic structural and spectral properties close to the original ones. The other important topic of this thesis has been privacy-preserving methods. We have presented our random-based algorithm, which utilizes the concept of Edge neighbourhood centrality to drive the edge modification process to better preserve the most important edges in the graph, achieving lower information loss and higher data utility on the released data. Our method obtains a better trade-off between data utility and data privacy than other methods. Finally, two different approaches for k-degree anonymity on graphs have been developed. First, an algorithm based on evolutionary computing has been presented and tested on different small and medium real networks. Although this method allows us to fulfil the desired privacy level, it presents two main drawbacks: the information loss is quite large in some graph structural properties and it is not fast enough to work with large networks. Therefore, a second algorithm has been presented, which uses the univariate micro-aggregation to anonymize the degree sequence and reduce the distance from the original one. This method is quasi-optimal and it results in lower information loss and better data utility.
127

Segmentation et indexation d’objets complexes dans les images de bandes déssinées

Rigaud, Christophe 11 December 2014 (has links)
Nacido en el siglo 19, los historietas se utilizan para la expresión de ideas a través de secuencias de imágenes, a menudo en combinación con el texto y los gráficos. El cómic esta considerado como un noveno arte, arte secuencial, salida con los avances en la impresión y la Internet en todo el mundo en periódicos, libros y revistas. Hoy en día, el creciente desarrollo de las nuevas tecnologías y la World Wide Web (el lienzo Internet) da lugar a nuevas formas de expresión que lleva el papel a disfrutar de la libertad del mundo virtual. Sin embargo, el cómic tradicional persiste y es un patrimonio cultural importante en muchos países. A diferencia de la música, el cine o la literatura clásica, que aún no ha encontrado son homólogos en el mundo digital. El uso de tecnologías de la información y de las telecomunicaciones podría facilitar la exploración de bibliotecas en línea, la traducción y acelerar su permiso de exportación a la mayor lectura (enriquecimiento de los contenidos durante la reproducción, a la carta y personalizado ) o permitir la escucha de texto y efectos de sonido para los estudiantes con discapacidad visual o allumnos. Agencias de la preservación del patrimonio cultural como CIBDI en Angouleme (Centro Internacional del Cómic y de imagen), el Museo Internacional de Manga en Kioto (Kyoto International Manga Museum) o el sitio digitalcomicmuseum.com de los Estados Unidos han digitalizado cientos de álbumes, algunos son públicos. Pese a la creciente cuota de mercado de los cómics digitales en los países desarrollados, poca investigación se ha llevado a cabo hasta la fecha para desarrollar estos contenidos a través de las nuevas tecnologías. El análisis de documentos es un tema de investigación que se ocupa de este problema. Una de estas características es la dependencia del tipo de documento que a menudo requiere un tratamiento específico. El proceso de creación de un cómic es exclusivo de este arte que puede ser considerado como un nicho en el campo de análisis de documentos. En realidad, este nicho está en la intersección de varios documentos de investigación que cuenta consiste en un fondo complejo, contenido semi-estructurada y variada. La intersección de varias investigaciones combina sus dificultades. En esta tesis de doctorado, se describen e ilustran los diversos retos científicos de esta investigación con el fin de dar al lector toda la evidencia acerca de los últimos avances científicos en el campo, así como las barreras científicas actuales. Proponemos tres enfoques de análisis de imagen cómica compuesta por diferentes tratamientos que mejora algunos trabajos previos y otros que son nuevas vías de exploración. El primer enfoque se denomina \secuencial" porque los contenidos de la imagen se describe gradualmente y de manera intuitiva. Simples artículos como cajas y texto y las burbujas se extraen primero y luego siguen la cola de las burbujas y los personajes de los cuadros de acuerdo a la dirección apuntada por las colas. El segundo método ofrece extracciones independientes unos de otros a fin de evitar la propagación del error entre aplicaciones, que es la principal desventaja del primer método. En este enfoque, los diversos extractores se pueden utilizar en paralelo, ya que no tienen la interdependencia. Otros elementos como la clasificación del tipo de burbuja y el reconocimiento de texto están asociados. El tercer enfoque introduce un sistema basado en un conocimiento a priori del contenido de las imágenes de dibujos animados que interactúa entre los tratamientos bajos y altos niveles para construir una descripción semántica de la imagen. Proponemos un sistema experto consiste en un sistema de inferencia y dos modelos de la forma de ontologías, un modelo para el campo de los cómics y el otro para modelar el procesamiento de imágenes asociado. Este sistema experto combina las ventajas de ambos enfoques anteriores y proporciona un alto nivel de descripción semántica puede incluir información como el orden de lectura de los cuadros, el texto y las burbujas, burbujas relaciones entre habladas y sus altavoces y el distinción entre los caracteres. Además, se describen los primeros cómics públicas basadas en imágenes y la realidad sobre el terreno que incluye que se han propuesto a la literatura científica, la información espacial y semántica. Un experimento de todos los métodos propuestos y una comparación de los enfoques de la literatura también se detallan en este manuscrito. / Born in the 19th century, comics is a visual medium used to express ideas via images, often combined with text or visual information. It is considered as a sequential art, spread worldwide initially using newspapers, books and magazines. Nowadays, the development of the new technologies and the World Wide Web is giving birth to a new form of paperless comics that takes advantage of the virtual world freedom. However, traditional comics still represent an important cultural heritage in many countries. They have not yet received the same level of attention as music, cinema or literature about their adaptation to the digital format. Using information technologies with classic comics would facilitate the exploration of digital libraries, faster theirs translations, allow augmented reading, speech playback for the visually impaired etc. Heritage museums such as the CIBDI (French acronym for International City of Comic books and Images), the Kyoto International Manga Museum and the digitalcomicmuseum. com have already digitized several thousands of comic albums that some are now in the public domain. Despite the expending market place of digital comics, few researches have been carried out to take advantage of the added value provided by these new media. Document analysis is the corresponding eld of research which is relatively application-dependent. The design process of comics is so typical that their automated analysis may be seen as a niche research eld within document analysis, at the intersection of complex background, semi-structured and mixed content documents. Being at the intersection of several fields combine their dificulties. In this thesis, we review, highlight and illustrate the challenges in order to give to the reader a good overview about the last research progress in this eld and the current issues. We propose three diferent approaches for comic book image analysis relying on previous work and novelties. The first approach is called \sequential" because the image content is described in an intuitive way, from simple to complex elements using previously extracted elements to guide further processing. Simple elements such as panel text and balloon are extracted first, followed by the balloon tail and then the comic character position in the panel from the direction pointed by the tail. The second approach addresses independent information extraction to recover the main drawback of the rst approach: error propagation. This second method is called \independent" because it is composed by several specific extractors for each elements of the image content. Those extractors can be used in parallel, without needing previous extraction. Extra processing such as balloon type classification and text recognition are also covered. The third approach introduces a knowledge-driven system that combines low and high level processing to build a scalable system of comics image understanding. We built an expert system composed by an inference engine and two models, one for comics domain and an other one for image processing, stored in an ontology. This expert system combines the benefits of the two first approaches and enables high level semantic description such as the reading order of panels and text, the relations between the speech balloons and their speakers and the comic character identification. Apart from that, in this thesis we have provided the first public comics image dataset and ground truth to the community along with an overall experimental comparison of all the proposed methods and some of the state-of-the-art methods.
128

Cooperación entre la aplicación y el kernel para la planificación de flujos, en sistemas multiprocesadores, como soporte al paralelismo

Gil Gómez, Maria Luisa 04 July 1994 (has links)
El objetivo de nuestro trabajo ha sido defender la tesis de que, para los entornos de trabajos actuales, multiprocesador, una opción válida para obtener el mejor rendimiento de las aplicaciones paralelas de propósito general es conseguir que el kernel y la propia aplicación cooperen en la gestión de los recursos.El estudio abarca a la aplicación en su conjunto, con todas sus partes, en cuya ejecución el sistema operativo toma una parte activa y decisoria. Y nos hemos centrado en aplicaciones paralelas multiflujo de granularidad media.Hemos diseñado y realizado un entorno de trabajo basándonos en la tecnología microker-nel en el que ofrecemos un nuevo sistema de planificación.A partir de políticas de planificación de particionado de la máquina, hemos aislado a las aplicaciones, unas de otras, y hemos habilitado que en cada partición el usuario pueda decidir qué política de planificación y qué quantums y recálculo de prioridades quiere. Con ello conseguimos, por un lado, que cada aplicación pueda ajustar la planificación que mejor rendimiento le suponga.Por otro, que no queden afectadas unas por el funcionamiento de otras.A partir de la abstracción de procesador virtual, dotamos a la aplicación de la capacidad de gestionar la planificación de sus propios flujos, mediante la nueva abstracción "contexto de eje-cución" (eXc) que el kernel ofrece a la aplicación para que pueda ejecutar un flujo en cada uno de los procesadores físicos que le ha asignado. En este nuevo entorno el kernel puede comunicar de manera asíncrona con la aplicación, transmitiéndole los eventos que puedan afectar a ésta para decidir una replanificación en sus flujos. En concreto, el bloqueo/desbloqueo de flujos, la asigna-ción/desasignación de procesadores físicos y un temporizador para poder disponer del dispositivo reloj a nivel de aplicación. Se han resuelto los problemas de desbanque de flujos dentro de exclusiones mutuas gracias a unas nuevas primitivas de sincronización que evitan el abrazo mortal.Con nuestra realización de paso de gestión de flujos del kernel a la aplicación, además de aumentar el throughput en un orden de magnitud, ganamos tiempo de ejecución para otros flujos de la aplicación.La plataforma de desarrollo ha sido un multiprocesador de memoria compartida sobre el que hemos modificado el microkernel Mach 3.0, con el entorno operativo OSF/1 MK y la librería de threads de usuario CThreads, modificada igualmente para enriquecer y potenciar la parte de planificación de flujos. / The goal of this thesis is to show that it is possible to achieve a better parallel application perfor-mance in multiprocessor operating environments when the kernel and the application cooperate in the resource management.The study includes the whole application, in addition to the components whose manage-ment is mainly supported by the operating system. The selected applications for study are medium grain parallelism applications (ie. servers, subsystems, virtual machines,...).Our work includes a design and implementation of an operating environment in the micro-kernel technology with a new scheduling approach.We have implemented space sharing scheduling policies to isolate applications insidemachine partitions; each partition has its own scheduling policy and the user can modify priorities, quantums and policies in his application partition. This approach allows each application to adjust and tune its own scheduling to achieve the better performance it would. Also it permits to protect applications from the other applications faults.We propose a new abstraction: the eXecution context (eXc) as the processor virtual object that allows the application to manage its threads. The eXc are offered by the kernel to the application to run threads in the physical processors that the kernel gives to the application.The kernel communicates to the application, in an asynchronous way, the events thatcould lead to a rescheduling of its threads. This events are: thread blocked/unblocked, physical processor allocated/deallocated and the clock, to have the possibility of timeouts at application level.New synchronization primitives prevent the deadlock problem when there may be a thread preemption in a mutex area.Our implementation overcomes throughput in one order of magnitude and also has a gain in the execution time for the other application threads.This work has been implemented in a shared memory multiprocessor. We have modified the Mach 3.0 microkernel, the OSF/1 MK operating environment and the CThreads library. This library has been also modified to offer more complete scheduling policies and synchronization mechanisms.
129

Adaptive control for wearable robots in human-centered rehabilitation tasks

Rajasekaran, Vijaykumar 22 December 2015 (has links)
Robotic rehabilitation therapies have been improving by providing the needed assistance to the patient, in a human-centered environment, and also helping the therapist to choose the necessary procedure. This thesis presents an adaptive "Assistance-as-needed" strategy which adheres to the specific needs of the patient and with the inputs from the therapist, whenever needed. The exertion of assistive and responsive behavior of the lower limb wearable robot is dedicated for the rehabilitation of incomplete spinal cord injury (SCI) patients. The main objective is to propose and evaluate an adaptive control model on a wearable robot, assisting the user and adhering to their needs, with no or less combination of external devices. The adaptation must be more interactive to understand the user needs and their volitional orders. Similarly, by using the existing muscular strength, in incomplete SCI patients, as a motivation to pursue the movement and assist them, only when needed. The adaptive behavior of the wearable robot is proposed by monitoring the interaction and movement of the user. This adaptation is achieved by modulating the stiffness of the exoskeleton in function of joint parameters, such as positions and interaction torques. These joint parameters are measured from the user independently and then used to update the new stiffness value. The adaptive algorithm performs with no need of external sensors, making it simple in terms of usage. In terms of rehabilitation, it is also desirable to be compatible with combination of assistive devices such as muscle stimulation, neural activity (BMI) and body balance (Wii), to deliver a user friendly and effective therapy. Combination of two control approaches has been employed, to improve the efficiency of the adaptive control model and was evaluated using a wearable lower limb exoskeleton device, H1. The control approaches, Hierarchical and Task based approach have been used to assist the patient as needed and simultaneously motivate the patient to pursue the therapy. Hierarchical approach facilitates combination of multiple devices to deliver an effective therapy by categorizing the control architecture in two layers, Low level and High level control. Task-based approaches engage in each task individually and allow the possibility to combine them at any point of time. It is also necessary to provide an interaction based approach to ensure the complete involvement of the user and for an effective therapy. By means of this dissertation, a task based adaptive control is proposed, in function of human-orthosis interaction, which is applied on a hierarchical control scheme. This control scheme is employed in a wearable robot, with the intention to be applied or accommodated to different pathologies, with its adaptive capabilities. The adaptive control model for gait assistance provides a comprehensive solution through a single implementation: Adaptation inside a gait cycle, continuous support through gait training and in real time. The performance of this control model has been evaluated with healthy subjects, as a preliminary study, and with paraplegic patients. Results of the healthy subjects showed a significant change in the pattern of the interaction torques, elucidating a change in the effort and adaptation to the user movement. In case of patients, the adaptation showed a significant improvement in the joint performance (flexion/extension range) and change in interaction torques. The change in interaction torques (positive to negative) reflects the active participation of the patient, which also explained the adaptive performance. The patients also reported that the movement of the exoskeleton is flexible and the walking patterns were similar to their own distinct patterns. The presented work is performed as part of the project HYPER, funded by Ministerio de Ciencia y Innovación, Spain. (CSD2009 - 00067 CONSOLIDER INGENIO / Las terapias de rehabilitación robóticas han sido mejoradas gracias a la inclusión de la asistencia bajo demanda, adaptada a las variaciones de las necesidades del paciente, así como a la inclusión de la ayuda al terapeuta en la elección del procedimiento necesario. Esta tesis presenta una estrategia adaptativa de asistencia bajo demanda, la cual se ajusta a las necesidades específicas del paciente junto a las aportaciones del terapeuta siempre que sea necesario. El esfuerzo del comportamiento asistencial y receptivo del robot personal portátil para extremidades inferiores está dedicado a la rehabilitación de pacientes con lesión de la médula espinal (LME) incompleta. El objetivo principal es proponer y evaluar un modelo de control adaptativo en un robot portátil, ayudando al usuario y cumpliendo con sus necesidades, en ausencia o con reducción de dispositivos externos. La adaptación debe ser más interactiva para entender las necesidades del usuario y sus intenciones u órdenes volitivas. De modo similar, usando la fuerza muscular existente (en pacientes con LME incompleta) como motivación para lograr el movimiento y asistirles solo cuando sea necesario. El comportamiento adaptativo del robot portátil se propone mediante la monitorización de la interacción y movimiento del usuario. Esta adaptación conjunta se consigue modulando la rigidez en función de los parámetros de la articulación, tales como posiciones y pares de torsión. Dichos parámetros se miden del usuario de forma independiente y posteriormente se usan para actualizar el nuevo valor de la rigidez. El desempeño del algoritmo adaptativo no requiere de sensores externos, lo que favorece la simplicidad de su uso. Para una adecuada rehabilitación, efectiva y accesible para el usuario, es necesaria la compatibilidad con diversos mecanismos de asistencia tales como estimulación muscular, actividad neuronal y equilibrio corporal. Para mejorar la eficiencia del modelo de control adaptativo se ha empleado una combinación de dos enfoques de control, y para su evaluación se ha utilizado un exoesqueleto robótico H1. Los enfoques de control Jerárquico y de Tarea se han utilizado para ayudar al usuario según sea necesario, y al mismo tiempo motivarle para continuar el tratamiento. Enfoque jerárquico facilita la combinación de múltiples dispositivos para ofrecer un tratamiento eficaz mediante la categorización de la arquitectura de control en dos niveles : el control de bajo nivel y de alto nivel. Los enfoques basados en tareas involucran a la persona en cada tarea individual, y ofrecen la posibilidad de combinarlas en cualquier momento. También es necesario proporcionar un enfoque basado en la interacción con el usuario, para asegurar su participación y lograr así una terapia eficaz. Mediante esta tesis, proponemos un control adaptativo basado en tareas y en función de la interacción persona-ortesis, que se aplica en un esquema de control jerárquico. Este esquema de control se emplea en un robot portátil, con la intención de ser aplicado o acomodado a diferentes patologías, con sus capacidades de adaptación. El modelo de control adaptativo propuesto proporciona una solución integral a través de una única aplicación: adaptación dentro de la marcha y apoyo continúo a través de ejercicios de movilidad en tiempo real. El rendimiento del modelo se ha evaluado en sujetos sanos según un estudio preliminar, y posteriormente también en pacientes parapléjicos. Los resultados en sujetos sanos mostraron un cambio significativo en el patrón de los pares de interacción, elucidando un cambio en la energía y la adaptación al movimiento del usuario. En el caso de los pacientes, la adaptación mostró una mejora significativa en la actuación conjunta (rango de flexión / extensión) y el cambio en pares de interacción. El cambio activo en pares de interacción (positivo a negativo) refleja la participación activa del paciente, lo que también explica el comportamiento adaptativo.
130

Millores en un crioconcentrador per plaques de pel.licula descendent : dissenys de nous prototips per liquids industrials i residuals

Rodríguez Barraguer, Vicenç 22 December 2015 (has links)
One of the techniques for separating soluble solids in an aqueous solution, is for freezing of water that contains, which is known as cryoconcentration It relates to systems of crystallization of ice by layer (Flesland, 1995) because the principle is the same, although the model presented is significantly different, both in terms of geometry and the equipment that incorporates. The experimental work, the basis of this thesis, has gone through two machines cryoconcentration, semi - industrial, known as first and second prototype, where have been developed tests with food liquids wine, orange juice and coffee; use of second products industrial liquids and liquids waste to reduce water and subsequent treatment of concentrated. They have been expressly built, one after the other, as a result of the improvements that have been incorporated to watching trials and with the aim of achieving, in the second prototype,a cryoconcentrator of film descendant, semi-industrial, to between 35 and 40 l of liquid, more effective, in energy efficiency and make good concentrates. Explains the key points of the machine, as for example, how to get a good liquid distribution to be focus and having a good evaporation - condensation in the entire cooling system. Everything revolves to make concentrated quality, which can give added value to the food liquids, this method of descending film, with the application of the techniques of cold. In fact, intends to reveal that this method, based on physical principles, is better than classical distillation for heat, if you want to get concentrated rich in original content. In the preparation of fruit juices, it has the advantage of preserving their vitamins and flavors. In a commercial orange juice 100% fruit juice got a 45% concentrate juice fruit rest water with trace amounts of 1% fruit juice without degradation of aromas. And in the category of coffee, was achieved in the process of concentrate, reduce it by up to 55% of concentrated coffee the rest water with trace amounts of 1% without losing the aromas and taste. It also wants to extend to industrial fluids as needed to focus. It is at this point, in the treatment of industrial and sewage waste, where it has insisted more than experimentation, by the good results obtained and as evidence that in many areas they have not finished making. For the specific case of a multinational cosmetics, sample which was, went from having a content of dissolved solids, with cod = 27500 ppm, to a cod = 27 ppm water. The last phase of this work wants to reflect experience with the experimentation carried out and that also serve to extrapolate and sizing designs of other models, based on the same technology. The technique is quite simple and innovative in its application; working at atmospheric pressure and temperatures that rarely move from - 5 ° C, providing a concentration more advantageous, and as an alternative to the classical distillation for heat. A brief review of existing models, known by different names, which are used to make concentrated, to complete with an innovative model and energy saving considered of freeze concentration by plates of film descendant, through cold generation systems, which can be 'tailor-made' is made. The work has a history of work and experimentation, made in the past six years, with the two real prototypes, which have been improving day by day, where all tests and experimental trials have been done. It does not leave out that one of the objectives is also to make a cold efficient to improving the COP and system with a view to incorporating in the industrial sector You can say contributions highlighted in this thesis are: Resolution of the uniform distribution of liquid concentrate on cold plates. Application of this process of concentration for industrial waste / Una de les tècniques per separar sòlids solubles d'una solució aquosa, és per congelació de l'aigua que conté, practica que es coneix com crioconcentració. Es relaciona amb sistemes de cristal.lització de gel per capa, Flesland,1995 perquè el principi és el mateix encara que el model que es presenta és significativament diferent, tant per la geometria com pels equips que incorpora. El treball experimental, fonament d'aquesta tesis, ha passat per dues màquines crioconcentradores semiindustrials, denominades primer i segon prototip on s'han desenvolupat proves amb líquids alimentaris, vi, suc de taronja i cafè; en líquids industrials, aprofitament de segons productes i en líquids residuals per reduir l'aigua i posterior tractament del concentrat. Han estat expressament construïdes, una després de l'altre, com conseqüència de les millores que s'han anat incorporant en veure els assajos i amb l'objectiu de aconseguir, en el segon prototip, un crioconcentrador per pel·lícula descendent, semi industrial per tractar entre 35 i 40 l de líquid, més eficaç, en rendiment energètic i en fer bons concentrats. S'expliquen els punts claus de la màquina, com per exemple com aconseguir un bon repartiment del fluid que es vol concentrar i que hagi una bona evaporació condensació en tot el sistema frigorífic. Tot gira a fer concentrats de qualitat, que pugin donar un valor afegit als líquids alimentaris, per aquest mètode de pel·lícula descendent, amb l'aplicació de les tècniques conegudes de fred. De fet es pretén revelar que aquest mètode, basat en principis físics, és millor que la destil·lació clàssica per calor, si es vol obtenir concentrats rics en els seus continguts originals. En l'elaboració de sucs de fruites, te l'avantatge de preservar els seus sabors i vitamines. En un suc de taronja comercial 100% suc fruita es va obtenir un concentrat del 45% suc fruita resta aigua amb traces de suc fruita del 1% sense degradació d'aromes. I en l'especialitat del cafè, es va aconseguir en el procés del concentrat, reduir-lo al 55% de cafè concentrat, resta aigua amb traces del 1% sense perdre els aromes ni el sabor. També es vol estendre'l als líquids industrials que es necessitin concentrar .És en aquest punt, del tractament de líquids industrials i residuals, on s'ha insistit més de l'experimentació, pels bons resultats obtinguts i per ser proves que en molts àmbits no s'han acabat de fer. Pel cas concret d'una multinacional de cosmètica, la mostra que es va tractar, va passar de tenir un DQO=27500 ppm, fins un aigua amb DQO=27 ppm. La darrera fase d'aquest treball vol reflectir l'experiència amb l'experimentació feta i que serveixi a més, per poder extrapolar i dimensionar dissenys d'altres models, basats en la mateixa tecnologia. Es treballa a pressió atmosfèrica i temperatures de -5ºC, oferint una concentració més avantatjosa i com alternativa a la destil·lació clàssica per calor. Es fa un breu repàs dels models existents, coneguts amb diferents nomenclatures, que s`utilitzen per fer concentrats, per completar amb un model innovador i d'estalvi energètic considerat, de crioconcentració per plaques de pel·lícula descendent, sistemes de generació de fred, que es poden fer a mida. El treball té un recorregut de feina i experimentació, fet en els darrers sis anys, amb els dos prototips reals, que s'han anat millorant dia a dia, on s'han fet totes les proves i assajos experimentals. No es deixa de banda que també un dels objectius és fer un sistema de fred eficient millorant el COP i amb vistes d'incorporar-lo al sector industrial. Es pot dir que les aportacions destacades en aquesta tesis són: Resolució de la distribució uniforme del líquid a concentrar en les plaques fredes. Aplicació d'aquest procés de concentració per a residus industrials / Una de las técnicas para separar los sólidos solubles de una solución acuosa, es por congelación del agua que contiene, práctica que se conoce como crioconcentració. Se relaciona con sistemas de cristalización de hielo por capa Flesland, 1995 porque el principio es el mismo, aunque el modelo que se presenta es significativamente diferente, tanto en términos de geometría como por el equipamiento que incorpora. El trabajo experimental, la base de esta tesis, ha pasado por dos máquinas crioconcentradoras, semi-industriales, denominadas primer y segundo prototipo, donde se han desarrollado pruebas con líquidos alimentarios,vino, zumo de naranja y café; en líquidos industriales, aprovechamiento de segundos productos y en líquidos residuales para reducir el agua y posterior tratamiento de concentrado. Han sido expresamente construidas, una después de la otra, como resultado de las mejoras que se han incorporado viendo los ensayos y con el objetivo de alcanzar, en el segundo prototipo, un crioconcentrador de película descendiente, semi-industrial, para tratar entre 35 y 40 l de líquido, más eficaz, en eficiencia energética y en hacer buenos concentrados. Se explican los puntos clave de la máquina, como por ejemplo, cómo conseguir una buena distribución de líquido que se desea concentrar y que tenga una buena evaporación condensación en todo el sistema frigorífico. Todo gira en hacer concentrados de calidad, que puedan dar un valor añadido a los líquidos alimentarios, por este método de película descendiente, con la aplicación de las técnicas conocidas de frío. De hecho, se pretende revelar que este método, basado en principios físicos, es mejor que la clásica destilación por calor, si se quiere obtener concentrados ricos en sus contenidos originales. En la elaboración de zumos de frutas, tiene la ventaja de preservar sus vitaminas y sabores. En un zumo de naranja comercial 100% zumo de fruta se consiguió un concentrado del 45% zumo de fruta resto agua con trazas de zumo de fruta del 1% sin degradación de aromas. Y en la categoría de café se consiguió en el proceso de concentrado, reducirlo hasta el 55% de café concentrado resto agua con trazas del 1% sin perder los aromas ni el sabor. También se quiere extender a fluidos industriales que se necesiten concentrar. Es en este punto, del tratamiento de residuos industriales y residuales, donde se ha insistido más de la experimentación, por los buenos resultados obtenidos y por ser pruebas que en muchas ámbitos no se han acabado de hacer. Para el caso específico de una multinacional cosmética, la muestra que se trató, pasó de tener un DQO = 27500 ppm, hasta un agua con DQO = 27 ppm, La última fase de este trabajo quiere reflejar la experiencia con la experimentación realizada y que sirva además, para poder extrapolar y dimensionar diseños de otros modelos, basados en la misma tecnología. Se trabaja a presión atmosférica y temperaturas de -5 º C, ofreciendo una concentración más ventajosa, y como alternativa a la clásica destilación por calor. Se hace una breve revisión de los modelos existentes, conocidos con diferentes nomenclaturas, que se utilizan para hacer concentrados, para completar con un modelo innovador y de ahorro energético considerado, de crioconcentración por placas de película descendiente, mediante sistemas de generación de frío, que se pueden hacer a medida. El trabajo tiene una trayectoria de trabajo y experimentación, hecho en los últimos seis años, con los dos prototipos reales, que han ido mejorando día a día, donde se han hecho todas las pruebas y ensayos experimentales. No se deja de lado que también uno de los objetivos es hacer un sistema de frío eficiente mejorando el COP y con miras a incorporar en el sector industrial. Se puede decir que las contribuciones destacadas en esta tesis son: Resolución de la distribución uniforme del líquido concentrado en las placas frías. Aplicación de este proceso de concentración para residuos industriales

Page generated in 0.0685 seconds