Spelling suggestions: "subject:"indústries"" "subject:"indústrias""
141 |
Fault Tolerance in Multicore Clusters. Techniques to Balance Performance and DependabilityMeyer, Hugo Daniel 16 July 2014 (has links)
En Computación de Altas Prestaciones (HPC), con el objetivo de aumentar las prestaciones se ha ido incrementando el número de recursos de cómputo. Con el aumento del tamaño de las aplicaciones ejecutadas en computadores de altas prestaciones, también ha aumentado el número de interrupciones como consecuencia de fallos de hardware. La disminución en el tiempo medio entre fallos (MTBF) en los sistemas de cómputo actuales, fomenta la propuesta de soluciones de tolerancia a fallos apropiadas que permitan la finalización correcta de aplicaciones paralelas afectadas por fallos de componentes físicos. Por lo tanto, las técnicas de tolerancia a fallos son cruciales para aumentar la disponibilidad en computadores de altas prestaciones.
Cuando son ejecutadas aplicaciones paralelas en computadores de altas prestaciones, los principales objetivos normalmente son: lograr una aceleración (speedup) cercana a la lineal, utilización eficiente de recursos y finalización correcta de las ejecuciones. Por lo tanto, los sistemas paralelos se enfrentan a un problema multiobjetivo que consiste en incrementar las prestaciones mientras se utilizan técnicas de tolerancia a fallos; dicha combinación en la cual se consideran prestaciones y confiabilidad se denomina en la literatura Performability.
Las estrategias de tolerancia a fallos basadas en rollback-recovery han sido extensamente utilizadas en computación de altas prestaciones. Estas estrategias se basan en salvar el estado de la aplicación y cuando ocurren fallos las aplicaciones pueden volver atrás y re-ejecutar desde el último estado guardado (checkpoint). Estas estrategias introducen una sobrecarga durante la ejecución de las aplicaciones en aspectos que afectan a las prestaciones, tales como una sobrecarga en el tiempo de cómputo, uso de recursos, etc.
Las estrategias de checkpoint no coordinadas permiten a los procesos salvar sus estados independientemente. Cuando estas estrategias se combinan con mecanismos de log de mensajes, se evitan problemas como el efecto dominó o la aparición de mensajes huérfanos. Las técnicas de log de mensajes son responsables de la mayor parte de la sobrecarga introducida durante ejecuciones libre de fallos. En esta tesis nos hemos centrado en disminuir el impacto de las técnicas de log de mensajes considerando tanto el impacto en las ejecuciones libres de fallos así en como en el tiempo de recuperación.
Una de las contribuciones de esta tesis es un mecanismo de log denominado Hybrid Message Pessimistic Logging (HMPL). Este protocolo se enfoca en combinar las características de rápida recuperación de los mecanismos de log pesimistas basados en el receptor con la baja sobrecarga que introducen los mecanismos de log basados en el emisor en ejecuciones libres de fallos. Sin perder las ventajas de un sistema de log de mensajes pesimista basado en el receptor, el HMPL permite a las aplicaciones paralelas continuar con su ejecución inclusive cuando un mensaje no ha sido guardado totalmente en el log del receptor, y de esta manera se reducen las sobrecargas en comparación con los mecanismos de log pesimistas basados en el receptor. Para poder garantizar que no se pierde ningún mensaje, un mecanismo de log pesimista basado en el emisor es utilizado para guardar temporalmente mensajes, mientras los receptores se encargan de guardar totalmente el mensaje recibido.
Además proponemos otras estrategias que permiten incrementar la performability de aplicaciones paralelas. Una estrategia consiste en evitar la degradación que ocurre como consecuencia de un fallo mediante la utilización automática de nodos de repuesto (Spare Nodes) para reemplazar nodos que han fallado. Teniendo en cuenta que las tareas de tolerancia a fallos son gestionadas por un middleware transparente al usuario, hemos propuesto una metodología que permite determinar configuraciones apropiadas de las tareas de tolerancia a fallos para disminuir la sobrecarga en ejecuciones libres de fallos. Esta metodología se basa en analizar el impacto del mecanismo de log de mensajes utilizado y configurar las ejecuciones paralelas disminuyendo la perturbación introducida.
Además, hemos desarrollado una metodología para la ejecución de aplicaciones pertenecientes al paradigma Single Problem Multiple Data (SPMD). Dicha metodología permite obtener el máximo speedup teniendo en cuenta un umbral de eficiencia computacional definida y considerando el impacto de las tareas de un mecanismo de log de mensajes. Los resultados experimentales han mostrado que mediante la caracterización del impacto del log de mensajes en el cómputo y en las comunicaciones, es posible seleccionar un número de procesos o cores de cómputo que permitan hacer un uso eficiente de los recursos mientras se aumenta la performability. / In High Performance Computing (HPC) the demand for more performance is satisfied by increasing the number of components. With the growing scale of HPC applications has came an increase in the number of interruptions as a consequence of hardware failures.
The remarkable decrease of Mean Times Between Failures (MTBF) in current systems encourages the research of suitable fault tolerance solutions which makes it possible to guarantee the successful completion of parallel applications. Therefore, fault tolerance mechanisms are a valuable feature to provide high availability in HPC clusters.
When running parallel applications on HPC clusters the prior objectives usually are: almost linear speedup, efficient resources utilization, scalability and successful completion. Hence, parallel applications executions are now facing a multiobjective problem which is focused on improving Performance while giving Fault Tolerance (FT) support; this combination is defined as Performability.
A widely used strategy to provide FT support is rollback-recovery, which consists in saving the application state periodically. In the presence of failures, applications resume their executions from the most recent saved state. These FT protocols usually introduce overheads during applications' executions.
Uncoordinated checkpoint allows processes to save their states independently. By combining this protocol with message logging, problems such as the domino effect and orphan messages are avoided. Message logging techniques are usually responsible for most of the overhead during failure-free executions in uncoordinated solutions. Considering this fact, in this thesis we focus on lowering the impact of message logging techniques taking into account failure-free executions and recovery times.
A contribution of this thesis is a Hybrid Message Pessimistic Logging protocol (HMPL). It focuses on combining the fast recovery feature of pessimistic receiver-based message logging with the low overhead introduced by pessimistic sender-based message logging during failure-free executions. The HMPL aims to reduce the overhead introduced by pessimistic receiver-based approaches by allowing applications to continue normally before a received message is properly saved. In order to guarantee that no message is lost, a pessimistic sender-based logging is used to temporarily save messages while the receiver fully saves its received messages.
In this thesis we propose strategies to increase the performability of parallel applications. One approach focuses on avoiding performance degradation when failure occurs by using automatic spare node management to replace failed nodes. Taking into account that the fault tolerance tasks are managed by an user-transparent middleware, we propose a methodology that allows us to determine suitable configurations of these tasks in order to lower overheads in failure-free executions. This methodology is based on analyzing the message log impact and configuring the parallel executions decreasing the introduced disturbance.
Another contribution of this thesis is a methodology that allows to obtain the maximum speedup under a defined efficiency threshold, considering the impact of message logging tasks for Single Program Multiple Data (SPMD) applications. Experiments have shown that characterizing the message logging effects in computation and communication, allows us to select a better number of processes or computational cores to be used in order to improve resource utilization while increasing performability.
|
142 |
Tracheal structure characterization using geometric and appearance models for effcient assessment of stenosis in videobronchoscopySánchez Ramos, Carles 16 December 2014 (has links)
Els aventatges recents en les òptiques dels dispositius endoscopis han fet que hi hagi un creixement en el seu us per a diagnostics i intervencions no ivasives. Dins de tots els procediments endoscopics (els cuals s'incloeix l'exploració dels organs interns del pacient des de el nas al anus), la broncoscopia es un dels mes freqüents amb 261 millions d'intervencions a l'any. Encara que el seu us s'exten per per la majoria de les cliniques presenta alguns problemes o inconvenients com per exemple el més important de tots: el mesurament de forma visual de les estructures anotòmiques. Una de les intervencions més bàsiques implica l'obtenció del percentatge d'obtrucció anomenat estenosis. Enrrors en aquesta mesura tenen un impacte directe al tractament del pacient, per tant, un mesurament objectiu de les estenosis traqueals en videos de broncoscòpia constituiria una roptura en la utilització d'aquesta tècnica no invasiva i una reducció en el cost de les operacions per la sanitat pública per un decreixement en les operacions repetides per mesuraments visuals errornis. El càlcul del grau d'estenosis esta basat en la comparació de la regió delimitada per líarea luminal (en un frame patològic) amb la regió delimitada per el primer anell visible de referència (en un frame sa). Per aconseguir tenir una bona delimitació d'aquestes regions, una bona definició de les estructures traqueals (anells i lumen) es necessària. En aquesta tesis proposem una estrategia paramètrica per a l'extracció de les estructures traqueals necessaries per al càlcul de l'estenosis. Per assegurar una aplicabilitat del sistema presentem un protocol estadístic per seleccionar els paràmetres més òptims. Els experiments demostren que el nostre mètode està dins de la variabilitat dels metges, per tant el rendiment es comparable a un metge amb la particularitat que el temps de computació permet una implementació on-line en el moment del diagnòstic. / Los últimos avances en la óptica de los dispositivos de endoscopia han motivado un incremento en su uso en procedimientos mínimamente invasivos de diagnóstico y exploración. La broncoscopia, con más de 261 millones de intervenciones al a±o, es una de las técnicas endoscópicas -exploración de órganos internos desde la boca hasta el ano- más extendidas. Aunque su uso se ha popularizado en las instalaciones sanitarias aún dista de funcionar de manera perfecta, presentando algunas carencias como la imposibilidad de obtener medidas anatómicas exactas debido a que éstas son tomadas mediante inspección visual. De entre todas las intervenciones broncoscópicas nos centramos en el cálculo de estenosis que permite obtener el porcentaje de obstrucción traqueal. Un error en la estimación del grado de obstrucción tiene impacto en el tratamiento que se le prescribe al paciente, por tanto un cálculo objetivo de la estenosis supondría un salto cualitativo para la técnica así como una reducción de costes para el sistema sanitario al evitar repeticiones de operaciones debido a toma de medidas erróneas. El cálculo del porcentaje de estenosis se basa en la comparación de la región delimitada por el lumen en una imagen de obstrucción traqueal y la región delimitada por el primer anillo visible en una imagen normal de tráquea. Para obtener una definición adecuada de dichas regiones necesitamos de una caracterización eficiente de las estructuras traqueales involucradas: anillos y área luminal. En esta tesis proponemos una estrategia paramétrica para la extracción de dichas estructuras basándonos en un modelo de geometría y apariencia que guía un modelo deformable. Con el fin de potenciar una aplicabilidad real de nuestra propuesta proponemos un marco estadístico para elegir de manera automática los parámetros que optimizan el rendimiento de nuestro método. Nuestra propuesta es validada tanto a nivel de caracterización de estructuras anatómicas como a nivel global de porcentaje de estenosis. Dicha validación se ha realizado sobre bases de datos generadas en el contexto de esta tesis, validadas y anotadas por personal clínico. Los experimentos realizados certifican un rendimiento comparable al de los expertos clínicos, suponiendo nuestro método un coste computacional asumible de cara a una prometedora futura integración en los protocolos actuales. / Recent advances in the optics of endoscopic devices have increased their use for minimal invasive diagnostic and intervention procedures. Among all endoscopic procedures (which include exploration of patient internal organs from mouth to anus), bronchoscopy is one of the most frequents with around 261 millions of procedures per year. Although the use of bronchoscopy is spread among clinical facilities it presents some drawbacks, being the visual inspection for the acquisition and assessment of anatomical measurements the most prevalent of them. One of the basic interventions implies to obtain the percentage of airway obstruction, which is known as stenosis. Errors in this measurement have a direct impact in the treatment the patient will be prescribed. Therefore an objective computation of tracheal stenosis in bronchoscopy videos would constitute a breakthrough for this non-invasive technique and a reduction in operation cost for the public health service due to the decrease in interventions because of bad visual measurements. The calculation of the degree of stenosis is based on the comparison of the region delimited by the lumen in an obstructed frame and the region delimited by the first visible ring in a healthy frame. In order to obtain a good delimitation of these regions a reliable characterization of the needed tracheal structures: rings and luminal area is needed. We propose in this thesis a parametric strategy for the extraction of lumen and tracheal rings regions based on models of their geometry and appearance that guide a deformable model. In order to ensure a systematic applicability we present a statistical framework to select the optimal parameters of our method. We have validated our method in two ways: accuracy of the anatomical structures extraction and comparison of the performance of our automatic method over manually annotated stenosis. Experiments report results within inter-observer variability for both quality metrics. The performance of our method is comparable to the one provided by clinicians and its computation time allows for a on-line implementation in the operating room.
|
143 |
Planificación de trabajos en clusters hadoop compartidosLopes Bezerra, Aprigio Augusto 30 January 2015 (has links)
La industria y los científicos han buscado alternativas para procesar con eficacia el gran volumen de datos que se generan en diferentes áreas del conocimiento. MapReduce se presenta como una alternativa viable para el procesamiento de aplicaciones intensivas de datos. Los archivos de entrada se dividen en bloques más pequeños. Posteriormente, se distribuyen y se almacenan en los nodos donde serán procesados. Entornos Hadoop han sido utilizados para ejecutar aplicaciones MapReduce. Hadoop realiza automáticamente la división y distribución de los archivos de entrada, la división del trabajo en tareas Map y Reduce, la planificación de tareas entre los nodos, el control de fallos de nodos; y gestiona la necesidad de comunicación entre los nodos del cluster. Sin embargo, algunas aplicaciones MapReduce tienen un conjunto de características que no permiten que se beneficien plenamente de las políticas de planificación de tareas construídas para Hadoop. Los archivos de entrada compartidos entre múltiples trabajos y aplicaciones con grandes volúmenes de datos intermedios son las características de las aplicaciones que manejamos en nuestra investigación. El objetivo de nuestro trabajo es implementar una nueva política de planificación de trabajos que mejore el tiempo de makespan de lotes de trabajos Hadoop de dos maneras: en un nivel macro (nivel de planificación de trabajos), agrupar los trabajos que comparten los mismos archivos de entrada y procesarlos en lote; y en un nivel micro (nivel de planificación de tareas) las tareas de los diferentes trabajos procesados en el mismo lote, que manejan los mismos bloques de datos, se agrupan para ser ejecutas en el mismo nodo donde se asignó el bloque. La política de planificación de trabajos almacena los archivos compartidos de entrada y los datos intermedios en una RAMDISK, durante el procesamiento de cada lote. / Industry and scientists have sought alternatives to process effectively the large volume of data generated in different areas of knowledge. MapReduce is presented as a viable alternative for the processing of data intensive application. Input files are broken into smaller blocks. So they are distributed and stored in the nodes where they will be processed. Hadoop clusters have been used to execute MapReduce applications. The Hadoop framework automatically performs the division and distribution of the input files, the division of a job into Map and Reduce tasks, the scheduling tasks among the nodes, the failures control of nodes; and manages the need for communication between nodes in the cluster. However, some MapReduce applications have a set of features that do not allow them to benefit fully from the default Hadoop job scheduling policies. Input files shared between multiple jobs and applications with large volumes of intermediate data are the characteristics of the applications we handle in our research. The objective of our work is to improve execution efficiency in two ways: On a macro level (job scheduler level), we group the jobs that share the same input files and process them in batch. Then we store shared input files and intermediate data on a RAMDISK during batch processing. On a micro level (task scheduler level) tasks of different jobs processed in the same batch that handle the same data blocks are grouped to be executed on the same node where the block was allocated.
|
144 |
Privacy-preserving and data utility in graph miningCasas Roma, Jordi 24 November 2014 (has links)
En los últimos años, ha sido puesto a disposición del público una gran cantidad de los datos con formato de grafo. Incrustado en estos datos hay información privada acerca de los usuarios que aparecen en ella. Por lo tanto, los propietarios de datos deben respetar la privacidad de los usuarios antes de liberar los conjuntos de datos a terceros. En este escenario, los procesos de anonimización se convierten en un proceso muy importante.
Sin embargo, los procesos de anonimización introducen, generalmente, algún tipo de ruido en los datos anónimos y también en sus resultados en procesos de minería de datos. Generalmente, cuanto mayor la privacidad, mayor será el ruido. Por lo tanto, la utilidad de los datos es un factor importante a tener en cuenta en los procesos de anonimización. El equilibrio necesario entre la privacidad de datos y utilidad de éstos puede mejorar mediante el uso de medidas y métricas para guiar el proceso de anonimización, de tal forma que se minimice la pérdida de información.
En esta tesis hemos trabajo los campos de la preservación de la privacidad del usuario en las redes sociales y la utilidad y calidad de los datos publicados. Un compromiso entre ambos campos es un punto crítico para lograr buenos métodos de anonimato, que permitan mejorar los posteriores procesos de minería de datos.
Parte de esta tesis se ha centrado en la utilidad de los datos y la pérdida de información. En primer lugar, se ha estudiado la relación entre las medidas de pérdida de información genéricas y las específicas basadas en clustering, con el fin de evaluar si las medidas genéricas de pérdida de información son indicativas de la utilidad de los datos para los procesos de minería de datos posteriores. Hemos encontrado una fuerte correlación entre algunas medidas genéricas de pérdida de información (average distance, betweenness centrality, closeness centrality, edge intersection, clustering coefficient y transitivity) y el índice de precisión en los resultados de varios algoritmos de clustering, lo que demuestra que estas medidas son capaces de predecir el perturbación introducida en los datos anónimos.
En segundo lugar, se han presentado dos medidas para reducir la pérdida de información en los procesos de modificación de grafos. La primera, Edge neighbourhood centrality, se basa en el flujo de información de a través de la vecindad a distancia 1 de una arista específica. El segundo se basa en el core number sequence y permite conservar mejor la estructura subyacente, mejorando la utilidad de los datos. Hemos demostrado que ambos métodos son capaces de preservar las aristas más importantes del grafo, manteniendo mejor las propiedades básicas estructurales y espectrales.
El otro tema importante de esta tesis ha sido los métodos de preservación de la privacidad. Hemos presentado nuestro algoritmo de base aleatoria, que utiliza el concepto de Edge neighbourhood centrality para guiar el proceso de modificación preservando los bordes más importantes del grafo, logrando una menor pérdida de información y una mayor utilidad de los datos.
Por último, se han desarrollado dos algoritmos diferentes para el k-anonimato en los grafos. En primer lugar, se ha presentado un algoritmo basado en la computación evolutiva. Aunque este método nos permite cumplir el nivel de privacidad deseado, presenta dos inconvenientes: la pérdida de información es bastante grande en algunas propiedades estructurales del grafo y no es lo suficientemente rápido para trabajar con grandes redes. Por lo tanto, un segundo algoritmo se ha presentado, que utiliza el micro-agregación univariante para anonimizar la secuencia de grados. Este método es cuasi-óptimo y se traduce en una menor pérdida de información y una mejor utilidad de los datos. / In recent years, an explosive increase of graph-formatted data has been made publicly available. Embedded within this data there is private information about users who appear in it. Therefore, data owners must respect the privacy of users before releasing datasets to third parties. In this scenario, anonymization processes become an important concern.
However, anonymization processes usually introduce some kind of noise in the anonymous data, altering the data and also their results on graph mining processes. Generally, the higher the privacy, the larger the noise. Thus, data utility is an important factor to consider in anonymization processes. The necessary trade-off between data privacy and data utility can be reached by using measures and metrics to lead the anonymization process to minimize the information loss, and therefore, to maximize the data utility.
In this thesis we have covered the fields of user's privacy-preserving in social networks and the utility and quality of the released data. A trade-off between both fields is a critical point to achieve good anonymization methods for the subsequent graph mining processes.
Part of this thesis has focused on data utility and information loss. Firstly, we have studied the relation between the generic information loss measures and the clustering-specific ones, in order to evaluate whether the generic information loss measures are indicative of the usefulness of the data for subsequent data mining processes. We have found strong correlation between some generic information loss measures (average distance, betweenness centrality, closeness centrality, edge intersection, clustering coefficient and transitivity) and the precision index over the results of several clustering algorithms, demonstrating that these measures are able to predict the perturbation introduced in anonymous data.
Secondly, two measures to reduce the information loss on graph modification processes have been presented. The first one, Edge neighbourhood centrality, is based on information flow throw 1-neighbourhood of a specific edge in the graph. The second one is based on the core number sequence and it preserves better the underlying graph structure, retaining more data utility. By an extensive experimental set up, we have demonstrated that both methods are able to preserve the most important edges in the network, keeping the basic structural and spectral properties close to the original ones.
The other important topic of this thesis has been privacy-preserving methods. We have presented our random-based algorithm, which utilizes the concept of Edge neighbourhood centrality to drive the edge modification process to better preserve the most important edges in the graph, achieving lower information loss and higher data utility on the released data. Our method obtains a better trade-off between data utility and data privacy than other methods.
Finally, two different approaches for k-degree anonymity on graphs have been developed. First, an algorithm based on evolutionary computing has been presented and tested on different small and medium real networks. Although this method allows us to fulfil the desired privacy level, it presents two main drawbacks: the information loss is quite large in some graph structural properties and it is not fast enough to work with large networks. Therefore, a second algorithm has been presented, which uses the univariate micro-aggregation to anonymize the degree sequence and reduce the distance from the original one. This method is quasi-optimal and it results in lower information loss and better data utility.
|
145 |
Segmentation et indexation d’objets complexes dans les images de bandes déssinéesRigaud, Christophe 11 December 2014 (has links)
Nacido en el siglo 19, los historietas se utilizan para la expresión de ideas a través
de secuencias de imágenes, a menudo en combinación con el texto y los gráficos. El
cómic esta considerado como un noveno arte, arte secuencial, salida con los avances
en la impresión y la Internet en todo el mundo en periódicos, libros y revistas. Hoy
en día, el creciente desarrollo de las nuevas tecnologías y la World Wide Web (el
lienzo Internet) da lugar a nuevas formas de expresión que lleva el papel a disfrutar
de la libertad del mundo virtual. Sin embargo, el cómic tradicional persiste y es un
patrimonio cultural importante en muchos países. A diferencia de la música, el cine
o la literatura clásica, que aún no ha encontrado son homólogos en el mundo digital.
El uso de tecnologías de la información y de las telecomunicaciones podría facilitar la
exploración de bibliotecas en línea, la traducción y acelerar su permiso de exportación
a la mayor lectura (enriquecimiento de los contenidos durante la reproducción, a la
carta y personalizado ) o permitir la escucha de texto y efectos de sonido para los
estudiantes con discapacidad visual o allumnos.
Agencias de la preservación del patrimonio cultural como CIBDI en Angouleme
(Centro Internacional del Cómic y de imagen), el Museo Internacional de Manga en
Kioto (Kyoto International Manga Museum) o el sitio digitalcomicmuseum.com de
los Estados Unidos han digitalizado cientos de álbumes, algunos son públicos. Pese a
la creciente cuota de mercado de los cómics digitales en los países desarrollados, poca
investigación se ha llevado a cabo hasta la fecha para desarrollar estos contenidos a
través de las nuevas tecnologías. El análisis de documentos es un tema de investigación
que se ocupa de este problema. Una de estas características es la dependencia del
tipo de documento que a menudo requiere un tratamiento específico. El proceso de
creación de un cómic es exclusivo de este arte que puede ser considerado como un
nicho en el campo de análisis de documentos. En realidad, este nicho está en la
intersección de varios documentos de investigación que cuenta consiste en un fondo
complejo, contenido semi-estructurada y variada.
La intersección de varias investigaciones combina sus dificultades. En esta tesis
de doctorado, se describen e ilustran los diversos retos científicos de esta investigación
con el fin de dar al lector toda la evidencia acerca de los últimos avances científicos
en el campo, así como las barreras científicas actuales. Proponemos tres enfoques de
análisis de imagen cómica compuesta por diferentes tratamientos que mejora algunos
trabajos previos y otros que son nuevas vías de exploración. El primer enfoque se
denomina \secuencial" porque los contenidos de la imagen se describe gradualmente
y de manera intuitiva. Simples artículos como cajas y texto y las burbujas se extraen primero y luego siguen la cola de las burbujas y los personajes de los cuadros de
acuerdo a la dirección apuntada por las colas. El segundo método ofrece extracciones
independientes unos de otros a fin de evitar la propagación del error entre aplicaciones,
que es la principal desventaja del primer método. En este enfoque, los diversos
extractores se pueden utilizar en paralelo, ya que no tienen la interdependencia.
Otros elementos como la clasificación del tipo de burbuja y el reconocimiento de texto
están asociados. El tercer enfoque introduce un sistema basado en un conocimiento
a priori del contenido de las imágenes de dibujos animados que interactúa entre los
tratamientos bajos y altos niveles para construir una descripción semántica de la imagen.
Proponemos un sistema experto consiste en un sistema de inferencia y dos
modelos de la forma de ontologías, un modelo para el campo de los cómics y el otro
para modelar el procesamiento de imágenes asociado. Este sistema experto combina
las ventajas de ambos enfoques anteriores y proporciona un alto nivel de descripción
semántica puede incluir información como el orden de lectura de los cuadros, el texto
y las burbujas, burbujas relaciones entre habladas y sus altavoces y el distinción entre
los caracteres.
Además, se describen los primeros cómics públicas basadas en imágenes y la realidad
sobre el terreno que incluye que se han propuesto a la literatura científica,
la información espacial y semántica. Un experimento de todos los métodos propuestos
y una comparación de los enfoques de la literatura también se detallan en este
manuscrito. / Born in the 19th century, comics is a visual medium used to express ideas via images,
often combined with text or visual information. It is considered as a sequential art,
spread worldwide initially using newspapers, books and magazines. Nowadays, the
development of the new technologies and the World Wide Web is giving birth to
a new form of paperless comics that takes advantage of the virtual world freedom.
However, traditional comics still represent an important cultural heritage in many
countries. They have not yet received the same level of attention as music, cinema or
literature about their adaptation to the digital format. Using information technologies
with classic comics would facilitate the exploration of digital libraries, faster theirs
translations, allow augmented reading, speech playback for the visually impaired etc.
Heritage museums such as the CIBDI (French acronym for International City of
Comic books and Images), the Kyoto International Manga Museum and the digitalcomicmuseum.
com have already digitized several thousands of comic albums that
some are now in the public domain. Despite the expending market place of digital
comics, few researches have been carried out to take advantage of the added value
provided by these new media. Document analysis is the corresponding eld of research
which is relatively application-dependent. The design process of comics is so
typical that their automated analysis may be seen as a niche research eld within
document analysis, at the intersection of complex background, semi-structured and
mixed content documents.
Being at the intersection of several fields combine their dificulties. In this thesis,
we review, highlight and illustrate the challenges in order to give to the reader a good
overview about the last research progress in this eld and the current issues. We
propose three diferent approaches for comic book image analysis relying on previous
work and novelties. The first approach is called \sequential" because the image
content is described in an intuitive way, from simple to complex elements using previously
extracted elements to guide further processing. Simple elements such as panel
text and balloon are extracted first, followed by the balloon tail and then the comic
character position in the panel from the direction pointed by the tail. The second
approach addresses independent information extraction to recover the main drawback
of the rst approach: error propagation. This second method is called \independent"
because it is composed by several specific extractors for each elements of the image
content. Those extractors can be used in parallel, without needing previous extraction.
Extra processing such as balloon type classification and text recognition are also
covered. The third approach introduces a knowledge-driven system that combines low and high level processing to build a scalable system of comics image understanding.
We built an expert system composed by an inference engine and two models, one for
comics domain and an other one for image processing, stored in an ontology. This
expert system combines the benefits of the two first approaches and enables high
level semantic description such as the reading order of panels and text, the relations
between the speech balloons and their speakers and the comic character identification.
Apart from that, in this thesis we have provided the first public comics image
dataset and ground truth to the community along with an overall experimental comparison
of all the proposed methods and some of the state-of-the-art methods.
|
146 |
Los orígenes y la implantación de la industria cervecera en España, Siglo XVI‐1913García Barber, Xavier 20 December 2013 (has links)
Esta tesis estudia los inicios del sector cervecero y los factores de oferta y demanda que acompañaron su crecimiento hasta su implantación definitiva en España entre el último cuarto del siglo XIX y el primer decenio del XX. Esta investigación pretende realizar una contribución al estudio de un sector industrial no líder, aunque de amplia repercusión económica en España en la actualidad, que apenas ha merecido la atención de los historiadores económicos, a diferencia de lo que ocurre en otros países.
En un país dominado por el vino y los aguardientes, el origen de esta industria se sitúa en torno a la corte de la dinastía de los Austrias, establecida en España a inicios del siglo XVI, adquiriendo en general un moderado desarrollo durante los siglos XVII y XVIII en la ciudad de Madrid. Posteriormente, tras el establecimiento de una industria cervecera de gran producción en Santander durante el último cuarto del siglo XVIII y principios del XIX con fines exportadores a las Indias comienza de manera paulatina su difusión por toda la Península hasta, como se ha comentado, su definitiva implantación entre finales de siglo y el primer decenio del XX.
Entre otras cuestiones, se analiza la creciente orientación de inversiones hacia la fabricación de cerveza, especialmente en las ciudades líderes en esta industria, Barcelona y Madrid, la elevada dependencia sobre dirección técnica, tecnología y una materia prima como el lúpulo respecto del exterior, la difusión de la producción y el consumo en la Península a partir de la segunda mitad del siglo XIX, el estudio de las variaciones del precio de la cerveza y sus gravámenes fiscales en el impuesto de consumos en comparación con los del vino, el ataque de la filoxera al sector vinícola francés y español y sus repercusiones sobre el sector cervecero, la evolución del comercio exterior, la progresiva aparición de puntos de venta al por menor, las iniciativas en la solicitud de patentes y marcas en el ámbito cervecero y el comienzo de la fabricación de cerveza de baja fermentación en España a partir del último cuarto de siglo que dará lugar a la formación de economías de escala, una concentración de la producción y la expansión comercial a lo largo de la Península.
Antes de la Primera Guerra Mundial, la industria cervecera ya estaba plenamente implantada en España. Los orígenes y la pausada formación del sector cervecero desde el siglo XVI hasta el comienzo del último cuarto del siglo XIX residieron, en buena medida, en la iniciativa, el capital y los conocimientos aportados desde el exterior. Fundamentalmente se trató de cerveceros flamencos a lo largo de los siglos XVI y XVIII, y de alemanes y franceses durante los tres primeros cuartos del siglo XIX. Desde ahí hasta 1913, el capital nacional entró a participar de forma mayoritaria en la implantación definitiva de esta industria en España. En esta última etapa destacó la iniciativa de una nueva clase de capitalistas e industriales, surgidos en diversas ciudades de la Península que invertirá en la construcción de grandes fábricas de cerveza, que llegarán la mayor parte a consolidarse en el sector a lo largo del siglo XX. Es el caso de La Austríaca (1876), La Estrella de Gijón (1893), El Laurel de Baco (1895), Cammany y Cía (1899), El Águila, El Águila Negra y la Zaragozana (1900), Juan Musolas (1902), Cruzcampo (1904), Estrella de Galicia (1906) y la Cervecera del Norte y la Vizcaína (1912). Estas compañías agruparían en 1917, ya fuera de la cronología de esta tesis, el 65% de la producción cervecera española. / This thesis examines the beginnings of the brewing industry and the factors of supply and demand that accompanied its growth to its final implementation in Spain between the last quarter of the nineteenth century and the first decade of the twentieth. This research aims to make a contribution to the study of non-industrial sector leader, though large economic impact in Spain today, which has hardly received the attention of economic historians, unlike what happens in other countries.
In a country dominated by wine and spirits, the origin of this industry is about to cut the Habsburg dynasty, established in Spain in the early sixteenth century, acquiring a moderate overall development during the seventeenth and XVIII in the city of Madrid. Later, after the establishment of a brewing industry for mass production in Santander during the last quarter of the eighteenth century and early nineteenth to exporting to the Spanish colonies in Latin America late starts gradually its dissemination throughout the Peninsula to, as mentioned, its final implementation between the end of the century and the first decade of the twentieth.
Among other things, the growing orientation towards investment brewing is analyzed, especially in the leading cities in this industry, Barcelona and Madrid, the high dependence on technical, technology and raw materials such as hops from the outside, the dissemination of production and consumption in the Peninsula from the second half of the nineteenth century, the study of variations in the price of beer and tax on consumption tax compared with wine taxes, the attack “phylloxera” French and Spanish wine industry and its impact on the brewing industry, the development of foreign trade, the gradual emergence of outlets retail initiatives in the application for patents and trademarks in the brewing area and the beginning of the brewery bottom fermented in Spain from the last quarter century that will lead to the formation of economies of scale, concentration of production and trade expansion along the Peninsula.
Before World War I, the brewing industry was now fully operational in Spain. The origins and the slow formation of the brewing industry since the sixteenth century to the beginning of the last quarter of the nineteenth century resided largely in the initiative, capital and knowledge provided from outside. Fundamentally treated flamingos along the sixteenth and eighteenth centuries brewers, and German and French during the first three quarters of the nineteenth century. From then until 1913, the national capital came to participate in majority form in the final implementation of this industry in Spain. In this last stage highlighted the initiative of a new class of capitalists and industrialists, arising in various cities of the peninsula that invest in the construction of large breweries, which reach most consolidated in the sector over the twentieth century. This is the case of La Austríaca (1876), La Estrella de Gijón (1893), El Laurel de Baco (1895), Cammany y Cía (1899), El Águila, El Águila Negra y la Zaragozana (1900), Juan Musolas (1902), Cruzcampo (1904), Estrella de Galicia (1906) y La Cervecera del Norte y La Vizcaína (1912). These companies grouped in 1917, and out of the timeline of this thesis, 65 % of the Spanish beer production.
|
147 |
Cooperación entre la aplicación y el kernel para la planificación de flujos, en sistemas multiprocesadores, como soporte al paralelismoGil Gómez, Maria Luisa 04 July 1994 (has links)
El objetivo de nuestro trabajo ha sido defender la tesis de que, para los entornos de trabajos actuales, multiprocesador, una opción válida para obtener el mejor rendimiento de las aplicaciones paralelas de propósito general es conseguir que el kernel y la propia aplicación cooperen en la gestión de los recursos.El estudio abarca a la aplicación en su conjunto, con todas sus partes, en cuya ejecución el sistema operativo toma una parte activa y decisoria. Y nos hemos centrado en aplicaciones paralelas multiflujo de granularidad media.Hemos diseñado y realizado un entorno de trabajo basándonos en la tecnología microker-nel en el que ofrecemos un nuevo sistema de planificación.A partir de políticas de planificación de particionado de la máquina, hemos aislado a las aplicaciones, unas de otras, y hemos habilitado que en cada partición el usuario pueda decidir qué política de planificación y qué quantums y recálculo de prioridades quiere. Con ello conseguimos, por un lado, que cada aplicación pueda ajustar la planificación que mejor rendimiento le suponga.Por otro, que no queden afectadas unas por el funcionamiento de otras.A partir de la abstracción de procesador virtual, dotamos a la aplicación de la capacidad de gestionar la planificación de sus propios flujos, mediante la nueva abstracción "contexto de eje-cución" (eXc) que el kernel ofrece a la aplicación para que pueda ejecutar un flujo en cada uno de los procesadores físicos que le ha asignado. En este nuevo entorno el kernel puede comunicar de manera asíncrona con la aplicación, transmitiéndole los eventos que puedan afectar a ésta para decidir una replanificación en sus flujos. En concreto, el bloqueo/desbloqueo de flujos, la asigna-ción/desasignación de procesadores físicos y un temporizador para poder disponer del dispositivo reloj a nivel de aplicación. Se han resuelto los problemas de desbanque de flujos dentro de exclusiones mutuas gracias a unas nuevas primitivas de sincronización que evitan el abrazo mortal.Con nuestra realización de paso de gestión de flujos del kernel a la aplicación, además de aumentar el throughput en un orden de magnitud, ganamos tiempo de ejecución para otros flujos de la aplicación.La plataforma de desarrollo ha sido un multiprocesador de memoria compartida sobre el que hemos modificado el microkernel Mach 3.0, con el entorno operativo OSF/1 MK y la librería de threads de usuario CThreads, modificada igualmente para enriquecer y potenciar la parte de planificación de flujos. / The goal of this thesis is to show that it is possible to achieve a better parallel application perfor-mance in multiprocessor operating environments when the kernel and the application cooperate in the resource management.The study includes the whole application, in addition to the components whose manage-ment is mainly supported by the operating system. The selected applications for study are medium grain parallelism applications (ie. servers, subsystems, virtual machines,...).Our work includes a design and implementation of an operating environment in the micro-kernel technology with a new scheduling approach.We have implemented space sharing scheduling policies to isolate applications insidemachine partitions; each partition has its own scheduling policy and the user can modify priorities, quantums and policies in his application partition. This approach allows each application to adjust and tune its own scheduling to achieve the better performance it would. Also it permits to protect applications from the other applications faults.We propose a new abstraction: the eXecution context (eXc) as the processor virtual object that allows the application to manage its threads. The eXc are offered by the kernel to the application to run threads in the physical processors that the kernel gives to the application.The kernel communicates to the application, in an asynchronous way, the events thatcould lead to a rescheduling of its threads. This events are: thread blocked/unblocked, physical processor allocated/deallocated and the clock, to have the possibility of timeouts at application level.New synchronization primitives prevent the deadlock problem when there may be a thread preemption in a mutex area.Our implementation overcomes throughput in one order of magnitude and also has a gain in the execution time for the other application threads.This work has been implemented in a shared memory multiprocessor. We have modified the Mach 3.0 microkernel, the OSF/1 MK operating environment and the CThreads library. This library has been also modified to offer more complete scheduling policies and synchronization mechanisms.
|
148 |
Adaptive control for wearable robots in human-centered rehabilitation tasksRajasekaran, Vijaykumar 22 December 2015 (has links)
Robotic rehabilitation therapies have been improving by providing the needed assistance to the patient, in a human-centered environment, and also helping the therapist to choose the necessary procedure. This thesis presents an adaptive "Assistance-as-needed" strategy which adheres to the specific needs of the patient and with the inputs from the therapist, whenever needed. The exertion of assistive and responsive behavior of the lower limb wearable robot is dedicated for the rehabilitation of incomplete spinal cord injury (SCI) patients. The main objective is to propose and evaluate an adaptive control model on a wearable robot, assisting the user and adhering to their needs, with no or less combination of external devices. The adaptation must be more interactive to understand the user needs and their volitional orders. Similarly, by using the existing muscular strength, in incomplete SCI patients, as a motivation to pursue the movement and assist them, only when needed. The adaptive behavior of the wearable robot is proposed by monitoring the interaction and movement of the user. This adaptation is achieved by modulating the stiffness of the exoskeleton in function of joint parameters, such as positions and interaction torques. These joint parameters are measured from the user independently and then used to update the new stiffness value. The adaptive algorithm performs with no need of external sensors, making it simple in terms of usage. In terms of rehabilitation, it is also desirable to be compatible with combination of assistive devices such as muscle stimulation, neural activity (BMI) and body balance (Wii), to deliver a user friendly and effective therapy. Combination of two control approaches has been employed, to improve the efficiency of the adaptive control model and was evaluated using a wearable lower limb exoskeleton device, H1. The control approaches, Hierarchical and Task based approach have been used to assist the patient as needed and simultaneously motivate the patient to pursue the therapy. Hierarchical approach facilitates combination of multiple devices to deliver an effective therapy by categorizing the control architecture in two layers, Low level and High level control. Task-based approaches engage in each task individually and allow the possibility to combine them at any point of time. It is also necessary to provide an interaction based approach to ensure the complete involvement of the user and for an effective therapy. By means of this dissertation, a task based adaptive control is proposed, in function of human-orthosis interaction, which is applied on a hierarchical control scheme. This control scheme is employed in a wearable robot, with the intention to be applied or accommodated to different pathologies, with its adaptive capabilities. The adaptive control model for gait assistance provides a comprehensive solution through a single implementation: Adaptation inside a gait cycle, continuous support through gait training and in real time. The performance of this control model has been evaluated with healthy subjects, as a preliminary study, and with paraplegic patients. Results of the healthy subjects showed a significant change in the pattern of the interaction torques, elucidating a change in the effort and adaptation to the user movement. In case of patients, the adaptation showed a significant improvement in the joint performance (flexion/extension range) and change in interaction torques. The change in interaction torques (positive to negative) reflects the active participation of the patient, which also explained the adaptive performance. The patients also reported that the movement of the exoskeleton is flexible and the walking patterns were similar to their own distinct patterns.
The presented work is performed as part of the project HYPER, funded by Ministerio de Ciencia y Innovación, Spain. (CSD2009 - 00067 CONSOLIDER INGENIO / Las terapias de rehabilitación robóticas han sido mejoradas gracias a la inclusión de la asistencia bajo demanda, adaptada a las variaciones de las necesidades del paciente, así como a la inclusión de la ayuda al terapeuta en la elección del procedimiento necesario. Esta tesis presenta una estrategia adaptativa de asistencia bajo demanda, la cual se ajusta a las necesidades específicas del paciente junto a las aportaciones del terapeuta siempre que sea necesario. El esfuerzo del comportamiento asistencial y receptivo del robot personal portátil para extremidades inferiores está dedicado a la rehabilitación de pacientes con lesión de la médula espinal (LME) incompleta. El objetivo principal es proponer y evaluar un modelo de control adaptativo en un robot portátil, ayudando al usuario y cumpliendo con sus necesidades, en ausencia o con reducción de dispositivos externos. La adaptación debe ser más interactiva para entender las necesidades del usuario y sus intenciones u órdenes volitivas. De modo similar, usando la fuerza muscular existente (en pacientes con LME incompleta) como motivación para lograr el movimiento y asistirles solo cuando sea necesario. El comportamiento adaptativo del robot portátil se propone mediante la monitorización de la interacción y movimiento del usuario. Esta adaptación conjunta se consigue modulando la rigidez en función de los parámetros de la articulación, tales como posiciones y pares de torsión. Dichos parámetros se miden del usuario de forma independiente y posteriormente se usan para actualizar el nuevo valor de la rigidez. El desempeño del algoritmo adaptativo no requiere de sensores externos, lo que favorece la simplicidad de su uso. Para una adecuada rehabilitación, efectiva y accesible para el usuario, es necesaria la compatibilidad con diversos mecanismos de asistencia tales como estimulación muscular, actividad neuronal y equilibrio corporal. Para mejorar la eficiencia del modelo de control adaptativo se ha empleado una combinación de dos enfoques de control, y para su evaluación se ha utilizado un exoesqueleto robótico H1. Los enfoques de control Jerárquico y de Tarea se han utilizado para ayudar al usuario según sea necesario, y al mismo tiempo motivarle para continuar el tratamiento. Enfoque jerárquico facilita la combinación de múltiples dispositivos para ofrecer un tratamiento eficaz mediante la categorización de la arquitectura de control en dos niveles : el control de bajo nivel y de alto nivel. Los enfoques basados en tareas involucran a la persona en cada tarea individual, y ofrecen la posibilidad de combinarlas en cualquier momento. También es necesario proporcionar un enfoque basado en la interacción con el usuario, para asegurar su participación y lograr así una terapia eficaz. Mediante esta tesis, proponemos un control adaptativo basado en tareas y en función de la interacción persona-ortesis, que se aplica en un esquema de control jerárquico. Este esquema de control se emplea en un robot portátil, con la intención de ser aplicado o acomodado a diferentes patologías, con sus capacidades de adaptación. El modelo de control adaptativo propuesto proporciona una solución integral a través de una única aplicación: adaptación dentro de la marcha y apoyo continúo a través de ejercicios de movilidad en tiempo real. El rendimiento del modelo se ha evaluado en sujetos sanos según un estudio preliminar, y posteriormente también en pacientes parapléjicos. Los resultados en sujetos sanos mostraron un cambio significativo en el patrón de los pares de interacción, elucidando un cambio en la energía y la adaptación al movimiento del usuario. En el caso de los pacientes, la adaptación mostró una mejora significativa en la actuación conjunta (rango de flexión / extensión) y el cambio en pares de interacción. El cambio activo en pares de interacción (positivo a negativo) refleja la participación activa del paciente, lo que también explica el comportamiento adaptativo.
|
149 |
Millores en un crioconcentrador per plaques de pel.licula descendent : dissenys de nous prototips per liquids industrials i residualsRodríguez Barraguer, Vicenç 22 December 2015 (has links)
One of the techniques for separating soluble solids in an aqueous solution, is for freezing of water that contains, which is known as cryoconcentration It relates to systems of crystallization of ice by layer (Flesland, 1995) because the principle is the same, although the model presented is significantly different, both in terms of geometry and the equipment that incorporates.
The experimental work, the basis of this thesis, has gone through two machines cryoconcentration, semi - industrial, known as first and second prototype, where have been developed tests with food liquids wine, orange juice and coffee; use of second products industrial liquids and liquids waste to reduce water and subsequent treatment of concentrated.
They have been expressly built, one after the other, as a result of the improvements that have been incorporated to watching trials and with the aim of achieving, in the second prototype,a cryoconcentrator of film descendant, semi-industrial, to between 35 and 40 l of liquid, more effective, in energy efficiency and make good concentrates.
Explains the key points of the machine, as for example, how to get a good liquid distribution to be focus and having a good evaporation - condensation in the entire cooling system.
Everything revolves to make concentrated quality, which can give added value to the food liquids, this method of descending film, with the application of the techniques of cold. In fact, intends to reveal that this method, based on physical principles, is better than classical distillation for heat, if you want to get concentrated rich in original content. In the preparation of fruit juices, it has the advantage of preserving their vitamins and flavors.
In a commercial orange juice 100% fruit juice got a 45% concentrate juice fruit rest water with trace amounts of 1% fruit juice without degradation of aromas. And in the category of coffee, was achieved in the process of concentrate, reduce it by up to 55% of concentrated coffee the rest water with trace amounts of 1% without losing the aromas and taste. It also wants to extend to industrial fluids as needed to focus. It is at this point, in the treatment of industrial and sewage waste, where it has insisted more than experimentation, by the good results obtained and as evidence that in many areas they have not finished making.
For the specific case of a multinational cosmetics, sample which was, went from having a content of dissolved solids, with cod = 27500 ppm, to a cod = 27 ppm water.
The last phase of this work wants to reflect experience with the experimentation carried out and that also serve to extrapolate and sizing designs of other models, based on the same technology. The technique is quite simple and innovative in its application; working at atmospheric pressure and temperatures that rarely move from - 5 ° C, providing a concentration more advantageous, and as an alternative to the classical distillation for heat.
A brief review of existing models, known by different names, which are used to make concentrated, to complete with an innovative model and energy saving considered of freeze concentration by plates of film descendant, through cold generation systems, which can be 'tailor-made' is made.
The work has a history of work and experimentation, made in the past six years, with the two real prototypes, which have been improving day by day, where all tests and experimental trials have been done. It does not leave out that one of the objectives is also to make a cold efficient to improving the COP and system with a view to incorporating in the industrial sector You can say contributions highlighted in this thesis are:
Resolution of the uniform distribution of liquid concentrate on cold plates.
Application of this process of concentration for industrial waste / Una de les tècniques per separar sòlids solubles d'una solució aquosa, és per congelació de l'aigua que conté, practica que es coneix com crioconcentració. Es relaciona amb sistemes de cristal.lització de gel per capa, Flesland,1995 perquè el principi és el mateix encara que el model que es presenta és significativament diferent, tant per la geometria com pels equips que incorpora. El treball experimental, fonament d'aquesta tesis, ha passat per dues màquines crioconcentradores semiindustrials, denominades primer i segon prototip on s'han desenvolupat proves amb líquids alimentaris, vi, suc de taronja i cafè; en líquids industrials, aprofitament de segons productes i en líquids residuals per reduir l'aigua i posterior tractament del concentrat. Han estat expressament construïdes, una després de l'altre, com conseqüència de les millores que s'han anat incorporant en veure els assajos i amb l'objectiu de aconseguir, en el segon prototip, un crioconcentrador per pel·lícula descendent, semi industrial per tractar entre 35 i 40 l de líquid, més eficaç, en rendiment energètic i en fer bons concentrats. S'expliquen els punts claus de la màquina, com per exemple com aconseguir un bon repartiment del fluid que es vol concentrar i que hagi una bona evaporació condensació en tot el sistema frigorífic. Tot gira a fer concentrats de qualitat, que pugin donar un valor afegit als líquids alimentaris, per aquest mètode de pel·lícula descendent, amb l'aplicació de les tècniques conegudes de fred. De fet es pretén revelar que aquest mètode, basat en principis físics, és millor que la destil·lació clàssica per calor, si es vol obtenir concentrats rics en els seus continguts originals. En l'elaboració de sucs de fruites, te l'avantatge de preservar els seus sabors i vitamines. En un suc de taronja comercial 100% suc fruita es va obtenir un concentrat del 45% suc fruita resta aigua amb traces de suc fruita del 1% sense degradació d'aromes. I en l'especialitat del cafè, es va aconseguir en el procés del concentrat, reduir-lo al 55% de cafè concentrat, resta aigua amb traces del 1% sense perdre els aromes ni el sabor. També es vol estendre'l als líquids industrials que es necessitin concentrar .És en aquest punt, del tractament de líquids industrials i residuals, on s'ha insistit més de l'experimentació, pels bons resultats obtinguts i per ser proves que en molts àmbits no s'han acabat de fer. Pel cas concret d'una multinacional de cosmètica, la mostra que es va tractar, va passar de tenir un DQO=27500 ppm, fins un aigua amb DQO=27 ppm. La darrera fase d'aquest treball vol reflectir l'experiència amb l'experimentació feta i que serveixi a més, per poder extrapolar i dimensionar dissenys d'altres models, basats en la mateixa tecnologia. Es treballa a pressió atmosfèrica i temperatures de -5ºC, oferint una concentració més avantatjosa i com alternativa a la destil·lació clàssica per calor. Es fa un breu repàs dels models existents, coneguts amb diferents nomenclatures, que s`utilitzen per fer concentrats, per completar amb un model innovador i d'estalvi energètic considerat, de crioconcentració per plaques de pel·lícula descendent, sistemes de generació de fred, que es poden fer a mida. El treball té un recorregut de feina i experimentació, fet en els darrers sis anys, amb els dos prototips reals, que s'han anat millorant dia a dia, on s'han fet totes les proves i assajos experimentals. No es deixa de banda que també un dels objectius és fer un sistema de fred eficient millorant el COP i amb vistes d'incorporar-lo al sector industrial. Es pot dir que les aportacions destacades en aquesta tesis són: Resolució de la distribució uniforme del líquid a concentrar en les plaques fredes. Aplicació d'aquest procés de concentració per a residus industrials / Una de las técnicas para separar los sólidos solubles de una solución acuosa, es por congelación del agua que contiene, práctica que se conoce como crioconcentració. Se relaciona con sistemas de cristalización de hielo por capa Flesland, 1995 porque el principio es el mismo, aunque el modelo que se presenta es significativamente diferente, tanto en términos de geometría como por el equipamiento que incorpora.
El trabajo experimental, la base de esta tesis, ha pasado por dos máquinas crioconcentradoras, semi-industriales, denominadas primer y segundo prototipo, donde se han desarrollado pruebas con líquidos alimentarios,vino, zumo de naranja y café; en líquidos industriales, aprovechamiento de segundos productos y en líquidos residuales para reducir el agua y posterior tratamiento de concentrado.
Han sido expresamente construidas, una después de la otra, como resultado de las mejoras que se han incorporado viendo los ensayos y con el objetivo de alcanzar, en el segundo prototipo, un crioconcentrador de película descendiente, semi-industrial, para tratar entre 35 y 40 l de líquido, más eficaz, en eficiencia energética y en hacer buenos concentrados.
Se explican los puntos clave de la máquina, como por ejemplo, cómo conseguir una buena distribución de líquido que se desea concentrar y que tenga una buena evaporación condensación en todo el sistema frigorífico.
Todo gira en hacer concentrados de calidad, que puedan dar un valor añadido a los líquidos alimentarios, por este método de película descendiente, con la aplicación de las técnicas conocidas de frío. De hecho, se pretende revelar que este método, basado en principios físicos, es mejor que la clásica destilación por calor, si se quiere obtener concentrados ricos en sus contenidos originales. En la elaboración de zumos de frutas, tiene la ventaja de preservar sus vitaminas y sabores. En un zumo de naranja comercial 100% zumo de fruta se consiguió un concentrado del 45% zumo de fruta resto agua con trazas de zumo de fruta del 1% sin degradación de aromas. Y en la categoría de café se consiguió en el proceso de concentrado, reducirlo hasta el 55% de café concentrado resto agua con trazas del 1% sin perder los aromas ni el sabor.
También se quiere extender a fluidos industriales que se necesiten concentrar. Es en este punto, del tratamiento de residuos industriales y residuales, donde se ha insistido más de la experimentación, por los buenos resultados obtenidos y por ser pruebas que en muchas ámbitos no se han acabado de hacer.
Para el caso específico de una multinacional cosmética, la muestra que se trató, pasó de tener un DQO = 27500 ppm, hasta un agua con DQO = 27 ppm, La última fase de este trabajo quiere reflejar la experiencia con la experimentación realizada y que sirva además, para poder extrapolar y dimensionar diseños de otros modelos, basados en la misma tecnología. Se trabaja a presión atmosférica y temperaturas de -5 º C, ofreciendo una concentración más ventajosa, y como alternativa a la clásica destilación por calor.
Se hace una breve revisión de los modelos existentes, conocidos con diferentes nomenclaturas, que se utilizan para hacer concentrados, para completar con un modelo innovador y de ahorro energético considerado, de crioconcentración por placas de película descendiente, mediante sistemas de generación de frío, que se pueden hacer a medida.
El trabajo tiene una trayectoria de trabajo y experimentación, hecho en los últimos seis años, con los dos prototipos reales, que han ido mejorando día a día, donde se han hecho todas las pruebas y ensayos experimentales.
No se deja de lado que también uno de los objetivos es hacer un sistema de frío eficiente mejorando el COP y con miras a incorporar en el sector industrial. Se puede decir que las contribuciones destacadas en esta tesis son:
Resolución de la distribución uniforme del líquido concentrado en las placas frías.
Aplicación de este proceso de concentración para residuos industriales
|
150 |
Desarrollo de un sistema de doble paso compacto y de bajo coste para la evaluación de la calidad óptica y la difusión intraocularSanabria, Ferran 02 December 2015 (has links)
The purpose of this PhD thesis was to design, implement and validate a low cost compact system based on the double-pass I
technique in order to evaluate the viability of its use in the future in optical instrumentation to obtain optical quality and light diffusior
estimations.
First of all we measured the optical quality of an electro-optical liquid lens to prove its usefulness in the measurement of the eye's optical quality. We built a simple single-pass setup composed by a laser diode (LD), an electro-opticalliquid lens (EOLL) and a CCD as recording device. The results obtained in this study show the validity of this type of lenses for corrections of spherical refractive errors.
In second place we studied the correction of spherical refractive errors in double-pass configurations by means of the electro optical liquid lens (EOLL). We measured the optical performance of the spherical corrector in terms of optical power, pupil size and optical quality verifying that they all fit the requirements to be applied to double-pass systems. We also evaluated the performance of the proposed method in patients by comparison with a conventional double-pass system using a Badal optometer (OQAS instrument) and we conclude that the EOLL is suitable to be used in a double-pass system for a spherical correction.
In third place we implemented and validated a superluminiscent led (SLED) as light source in the double-pass system . The study showed that the SLED used during the experimentation did not have sufficiently low coherence to break the speckle noise on its own, but showed a good performance when being combined with other methods for speckle reduction.
In fourth place we implemented and validated a CMOS camera as recorder device in the double-pass system. We studied the performance of a CMOS camera by comparison with the results obtained with a CCD. The study showed a high correlation between the results obtained with the CCD and CMOS camera, demonstrating in this manner suitability of this type of sensors (CMOS) for application in the field of visual optics.
Taking into account the results on the light source, the spherical refractive error corrector, and the recording device, the final configuration of the system includes a SLD light source, a corrector based on EOLLs and a CMOS camera. The experimental double-pass system has been compared with a commercially available double-pass system (OQAS). All the tests showed the good agreement between both systems, which suggest that the system here presented may be used for estimations of the ocular optical quality and scattering measurements.
We conclude that the proposed experimental setup, including as innovations the CMOS camera and the EOLL spherical corrector, improves in terms of size and cost a conventional system with a performance comparable to that observes in commercially available devices. / Esta tesis doctoral ha tenido como objetivo fundamental el diseño, implementación y validación de un sistema compacto y de bajo coste basado en la técnica del doble paso que nos permita obtener estimaciones de calidad óptica en general y de luz difusa en particular, dirigido a una posible futura utilización en la práctica clínica. Para ello se ha partido del esquema de doble paso utilizado en el instrumento oftalmológico OQAS y se ha estudiado y validado posibles mejoras, tanto en grado de integración como en coste, que han garantizado las mismas o superiores prestaciones. En primer lugar se procedió a la validación de una lente electro-óptica como sistema de corrección de la refracción esférica, este dispositivo sustituye al tradicional sistema Badal compuesto por dos lentes cuya distancia relativa puede variarse, lo cual permite la corrección de la refracción esférica. Se analizó y demostró la validez de este nuevo tipo de lentes electro-ópticas para la corrección de refracción esférica. En segundo lugar se procedió al diseño y la implementación de un sistema de doble paso utilizando la lente electro-óptica para la compensaci6n de refracción esférica. Una vez se comprobó que la lente electro-óptica reunía los requisitos de calidad óptica, se procedió a implementar el sistema de doble paso que incorpora dicha lente en substitución del sistema Badal. Se verificó y demostró que el sistema con la lente electro-óptica tiene prestaciones similares o mejores que el clásico sistema de doble paso. En tercer lugar se implementó y validó el sistema de iluminación basado en una fuente LED superluminiscente (SLED). Se incorporó como fuente de luz al sistema de doble paso un SLED y se analizó el grado de ruido speckle en las imágenes obtenidas. El estudio determinó que el SLED utilizado no tenía la suficiente baja coherencia como para romper el ruido speckle por sí mismo, pero si mostró un buen rendimiento cuando se combina con otros métodos para la reducción del speckle. En cuarto lugar se procedió a implementar y validar el sistema de registro basado en una tecnología CMOS. Se incorporó una cámara CMOS como nuevo dispositivo de registro al sistema de doble paso. El estudio realizado puso de manifiesto una alta correlación existente entre los resultados obtenidos con la cámara CMOS y la CCD, de manera que quedó demostrado la idoneidad de este tipo de sensores (CMOS) para la aplicación en montajes experimentales de óptica visual y para la implementación de instrumentación asociada a este campo. Ya por último se procedió a la validación del sistema de doble paso resultante. En función de los resultados obtenidos se implementó el sistema de doble paso definitivo siguiendo criterios de simplicidad y coste, este sistema incorpora un compensador de refracción esférica basado en una lente electro-óptica, un diodo laser y una cámara CMOS. Para la validación de los resultados obtenidos y como equipo comercial de referencia se utilizó el instrumento clínico OQAS. Los resultados obtenidos en el estudio demostraron una alta correlación entre el sistema experimental y el instrumento OQAS. Así pues y a la vista de los resultados obtenidos se concluye que a partir de los diferentes estudios realizados en esta tesis doctoral se ha demostrado que el sistema de doble paso presentado basado en una lente electro-óptica, un diodo laser y una cámara CMOS mejora en cuanto a dimensiones y coste el de un sistema convencional.
|
Page generated in 0.084 seconds