Spelling suggestions: "subject:"indústries"" "subject:"indústrias""
171 |
Framework for detection, assessment and assistance of university students with dyslexia and/or reading difficultiesMejía Corredor, Carolina 14 October 2013 (has links)
During the past years, the adoption of Learning Management System (LMS) to support an e-learning process has been continuously growing. Hence, a potential need and meaningful factor to provide a personalized support, within the context of these systems, has been the identification of particular characteristics of students to provide adaptations of the system’s elements to the individual traits. One particular characteristic that has been little studied in a personalized e-learning process are the learning disabilities (LD) of students. Dyslexia is a common LD in Spanish-speaking university students, which is specifically referred to the manifestation of different difficulties in reading. Dyslexia requires special attention by higher educational institutions to detect, assess, and assist affected students during their learning process. Thereby, an open challenge has been identified from this implication: How to include Spanish-speaking university students with dyslexia and/or reading difficulties in an e-learning process? / Una necesidad potencial y un factor significativo para proporcionar un soporte personalizado, en el contexto de los Sistemas de Gestión del Aprendizaje (LMS), ha sido la identificación de las características de los estudiantes con el fin de proporcionar adaptaciones de los elementos del sistema a los rasgos individuales. Una característica particular que ha sido poco estudiada en un proceso de e-learning son las dificultades de aprendizaje (LD) de los estudiantes. La dislexia es una LD común en estudiantes universitarios de habla española, que se refiere específicamente a la manifestación de diferentes dificultades en la lectura. La dislexia requiere atención especial por las instituciones de educación superior para detectar, evaluar y asistir a los estudiantes afectados durante su proceso de aprendizaje. De este modo, un desafío abierto ha sido identificado: ¿Cómo incluir a los estudiantes universitarios de habla española con dislexia y/o dificultades de lectura en un proceso de e-learning?
|
172 |
Energy efficient cooperative node management for wireless multimedia sensor networksAlaei, Mohammad 27 June 2013 (has links)
In Wireless Multimedia Sensor Networks (WMSNs) the lifetime of battery operated visual nodes is limited by their energy consumption, which is proportional to the energy required for sensing, processing, and transmitting the data. The energy consumed in multimedia sensor nodes is much more than in the scalar sensors; a multimedia sensor captures images or acoustic signals containing a huge amount of data while in the scalar sensors a scalar value is measured (e.g., temperature). On the other hand, given the large amount of data generated by the visual nodes, both processing and transmitting image data are quite costly in terms of energy in comparison with other types of sensor networks. Accordingly, energy efficiency and prolongation of the network lifetime has become a key challenge in design and implementation of WMSNs. Clustering in sensor networks provides energy conservation, network scalability, topology stability, reducing overhead and also allows data aggregation and cooperation in data sensing and processing. Wireless Multimedia Sensor Networks (WMSNs) are characterized for directional sensing, the Field of View (FoV), in contrast to scalar sensors in which the sensing area usually is uniform and non-directional. Therefore, clustering and the other coverage-based techniques designed for WSNs, do not satisfy WMSNs. In WMSNs, sensor management policies are needed to assure balance between the opposite requirements imposed by the wireless networking and vision processing tasks. While reducing energy consumption by limiting data transmissions is the primary challenge of energy-constrained visual sensor networks, the quality of the image data and application, QoS, improve as the network provides more data. In such an environment, the optimization methods for sensor management developed for wireless sensor networks are hard to apply to multimedia sensor networks. Such sensor management policies usually employ the clustering methods which form clusters based on sensor neighbourhood or radiocoverage. But, as it was mentioned, because of the main difference between directional sensing region of multimedia sensors and the sensing range of scalar sensors, these schemes designed for WSNs, do not have efficiency for WMSNs. Moreover, sensor management strategies of WSNs do not consider the eventdriven nature of multimedia sensor networks, nor do they consider the unpredictability of data traffic caused by a monitoring procedure. This thesis, first, present a novel clustering mechanism based on the overlapping of the FoV of multimedia nodes. The proposed clustering method establishes clusters with grouping nodes that their FoVs overlap at least in a minimum threshold area. Two styles of cluster membership are offered by the mechanism depending on the desired network application; Single Cluster Membership (SCM) and Multi Cluster Membership (MCM). The name of MCM comes from the fact that a node may belong to multiple clusters, if its FoV intersects more than one cluster-head (CH) and satisfies the threshold area while in SCM each node belongs to exactly one cluster. Then, the proposed node management schemes designed for WMSNs are presented; the node selection and scheduling schemes manage the acts of the multimedia sensor nodes in a collaborative manner in clusters with employing the mentioned clustering method. Intra-Cluster Cooperation (ICC) and Intra&Inter-Cluster Cooperation (IICC) use the SCM and MCM clusters respectively. The monitoring period is optimized and the sensing region is divided among clusters and multimedia tasks are performed applying cooperation within and between clusters. The objective is conserving the residual energy of nodes to prolong the network lifetime. Finally, a hybrid architecture for WMSNs in order to energy efficient collaborative surveillance is proposed. The proposed mechanism employs a mixed random deployment of acoustic and visual sensor nodes. Acoustic sensors detect and localize the occurred event/object(s) in a duty-cycled manner by sampling the received signals and then trigger the visual sensor nodes covering the objects to monitor them. Hence, visual sensors are warily scheduled to be awakened just for monitoring the object(s) detected in their domain, otherwise they save their energy. Section B. 4 of Chapter I introduces the contributions of this thesis.
|
173 |
Statistical analysis and plasmonic effects to extend the use of Raman spectroscopy in biochemistryMarro Sánchez, Mònica 12 July 2013 (has links)
Since its discovery in 1928, Raman spectroscopy (RS) has produced a revolution in the fields of analytical chemistry and molecular detection. Thanks to the latest technical advances, the expectations of the applicability of RS in biology have increased. Most recently, RS emerged as an important candidate technology to detect and monitor the evolution of the biochemical content in biomedical samples non-invasively and with high specificity. However, the inherent properties of Raman scattering have limited its full exploitation for biomedical applications. In the past decade, Surface Enhanced Raman Scattering (SERS) and multivariate analysis have emerged as possible solutions for overcoming the low efficiency and the complexity of the Raman signals obtained from biological material. Until 2009, only a few studies had been reported using multivariate approaches, and these techniques were only employed to group different types of samples. Moreover, although the SERS effect was demonstrated for cells, SERS probes were not used in their full capacity to study complex biological
processes inside cells.
This thesis is a step towards combining and using statistical analysis and SERS to expand the applicability of RS in biochemistry: from single molecule to cell and tissue level. This mehtodology could reveal novel insights, otherwise inaccessible using previous techniques.
Specifically, we began studying the changes in Raman spectra of a single DNA molecule and a RBC under stretching employing optical tweezers. SERS and statistical techniques such as 2D correlation and PCA were used to reveal important structural properties of those biological materials.
An experiment to study intracellular pH changes in glioma cells after Photodynamic Treatment (PDT) was performed by using SERS probes embedded in the cells. The evolution in the SERS spectra was analyzed using 2D correlation. To the best of our knowledge, this study represents the first use of the 2D correlation technique to study cellular SERS spectra. Furthermore, more complex systems were investigated, to reveal the molecular evolution of cells or tissues undergoing a biochemical process. PCA was used to study how lipid metabolism varied in different breast cancer cell lines depending on the degree of malignancy. However, PCA does not provide meaningful components that could be assigned directly to molecular Raman spectra. Consequently, Multivariate Curve Resolution (MCR) was proposed and applied to extract physically and chemically meaningful molecular components that changed in cancer cells during the Epithelial to
Mesenchymal transition (EMT). We monitored the retina composition ex-vivo when neuroinflammation was induced. Our study was the first application of MCR to decompose and monitor the molecular content of biological tissue with RS. Biomarkers for the early detection of neuroinflammation processes were identified and monitored. This is the first step in establising of a non-invasive and rapid screening technique for the early detection of multiple sclerosis or other neurodegenerative diseases in patients.
Finally, the flexibility of MCR-ALS algorithm was exploited to remove the presence of background signals in Raman spectra of cytological studies that mask and degrade the results of a statistical analysis. Application of MCR-ALS enabled identification of molecular components that play an important role in the progression of breast cancer cells towards bone metastasis.
This research demonstrated a powerful method that adds a new dimension to the field of analytical chemistry. Sensitive and highly specific information can be extracted non-invasively, rapidly, and without sample preparation. The samples can be monitored in vivo, quantifying molecular components difficult or impossible to obtain with current technology. / Desde que se descubrió la espectroscopia de Raman (ER) en 1928, esta técnica ha producido una revolución en el área de química analítica. Gracias a los últimos avances técnicos, las expectativas de aplicar ER en biomedicina han aumentado. La posibilidad de detectar y monitorizar la evolución del contenido bioquímico en muestras biomédicas de forma no invasiva con alta especificidad se ha convertido en una visión a perseguir. Sin embargo, las propiedades inherentes a la dispersión Raman han inhibido su completa explotación para aplicaciones biomédicas. En la última década, Surface Enhanced Raman spectroscopy (SERS) y el análisis multivariante se han erigido como posibles soluciones para superar la baja eficiencia y la complejidad de las señales Raman de material biológico. Hasta 2009, estas técnicas no habían sido explotadas para su uso en aplicaciones biomédicas.
La presente tesis representa un paso hacia la combinación y el uso de análisis estadísticos y SERS para expandir la aplicabilidad de la ER en bioquímica: desde moléculas individuales hasta células y tejidos. Nuevos descubrimientos inaccesibles a técnicas bioquímicas usadas habitualmente, se han podido revelar con esta metodología.
En concreto, empezamos estudiando cambios en el espectro Raman de una molécula individual de ADN y un glóbulo rojo (RBC) sometidos a diferentes estiramientos por medio de pinzas ópticas. Se han utilizado SERS y técnicas estadísticas como correlación 2D (2DC) y Análisis de Componentes Principales (PCA) para revelar importantes propiedades estructurales de esos materiales biológicos.
Se realizó un experimento para estudiar los cambios de pH intracelulares en células gliales después del tratamiento fotodinámico (PDT) utilizando sondas SERS implantadas en el interior de las células. La evolución del espectro SERS fue analizado utilizando 2DC. Hasta donde sabemos, este estudio representa el primer uso de la técnica 2DC para estudiar espectros SERS celulares.
Además, se han investigado sistemas más complejos para revelar la evolución molecular de células y tejidos a lo largo de un proceso bioquímico. Con este objetivo, se utilizó el PCA para estudiar el metabolismo lipídico en diferentes líneas celulares de cáncer de mama relacionándolo con su grado de malignidad. No obstante, el PCA no proporciona componentes significativos que podrían ser asignados directamente a espectros moleculares Raman. En consecuencia, se propuso la Multivariate Curve Resolution (MCR) para extraer componentes moleculares con significado físico y químico que cambiaban en las células cancerígenas durante la transición epitelio-mesenquima (EMT).
En otra aplicación, se monitorizó la composición de la retina ex-vivo cuando se inducía una neuroinflamación. Nuestro estudio representaba la primera aplicación de MCR para descomponer y monitorizar el contenido molecular de un tejido biológico con ER. Se identificaron biomarcadores para la detección precoz de procesos neuroinflamatorios. Esto representa el primer paso hacia el establecimiento de una técnica no-invasiva y de diagnostico temprano de esclerosis múltiple u otras enfermedades neurodegenerativas en pacientes.
Finalmente, se explotó la flexibilidad del algoritmo MCR-ALS para eliminar la presencia de ruido de fondo en el espectro de Raman para estudios citológicos que enmascaran y degradan los resultados del análisis estadístico. Gracias a eso, se pudieron identificar nuevos componentes moleculares que ejercían un papel muy importante en la progresión de células de cáncer de mama hacia la metástasis ósea.
Esta investigación ha revelado un potente método que añade una nueva dimensión al campo de la química analítica. Se ha podido extraer información con alta especificidad y sensibilidad de forma no invasiva, rápida y sin preparación especial de la muestra. Las muestras pueden ser monitorizadas in vivo, cuantificando sus componentes moleculares difíciles o imposibles de extraer con la tecnología actual.
|
174 |
Automated detection of new multiple sclerosis lesions in longitudinal brain magnetic resonance imagingGaniler, Onur 24 October 2014 (has links)
This thesis deals with the detection of new multiple sclerosis (MS) lesions in longitudinal brain magnetic resonance (MR) imaging. This disease is characterized by the presence of lesions in the brain, predominantly in the white matter (WM) tissue of the brain. The detection and quantification of new lesions are crucial to follow-up MS patients. Moreover, the manual detection of these new lesions is not only time-consuming, but is also prone to intra- and inter-observer variability. Therefore, the development of automated techniques for the detection MS lesions is a major challenge / Aquesta tesi es centra en la detecció automàtica de lesions noves d'esclerosi múltiple (EM) en estudis longitudinals del cervell mitjançant l'ús d'imatges de ressonància magnètica (RM). Aquesta malaltia es caracteritza per la presència de lesions al cervell, predominantment en el teixit de la matèria blanca, i la detecció i la quantificació de les noves lesions són elements crucials per al seguiment dels pacients. No obstant això, la detecció manual d'aquestes noves lesions no només requereix de molt temps, sinó que també és propensa a la variabilitat intra- i inter-observador. Cal tenir en compte que les lesions d'EM són molt petites en comparació amb tot el cervell. Per tant, el desenvolupament de tècniques automàtiques per a la detecció de lesions d'EM és un gran repte
|
175 |
Obtenció d'un copolímer acrílic amb grups epoxi per a l'aplicació en tops per l'acabat de la pellFrías Álvarez, Aroha 18 July 2014 (has links)
The leather industry needs innovative products in order to satisfy the global market requirements.The current regulations are very strict,so it is necessary to preserve the environment and to take care about the people¿s health.The main object of this PhD consists in making acrylic resins for leather top coatings.In order to achieve leather finishings characterized by good performances,it is necessary to get the reticulation of the acrylic resins.The crosslinking agents (used to get high performances with leather coatings) are very irritating and harmful.They are really dangerous not only for the environment but also for people's health.This study deals with the aqueous based products development,used as top-coating for leather finishing.It is very important to obtain products with the capability to reach high performances,avoiding the danger for the people's health,and the damage of the environment.This PhD is focused on the acrylic resins synthesis.Specifically,acrylic resins functionalized with different chemical groups(carboxylic, epoxi, and amine),in order to improve their properties once applied as a finishing,on to the leather.The main goal of this research consists in being able to get acrylic resins functionalized with the different chemical groups,and then,make combinations with these resins in order to study the different reactions,without using crosslinkers.In this case,the aim consists on applying these mixtures of resins on to the leather that is going to be used for shoes upper.This project is divided in 2 parts:1.the acrylic resins synthesis,functionalized by the different chemical groups,and the sorting of the best resin for each chemical group.They are selected after being analyzed through and statistical program called Statgraphics./2.The different mixtures of resins and their results,applied as a topcoating (mixtures:carboxylic+epoxi resins,and amine+epoxi resins.The purpose is to achieve and optimal mixture for each pair of resins,and compare their results with the GERIC specifications for shoes upper. / La indústria del cuir necessita productes innovadors per tal de satisfer les exigències continuades del mercat global. Aquest fet, juntament amb les actuals regulacions que controlen la protecció del medi ambient i la salut, són les bases de l’inici d’aquest estudi. L’objectiu general d’aquesta Tesi és l’obtenció de resines acríliques per a top. El top forma part de l’acabat de la pell, juntament amb altres capes com: tintura, prefons i impregnació, fons, i tops o aprestos (no s’apliquen totes necessàriament). Per tal d’aconseguir un acabat amb bones prestacions, és necessària la reticulació d’aquestes resines. Els reticulants que permeten assolir elevades prestacions, són irritants i nocius, i per tant, perjudicials tant pel medi ambient com per a la salut de les persones.
Aquest estudi es basa en el desenvolupament de productes de base aquosa per a tops, que proporcionin prestacions elevades a la pell acabada evitant, en tot moment, que siguin perjudicials per a la salut i el medi ambient. Aquesta Tesi doctoral es centra, concretament, en la síntesi de resines acríliques funcionalitzades amb diferents grups químics, per tal de millorar les seves propietats una vegada aplicades en forma de top en l’acabat de la pell. Els grups químics que s’han estudiat són: carboxílics, epoxi i amínics. L’objectiu és aconseguir una resina òptima funcionalitzada amb cada grup químic, per tal de combinarles entre elles, de manera que a través d’una reticulació “espontània”, sense reticulants externs, s’arribin a millorar les prestacions finals de l’acabat del cuir destinat, en aquest cas, a empenya de calçat.
L’estudi consta de dos grans blocs. El primer correspon a la síntesi de resines acríliques funcionalitzades amb els tres grups funcionals, i la selecció de la resina òptima en cada cas, mitjançant un anàlisi d’optimització dels resultats. El segon bloc inclou les barreges de les resines òptimes per parelles, mantenint com a denominador comú les resines epoxi. Per una banda, resines epoxi combinades amb resines carboxíliques i, per l’altra, resines epoxi combinades amb resines amíniques. La finalitat és arribar a obtenir com a resultat final, una barreja òptima en cada cas, i comparar-ne els resultats amb les especificacions per a empenya de calçat.
|
176 |
Automatic source detection in astronomical imagesMasias Moyset, Marc 28 July 2014 (has links)
The use of automatic algorithms to detect astronomical sources (stars, galaxies, gas, dust or cosmic rays) becomes of great importance because of the increasing amount of astronomical images and the inefficiency and inaccuracy of manual inspection. We exhaustively analyze the state of the art on this topic, presenting a new classification of techniques and pointing out their main strengths and weaknesses. A complementary quantitative evaluation of some of the most remarkable methods found in the literature is also provided. Moreover, we present three different proposals based on different strategies to detect faint sources in radio images, and another proposal to deal with infrared and radio images (characterized by having a complex background). The experimental results and the evaluation performed with synthetic and real data points out that our new proposals perform better than stateoftheart approaches in terms of reliability and completeness of the detections provided. / L'ús d'eines automàtiques per a detectar fonts (objectes) en imatges astronòmiques esdevé d'una gran importància en l'àmbit astronòmic degut a la creixent quantitat de dades i a la ineficiència i imprecisió de les inspeccions manuals. En aquesta tesi s'analitza de forma exhaustiva l'estat de l'art d'aquest tema, presentant una nova classificació de tècniques i destacant els seus principals punts forts i febles. Complementàriament, també es proporciona una avaluació quantitativa dels mètodes més destacats. A més a més, es presenten tres propostes basades en diferents estratègies per a la detecció de fonts febles en imatges de radiofreqüència, i una altra proposta per tractar amb imatges infraroges i de radiofreqüència (caracteritzades per tenir un background complex). Els resultats experimentals i l'avaluació duta a terme amb imatges sintètiques i reals han demostrat que les noves propostes presenten resultats més fiables i complets que altres mètodes de l'estat de l'art.
|
177 |
On codes for traceability schemes: constructions and boundsMoreira Sánchez, José 13 November 2013 (has links)
A traceability or fingerprinting scheme is a cryptographic scheme that facilitates the identification of the source of leaked information. In a fingerprinting setting, a distributor delivers copies of a given content to a set of authorized users. If there are dishonest members (traitors) among them, the distributor can deter plain redistribution of the content by delivering a personalized, i.e., marked, copy to each user. The set of all user marks is known as a fingerprinting code. There is, however, another threat. If several traitors collude to create a copy that is a combination of theirs, then the pirated copy generated will contain a corrupted mark, which may obstruct the identification of traitors.
This dissertation is about the study and analysis of codes for their use in traceability and fingerprinting schemes, under the presence of collusion attacks. Moreover, another of the main concerns in the present work will be the design of identification algorithms that run efficiently, i.e., in polynomial time in the code length.
In Chapters 1 and 2, we introduce the topic and the notation used. We also discuss some properties that characterize fingerprinting codes known under the names of separating, traceability (TA), and identifiable parent property (IPP), which will be subject of research in the present work.
Chapter 3 is devoted to the study of the Kötter-Vardy algorithm to solve a variety of problems that appear in fingerprinting schemes. The concern of the chapter is restricted to schemes based on Reed-Solomon codes. By using the Kötter-Vardy algorithm as the core part of the identification processes, three different settings are approached: identification in TA codes, identification in IPP codes and identification in binary concatenated fingerprinting codes. It is also discussed how by a careful setting of a reliability matrix, i.e., the channel information, all possibly identifiable traitors can be found.
In Chapter 4, we introduce a relaxed version of separating codes. Relaxing the separating property lead us to two different notions, namely, almost separating and almost secure frameproof codes. From one of the main results it is seen that the lower bounds on the asymptotical rate for almost separating and almost secure frameproof codes are greater than the currently known lower bounds for ordinary separating codes. Moreover, we also discuss how these new relaxed versions of separating codes can be used to show the existence of families of fingerprinting codes of small error, equipped with polynomial-time identification algorithms.
In Chapter 5, we present explicit constructions of almost secure frameproof codes based on weakly biased arrays. We show how such arrays provide us with a natural framework to construct these codes. Putting the results obtained in this chapter together with the results from Chapter 4, shows that there exist explicit constructions of fingerprinting codes based on almost secure frameproof codes with positive rate, small error and polynomial-time identification complexity. We remark that showing the existence of such explicit constructions was one of the main objectives of the present work.
Finally, in Chapter 6, we study the relationship between the separating and traceability properties of Reed-Solomon codes. It is a well-known result that a TA code is an IPP code, and that an IPP code is a separating code. The converse of these implications is in general false. However, it has been conjectured for some time that for Reed-Solomon codes all three properties are equivalent. Giving an answer to this conjecture has importance in the field of fingerprinting, because a proper characterization of these properties is directly related to an upper bound on the code rate i.e., the maximum users that a fingerprinting scheme can allocate. In this chapter we investigate the equivalence between these properties, and provide a positive answer for a large number of families of Reed-Solomon codes. / Un sistema de trazabilidad o de fingerprinting es un mecanismo criptogr afi co que permite identi car el origen de informaci on que ha sido fi ltrada. En el modelo de aplicación de estos sistemas, un distribuidor entrega copias de un determinado contenido a un conjunto de usuarios autorizados. Si existen miembros deshonestos (traidores) entre ellos, el distribuidor puede disuadir que realicen una redistribuci on ingenua del contenido entregando copias personalizadas, es decir, marcadas, a cada uno de los usuarios. El conjunto de todas las marcas de usuario se conoce como
c ódigo de fingerprinting. No obstante, existe otra amenaza m as grave. Si diversos traidores confabulan para crear una copia que es una combinación de sus copias del contenido, entonces la copia pirata generada contendr a una marca corrompida que di ficultar a el proceso de identificaci on de traidores.
Esta tesis versa sobre el estudio y an alisis de c odigos para su uso en sistemas de trazabilidad o de fi ngerprinting bajo la presencia de ataques de confabulaci on. Otra de las cuestiones importantes que se tratan es el diseño de algoritmos de identi caci on e ficientes, es decir, algoritmos que se ejecuten en tiempo polin omico en la longitud del c odigo.
En los Cap tulos 1 y 2 presentamos el tema e introducimos la notaci on que utilizaremos. Tambi en presentaremos algunas propiedades que caracterizan los c odigos de fi ngerprinting, conocidas bajo los nombres de propiedad de separaci on, propiedad identi cadora de padres (IPP) y propiedad de trazabilidad (TA), que est an sujetas a estudio en este trabajo.
El Cap tulo 3 est a dedicado al estudio del algoritmo de decodi caci on de lista con informaci on de canal de Kötter-Vardy en la resoluci on de determinados problemas que aparecen en sistemas de fingerprinting. El ambito de estudio del cap ítulo son sistemas basados en c odigos de Reed-Solomon. Empleando el algoritmo de Kötter-Vardy como parte central de los algoritmos de identifi caci on, se analizan tres propuestas en el
cap ítulo: identi caci on en c odigos TA, identifi caci on en c odigos IPP e identifi caci on en c odigos de fingerprinting binarios concatenados. Tambi en se analiza c omo mediante un cuidadoso ajuste de una matriz de abilidad, es decir, de la informaci on del canal, se pueden encontrar a todos los traidores que es posible identi car e ficientemente.
En el Capí tulo 4 presentamos una versi on relajada de los c odigos separables. Relajando la propiedad de separaci on nos llevar a a obtener dos nociones diferentes: c odigos cuasi separables y c odigos cuasi seguros contra incriminaciones. De los resultados principales se puede observar que las cotas inferiores de las tasas asint oticas para c odigos cuasi separables y cuasi seguros contra incriminaciones son mayores que las
cotas inferiores actualmente conocidas para c odigos separables ordinarios. Adem as, tambi en estudiamos como estas nuevas familias de c odigos pueden utilizarse para demostrar la existencia de familias de c odigos de ngerprinting de baja probabilidad de error y dotados de un algoritmo de identi caci on en tiempo polin omico.
En el Capí tulo 5 presentamos construcciones expl citas de c odigos cuasi seguros contra incriminaciones, basadas en matrices de bajo sesgo. Mostramos como tales matrices nos proporcionan una herramienta para construir dichos c odigos. Poniendo en com un los resultados de este cap tulo con los del Capí tulo 4, podemos ver que, bas andonos en c odigos cuasi seguros contra incriminaciones, existen construcciones expl ícitas de
c odigos de fi ngerprinting de tasa positiva, baja probabilidad de error y con un proceso de identi caci on en tiempo polin omico. Demostrar que existen dichas construcciones expl citas era uno de los principales objetivos de este trabajo.
Finalmente, en el Capí tulo 6, estudiamos la relaci on existente entre las propiedades de separaci on y trazabilidad de los c odigos de Reed-Solomon. Es un resultado bien conocido el hecho que un c odigo TA es un c odigo IPP, y que un c odigo IPP es un c odigo separable. Las implicaciones en el sentido opuesto son falsas en general. No obstante, existe una conjetura acerca de la equivalencia de estas tres propiedades en el caso de cóodigos de Reed-Solomon. Obtener una respuesta a esta conjetura es de una importancia relevante en el campo del fi ngerprinting, puesto que la caracterización de estas propiedades est a directamente relacionada con una cota superior en la tasa del c odigo, es decir, con el n umero de usuarios que puede gestionar un sistema de fi ngerprinting. En este cap ítulo investigamos esta equivalencia y proporcionamos una respuesta afirmativa para un gran n umero de familias de c odigos de Reed-Solomon. Los resultados obtenidos parecen sugerir que la conjetura es cierta.
|
178 |
Contribution to the study and design of advanced controllers : application to smelting furnacesOjeda Sarmiento, Juan Manuel 09 October 2013 (has links)
In this doctoral thesis, contributions to the study and design of advanced controllers and their application to metallurgical smelting furnaces are discussed. For this purpose, this kind of plants has been described in detail. The case of study is an Isasmelt plant in south Peru, which yearly processes 1.200.000 tons of copper concentrate. The current control system is implemented on a distributed control system. The main structure includes a cascade strategy to regulate the molten bath temperature. The manipulated variables are the oxygen enriched air and the oil feed rates. The enrichment rate is periodically adjusted by the operator in order to maintain the oxidizing temperature. This control design leads to large temperature deviations in the range between 15ºC and 30ºC from the set point, which causes refractory brick wear and lance damage, and subsequently high production costs.
The proposed control structure is addressed to reduce the temperature deviations. The changes emphasize on better regulate the state variables of the thermodynamic equilibrium: the bath temperature within the furnace, the matte grade of molten sulfides (%Cu) and the silica (%SiO2) slag contents. The design is composed of a fuzzy module for adjusting the ratio oxygen/nitrogen and a metallurgical predictor for forecasting the molten composition. The fuzzy controller emulates the best furnace operator by manipulating the oxygen enrichment rate and the oil feed in order to control the bath temperature.
The human model is selected taking into account the operator' practical experience in dealing with the furnace temperature (and taking into account good practices from the Australian Institute of Mining and Metallurgy). This structure is complemented by a neural network based predictor, which estimates measured variables of the molten material as copper (%Cu) and silica (%SiO2) contents. In the current method, those variables are calculated after carrying out slag chemistry assays at hourly intervals, therefore long time delays are introduced to the operation.
For testing the proposed control structure, the furnace operation has been modeled based on mass and energy balances. This model has been simulated on a Matlab-Simulink platform (previously validated by comparing real and simulated output variables: bath temperature and tip pressure) as a reference to make technical comparisons between the current and the proposed control structure. To systematically evaluate the results of operations, it has been defined some original proposals on behavior indexes that are related to productivity and cost variables. These indexes, complemented with traditional indexes, allow assessing qualitatively the results of the control comparison. Such productivity based indexes complement traditional performance measures and provide fair information about the efficiency of the control system.
The main results is that the use of the proposed control structure presents a better performance in regulating the molten bath temperature than using the current system (forecasting of furnace tapping composition is helpful to reach this improvement). The mean square relative error of temperature error is reduced from 0.72% to 0.21% (72%) and the temperature standard deviation from 27.8ºC to 11.1ºC (approx. 60%). The productivity indexes establish a lower consumption of raw materials (13%) and energy (29%). / En esta tesis doctoral, se discuten contribuciones al estudio y diseño de controladores avanzados y su aplicación en hornos metalúrgicos de fundición. Para ello, se ha analizado este tipo de plantas en detalle. El caso de estudio es una planta Isasmelt en el sur de Perú, que procesa
anualmente 1.200.000 toneladas de concentrado de cobre. El sistema de control actual opera sobre un sistema de control distribuido. La estructura principal incluye una estrategia de cascada para regular la temperatura del baño. Las variables manipuladas son el aire enriquecido
con oxígeno y los flujos de alimentación de petróleo. La tasa de enriquecimiento se ajusta perióodicamente por el operador con el fin de mantener la temperatura de oxidación. Este diseño de control produce desviaciones de temperatura en el rango entre 15º C y 30º C con relación al valor de consigna, que causa desgastes del ladrillo refractario y daños a la lanza, lo cual encarece los costos de producción.
La estructura de control propuesta esta orientada a reducir las desviaciones de temperatura. Los cambios consisten en mejorar el control de las variables de estado de equilibrio termodinámico: la temperatura del baño en el horno, el grado de mata (%Cu) y el contenido de escoria en la sílice (%SiO2). El diseño incluye un módulo difuso para ajustar la proporción oxígeno/nitrógeno y un predictor metalúrgico para estimar la composición del material fundido. El controlador difuso emula al mejor operador de horno mediante la manipulación de la tasa de enriquecimiento de oxígeno y alimentación con el fin de controlar la temperatura del baño del aceite. El modelo humano es seleccionado teniendo en cuenta la experiencia del operador en el control de la temperatura del horno (y considerando el principio de buenas prácticas del Instituto Australiano de Minería y Metalurgia). Esta estructura se complementa con un predictor basado en redes neuronales, que estima las variables medidas de material fundido como cobre (%Cu) y el contenido de sílice (%SiO2). En el método actual, esas variables se calculan después de ensayos de química de escoria a intervalos por hora, por lo tanto se introducen tiempos de retardo en la operación.
Para probar la estructura de control propuesto, la operación del horno ha sido modelada en base a balances de masa y energía. Este modelo se ha simulado en una plataforma de Matlab-Simulink (previamente validada mediante la comparación de variables de salida real y lo simulado:
temperatura de baño y presión en la punta de la lanza) como referencia para hacer comparaciones técnicas entre la actual y la estructura de control propuesta.
Para evaluar sistemáticamente los resultados de estas operaciones, se han definido algunas propuestas originales sobre indicadores que se relacionan con las variables de productividad y costos. Estos indicadores, complementados con indicadores tradicionales, permite evaluar
cualitativamente los resultados de las comparativas de control. Estos indicadores de productividad complementan las medidas de desempeño tradicionales y mejoran la información sobre la eficiencia de control.
El resultado principal muestra que la estructura de control propuesta presenta un mejor rendimiento en el control de temperatura de baño fundido que el actual sistema de control. (La estimación de la composición del material fundido es de gran ayuda para alcanzar esta mejora). El error relativo cuadrático medio de la temperatura se reduce de 0,72% al 0,21% (72%) y la desviación estandar de temperatura de 27,8 C a 11,1 C (aprox. 60%). Los indicadores de productividad establecen asimismo un menor consumo de materias primas (13%) y de consumo de energía (29%).
|
179 |
Human movement analysis by means of accelerometers : aplication to human gait and motor symptoms of Parkinson's DiseaseSamà Monsonís, Albert 03 October 2013 (has links)
This thesis presents the original contributions of the author on the field of human movement analysis from signals captured by accelerometers. These sensors are capable of converting acceleration from some body parts into electric signals for further analysis. The progressive refinement and miniaturization of accelerometers has allowed the development of minimally invasive devices that can be used to ambulatory monitor human movements during daily live activities.
The study's contributions mainly fall under two heads: first, the analysis of movement in Parkinson's disease (PD); and, second, the relationship between accelerometer signals and characteristics of gait. To this end, new methods for obtaining speed and length of strides and, also, for identifying people have been developed. In all these studies, a single sensor fixed to the patient's waist has been used.
PD is a neurodegenerative disease characterized by movement alterations. The main motor symptoms of PD are 1) tremor, 2) bradykinesia or slowness of movements, 3) freezing of gait and 4) dyskinesia or abnormal involuntary movements. The first three symptoms primarily occur when the medication has not yet reached an effective therapeutic effect. These periods are commonly known as OFF periods or OFF motor state. On the other hand, periods when the patient is suitably responding to the medication are known as ON periods or ON motor state. Dyskinesias mainly appear when the medication blood level is excessive. Both dyskinesias and OFF motor states are caused by a defect in the medication administration. In this sense, a wearable device capable of detecting and recording dyskinesias and OFF periods represents an important tool that
enables clinics to more accurately prescribe the medication regimen of a patient.
The work done in the field of PD consisted in developing algorithms able to detect dyskinesias and both ON and OFF periods. These algorithms have been adapted to provide real-time detection, which enabled their employment in a pilot study. This clinical study has tested, for the first time, the automatic adjustment of medication performed by means of a subcutaneous infusion pump according to the dyskinesias appearance and motor state of PD patients. The experience gained in the treatment of accelerometric signals from PD has led to contribute in the field of gait analysis.
First, new methods for obtaining speed and length of strides from a single sensor fixed to the patient's waist have been obtained. Not only the PD can benefit from this study, but other diseases such as diabetes or some orthopedotraumatological diseases can also benefit from its results. Finally, using some of the techniques of the previous studies, another important contribution has been made in the field of biometric person identification. The work presented shows how the signal obtained from a single accelerometer located at the waist not only enables the extraction of some gait characteristics but also permits the identification of a person through its gait pattern.
The main theoretical contribution of this thesis has been the development of techniques based on the reconstruction of attractors. It has been shown that the usage of only a small number of features that characterize the reconstructed attractor obtained from a time series of acceleration measurements makes possible the extraction of important parameters of gait and the person identification. / La tesis que este documento recoge es una aportaci on al an alisis del movimiento humano a partir de las señales capturadas por aceler ometros. Estos sensores permiten convertir la aceleraci on producida por algunas partes del cuerpo en señales el ectricas susceptibles de un an alisis posterior. El progresivo perfeccionamiento y miniaturización de los aceler ometros ha permitido construir sensores poco invasivos y que
pueden ser usados de forma ambulatoria para registrar los movimientos realizados en las actividades de la vida diaria del sujeto.
La tesis se focaliza en dos ambitos. El primero, fundamentalmente cl inico, se ha centrado en el an alisis del movimiento en enfermos de la Enfermedad de Parkinson (EP). El segundo ambito, m as general, ha consistido en relacionar las señales acelerom etricas con caracter sticas de la marcha. Con este fin, se han desarrollado m etodos para la obtenci on de la velocidad de la marcha y la longitud del paso, as í como para la identificaci on de personas. En ambos ambitos se ha empleado un unico aceler ometro situado en un lado de la cintura.
La EP es una enfermedad neurodegenerativa que produce primordialmente trastornos del movimiento en los pacientes que la sufren. Los principales sí ntomas motores de la enfermedad son 1) los temblores, 2) la lentitud de movimientos o bradicinesia, 3) la congelaci on de la marcha (freezing of gait FoG) y 4) los movimientos involuntarios o discinesias. Los tres primeros s ntomas aparecen cuando la medicaci on no ha
alcanzado un efecto terape utico efectivo. Estos periodos se conocen habitualmente como per odo o estado motor OFF. Los periodos en los cuales la medicaci on hace efecto y los pacientes presentan una movilidad normal (o casi normal) son los periodos o estados motores ON. Las discinesias aparecen principalmente cuando el nivel de medicaci on en sangre es excesivo.
Tanto las discinesias como los estados OFF son consecuencia de un defecto en la administraci on de la medicaci on. Un dispositivo no invasivo que detecte y registre las discinesias y ambos periodos ON y OFF supone una importante herramienta que permite al m edico prescribir con mayor precisi on la dosis de medicamento adecuada a su paciente. El trabajo realizado en esta tesis en el ambito de la EP ha consistido en el desarrollo de algoritmos de detecci on de discinesias y periodos OFF. Estos algoritmos han sido adaptados para proporcionar una detecci on en tiempo real, de forma que se han empleado ya en un estudio piloto en los que el ajuste de medicaci on suministrada por una bomba de infusi on subcut anea se realiza de forma autom atica en funci on de la presencia de discinesias y el estado motor del paciente.
La experiencia ganada en el tratamiento de la señal acelerom etrica proveniente de enfermos de Parkinson ha permitido contribuir en el campo del an alisis de la marcha y realizar una aportaci on que relaciona varios par ametros de la misma con la señal que suministra un unico aceler ometro situado en la cintura. No solo la EP puede bene ciarse de este estudio, sino tambi en otras enfermedades como la Diabetes o algunas enfermedades ortop edicas y traumatol ogicas pueden aprovecharse de sus resultados.
Por ultimo, usando algunas de las t ecnicas de los estudios anteriores, se ha realizado una importante contribuci on en el ambito de la identi caci on biom etrica de personas. Se ha puesto de mani esto que la señal proveniente de un unico aceler ometro situado en la cintura no solo permite obtener algunas de las caracter sticas de la marcha sino tambi en permite identi car a la persona a trav es del patr on de su marcha.
La principal contribuci on te orica de esta tesis ha sido el desarrollo de t ecnicas basadas en la reconstrucci on de atractores. Se ha evidenciado que un n umero muy reducido de caracter sticas procedentes del atractor reconstruido a partir de una serie temporal de medidas de aceleraci on permite la extracci on de los par ametros de la marcha y la identi caci on de personas
|
180 |
Characterization and control of wet-mix sprayed concrete with acceleratorsGalobardes Reyes, Isaac 22 November 2013 (has links)
The development of the wet-mix system and the use of the sprayed concrete as a part of the new Austrian tunnelling method (NATM) marked an increase in the use and in the structural responsibility of the material, with special importance in underground construction. Nowadays, sprayed concrete is used in many applications with clear structural responsibility and an ever-growing pressure for the use of environmentally materials is observed. To cope with these trends, new cements and accelerators are developed.
The use of new materials creates a special type of sprayed concrete. Moreover, the requirement of thinner layers lead to an increase in the level of stress applied and, consequently, in the structural requirements. Also the lack of standardization in the international instructions and the poor quality control of the material are current drawbacks of the use of sprayed concrete. Therefore, it is obvious that more studies are still needed to achieve an optimized design with the new materials.
The general objective of this dissertation is to provide a characterization of wet-mix sprayed concrete with new accelerators and to propose methods for the control of the material. The objective is divided in five different subjects. The first subject considered is the characterization at different levels of mixes with different types of cement and accelerators in laboratory conditions. The results obtained show the differences in behavior of several alkali-free accelerators depending on the type of cement in terms of short and long term properties. The second subject focuses on the adaptation of the UNE-EN 196:2005 for thequality control of mortar mixes with accelerators. An adapted test procedure and new limits for the statistical verification of the results were proposed in order to simplify the comparison between mixes.
The third subject covers the correlation between cement paste/mortar and sprayed concrete properties. A large database is used to identify the parameters measured that present the best correlation with each other. The curves and the confident areas obtained allow the simplified estimation of the properties of sprayed concrete based on the results obtained in a small scale with cement pastes and mortars.
The fourth subject concerns the indirect estimation of the modulus of elasticity of sprayed concrete using as a reference the compressive strength of the material. The suitability of the equations from different codes and instructions were evaluated showing a poor fit with the experimental results. Therefore, an empirical and a semi-analytical equation were proposed to estimate the modulus of elasticity of the sprayed concrete considering its singular characteristics.
Finally, the last subject focuses on the development of an alternative control procedure at sprayed concrete level. For that, finite elements models are used to derive correlations between the calorimetric curves and the evolution of temperature of the sprayed concrete layer with different thickness and types of ground. Considering this, the maturity method is adapted to allow a continuous on site indirect estimation of the mechanical properties of the material. / El desarrollo del sistema de proyección de la vía húmeda y el uso del hormigón proyectado en el nuevo método austríaco de construcción de túneles (NATM) ha marcado un incremento del uso y de la contribución estructural del material, con especial interés en la construcción subterránea. Hoy en día, el hormigón proyectado se utiliza en muchas aplicaciones con clara responsabilidad estructural, observándose una presión creciente que implica el uso de materiales sostenibles. Basándose en estas nuevas tendencias, se están desarrollando nuevos cementos y acelerantes.
El uso de nuevos materiales crea un tipo especial de hormigón proyectado. Además, el requerimiento de capas más finas involucra elevar los niveles de tensión aplicadas y, en consecuencia, en las exigencias estructurales. Además, la falta de estandarización en las instrucciones internacionales y el pobre control de calidad del material son inconvenientes para el uso del hormigón proyectado. De esta manera, es obvio que se necesitan más estudios para conseguir una optimización del diseño y dosificación del hormigón proyectado con estos nuevos materiales.
El objetivo general de esta tesis es caracterizar el hormigón proyectado por vía húmeda con nuevos acelerantes y proponer métodos para el control del material. El objetivo se divide en 5 temas. El primero es la caracterización a distintos niveles de dosificaciones con diferentes tipos de cemento y acelerante en condiciones de laboratorio. Los resultados obtenidos presentan las diferencias en el comportamiento de distintas mezclas con acelerantes libres de álcali dependiendo del tipo de cemento a cortas y largas edades. El segundo tema se centra en la adaptación de la norma UNE-EN 196:2005 para el control de calidad de morteros mezclados con acelerante. En este sentido, se dan los nuevos procesos de fabricación y nuevos límites estadísticos de verificación con el fin de simplificar la comparación entre mezclas estudiadas.
El tercer tema trata la correlación entre las propiedades de los hormigones proyectados y las pastas de cemento y morteros. Una amplia base de datos se utiliza para identificar parámetros estudiados para medir su correlación entre el resto. Así se obtienen curvas y áreas de confianza que permiten simplificar la estimación de las propiedades del hormigón proyectado en base a los resultados obtenidos a niveles de pastas de cemento y morteros.
El cuarto tema concierne la estimación indirecta del módulo de deformación del hormigón proyectado utilizando como referencia la resistencia a compresión. La estimación utilizando las ecuaciones que se encuentran en distintos códigos e instrucciones presenta mala correlación con los resultados experimentales. De este modo se presentan ecuaciones adaptadas teniendo en cuenta aspectos singulares del hormigón proyectado para ser usadas.
Finalmente, se trata el desarrollo de un control de calidad alternativo a nivel de hormigón proyectado. Para eso, un MEF se utiliza para correlacionar las curvas de evolución de temperatura y las de generación de calor de las capas de hormigón proyectado con distintos espesores y tipos de suelo. Considerando esto, el método de maduración es adaptado para estimar de manera continua en el tiempo las propiedades mecánicas del material.
|
Page generated in 0.066 seconds