• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 147
  • 37
  • 19
  • Tagged with
  • 203
  • 191
  • 185
  • 184
  • 183
  • 183
  • 183
  • 183
  • 183
  • 183
  • 56
  • 48
  • 37
  • 34
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Caracterización y representación de los requerimientos funcionales y las tolerancias en el diseño conceptual: aportaciones para su implantación en los sistemas CAD

Pérez Rodríguez, Roberto 18 March 2002 (has links)
El aumento de la competencia en el área de la fabricación moderna ha propiciado una mayor preocupación por la reducción de los costes, por el aumento de la calidad del producto y por la reducción progresiva del tiempo entre el concepto y la producción. Estas exigencias, vinculadas a la complejidad creciente de los requerimientos funcionales de los productos y los sistemas productivos, han contribuido de manera sustancial en los últimos años, a un mayor interés en el estudio de las dimensiones y las tolerancias asistidas por ordenador. La revisión bibliográfica muestra que existen muy pocos estudios donde se relacione en el ámbito del diseño conceptual, la acotación funcional y la modelación del ensamble, orientado al análisis y/o síntesis de tolerancias.Motivado por estos aspectos, en esta tesis se plantea el desarrollo de un modelo orientado a los sistemas CAD, que permita una caracterización y representación de los requerimientos funcionales y las tolerancias en la etapa de especificación del proceso de diseño; y el desarrollo de un método para la modelación del ensamble que posibilite un análisis primario de las cadenas de cotas en el diseño conceptual. De esta forma se contribuye a que la toma de decisiones vinculadas a las tolerancias se encuentre en las etapas primarias del proceso de diseño.Para satisfacer esta necesidad, se caracterizó a los requerimientos funcionales y las tolerancias en la etapa de especificación del proceso de diseño, a través de una estructura funcional en tres dimensiones que permite capturar la intención del diseñador. Esta estructura permite clasificar los diferentes requerimientos y estudiarlos de una manera sistemática, utilizando el análisis de la jerarquía, la descomposición y el chequeo de las dependencias funcionales. Para lograr una adecuada representación de los requerimientos funcionales y las tolerancias, se propone un conjunto de matrices que permiten la captura de la intención del diseñador. Para vincular de forma coherente a los requerimientos funcionales expresados en la estructura funcional y la modelación del ensamble mecánico en el diseño conceptual, se creó un método gráfico denominado "método de la burbuja" que permite realizar el análisis primario de las cadenas de cotas en el diseño conceptual. Este método se define a través de un conjunto de símbolos que soporta el lenguaje gráfico, cuyo funcionamiento está impuesto por una serie de reglas y secuencias que garantizan una adecuada representación del modelo, siguiendo una lógica algorítmica. Se desarrollaron varios casos con el objetivo de obtener la validación del modelo propuesto.En la investigación, el estudio de los requerimientos funcionales está restringido hacia aquellos requerimientos relacionados directamente con la forma geométrica y dimensional del producto. Dentro de la acotación funcional, la investigación se inscribe en la síntesis de cotas -distribución de cotas. / The competition increasing in the area of modern production has promoted a bigger concern for the costs reduction, quality increasing of the product and the time progressive reduction between the concept and production. These demands, linked to the growing complexity of the product functional requirements and productive systems, they have contributed in a substantial way in the last years to a bigger interest in the study of the computer-aided dimensions and tolerances. The bibliographical revision shows that very few studies exist which relates, in the environment of the conceptual design, the functional dimensioning and the assemblies modelling guided to the analysis and/or tolerances synthesis.Motivated by these aspects, this thesis show the model development guided to the CAD systems, that allows a characterization and representation of the functional requirements and the tolerances in the specification stage of design process. And the development of an assembly modelling method, which facilitates a primary analysis of the chains of tolerances in the conceptual design. This method contributed to make the tolerances linked decisions in the primary stages of design process.To satisfy this necessity, it was characterized the functional requirements and the tolerances in the specification stage of design process, through the three-dimensional functional structure which allows to capture the designer's intention. This structure allows to classify the different requirements and to study them in a systematic manner, using the hierarchy analysis, decomposition and control of functional dependences. To achieve an appropriate representation of functional requirements and tolerances, it has developed a one matrices group for the capture of the designer's intention.To link in a coherent manner, the functional requirements of the functional structure and the mechanical assemblies modelling in the conceptual design, it has developed a graphical method named "bubble method" that allows to carry out the tolerances chains primary analysis in the conceptual design. This method is defined through the group of symbols that supports the graphical language such operation is imposed by a series of rules and sequences that guarantee an appropriate representation of the model, following a logical algorithm. Several cases were developed to obtain the validation of proposed model.The study of functional requirements developed in this investigation is restricted to those directly related to the geometrical and dimensional product form. Within the functional tolerances, the investigation belongs to the tolerance synthesis (tolerance distribution) field.
162

Speaker diarization and tracking in multiple-sensor environments

Luque Serrano, Jordi 21 December 2012 (has links)
This thesis verses about the research conducted in the topic of speaker recognition in real conditions like as meeting rooms, telephone quality speech and radio and TV broadcast news. The main objective is concerned to the automatic detection and the classification of speakers into a smart-room scenario. Acoustic speaker recognition is the application of a machine to identify an individual from a spoken sentence. It aims at processing the acoustic signals to convert them in symbolic descriptions corresponding to the identity of the speakers. For the last several years, speaker recognition in real situation has been attracting a substantial research attention becoming one of the spoken language technologies adding quality improvement, or enrichment, of recording transcriptions. In real conditions and particularly, the human activity that takes place in meeting-rooms or class-rooms, compared to other domains exhibits an increased complexity and a challenging problem due to the spontaneity of speech, reverberation effects, the presence of overlapped speech, room setup and channel variability or a rich assortment of acoustic events, either produced by the humans or by objects handled by them. Therefore, the determination of both the identity of speakers and their position in time may help to detect and describe that human activity and to provide machine context awareness. We first seek to improve traditional modeling approaches for speaker identification and verification, which are based on Gaussian Mixture Models, through multi-decision and multi-channel processing strategies, in smart-room scenario. We put emphasis in studying speaker and channel variability techniques such as Maximum a Posteriori Adaptation, Nuisance Attribute Projection, Joint Factor Analysis, or score normalization; aiming to find out strategies and techniques to deal with such drawback. Moreover, we describe a novel speaker verification algorithm that makes use of adapted features from automatic speech recognition. In a second line of research, related to speaker detection in continuous audio stream, where the optimum number of speakers of their identities are unknown a priory. We developed and adapted some of the previous speaker recognition techniques to a baseline speaker diarization system based upon Hidden Markov Models and Agglomerative Hierarchical Clustering. We evaluate the application of TDOA feature dynamics and other features in order to improve clustering initialization in the AHC or the detection and handling of speaker overlaps; we assess the impact and synergies with technologies like as Speech Activity Detection and Acoustic Event Detection integrated with the diarization system; and we propose and compare new methods as spectral clustering. Moreover, the adaptation of the diarization system to broadcast news domain and to the speaker tracking task is also addressed. Finally, the fusion and combination with video and image modalities is also highlighted across this thesis work, in both speaker identification and tracking approaches. Techniques such as Matching Weighting or Particle Filter are proposed in order to combine scores and likelihoods from different modalities. Results provided demonstrate that these information sources can play also an important role in the automatic person recognition task, adding complementary knowledge to the traditional acoustic spectrum-based recognition systems and thus improving their accuracy. This thesis work was performed in the framework of several international and national projects, among them the CHIL EU project and the Catalan founded project Tecnoparla; and in the participation in technology evaluations such as CLEAR, NIST Rich Transcription (RT), NIST Speaker Recognition Evaluation (SRE) and the Spanish tracking evaluation Albayzin. / Esta tesis resume el trabajo realizado en el área de reconocimiento de hablantes en condiciones reales tales como reuniones en salas, en conversaciones de calidad telefónica y en el dominio de programas de tv y radio. El principal objetivo se centra en la detección automática y clasificación de hablantes en una sala inteligente. El reconocimiento automático del hablante se define como el uso de una maquina para identificar a un individuo a través de su voz. El objetivo es el procesamiento de la señal acústica para convertirla en descripciones simbólicas que se correspondan con las identidades de los hablantes. Durante los últimos años, el reconocimiento del hablante en situaciones reales ha atraído una sustancial atención de los investigadores convirtiéndose en una de las tecnologías del habla capaz de aportar calidad, o enriquecer, las transcripciones de grabaciones de audio. En condiciones reales y en concreto, la actividad humana que tiene lugar en salas de reuniones o clases docentes, comparada con la de otros dominios exhibe una mayor complejidad y es un problema arduo debido a la espontaneidad del habla, los efectos reverberantes, la presencia de solapamientos entre locutores, la configuración de la sala y la variabilidad de canal o la gran cantidad de eventos acústicos, tanto producidos por las personas como por objetos. Es evidente que discernir tanto la identidad del hablante como su posición en tiempo puede ayudar a describir la actividad y proporcionar el conocimiento y percepción de la situación por parte de la máquina. En el inicio se busca la mejora de los sistemas tradicionales de modelado para las tareas de identificación y verificación, basados en modelos de mezcla de Gaussianas, a través de estrategias de decisión múltiple y procesamiento multi-canal en salas inteligentes. El estudio se centra en técnicas de variabilidad del hablante y de canal tales como adaptación Maximum a Posteriori, proyecciones Nuisance Attribute, análisis factorial, o normalización de puntuaciones; intentando encontrar estrategias para atacar dicha problemática. Además, se describe un original método para la tarea de verificación del hablante que utiliza características adaptadas a través de un reconocedor automático del habla. Una segunda línea de investigación se relaciona con la detección automática en audio de múltiples hablantes, dónde tanto su número y sus identidades son desconocidas de antemano. En ella se desarrollan y adaptan algunas de las anteriores técnicas a un sistema estándard de diarización basado en modelos ocultos de Markov y clustering jerárquico aglomerado de los datos. Evaluamos la aplicación de la dinámica dada por características basadas en retardos entre sensores (TDOA) con intención de mejorar el clustering o la detección y tratamiento de los solapamientos entre hablantes; evaluamos el impacto y las sinergias creadas con tecnologías como la detección del habla y la detección de eventos acústicos, integrándolas con el diarizador y se propone un nuevo método basado en clustering espectral. Además se adapta el sistema de diarización tanto para el procesamiento de programas de radio y televisión como para el seguimiento de locutores específicos. A lo largo del trabajo se resalta la fusión y combinación con las modalidades de vídeo e imagen, tanto en diarización como en seguimiento de hablantes. Técnicas basadas en ponderación según acierto o en filtros de partículas se proponen para combinar puntuaciones y probabilidades generadas por cada modalidad. Esta tesis se realizó en el contexto de varios proyectos internacionales y nacionales, entre los que se encuentra el proyecto europeo CHIL y el proyecto Catalán Tecnoparla; y en la participación en evaluaciones de tecnología como CLEAR, NIST Rich Transcription (RT), NIST Speaker Recognition Evaluation (SRE) y la evaluación española Albayzin en seguimiento.
163

Framework for detection, assessment and assistance of university students with dyslexia and/or reading difficulties

Mejía Corredor, Carolina 14 October 2013 (has links)
During the past years, the adoption of Learning Management System (LMS) to support an e-learning process has been continuously growing. Hence, a potential need and meaningful factor to provide a personalized support, within the context of these systems, has been the identification of particular characteristics of students to provide adaptations of the system’s elements to the individual traits. One particular characteristic that has been little studied in a personalized e-learning process are the learning disabilities (LD) of students. Dyslexia is a common LD in Spanish-speaking university students, which is specifically referred to the manifestation of different difficulties in reading. Dyslexia requires special attention by higher educational institutions to detect, assess, and assist affected students during their learning process. Thereby, an open challenge has been identified from this implication: How to include Spanish-speaking university students with dyslexia and/or reading difficulties in an e-learning process? / Una necesidad potencial y un factor significativo para proporcionar un soporte personalizado, en el contexto de los Sistemas de Gestión del Aprendizaje (LMS), ha sido la identificación de las características de los estudiantes con el fin de proporcionar adaptaciones de los elementos del sistema a los rasgos individuales. Una característica particular que ha sido poco estudiada en un proceso de e-learning son las dificultades de aprendizaje (LD) de los estudiantes. La dislexia es una LD común en estudiantes universitarios de habla española, que se refiere específicamente a la manifestación de diferentes dificultades en la lectura. La dislexia requiere atención especial por las instituciones de educación superior para detectar, evaluar y asistir a los estudiantes afectados durante su proceso de aprendizaje. De este modo, un desafío abierto ha sido identificado: ¿Cómo incluir a los estudiantes universitarios de habla española con dislexia y/o dificultades de lectura en un proceso de e-learning?
164

Energy efficient cooperative node management for wireless multimedia sensor networks

Alaei, Mohammad 27 June 2013 (has links)
In Wireless Multimedia Sensor Networks (WMSNs) the lifetime of battery operated visual nodes is limited by their energy consumption, which is proportional to the energy required for sensing, processing, and transmitting the data. The energy consumed in multimedia sensor nodes is much more than in the scalar sensors; a multimedia sensor captures images or acoustic signals containing a huge amount of data while in the scalar sensors a scalar value is measured (e.g., temperature). On the other hand, given the large amount of data generated by the visual nodes, both processing and transmitting image data are quite costly in terms of energy in comparison with other types of sensor networks. Accordingly, energy efficiency and prolongation of the network lifetime has become a key challenge in design and implementation of WMSNs. Clustering in sensor networks provides energy conservation, network scalability, topology stability, reducing overhead and also allows data aggregation and cooperation in data sensing and processing. Wireless Multimedia Sensor Networks (WMSNs) are characterized for directional sensing, the Field of View (FoV), in contrast to scalar sensors in which the sensing area usually is uniform and non-directional. Therefore, clustering and the other coverage-based techniques designed for WSNs, do not satisfy WMSNs. In WMSNs, sensor management policies are needed to assure balance between the opposite requirements imposed by the wireless networking and vision processing tasks. While reducing energy consumption by limiting data transmissions is the primary challenge of energy-constrained visual sensor networks, the quality of the image data and application, QoS, improve as the network provides more data. In such an environment, the optimization methods for sensor management developed for wireless sensor networks are hard to apply to multimedia sensor networks. Such sensor management policies usually employ the clustering methods which form clusters based on sensor neighbourhood or radiocoverage. But, as it was mentioned, because of the main difference between directional sensing region of multimedia sensors and the sensing range of scalar sensors, these schemes designed for WSNs, do not have efficiency for WMSNs. Moreover, sensor management strategies of WSNs do not consider the eventdriven nature of multimedia sensor networks, nor do they consider the unpredictability of data traffic caused by a monitoring procedure. This thesis, first, present a novel clustering mechanism based on the overlapping of the FoV of multimedia nodes. The proposed clustering method establishes clusters with grouping nodes that their FoVs overlap at least in a minimum threshold area. Two styles of cluster membership are offered by the mechanism depending on the desired network application; Single Cluster Membership (SCM) and Multi Cluster Membership (MCM). The name of MCM comes from the fact that a node may belong to multiple clusters, if its FoV intersects more than one cluster-head (CH) and satisfies the threshold area while in SCM each node belongs to exactly one cluster. Then, the proposed node management schemes designed for WMSNs are presented; the node selection and scheduling schemes manage the acts of the multimedia sensor nodes in a collaborative manner in clusters with employing the mentioned clustering method. Intra-Cluster Cooperation (ICC) and Intra&Inter-Cluster Cooperation (IICC) use the SCM and MCM clusters respectively. The monitoring period is optimized and the sensing region is divided among clusters and multimedia tasks are performed applying cooperation within and between clusters. The objective is conserving the residual energy of nodes to prolong the network lifetime. Finally, a hybrid architecture for WMSNs in order to energy efficient collaborative surveillance is proposed. The proposed mechanism employs a mixed random deployment of acoustic and visual sensor nodes. Acoustic sensors detect and localize the occurred event/object(s) in a duty-cycled manner by sampling the received signals and then trigger the visual sensor nodes covering the objects to monitor them. Hence, visual sensors are warily scheduled to be awakened just for monitoring the object(s) detected in their domain, otherwise they save their energy. Section B. 4 of Chapter I introduces the contributions of this thesis.
165

Statistical analysis and plasmonic effects to extend the use of Raman spectroscopy in biochemistry

Marro Sánchez, Mònica 12 July 2013 (has links)
Since its discovery in 1928, Raman spectroscopy (RS) has produced a revolution in the fields of analytical chemistry and molecular detection. Thanks to the latest technical advances, the expectations of the applicability of RS in biology have increased. Most recently, RS emerged as an important candidate technology to detect and monitor the evolution of the biochemical content in biomedical samples non-invasively and with high specificity. However, the inherent properties of Raman scattering have limited its full exploitation for biomedical applications. In the past decade, Surface Enhanced Raman Scattering (SERS) and multivariate analysis have emerged as possible solutions for overcoming the low efficiency and the complexity of the Raman signals obtained from biological material. Until 2009, only a few studies had been reported using multivariate approaches, and these techniques were only employed to group different types of samples. Moreover, although the SERS effect was demonstrated for cells, SERS probes were not used in their full capacity to study complex biological processes inside cells. This thesis is a step towards combining and using statistical analysis and SERS to expand the applicability of RS in biochemistry: from single molecule to cell and tissue level. This mehtodology could reveal novel insights, otherwise inaccessible using previous techniques. Specifically, we began studying the changes in Raman spectra of a single DNA molecule and a RBC under stretching employing optical tweezers. SERS and statistical techniques such as 2D correlation and PCA were used to reveal important structural properties of those biological materials. An experiment to study intracellular pH changes in glioma cells after Photodynamic Treatment (PDT) was performed by using SERS probes embedded in the cells. The evolution in the SERS spectra was analyzed using 2D correlation. To the best of our knowledge, this study represents the first use of the 2D correlation technique to study cellular SERS spectra. Furthermore, more complex systems were investigated, to reveal the molecular evolution of cells or tissues undergoing a biochemical process. PCA was used to study how lipid metabolism varied in different breast cancer cell lines depending on the degree of malignancy. However, PCA does not provide meaningful components that could be assigned directly to molecular Raman spectra. Consequently, Multivariate Curve Resolution (MCR) was proposed and applied to extract physically and chemically meaningful molecular components that changed in cancer cells during the Epithelial to Mesenchymal transition (EMT). We monitored the retina composition ex-vivo when neuroinflammation was induced. Our study was the first application of MCR to decompose and monitor the molecular content of biological tissue with RS. Biomarkers for the early detection of neuroinflammation processes were identified and monitored. This is the first step in establising of a non-invasive and rapid screening technique for the early detection of multiple sclerosis or other neurodegenerative diseases in patients. Finally, the flexibility of MCR-ALS algorithm was exploited to remove the presence of background signals in Raman spectra of cytological studies that mask and degrade the results of a statistical analysis. Application of MCR-ALS enabled identification of molecular components that play an important role in the progression of breast cancer cells towards bone metastasis. This research demonstrated a powerful method that adds a new dimension to the field of analytical chemistry. Sensitive and highly specific information can be extracted non-invasively, rapidly, and without sample preparation. The samples can be monitored in vivo, quantifying molecular components difficult or impossible to obtain with current technology. / Desde que se descubrió la espectroscopia de Raman (ER) en 1928, esta técnica ha producido una revolución en el área de química analítica. Gracias a los últimos avances técnicos, las expectativas de aplicar ER en biomedicina han aumentado. La posibilidad de detectar y monitorizar la evolución del contenido bioquímico en muestras biomédicas de forma no invasiva con alta especificidad se ha convertido en una visión a perseguir. Sin embargo, las propiedades inherentes a la dispersión Raman han inhibido su completa explotación para aplicaciones biomédicas. En la última década, Surface Enhanced Raman spectroscopy (SERS) y el análisis multivariante se han erigido como posibles soluciones para superar la baja eficiencia y la complejidad de las señales Raman de material biológico. Hasta 2009, estas técnicas no habían sido explotadas para su uso en aplicaciones biomédicas. La presente tesis representa un paso hacia la combinación y el uso de análisis estadísticos y SERS para expandir la aplicabilidad de la ER en bioquímica: desde moléculas individuales hasta células y tejidos. Nuevos descubrimientos inaccesibles a técnicas bioquímicas usadas habitualmente, se han podido revelar con esta metodología. En concreto, empezamos estudiando cambios en el espectro Raman de una molécula individual de ADN y un glóbulo rojo (RBC) sometidos a diferentes estiramientos por medio de pinzas ópticas. Se han utilizado SERS y técnicas estadísticas como correlación 2D (2DC) y Análisis de Componentes Principales (PCA) para revelar importantes propiedades estructurales de esos materiales biológicos. Se realizó un experimento para estudiar los cambios de pH intracelulares en células gliales después del tratamiento fotodinámico (PDT) utilizando sondas SERS implantadas en el interior de las células. La evolución del espectro SERS fue analizado utilizando 2DC. Hasta donde sabemos, este estudio representa el primer uso de la técnica 2DC para estudiar espectros SERS celulares. Además, se han investigado sistemas más complejos para revelar la evolución molecular de células y tejidos a lo largo de un proceso bioquímico. Con este objetivo, se utilizó el PCA para estudiar el metabolismo lipídico en diferentes líneas celulares de cáncer de mama relacionándolo con su grado de malignidad. No obstante, el PCA no proporciona componentes significativos que podrían ser asignados directamente a espectros moleculares Raman. En consecuencia, se propuso la Multivariate Curve Resolution (MCR) para extraer componentes moleculares con significado físico y químico que cambiaban en las células cancerígenas durante la transición epitelio-mesenquima (EMT). En otra aplicación, se monitorizó la composición de la retina ex-vivo cuando se inducía una neuroinflamación. Nuestro estudio representaba la primera aplicación de MCR para descomponer y monitorizar el contenido molecular de un tejido biológico con ER. Se identificaron biomarcadores para la detección precoz de procesos neuroinflamatorios. Esto representa el primer paso hacia el establecimiento de una técnica no-invasiva y de diagnostico temprano de esclerosis múltiple u otras enfermedades neurodegenerativas en pacientes. Finalmente, se explotó la flexibilidad del algoritmo MCR-ALS para eliminar la presencia de ruido de fondo en el espectro de Raman para estudios citológicos que enmascaran y degradan los resultados del análisis estadístico. Gracias a eso, se pudieron identificar nuevos componentes moleculares que ejercían un papel muy importante en la progresión de células de cáncer de mama hacia la metástasis ósea. Esta investigación ha revelado un potente método que añade una nueva dimensión al campo de la química analítica. Se ha podido extraer información con alta especificidad y sensibilidad de forma no invasiva, rápida y sin preparación especial de la muestra. Las muestras pueden ser monitorizadas in vivo, cuantificando sus componentes moleculares difíciles o imposibles de extraer con la tecnología actual.
166

Automated detection of new multiple sclerosis lesions in longitudinal brain magnetic resonance imaging

Ganiler, Onur 24 October 2014 (has links)
This thesis deals with the detection of new multiple sclerosis (MS) lesions in longitudinal brain magnetic resonance (MR) imaging. This disease is characterized by the presence of lesions in the brain, predominantly in the white matter (WM) tissue of the brain. The detection and quantification of new lesions are crucial to follow-up MS patients. Moreover, the manual detection of these new lesions is not only time-consuming, but is also prone to intra- and inter-observer variability. Therefore, the development of automated techniques for the detection MS lesions is a major challenge / Aquesta tesi es centra en la detecció automàtica de lesions noves d'esclerosi múltiple (EM) en estudis longitudinals del cervell mitjançant l'ús d'imatges de ressonància magnètica (RM). Aquesta malaltia es caracteritza per la presència de lesions al cervell, predominantment en el teixit de la matèria blanca, i la detecció i la quantificació de les noves lesions són elements crucials per al seguiment dels pacients. No obstant això, la detecció manual d'aquestes noves lesions no només requereix de molt temps, sinó que també és propensa a la variabilitat intra- i inter-observador. Cal tenir en compte que les lesions d'EM són molt petites en comparació amb tot el cervell. Per tant, el desenvolupament de tècniques automàtiques per a la detecció de lesions d'EM és un gran repte
167

Obtenció d'un copolímer acrílic amb grups epoxi per a l'aplicació en tops per l'acabat de la pell

Frías Álvarez, Aroha 18 July 2014 (has links)
The leather industry needs innovative products in order to satisfy the global market requirements.The current regulations are very strict,so it is necessary to preserve the environment and to take care about the people¿s health.The main object of this PhD consists in making acrylic resins for leather top coatings.In order to achieve leather finishings characterized by good performances,it is necessary to get the reticulation of the acrylic resins.The crosslinking agents (used to get high performances with leather coatings) are very irritating and harmful.They are really dangerous not only for the environment but also for people's health.This study deals with the aqueous based products development,used as top-coating for leather finishing.It is very important to obtain products with the capability to reach high performances,avoiding the danger for the people's health,and the damage of the environment.This PhD is focused on the acrylic resins synthesis.Specifically,acrylic resins functionalized with different chemical groups(carboxylic, epoxi, and amine),in order to improve their properties once applied as a finishing,on to the leather.The main goal of this research consists in being able to get acrylic resins functionalized with the different chemical groups,and then,make combinations with these resins in order to study the different reactions,without using crosslinkers.In this case,the aim consists on applying these mixtures of resins on to the leather that is going to be used for shoes upper.This project is divided in 2 parts:1.the acrylic resins synthesis,functionalized by the different chemical groups,and the sorting of the best resin for each chemical group.They are selected after being analyzed through and statistical program called Statgraphics./2.The different mixtures of resins and their results,applied as a topcoating (mixtures:carboxylic+epoxi resins,and amine+epoxi resins.The purpose is to achieve and optimal mixture for each pair of resins,and compare their results with the GERIC specifications for shoes upper. / La indústria del cuir necessita productes innovadors per tal de satisfer les exigències continuades del mercat global. Aquest fet, juntament amb les actuals regulacions que controlen la protecció del medi ambient i la salut, són les bases de l’inici d’aquest estudi. L’objectiu general d’aquesta Tesi és l’obtenció de resines acríliques per a top. El top forma part de l’acabat de la pell, juntament amb altres capes com: tintura, prefons i impregnació, fons, i tops o aprestos (no s’apliquen totes necessàriament). Per tal d’aconseguir un acabat amb bones prestacions, és necessària la reticulació d’aquestes resines. Els reticulants que permeten assolir elevades prestacions, són irritants i nocius, i per tant, perjudicials tant pel medi ambient com per a la salut de les persones. Aquest estudi es basa en el desenvolupament de productes de base aquosa per a tops, que proporcionin prestacions elevades a la pell acabada evitant, en tot moment, que siguin perjudicials per a la salut i el medi ambient. Aquesta Tesi doctoral es centra, concretament, en la síntesi de resines acríliques funcionalitzades amb diferents grups químics, per tal de millorar les seves propietats una vegada aplicades en forma de top en l’acabat de la pell. Els grups químics que s’han estudiat són: carboxílics, epoxi i amínics. L’objectiu és aconseguir una resina òptima funcionalitzada amb cada grup químic, per tal de combinarles entre elles, de manera que a través d’una reticulació “espontània”, sense reticulants externs, s’arribin a millorar les prestacions finals de l’acabat del cuir destinat, en aquest cas, a empenya de calçat. L’estudi consta de dos grans blocs. El primer correspon a la síntesi de resines acríliques funcionalitzades amb els tres grups funcionals, i la selecció de la resina òptima en cada cas, mitjançant un anàlisi d’optimització dels resultats. El segon bloc inclou les barreges de les resines òptimes per parelles, mantenint com a denominador comú les resines epoxi. Per una banda, resines epoxi combinades amb resines carboxíliques i, per l’altra, resines epoxi combinades amb resines amíniques. La finalitat és arribar a obtenir com a resultat final, una barreja òptima en cada cas, i comparar-ne els resultats amb les especificacions per a empenya de calçat.
168

Automatic source detection in astronomical images

Masias Moyset, Marc 28 July 2014 (has links)
The use of automatic algorithms to detect astronomical sources (stars, galaxies, gas, dust or cosmic rays) becomes of great importance because of the increasing amount of astronomical images and the inefficiency and inaccuracy of manual inspection. We exhaustively analyze the state of the art on this topic, presenting a new classification of techniques and pointing out their main strengths and weaknesses. A complementary quantitative evaluation of some of the most remarkable methods found in the literature is also provided. Moreover, we present three different proposals based on different strategies to detect faint sources in radio images, and another proposal to deal with infrared and radio images (characterized by having a complex background). The experimental results and the evaluation performed with synthetic and real data points out that our new proposals perform better than state­of­the­art approaches in terms of reliability and completeness of the detections provided. / L'ús d'eines automàtiques per a detectar fonts (objectes) en imatges astronòmiques esdevé d'una gran importància en l'àmbit astronòmic degut a la creixent quantitat de dades i a la ineficiència i imprecisió de les inspeccions manuals. En aquesta tesi s'analitza de forma exhaustiva l'estat de l'art d'aquest tema, presentant una nova classificació de tècniques i destacant els seus principals punts forts i febles. Complementàriament, també es proporciona una avaluació quantitativa dels mètodes més destacats. A més a més, es presenten tres propostes basades en diferents estratègies per a la detecció de fonts febles en imatges de radiofreqüència, i una altra proposta per tractar amb imatges infraroges i de radiofreqüència (caracteritzades per tenir un background complex). Els resultats experimentals i l'avaluació duta a terme amb imatges sintètiques i reals han demostrat que les noves propostes presenten resultats més fiables i complets que altres mètodes de l'estat de l'art.
169

On codes for traceability schemes: constructions and bounds

Moreira Sánchez, José 13 November 2013 (has links)
A traceability or fingerprinting scheme is a cryptographic scheme that facilitates the identification of the source of leaked information. In a fingerprinting setting, a distributor delivers copies of a given content to a set of authorized users. If there are dishonest members (traitors) among them, the distributor can deter plain redistribution of the content by delivering a personalized, i.e., marked, copy to each user. The set of all user marks is known as a fingerprinting code. There is, however, another threat. If several traitors collude to create a copy that is a combination of theirs, then the pirated copy generated will contain a corrupted mark, which may obstruct the identification of traitors. This dissertation is about the study and analysis of codes for their use in traceability and fingerprinting schemes, under the presence of collusion attacks. Moreover, another of the main concerns in the present work will be the design of identification algorithms that run efficiently, i.e., in polynomial time in the code length. In Chapters 1 and 2, we introduce the topic and the notation used. We also discuss some properties that characterize fingerprinting codes known under the names of separating, traceability (TA), and identifiable parent property (IPP), which will be subject of research in the present work. Chapter 3 is devoted to the study of the Kötter-Vardy algorithm to solve a variety of problems that appear in fingerprinting schemes. The concern of the chapter is restricted to schemes based on Reed-Solomon codes. By using the Kötter-Vardy algorithm as the core part of the identification processes, three different settings are approached: identification in TA codes, identification in IPP codes and identification in binary concatenated fingerprinting codes. It is also discussed how by a careful setting of a reliability matrix, i.e., the channel information, all possibly identifiable traitors can be found. In Chapter 4, we introduce a relaxed version of separating codes. Relaxing the separating property lead us to two different notions, namely, almost separating and almost secure frameproof codes. From one of the main results it is seen that the lower bounds on the asymptotical rate for almost separating and almost secure frameproof codes are greater than the currently known lower bounds for ordinary separating codes. Moreover, we also discuss how these new relaxed versions of separating codes can be used to show the existence of families of fingerprinting codes of small error, equipped with polynomial-time identification algorithms. In Chapter 5, we present explicit constructions of almost secure frameproof codes based on weakly biased arrays. We show how such arrays provide us with a natural framework to construct these codes. Putting the results obtained in this chapter together with the results from Chapter 4, shows that there exist explicit constructions of fingerprinting codes based on almost secure frameproof codes with positive rate, small error and polynomial-time identification complexity. We remark that showing the existence of such explicit constructions was one of the main objectives of the present work. Finally, in Chapter 6, we study the relationship between the separating and traceability properties of Reed-Solomon codes. It is a well-known result that a TA code is an IPP code, and that an IPP code is a separating code. The converse of these implications is in general false. However, it has been conjectured for some time that for Reed-Solomon codes all three properties are equivalent. Giving an answer to this conjecture has importance in the field of fingerprinting, because a proper characterization of these properties is directly related to an upper bound on the code rate i.e., the maximum users that a fingerprinting scheme can allocate. In this chapter we investigate the equivalence between these properties, and provide a positive answer for a large number of families of Reed-Solomon codes. / Un sistema de trazabilidad o de fingerprinting es un mecanismo criptogr afi co que permite identi car el origen de informaci on que ha sido fi ltrada. En el modelo de aplicación de estos sistemas, un distribuidor entrega copias de un determinado contenido a un conjunto de usuarios autorizados. Si existen miembros deshonestos (traidores) entre ellos, el distribuidor puede disuadir que realicen una redistribuci on ingenua del contenido entregando copias personalizadas, es decir, marcadas, a cada uno de los usuarios. El conjunto de todas las marcas de usuario se conoce como c ódigo de fingerprinting. No obstante, existe otra amenaza m as grave. Si diversos traidores confabulan para crear una copia que es una combinación de sus copias del contenido, entonces la copia pirata generada contendr a una marca corrompida que di ficultar a el proceso de identificaci on de traidores. Esta tesis versa sobre el estudio y an alisis de c odigos para su uso en sistemas de trazabilidad o de fi ngerprinting bajo la presencia de ataques de confabulaci on. Otra de las cuestiones importantes que se tratan es el diseño de algoritmos de identi caci on e ficientes, es decir, algoritmos que se ejecuten en tiempo polin omico en la longitud del c odigo. En los Cap tulos 1 y 2 presentamos el tema e introducimos la notaci on que utilizaremos. Tambi en presentaremos algunas propiedades que caracterizan los c odigos de fi ngerprinting, conocidas bajo los nombres de propiedad de separaci on, propiedad identi cadora de padres (IPP) y propiedad de trazabilidad (TA), que est an sujetas a estudio en este trabajo. El Cap tulo 3 est a dedicado al estudio del algoritmo de decodi caci on de lista con informaci on de canal de Kötter-Vardy en la resoluci on de determinados problemas que aparecen en sistemas de fingerprinting. El ambito de estudio del cap ítulo son sistemas basados en c odigos de Reed-Solomon. Empleando el algoritmo de Kötter-Vardy como parte central de los algoritmos de identifi caci on, se analizan tres propuestas en el cap ítulo: identi caci on en c odigos TA, identifi caci on en c odigos IPP e identifi caci on en c odigos de fingerprinting binarios concatenados. Tambi en se analiza c omo mediante un cuidadoso ajuste de una matriz de abilidad, es decir, de la informaci on del canal, se pueden encontrar a todos los traidores que es posible identi car e ficientemente. En el Capí tulo 4 presentamos una versi on relajada de los c odigos separables. Relajando la propiedad de separaci on nos llevar a a obtener dos nociones diferentes: c odigos cuasi separables y c odigos cuasi seguros contra incriminaciones. De los resultados principales se puede observar que las cotas inferiores de las tasas asint oticas para c odigos cuasi separables y cuasi seguros contra incriminaciones son mayores que las cotas inferiores actualmente conocidas para c odigos separables ordinarios. Adem as, tambi en estudiamos como estas nuevas familias de c odigos pueden utilizarse para demostrar la existencia de familias de c odigos de ngerprinting de baja probabilidad de error y dotados de un algoritmo de identi caci on en tiempo polin omico. En el Capí tulo 5 presentamos construcciones expl citas de c odigos cuasi seguros contra incriminaciones, basadas en matrices de bajo sesgo. Mostramos como tales matrices nos proporcionan una herramienta para construir dichos c odigos. Poniendo en com un los resultados de este cap tulo con los del Capí tulo 4, podemos ver que, bas andonos en c odigos cuasi seguros contra incriminaciones, existen construcciones expl ícitas de c odigos de fi ngerprinting de tasa positiva, baja probabilidad de error y con un proceso de identi caci on en tiempo polin omico. Demostrar que existen dichas construcciones expl citas era uno de los principales objetivos de este trabajo. Finalmente, en el Capí tulo 6, estudiamos la relaci on existente entre las propiedades de separaci on y trazabilidad de los c odigos de Reed-Solomon. Es un resultado bien conocido el hecho que un c odigo TA es un c odigo IPP, y que un c odigo IPP es un c odigo separable. Las implicaciones en el sentido opuesto son falsas en general. No obstante, existe una conjetura acerca de la equivalencia de estas tres propiedades en el caso de cóodigos de Reed-Solomon. Obtener una respuesta a esta conjetura es de una importancia relevante en el campo del fi ngerprinting, puesto que la caracterización de estas propiedades est a directamente relacionada con una cota superior en la tasa del c odigo, es decir, con el n umero de usuarios que puede gestionar un sistema de fi ngerprinting. En este cap ítulo investigamos esta equivalencia y proporcionamos una respuesta afirmativa para un gran n umero de familias de c odigos de Reed-Solomon. Los resultados obtenidos parecen sugerir que la conjetura es cierta.
170

Contribution to the study and design of advanced controllers : application to smelting furnaces

Ojeda Sarmiento, Juan Manuel 09 October 2013 (has links)
In this doctoral thesis, contributions to the study and design of advanced controllers and their application to metallurgical smelting furnaces are discussed. For this purpose, this kind of plants has been described in detail. The case of study is an Isasmelt plant in south Peru, which yearly processes 1.200.000 tons of copper concentrate. The current control system is implemented on a distributed control system. The main structure includes a cascade strategy to regulate the molten bath temperature. The manipulated variables are the oxygen enriched air and the oil feed rates. The enrichment rate is periodically adjusted by the operator in order to maintain the oxidizing temperature. This control design leads to large temperature deviations in the range between 15ºC and 30ºC from the set point, which causes refractory brick wear and lance damage, and subsequently high production costs. The proposed control structure is addressed to reduce the temperature deviations. The changes emphasize on better regulate the state variables of the thermodynamic equilibrium: the bath temperature within the furnace, the matte grade of molten sulfides (%Cu) and the silica (%SiO2) slag contents. The design is composed of a fuzzy module for adjusting the ratio oxygen/nitrogen and a metallurgical predictor for forecasting the molten composition. The fuzzy controller emulates the best furnace operator by manipulating the oxygen enrichment rate and the oil feed in order to control the bath temperature. The human model is selected taking into account the operator' practical experience in dealing with the furnace temperature (and taking into account good practices from the Australian Institute of Mining and Metallurgy). This structure is complemented by a neural network based predictor, which estimates measured variables of the molten material as copper (%Cu) and silica (%SiO2) contents. In the current method, those variables are calculated after carrying out slag chemistry assays at hourly intervals, therefore long time delays are introduced to the operation. For testing the proposed control structure, the furnace operation has been modeled based on mass and energy balances. This model has been simulated on a Matlab-Simulink platform (previously validated by comparing real and simulated output variables: bath temperature and tip pressure) as a reference to make technical comparisons between the current and the proposed control structure. To systematically evaluate the results of operations, it has been defined some original proposals on behavior indexes that are related to productivity and cost variables. These indexes, complemented with traditional indexes, allow assessing qualitatively the results of the control comparison. Such productivity based indexes complement traditional performance measures and provide fair information about the efficiency of the control system. The main results is that the use of the proposed control structure presents a better performance in regulating the molten bath temperature than using the current system (forecasting of furnace tapping composition is helpful to reach this improvement). The mean square relative error of temperature error is reduced from 0.72% to 0.21% (72%) and the temperature standard deviation from 27.8ºC to 11.1ºC (approx. 60%). The productivity indexes establish a lower consumption of raw materials (13%) and energy (29%). / En esta tesis doctoral, se discuten contribuciones al estudio y diseño de controladores avanzados y su aplicación en hornos metalúrgicos de fundición. Para ello, se ha analizado este tipo de plantas en detalle. El caso de estudio es una planta Isasmelt en el sur de Perú, que procesa anualmente 1.200.000 toneladas de concentrado de cobre. El sistema de control actual opera sobre un sistema de control distribuido. La estructura principal incluye una estrategia de cascada para regular la temperatura del baño. Las variables manipuladas son el aire enriquecido con oxígeno y los flujos de alimentación de petróleo. La tasa de enriquecimiento se ajusta perióodicamente por el operador con el fin de mantener la temperatura de oxidación. Este diseño de control produce desviaciones de temperatura en el rango entre 15º C y 30º C con relación al valor de consigna, que causa desgastes del ladrillo refractario y daños a la lanza, lo cual encarece los costos de producción. La estructura de control propuesta esta orientada a reducir las desviaciones de temperatura. Los cambios consisten en mejorar el control de las variables de estado de equilibrio termodinámico: la temperatura del baño en el horno, el grado de mata (%Cu) y el contenido de escoria en la sílice (%SiO2). El diseño incluye un módulo difuso para ajustar la proporción oxígeno/nitrógeno y un predictor metalúrgico para estimar la composición del material fundido. El controlador difuso emula al mejor operador de horno mediante la manipulación de la tasa de enriquecimiento de oxígeno y alimentación con el fin de controlar la temperatura del baño del aceite. El modelo humano es seleccionado teniendo en cuenta la experiencia del operador en el control de la temperatura del horno (y considerando el principio de buenas prácticas del Instituto Australiano de Minería y Metalurgia). Esta estructura se complementa con un predictor basado en redes neuronales, que estima las variables medidas de material fundido como cobre (%Cu) y el contenido de sílice (%SiO2). En el método actual, esas variables se calculan después de ensayos de química de escoria a intervalos por hora, por lo tanto se introducen tiempos de retardo en la operación. Para probar la estructura de control propuesto, la operación del horno ha sido modelada en base a balances de masa y energía. Este modelo se ha simulado en una plataforma de Matlab-Simulink (previamente validada mediante la comparación de variables de salida real y lo simulado: temperatura de baño y presión en la punta de la lanza) como referencia para hacer comparaciones técnicas entre la actual y la estructura de control propuesta. Para evaluar sistemáticamente los resultados de estas operaciones, se han definido algunas propuestas originales sobre indicadores que se relacionan con las variables de productividad y costos. Estos indicadores, complementados con indicadores tradicionales, permite evaluar cualitativamente los resultados de las comparativas de control. Estos indicadores de productividad complementan las medidas de desempeño tradicionales y mejoran la información sobre la eficiencia de control. El resultado principal muestra que la estructura de control propuesta presenta un mejor rendimiento en el control de temperatura de baño fundido que el actual sistema de control. (La estimación de la composición del material fundido es de gran ayuda para alcanzar esta mejora). El error relativo cuadrático medio de la temperatura se reduce de 0,72% al 0,21% (72%) y la desviación estandar de temperatura de 27,8 C a 11,1 C (aprox. 60%). Los indicadores de productividad establecen asimismo un menor consumo de materias primas (13%) y de consumo de energía (29%).

Page generated in 0.1009 seconds