• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 298
  • 104
  • 64
  • 28
  • 2
  • 1
  • 1
  • Tagged with
  • 498
  • 118
  • 101
  • 98
  • 85
  • 71
  • 58
  • 56
  • 56
  • 56
  • 56
  • 56
  • 56
  • 56
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Caracterització de l’operació i estudi metatranscriptòmic d’un bioreactor de dessulfuració d’alta càrrega d’H2S

Rovira Camprubí, Roger 30 March 2012 (has links)
Aquest apartat és un resum general del seguit de capítols que estructuren aquesta tesi doctoral. En aquest sentit es presenta una revisió bibliogràfica al voltant dels sistemes de tractament de gasos contaminants, centrant la introducció en el contaminant d’estudi, l’H2S, i els sistemes de tractament biològic. De manera similar, es presenta un apartat introductori al voltant dels bacteris sulfur‐oxidants. Complementant aquesta part, es fa un recull descriptiu de diferents tècniques de biologia molecular, basades en marcadors filogenètics moleculars, per a l’estudi de comunitats microbianes. Per últim, es presenta una revisió de les diferents tecnologies de seqüenciació de DNA de nova generació amb la intenció d’introduir i fonamentar l’aproximació bio‐òmica per a l’estudi de comunitats microbianes complexes. Seguidament en el segon capítol d’aquesta tesi, es desenvolupa un primer estudi al voltant de la posada en marxa i operació del biofiltre percolador de dessulfuració d’alta càrrega d’H2S, mitjançant la configuració d’un nou material de rebliment inorgànic desordenat. En base al monitoratge de diferents paràmetres, s’aconsegueix optimitzar el règim d’operació establint unes noves condicions d’operació que minimitzen la generació de sofre inorgànic en el bioreactor. En el tercer capítol, i com a aproximació inicial en l’estudi de les comunitats microbianes del bioreactor, es construeixen per a dos moments operacionals separats en el temps, dues llibreries gèniques de 16S rRNA. En base a la identificació d’espècies realitzada per seqüenciació dels fragments clonats, es seleccionen diverses espècies microbianes sulfur‐oxidants amb intenció d’estudiar la seva adaptació i dinàmica al llarg de l’operació. Mitjançant la tècnica FISH es visualitzen i quantifiquen aquestes espècies sulfur‐oxidants, realitzant un seguiment a diferents altures del cos del bioreactor permetent analitzar la dinàmica poblacional dels microorganismes hibridats.  Complementant l’estudi realitzat per a la caracterització i el seguiment de poblacions microbianes, en el capítol quatre d’aquesta tesi es descriu el procés d’optimització de la metodologia necessària per a la realització de l’estudi metatranscriptòmic de les comunitats microbianes del biofitre. En aquest capítol es descriuen, per als diferents processos experimentals implementats, els resultats obtinguts amb l’objectiu d’optimitzar els rendiments d’extracció i purificació de mRNA. Finalment, assolits els rendiments necessaris tant en termes de quantitat com de qualitat, es presenta el protocol optimitzat per a la preparació de les mostres seqüenciades en la plataforma GS FLX de Roche&454. Finalment en l’estudi metatranscriptòmic presentat en el capítol cinc, es processen tres mostres corresponents a diferents zones del biofiltre. Inicialment s’apliquen diferents estratègies d’assemblatge de les lectures amb intenció d’optimitzar el càlcul d’assemblatge. Mitjançant l’anàlisi bioinformàtica es realitza la interpretació del metatranscriptoma referit a cada una de les zones de mostreig. Es quantifiquen els nivells d’expressió per a cada un dels contigs generats permetent l’anàlisi comparativa del grau d’expressió dels gens del biofiltre a diferents altures. / This section is an overview of the different chapters that outline this thesis. In this sense it is presented a bibliographical review about the polluting gas treatment systems, focusing on the introduction of the contaminant study, H2S, and biological treatment systems. Similarly, there is an introductory section about sulfur‐oxidizing bacteria. Complementing this part includes a summary description of various molecular biology techniques based on molecular phylogenetic markers for the study of microbial communities. Finally, it is presented a review of new generation DNA sequencing technologies with the intention of introducing and establishing the bio‐omic approach for studying complex microbial communities. Then in the second chapter of this thesis, is developed a first study about biotrickling filter operation for desulfurization of high H2S loads by setting a new disordered inorganic packing material. Based on the monitoring of various parameters the system operation is optimized and established in new operating conditions that minimize the generation of inorganic sulfur in the bioreactor. In the third chapter, as initial approach to the study the microbial diversity in the bioreactor, two libraries of 16S rRNA genes are generated for two separate operational periods. Based on species identification performed by sequencing of cloned fragments, it has been selected several sulfur‐oxidizing species with the intention to study the community dynamics during the start up and bioreactor operation. Using the FISH technique, these sulfur‐oxidizing species have been identified and quantified, withdrawing biomass at different heights of the bioreactor to analyze the population dynamics of microorganisms hybridized. Complementing the study for the characterization and monitoring of microbial populations, the chapter four of this thesis describes the experimentation and optimization of the procedure to develop a metatranscriptomic work of microbial communities of the biofilter.  This chapter describes the results obtained for different experimental procedures, with the aim of optimizing the yields of extraction and purification of mRNA. Finally achieved the required yields in terms of both quantity and quality, it is presented the optimized protocol for samples preparation to be sequenced in the GS FLX platform Roche & 454. In chapter five, are processed three metatranscriptomic samples from different areas of the biofilter. As initial procedure, different assembly strategies are experimented with the intention to optimize the assembly calculation of sequencing lectures. By bioinformatic analysis are performed the expression levels quantification for each contig generated, allowing comparative analysis of degree expression at different biofilter heights. In parallel, is performed a similarity search in different databases in search of specific functional annotation. With intention to extend the functional annotation of the resulting metatranscriptomes it is presented the characterization of contigs obtained by the analysis of gene ontology for each sequence. The enormous volume of sequence information generated is presented as a description of the global gene expression referring to different parts of the bioreactor desulfurization of high H2S load.  Finally, the last chapter of the thesis presents a summary of the conclusions reached in this work, as well as a description of the possible continuation of this thesis study.
72

Methodological advancements in lca of waste management systems

Bala Gala, Alba 10 April 2015 (has links)
La gestió de residus ha estat identificada per la Comissió Europea, l'Agència de Protecció Ambiental dels Estats Units i l'Organització per a la Cooperació Econòmica i el Desenvolupament, entre altres institucions, com un tema clau per a l'assoliment d'una societat eficient en l'ús de recursos i per aconseguir una economia sostenible. Les pràctiques de gestió de residus han de ser millorades per tal de reforçar el reciclatge de materials, tancant cicles de materials essencials i també recuperant energia a partir dels residus, alhora que es garanteix que no s'alliberen substàncies tòxiques al medi ambient. En essència, això significa passar d'un model lineal d'economia basat en extreure, usar i llençar a un model més circular. L'Anàlisi de Cicle de Vida (ACV) ha anat guanyant acceptació en els últims anys a Europa com la millor eina per ajudar en la presa de decisions sobre polítiques de gestió de residus i planificació. Aquesta proporciona una visió global i ampliada del sistema, té en compte tots els processos que intervenen i les seves interaccions amb l'economia (mitjançant la reintroducció de materials reciclats o de l'energia recuperada del sistema de gestió de residus), així com la quantificació de l'impacte d'un conjunt complet dels efectes ambientals (p. ex. el canvi climàtic, l'esgotament de la capa d'ozó, l'acidificació o l'eutrofització). Durant les últimes dècades, alguns autors han identificat qüestions metodològiques en realitzar ACV de Sistemes de Gestió de Residus (SGR) que poden tenir una gran influència en els resultats finals de l'anàlisi. Aquestes qüestions s'han abordat en les últimes guies metodològiques sobre ACV i gestió de residus elaborades pel Joint Research Centre de la Unió Europea (publicades el 2011). No obstant això, segons l'autora, encara hi ha algunes qüestions importants en l'aplicació d'ACV per avaluar l'eficiència ambiental de SGR que mereixen especial atenció. En particular, la forma en què els sistemes de recollida i els crèdits associats a la recuperació de materials han estat modelitzats històricament necessiten ser revisats, especialment si el focus de l'anàlisi és el sistema de recollida en si mateix i si estem duent a terme una anàlisi del sistema des del punt de vista de l'ACV atribucional. D'altra banda, la forma en què s'està avaluant l'esgotament de recursos en ACV ha estat qüestionada recentment en la literatura, i necessita també ser analitzada. El treball realitzat en aquesta tesi pretén ressaltar aquestes importants qüestions i donar una mica de llum sobre com abordar-les. Els resultats de la tesi són: (1) un mètode alternatiu per comptabilitzar els crèdits deguts a la recuperació de materials en ACV, més en línia amb l'objectiu fonamental o l'enfocament de l'ACV atribucional; (2) un nou model predictiu per avaluar el comportament ambiental de l'etapa recollida de residus, que produeix resultats més precisos que altres models existents en comparar-los amb rutes reals de recollida; i (3) una contribució al debat obert sobre el futur desenvolupament d'un mètode més robust per a l'avaluació de la categoria d'impacte d'escassetat de recursos en ACV, mitjançant la recerca de sinèrgies amb la metodologia de l’Emergy Accounting. / La gestión de residuos ha sido identificada por la Comisión Europea, la Agencia de Protección Ambiental de los Estados Unidos y la Organización para la Cooperación Económica y el Desarrollo, entre otras instituciones, como un tema clave para el logro de una sociedad eficiente en el uso de recursos y para lograr una economía sostenible. Las prácticas de gestión de residuos deben ser mejoradas con el fin de reforzar el reciclaje de materiales, cerrando ciclos de materiales esenciales y también recuperando energía a partir de los residuos, al tiempo que se garantiza que no se liberan sustancias tóxicas al medio ambiente. En esencia, esto significa pasar de un modelo lineal de economía basado en extraer, usar y tirar a un modelo más circular. El Análisis de Ciclo de Vida (ACV) ha ido ganando aceptación en los últimos años en Europa como la mejor herramienta para ayudar en la toma de decisiones sobre políticas de gestión de residuos y planificación. Éste proporciona una visión global y ampliada del sistema, tiene en cuenta todos los procesos que intervienen y sus interacciones con la economía (mediante la reintroducción de materiales reciclados o de la energía recuperada del sistema de gestión de residuos), así como la quantificación del impacto de un conjunto completo de los efectos ambientales (p. ej. el cambio climático, el agotamiento de la capa de ozono, la acidificación o la eutrofización). Durante las últimas décadas, algunos autores han identificado cuestiones metodológicas al realizar ACV de Sistemas de Gestión de Residuos (SGR) que pueden tener una gran influencia en los resultados finales del análisis. Estas cuestiones se han abordado en las últimas guías metodológicas sobre ACV y gestión de residuos elaboradas por el Joint Research Centre de la Unión Europea (publicadas en 2011). Sin embargo, según la autora, todavía hay algunas cuestiones importantes en la aplicación del ACV para evaluar la eficiencia ambiental de SGR que merecen especial atención. En particular, la forma en que los sistemas de recogida y los créditos asociados a la recuperación de materiales han sido modelizados históricamente necesitan ser revisados, especialmente si el foco del análisis es el sistema de recogida en sí mismo y si estamos llevando a cabo un análisis del sistema desde el punto de vista del ACV atribucional. Por otro lado, la forma en que se está evaluando el agotamiento de recursos en ACV ha sido cuestionada recientemente en la literatura, y necesita también ser analizada. El trabajo realizado en esta tesis pretende resaltar estas importantes cuestiones y arrojar algo de luz sobre cómo abordarlas. Los resultados de la tesis son: (1) un método alternativo para contabilizar los créditos debidos a la recuperación de materiales en ACV, más en línea con el objetivo fundamental o el enfoque del ACV atribucional; (2) un nuevo modelo predictivo para evaluar el comportamiento ambiental de la etapa de recogida de residuos, que produce resultados más precisos que otros modelos existentes al compararlos con rutas reales de recogida; y (3) una contribución al debate abierto sobre el futuro desarrollo de un método más robusto para la evaluación de la categoría de impacto de escasez de recursos en ACV, mediante la búsqueda de sinergias con la metodología de Emergy Accounting. / Waste management has been identified by the European Commission, the United States Environmental Protection Agency and the Organization for Economic Cooperation and Development, among other institutions, as a key issue for the achievement of a resource-efficient society and for achieving a sustainable economy. Waste management practices need to be improved in order to reinforce material recycling, closing essential material loops and also recovering energy from waste, while at the same time ensuring that toxic substances are not released to the environment. This essentially means moving from a linear extraction-use-throw away economy model to a more circular one. Life Cycle Assessment (LCA) has been gaining acceptance in recent years as the best tool to assist decision making for waste management policy and planning in Europe. It can provide a global and expanded view of the system, taking into account all the processes involved and its interactions with the economy (by means of reintroducing recycled materials or energy recovered from the waste management system), as well as accounting for a complete set of environmental effects (i.e. climate change, ozone layer depletion, acidification or eutrophication). During the last decades, some authors have identified methodological issues when performing LCA of Waste Management Systems (WMS) that may have a great influence on the final results of the analysis. These issues have been addressed in the last methodological guidelines about LCA and waste management developed by the Joint Research Centre of the European Union (published in 2011). However, according to the author, there are still some important issues when applying LCA to evaluate the environmental efficiency of WMS that merit special attention. In particular, the way in which collecting systems and credits due to material recovery have been historically modelled needs to be reviewed, especially if the focus of the analysis is the collection system itself and if we are performing an analysis of the system from an attributional LCA point of view. On the other hand, how resource depletion is assessed in LCA has been recently questioned in the literature, and needs also to be analysed. The work done in this thesis aims to identity these important issues and shed some light on how to address them. The outcomes of the thesis are (1) an alternative method to account for the credits of material recovery in LCA, more in line with the fundamental aim of the attributional approach in LCA; (2) a new predictive model for evaluating the environmental perfomance of waste collection, which produces more accurate results when compared with real collection routes than other existing models; and (3) a contribution to the ongoing discussion for the future development of a more robust method for evaluating Resource Scarcity impact category in LCA, by looking at synergies with Emergy Accounting methodology.
73

DNA Microarray Image Compression

Hernández-Cabronero, Miguel 19 June 2015 (has links)
En los experimentos con DNA microarrays se genran dos imágenes monocromo, las cuales es conveniente almacenar para poder realizar análisis más precisos en un futuro. Por tanto, la compresión de imágenes surge como una herramienta particularmente útil para minimizar los costes asociados al almacenamiento y la transmisión de dichas imágenes. Esta tesis tiene por objetivo mejorar el estado del arte en la compresión de imágenes de DNA microarrays. Como parte de esta tesis, se ha realizado una detallada investigación de las características de las imágenes de DNA microarray. Los resultados experimentales indican que los algoritmos de compresión no adaptados a este tipo de imágenes producen resultados más bien pobres debido a las características de estas imágenes. Analizando las entropías de primer orden y condicionales, se ha podido determinar un límite aproximado a la compresibilidad sin pérdida de estas imágenes. Aunque la compresión basada en contexto y en segmentación proporcionan mejoras modestas frente a algoritmos de compresión genéricos, parece necesario realizar avances rompedores en el campo de compresión de datos para superar los ratios 2:1 en la mayor parte de las imágenes. Antes del comienzo de esta tesis se habían propuesto varios algoritmos de compresión sin pérdida con rendimientos cercanos al límite óptimo anteriormente mencionado. Sin embargo, ninguno es compatible con los estándares de compresión existentes. Por tanto, la disponibilidad de descompresores compatibles en plataformas futuras no está garantizado. Además, la adhesión a dichos estándares se require normalmente en escenarios clínicos. Para abordar estos problemos, se propone una transformada reversible compatible con el standard JPEG2000: la Histogram Swap Transform (HST). La HST mejora el rendimiento medio de JPEG2000 en todos los corpora entre 1.97% y 15.53%. Además, esta transformada puede aplicarse incurriendo en un sobrecoste de tiempo negligible. Con la HST, JPEG2000 se convierte en la alternativa estándard más competitiva a los compresores no estándard. Las similaridades entre imágenes del mismo corpus también se han estudiado para mejorar aún más los resultados de compresión de imágenes de DNA microarrays. En concreto, se ha encontrado una agrupación óptima de las imágenes que maximiza la correlación dentro de los grupos. Dependiendo del corpus observado, pueden observarse resultados de correlación medios de entre 0.75 y 0.92. Los resultados experimentales obtenidos indican que las técnicas de decorrelación espectral pueden mejorar los resultados de compresión hasta en 0.6 bpp, si bien ninguna de las transformadas es efectiva para todos los corpora utilizados. Por otro lado, los algoritmos de compresión con pérdida permiten obtener resultados de compresión arbitrarios a cambio de modificar las imágenes y, por tanto, de distorsionar subsiguientes procesos de análisis. Si la distorsión introducida es más pequeña que la variabilidad experimental inherente, dicha distorsión se considera generalmente aceptable. Por tanto, el uso de técnicas de compresión con pérdida está justificado. En esta tesis se propone una métrica de distorsión para imágenes de DNA microarrays capaz de predecir la cantidad de distorsión introducida en el análisis sin necesitar analizar las imágenes modificadas, diferenciando entre cambios importantes y no importantes. Asimismo, aunque ya se habían propuesto algunos algoritmos de compresión con pérdida para estas imágenes antes del comienzo de la tesis, ninguno estaba específicamente diseñado para minimizar el impacto en los procesos de análisis para un bitrate prefijado. En esta tesis, se propone un compresor con pérdida (el Relative Quantizer (RQ) coder) que mejora los resultados de todos los métodos anteriormente publicados. Los resultados obtenidos sugieren que es posible comprimir con ratios superiores a 4.5:1 mientras se introducen distorsiones en el análisis inferiores a la mitad de la variabilidad experimental inherente. Además, se han propuesto algunas mejoras a dicho compresor, las cuales permiten realizar una codificación lossy-to-lossless (el Progressive RQ (PRQ) coder), pudiéndose así reconstruir una imagen comprimida con diferentes niveles de calidad. Cabe señalar que los resultados de compresión anteriormente mencionados se obtienen con una complejidad computacional ligeramente inferior a la del mejor compresor sin pérdida para imágenes de DNA microarrays. / In DNA microarray experiments, two grayscale images are produced. It is convenient to save these images for future, more accurate re-analysis. Thus, image compression emerges as a particularly useful tool to alleviate the associated storage and transmission costs. This dissertation aims at improving the state of the art of the compression of DNA microarray images. A thorough investigation of the characteristics of DNA microarray images has been performed as a part of this work. Results indicate that algorithms not adapted to DNA microarray images typically attain only mediocre lossless compression results due to the image characteristics. By analyzing the first-order and conditional entropy present in these images, it is possible to determine approximate limits to their lossless compressibility. Even though context-based coding and segmentation provide modest improvements over generic-purpose algorithms, conceptual breakthroughs in data coding are arguably required to achieve compression ratios exceeding 2:1 for most images. Prior to the start of this thesis, several lossless coding algorithms that have performance results close to the aforementioned limit were published. However, none of them is compliant with existing image compression standards. Hence, the availability of decoders in future platforms -a requisite for future re-analysis- is not guaranteed. Moreover, the adhesion to standards is usually a requisite in clinical scenarios. To address these problems, a fast reversible transform compatible with the JPEG2000 standard -the Histogram Swap Transform (HST)- is proposed. The HST improves the average compression performance of JPEG2000 for all tested image corpora, with gains ranging from 1.97% to 15.53%. Furthermore, this transform can be applied with only negligible time complexity overhead. With the HST, JPEG2000 becomes arguably the most competitive alternatives to microarray-specific, non-standard compressors. The similarities among sets of microarray images have also been studied as a means to improve the compression performance of standard and microarray-specific algorithms. An optimal grouping of the images which maximizes the inter-group correlation is described. Average correlations between 0.75 and 0.92 are observed for the tested corpora. Thorough experimental results suggest that spectral decorrelation transforms can improve some lossless coding results by up to 0.6bpp, although no single transform is effective for all copora. Lossy coding algorithms can yield almost arbitrary compression ratios at the cost of modifying the images and, thus, of distorting subsequent analysis processes. If the introduced distortion is smaller than the inherent experimental variability, it is usually considered acceptable. Hence, the use of lossy compression is justified on the assumption that the analysis distortion is assessed. In this work, a distortion metric for DNA microarray images is proposed to predict the extent of this distortion without needing a complete re-analysis of the modified images. Experimental results suggest that this metric is able to tell apart image changes that affect subsequent analysis from image modifications that do not. Although some lossy coding algorithms were previously described for this type of images, none of them is specifically designed to minimize the impact on subsequent analysis for a given target bitrate. In this dissertation, a lossy coder -the Relative Quantizer (RQ) coder- that improves upon the rate- distortion results of previously published methods is proposed. Experiments suggest that compression ratios exceeding 4.5:1 can be achieved while introducing distortions smaller than half the inherent experimental variability. Furthermore, a lossy-to-lossless extension of this coder -the Progressive RQ (PRQ) coder- is also described. With the PRQ, images can be compressed once and then reconstructed at different quality levels, including lossless reconstruction. In addition, the competitive rate-distortion results of the RQ and PRQ coders can be obtained with computational complexity slightly smaller than that of the best-performing lossless coder of DNA microarray images.
74

Force sensors based on piezoresistive and MOSFET cantilevers for biomolecular sensing

Tosolini, Giordano 31 October 2013 (has links)
Los procesos de reconocimiento biomolecular entre receptores y ligandos son muy importantes en biología. Estas biomoléculas pueden desarrollar complejos muy específicos y tener una variedad de funciones como replicación y transcripción genómica, actividad enzimática, respuesta inmune, señalamiento celular, etc. La complementariedad inequívoca mostrada por estos componentes biológicos es ampliamente utilizada para desarrollar biosensores. Dependiendo de la naturaleza de las señales que se convierten, los biosensores pueden ser clasificados en ópticos, eléctricos o mecánicos. Entre los sensores mecánicos, los microcantilevers son los más comunes. Han sido utilizados como sensores de estrés superficial o como sensores de masa en detección de biomoléculas, desde hace más de 10 años. El enlace de las moléculas a sus superficies funcionalizadas se puede detectar midiendo la deflexión en modo estático o la variación de la frecuencia de resonancia en modo dinámico. Para lograr la máxima resolución, la deflexión es medida por un láser y un fotodetector. Este método limita las medidas en fluidos transparentes, la portabilidad del instrumento, e incrementa la complejidad de medición multiplexada. El desarrollo de cantilevers sensibles a la deflexión mediante la integración de piezoresistores o transistores de efecto de campo (MOSFET) implementados en el mismo voladizo, resuelve este problema. Sin embargo, simultáneamente se disminuye la resolución del sensor debido al incremento del ruido electrónico. Por otro lado, se puede detectar moléculas midiendo la fuerza de enlace entre una molécula y su receptor, estirando el complejo molecular, mediante espectroscopia de fuerza atómica (AFS), técnica basada en el microscopio de fuerza atómica (AFM). A pesar de la elevada resolución en fuerza, el AFM no ha logrado aún convertirse en instrumento analítico debido principalmente a la complejidad del mismo y de su uso. Un biosensor basado en cantilevers que puedan detectar su propia deflexión y que emplee la AFS, tendría resolución de una molécula, podría ser utilizado en fluidos opacos, tendría potencial de multiplexado y su integración a una celda microfluídica sería viable. Considerando esto, se desarrollaron cantilevers dotados de resolución de pN y compatibles con líquidos. Se diseñaron y modelaron cantilevers basados en silicio cristalino y se ha optimizado el proceso de fabricación para aumentar la sensibilidad y el rendimiento. Asímismo, se ha trabajado sobre el modelo, el desarrollo y la fabricación de cantilevers con un MOSFET integrado. Se concluye que el primer sensor ofrece una solución tecnológica más directa, aunque el segundo puede ser una buena alternativa. Simultáneo a la fabricación de sensores, se desarrollaron también nuevas técnicas y montajes para la rápida caracterización eléctrica y electromecánica de los sensores de manera precisa y fiable. Esto fue crucial a la hora de validar el proceso de producción y los dispositivos finales. Después de obtener muy alta resolución (<10 pN en líquido) con elevado rendimiento en la producción, los sensores fueron utilizados para el estudio de procesos de reconocimiento molecular entre avidina y biotina. Para lograr este objetivo, los sensores fueron integrados en un AFM comercial para aprovechar su elevada estabilidad mecánica y el desplazamiento nanométrico del piezoactuador. Se detectaron con éxito las fuerzas de enlace relacionadas a la formación del complejo molecular biotina-avidina, resaltando de esta manera, la posibilidad de detección label-free de biomoléculas en condiciones cuasi fisiológicas con resolución de una molécula. Además de la elevada sensibilidad, estos sensores pueden utilizarse sin restricciones en fluidos opacos, se pueden integrar fácilmente en celdas microfluídicas y demuestran capacidad para el multiplexado. Este resultado abre nuevas perspectivas en detectores de marcadores biológicos con elevada sensibilidad y que puedan trabajar en condiciones fisiológicas. / Biorecognition processes between receptors and their conjugate ligands are very important in biology. These biomolecules can build up very specific complexes displaying a variety of functions such as genome replication and transcription, enzymatic activity, immune response, cellular signaling, etc. The unambiguous one-to-one complementarity exhibited by these biological partners is widely exploited also in biotechnology to develop biosensors. Depending on the nature of the transduction signals, biosensors can be classified in optical, electrical and mechanical. Among mechanical biosensors, the microcantilevers play a prominent role. They have been used as stress or mass transducers in biomolecules detection for already more than a decade. The binding of molecules to their functionalized surface is detected by measuring either the deflection in static mode or the resonant frequency shift in dynamic mode. The deflection of the cantilever is converted optically by a laser and a photodetector in order to have the highest possible resolution. This limits the measurements in transparent liquids, the portability of the instrument and increases the complexity for multiplexing. The development of self-sensing cantilevers by integrating piezoresistors or metal-oxide-semiconductor field effect transistors (MOSFET) into the cantilever solves this issue. However, at the same time, this decreases the bending and frequency shift resolution due to the higher transducer noise. On the other hand, the detection of a single molecule can be attained measuring the unbinding force between two molecules of a complex pulling them apart, using the atomic force spectroscopy (AFS) measuring approach. This technique is based on the atomic force microscope (AFM). Despite the high force resolution, AFM has still not become an analytical instrument and it is mainly due to the complexity of the instrument and of its use. A biosensor based on AFS and on self-sensing cantilever would allow single molecule resolution, working in opaque fluids, easy multiplexing capability, and relatively easy integration in microfluidics cells. In this perspective, we worked to obtain self sensing-probes endowed with pN resolution and compatible with liquid media. Cantilevers based on single crystalline silicon have been modeled and the fabrication process has been optimized to improve the force sensitivity and to obtain high fabrication yield. At the same time we worked also on the modeling, development and fabrication of cantilevers with embedded MOSFET piezoresistive transducers. It turned out that the probes with integrated piezoresistor offer a more straightforward solution, but also the MOSFET cantilever can offer a good alternative. Alongside the force sensors fabrication, new high-throughput set-ups and techniques have been developed and optimized to measure the electrical and electromechanical characteristics of micro-electro-mechanical systems (MEMS) in a precise and reliable way. This was of key importance to correctly validate the new technological processes involved in production as well as characterize the final devices. After achieving very good sensor performances (resolution < 10 pN in liquid environment) with high production yield, we used the force probes to investigate the biorecognition processes in the avidin-biotin complex. For this purpose we integrated the sensor into a commercial AFM to take advantage of the high mechanical stability of this equipment and the highly reliable displacement of the piezo actuator. We detected the forces related to the avidin-biotin complex formation, highlighting the possibility of biomolecule label-free recognition in nearly physiological conditions and at single molecule resolution. Beside the very high sensitivity attained, the sensor can be used with no restrictions in opaque media; it can be easily integrated in microfluidic cells and it displays a high multiplexing potentiality. This result opens new perspectives in highly sensitive label free biomarkers detectors in nearly physiological conditions.
75

Contributions to computed tomography image coding for JPEG2000

Muñoz Gómez, Juan 13 January 2014 (has links)
Avui dia, gràcies als avanços en la ciència mèdica, existeixen diverses tècniques d’imatges mèdiques destinades a tractar de revelar, diagnosticar o examinar una malaltia. Moltes d’aquestes tècniques produeixen grans quantitats de dades, especialment les modalitats de tomografia com- putada (CT), imatges per ressonància magnètica (MRI) i tomografia per emissió de positrons (PET). Per gestionar aquestes dades, els centres mèdics utilitzen PACS i l’estàndard DICOM per emmagatzemar, recuperar, distribuir i visualitzar imatges mèdiques. Com a resultat de l’alt cost d’emmagatzematge i transmissió d’imatges mèdiques digitals, la compressió de dades juga un paper clau. JPEG2000 és l’estat de l’art en tècniques de compressió d’imatges per a l’emmagatzematge i transmissió d’imatges mèdiques. És el més recent sistema de codificació inclòs en DICOM i propor- ciona algunes característiques que són interessants per a la codificació d’aquestes imatges. JPEG2000 permet l’ús de finestres d’interès, accés a diferents grandàries de la imatge o la decodificació una regió específica d’ella. Aquesta tesi aborda tres problemes diferents detectats en la codificació de CT. El primer prob- lema de la codificació d’aquestes imatges, és el soroll que tenen. Aquest soroll és produït per l’ús d’unes dosis baixes de radiació durant l’exploració, produint imatges de baixa qualitat i penalitzant el rendiment de la codificació. L’ús de diferents filtres de soroll, fa millorar la qualitat i també augmentar el rendiment de codificació. La segona qüestió que s’aborda en aquesta tesi, és l’ús de transformacions multi-component en la codificació de les CT. Depenent de la correlació entre les diferents imatges que formen una CT, el rendiment en la codificació usant aquestes transformacions pot variar, fins i tot disminuir pel que fa a JPEG2000. Finalment, l’última contribució d’aquesta tesi tracta sobre el paradigma de la codificació diagnòstica sense pèrdua, i proposa un nou mètode ivde segmentació. A través de la utilització de mètodes de segmentació, per detectar l’àrea biològica i descartar la zona no-biològica, JPEG2000 pot aconseguir millores de rendiment de més de 2 bpp. / Hoy en día, gracias a los avances en la ciencia médica, existen diversas técnicas de imágenes médicas destinadas a tratar de revelar, diagnosticar o examinar una enfermedad. Muchas de estas técnicas producen grandes cantidades de datos, en especial las modalidades de tomografía com- putarizada (CT), imágenes por resonancia magnética (MRI) y tomografía por emisión de positrones (PET). Para gestionar estos datos, los centros médicos utilizan PACS y el estándar DICOM para almacenar, recuperar, distribuir y visualizar imágenes médicas. Como resultado del alto coste de almacenamiento y transmisión de imágenes médicas digitales, la compresión de datos juega un papel clave. JPEG2000 es el estado del arte en técnicas de compresión de imágenes para el almacenamiento y transmisión de imágenes médicas. Es el más reciente sistema de codificación incluido en DICOM y proporciona algunas características que son interesantes para la codificación de estas imágenes. JPEG2000 permite el uso de ventanas de interés, acceso a diferentes tamaños de la imagen o decodificar una región específica de ella. Esta tesis aborda tres problemas diferentes detectados en la codificación de CT. El primer problema de la codificación de estas imágenes, es el ruido que tienen. Este ruido es producido por el uso de unas dosis bajas de radiación durante la exploración, lo cual produce imágenes de baja calidad y penaliza el rendimiento de la codificación. El uso de diferentes filtros de ruido, hace mejorar la calidad y también aumentar el rendimiento de codificación. La segunda cuestión que se aborda en esta tesis, es el uso de transformaciones multicomponente en la codificación de las CT. Dependiendo de la correlación entre las diferentes imágenes que forman una CT, el rendimiento en la codificación usando estas transformaciones puede variar, incluso disminuir con respecto a JPEG2000. Final- mente, la última contribución de esta tesis trata sobre el paradigma de la codificación diagnóstica sin pérdida, y propone un nuevo método de segmentación. A través de la utilización de métodos de segmentación, para detectar el área biológica y descartar la zona no-biológica, JPEG2000 puede lograr mejoras de rendimiento de más de 2bpp. / Nowadays, thanks to the advances in medical science, there exist many different medical imaging techniques aimed at seeking to reveal, diagnose, or examine a disease. Many of these techniques produce very large amounts of data, especially from Computed Tomography (CT), Magnetic Res- onance Imaging (MRI) and Positron Emission Tomography (PET) modalities. To manage these data, medical centers use PACS and the DICOM standard to store, retrieve, distribute, and display medical images. As a result of the high cost of storage and transmission of medical digital images, data compression plays a key role. JPEG2000 is the state-of-the-art of image compression for the storage and transmission of med- ical images. It is the latest coding system included in DICOM and it provides some interesting capabilities for medical image coding. JPEG2000 enables the use of use of windows of interest, access different resolutions sizes of the image or decode an specific region of the image. This thesis deals with three different problems detected in CT image coding. The first coding problem is the noise that CT have. These noise is produced by the use of low radiation dose during the scan and it produces a low quality images and penalizes the coding performance. The use of different noise filters, enhance the quality and also increase the coding performance. The second question addressed in this dissertation is the use of multi-component transforms in Computed Tomography image coding. Depending on the correlation among the slices of a Computed Tomography, the coding performance of these transforms can vary even decrease with respect to JPEG2000. Finally, the last contribution deals with the diagnostically lossless coding paradigm, and it is proposed a new segmentation method. Through the use of segmentation methods to detect the biological area and to discard the non-biological area, JPEG2000 can achieve improvements of more than 2bpp.
76

Polyp Localization and Segmentation in Colonoscopy Images by Means of a Model of Appearance for Polyps

Bernal del Nozal, Jorge 17 December 2012 (has links)
El càncer de còlon és la quarta causa més comuna de mort per càncer en el món, havent al voltant de 143.460 nous casos el 2012, segons dades de l’American Cancer Society. La taxa de mortalitat d’aquest càncer depèn de l’etapa en què sigui detectat, decreixent des de taxes majors del 95% en les primeres etapes a taxes inferiors al 35% en les etapes quarta i cinquena, la qual cosa demostra la necessitat d’una exploració preco¸c del còlon. Durant l’exploració, el metge busca creixements adenomatosos, que es coneixen sota el nom de pòlips, per tal d’esbrinar el seu nivell de desenvolupament. Hi ha diverses tècniques per a l’exloració del còlon, però la colonoscòpia és considerada encara avui com estàndard de facto, encara que presenta alguns inconvenients com una elevada taxa de errors. La nostra contribució està enquadrada dins del camp de sistemes intel·ligents per a la colonoscòpia [13] i té com a objectiu el desenvolupament de mètodes de localització i segmentació de pòlips basant-se en models d’aparen¸ca. Definim la localització de pòlips com el mètode pel qual donada una imatge d’entrada es proporciona com a sortida una altra imatge on es assenyalen les àrees de la imatge on és més probable trobar un pòlip. Per altra banda, la segmentació té com a objectiu definir la regió concreta de la imatge on es troba el pòlip. Per tal de desenvolupar ambdós mètodes s’ha comen¸cat desenvolupant un model d’aparen¸ca per a pòlips, el qual defineix un pòlip com una estructura limitada per valls en la imatge de escala de gris. La novetat de la nostra contribució rau en el fet que incloem en el nostre model altres elements de l’escena endoluminal, com els reflexos especulars o els gots sanguinis, que demostren tenir un impacte en el rendiment global dels nostres mètodes i en elements derivats del procés de formació de la imatge com l’interlacing. Tenint això en compte, definim una imatge de profunditat de valls que integra la sortida del detector de valls amb un gradient morfològic, afegint-hi els altres elements de l’escena endoluminal. Per desenvolupar el nostre mètode de localització de pòlips capturem la informació de la imatge de profunditat de valls amb la finalitat de crear mapes d’energia. Per obtenir la segmentació del pòlip també fem servir aquests mapes de energia per guiar el procés. Els nostres mètodes arriben resultats prometedors tant en localització com a segmentació de pòlips. Per a validar la metodologia emprada, presentem un experiment que compara el nostre mètode amb observacions fetes per metges obtingudes mitjan ¸cant un dispositiu de eye-tracking. Els resultats mostren que el rendiment de la contribució d’aquesta Tesi és comparable a l’obtingut a partir de les observacions dels metges, la qual cosa indica el potencial de la nostra proposta en futurs sistemes intel·ligents de colonoscòpia. / El cáncer de colon es la cuarta causa más común de muerte por cáncer en el mundo, presentando alrededor de 143.460 nuevos casos en 2012, según datos estimados por la American Cancer Society. La tasa de mortalidad del cancer de colon depende de la etapa en que éste es detectado, decreciendo desde tasas mayores del 95% en las primeras etapas a tasas inferiores al 35% en las etapas cuarta y quinta, lo cual es muestra de la necesidad de una exploración temprana del colon. Durante la exploración el médico busca crecimientos adenomatosos que se conocen bajo el nombre de pólipos, con el fin de averiguar su nivel de desarrollo. Existen varias técnicas para la exloración del colon pero la colonoscopia está considerada aún hoy en d´ıa como estandar de facto, aunque presenta algunos inconvenientes como la tasa de fallos. Nuestra contribución, encuadrada dentro del campo de sistemas inteligentes para la colonoscopia, tiene como objetivo el desarrollo de métodos de localización y segmentación de pólipos basándose en un model de apariencia para los pólipos. Definimos localización de pólipos como el método por el cual dada una imagen de entrada se proporciona como salida donde se se˜nalan las áreas de la imagen donde es más probable encontrar un pólipo. La segmentación de pólipos tiene como objetivo definir la región concreta de la imagen donde está el pólipo. Con el fin de desarrollar ambos métodos se ha comenzado desarrollando un modelo de apariencia para pólipos, el cual define un pólipo como una estructura limitada por valles en la imagen de escala de gris. Lo novedoso de nuestra contribución radica en el hecho de que incluimos en nuestro modelo otros elementos de la escena endoluminal tales como los reflejos especulares o los vasos sangu´ıneos que tienen un impacto en el rendimiento global de nuestros métodos as´ı como elementos derivados del proceso de formación de la imagen, como el interlacing. Teniendo esto en cuenta definimos nuestra imagen de profundidad de valles que integra la salida del detector de valles con el gradiente morfológico, a˜nadiendo asimismo la presencia de los ya mencionados otros elementos de la escena endoluminal. Para desarrollar nuestro método de localización de pólipos acumulamos la información que la imagen de profundidad de valles proporciona con el fin de crear mapas de energ´ıa. Para obtener la segmentación del pólipo también usamos información de los mapas de energ´ıa para guiar el proceso. Nuestros métodos alcanzan resultados prometedores tanto en localización como en segmentación de pólipos. Con el fin de valdiar nuestros métodos presentamos también un experimento que compara nuestro método con las observaciones de los médicos, obtenidas mediante un dispositivo eye-tracker. Los resultados muestran que nuestros m´etodos son cercanos a las observaciones de los médicos, lo cual indica el potencial de los mismos de cara a ser incluidos en futuros sistemas inteligentes para la colonoscopia. / Colorectal cancer is the fourth most common cause of cancer death worldwide, with about 143.460 new cases expected in 2012 by recent estimates of the American Cancer Society. Colon cancerís survival rate depends on the stage in which it is detected, decreasing from rates higher than 95% in the first stages to rates lower than 35% in stages IV and V, hence the necessity for a early colon screening. In this process physicians search for adenomatous growths known as polyps, in order to assess their degree of development. There are several screening techniques but colonoscopy is still nowadays the gold standard, although it has some drawbacks such as the miss rate. Our contribution, in the field of intelligent system for colonoscopy, aims at providing a polyp localization and a polyp segmentation system based on a model of appearance for polyps. In this sense we define polyp localization as a method which given an input image identifies which areas of the image are more likely to contain a polyp. Polyp segmentation aims at selecting the region of the image that contains a polyp. In order to develop both methods we have started by defining a model of appearance for polyps, which defines a polyp as enclosed by intensity valleys. The novelty of our contribution resides on the fact that we include in our model other elements from the endoluminal scene such as specular highlights and blood vessels, which have an impact on the performance of our methods and also other elements that appear as a result of image formation, such as interlacing. Considering this we define our novel Depth of Valleys image which integrates valley information with the output of the morphological gradient and also takes into account the presence of the before mentioned elements of the endoluminal scene. In order to develop our polyp localization method we accumulate the information that the Depth of Valleys image provides in order to generate accumulation energy maps. In order to obtain polyp segmentation we also use information from the energy maps to guide the process. Our methods achieve promising results in polyp localization and segmentation. In order to validate our methods we also present an experiment which compares the output of our method with physicianís observations captured via an eye-tracking device. The results show to be close to physicianís observations which point out a potentially inclusion of our methods as part of a future intelligent system for colonoscopy.
77

Ludología híbrida. Heterogeneidad en los eventos juveniles cotidianos mediados por videojuegos

Mesa Méndez, Ancor 04 December 2012 (has links)
La proliferación de tecnologías digitales ha hecho emerger nuevas formas de sociabilidad en la que los videojuegos resultan un buen ejemplo para comprender muchas de las nuevas fronteras relacionales que brindan estos inventos. Los videojuegos han sido ampliamente abordados por la investigación psicosocial. Entre este interés abundan las preocupaciones, principalmente acerca de los posibles riesgos que la rápida expansión de las prácticas con estos dispositivos puedan tener para la correcta y saludable vida de los jóvenes del siglo XXI. Ante este panorama resulta necesario dar un giro en el planteamiento acerca del papel de los videojuegos en las relaciones cotidianas. Antes de preocuparnos, de antemano, por los posibles efectos que estas prácticas puedan tener para los jóvenes, es más clarificador adentrarnos a comprender las maneras en las que las personas participamos de esta peculiar forma de juego. A través de una aproximación etnográfica es posible identificar numerosos agentes de naturalezas dispares que invitan a pensar los videojuegos como procesos cotidianos en los que se asocian instantáneamente tanto elementos tecnológicos, como humanos o discursivos en un logro colectivo por la simulación de espacios lúdicos híbridos dispuestos a la interacción y el disfrute. Un videojugador, con todo y su experiencia a cuestas, es una categoría que se conforma en la acción misma de videojugar y un videojuego, más que un artefacto o un programa informático es el proceso por el cual se ponen en contacto el jugador y lo jugado a través de conexiones como la pantalla, controles o videoconsolas, pero también de otros muchos tipos, como las asociaciones recurrentes entre órdenes digitales (ejecutadas con los dedos) y reglas gráfico-sonoras, o las alianzas y enfrentamientos entre los diversos tipos de participantes en el juego. Desde este punto de vista, uno de los intereses que aporta mi investigación se basa en un tipo de sociología constructiva, centrada en comprender muchos de estos procesos de conexión que desencadenan en la emergencia instantánea de contextos particulares de sociabilidad, más que en tratar de explicar los peligros que estos procesos puedan suponer para la vida en sociedad. / The proliferation of digital technologies has led to the emergence of new forms of sociability which videogames are a good example for understanding many of the new relational boundaries provided by these inventions. Videogames have been extensively discussed by psychosocial research. Among this interest concerns abound, mostly about the potential risks that the rapid expansion of the practices with these devices could have to correct and healthy lives of young century. Against this background it is necessary to turn on the approach to the role of videogames in everyday relationships. Before worrying in advance about the possible effects that these practices may have on young people, is more illuminating delve to understand the ways in which people participate on this particular form of play. Through an ethnographic approach is possible to identify many disparate natures agents inviting to think video games as everyday processes in which both technological elements, than humans or discoursives, are instantly associated, as a collective achievement by simulating hybrid play areas willing to interaction and enjoyment. A gamer, for all his piggyback experience, is a category that is formed in the very act of videoplay and a videogame, rather than an artifact or a computer program is the process by which they contact the player and played by connections like screen, controls or game consoles, but also many other types, such as recurrent associations between digital commands (executed with fingers and other movements) and graphic-sound rules, or alliances and clashes between various types of participants in the game. From this point of view, one of the interests that brings my research is based on a type of constructive sociology, focusing on understanding many of these connection processes that trigger instantaneous emergency in particular contexts of sociability, rather than trying to explain the dangers that these processes may pose to life in society.
78

Improving Memory Hierarchy Performance on MapReduce Frameworks for Multi-Core Architectures

de Souza Ferreira, Tharso 08 November 2013 (has links)
La necesidad de analizar grandes conjuntos de datos de diferentes tipos de aplicaciones ha popularizado el uso de modelos de programación simplicados como MapReduce. La popularidad actual se justifica por ser una abstracción útil para expresar procesamiento paralelo de datos y también ocultar eficazmente la sincronización de datos, tolerancia a fallos y la gestión de balanceo de carga para el desarrollador de la aplicación. Frameworks MapReduce también han sido adaptados a los sistema multi-core y de memoria compartida. Estos frameworks proponen que cada core de una CPU ejecute una tarea Map o Reduce de manera concurrente. Las fases Map y Reduce también comparten una estructura de datos común donde se aplica el procesamiento principal. En este trabajo se describen algunas limitaciones de los actuales frameworks para arquitecturas multi-core. En primer lugar, se describe la estructura de datos que se utiliza para mantener todo el archivo de entrada y datos intermedios en la memoria. Los frameworks actuales para arquitecturas multi-core han estado diseñado para mantener todos los datos intermedios en la memoria. Cuando se ejecutan aplicaciones con un gran conjunto de datos de entrada, la memoria disponible se convierte en demasiada pequeña para almacenar todos los datos intermedios del framework, presentando así una grave pérdida de rendimiento. Proponemos un subsistema de gestión de memoria que permite a las estructuras de datos procesar un número ilimitado de datos a través del uso de un mecanismo de spilling en el disco. También implementamos una forma de gestionar el acceso simultáneo al disco por todos los threads que realizan el procesamiento. Por último, se estudia la utilización eficaz de la jerarquía de memoria de los frameworks MapReduce y se propone una nueva implementación de una tarea MapReduce parcial para conjuntos de datos de entrada. El objetivo es hacer un buen uso de la caché, eliminando las referencias a los bloques de datos que ya no están en uso. Nuestra propuesta fue capaz de reducir significativamente el uso de la memoria principal y mejorar el rendimiento global con el aumento del uso de la memoria caché. / The need of analyzing large data sets from many different application fields has fostered the use of simplified programming models like MapReduce. Its current popularity is justified by being a useful abstraction to express data parallel processing and also by effectively hiding synchronization, fault tolerance and load balancing management details from the application developer. MapReduce frameworks have also been ported to multi-core and shared memory computer systems. These frameworks propose to dedicate a different computing CPU core for each map or reduce task to execute them concurrently. Also, Map and Reduce phases share a common data structure where main computations are applied. In this work we describe some limitations of current multi-core MapReduce frameworks. First, we describe the relevance of the data structure used to keep all input and intermediate data in memory. Current multi-core MapReduce frameworks are designed to keep all intermediate data in memory. When executing applications with large data input, the available memory becomes too small to store all framework intermediate data and there is a severe performance loss. We propose a memory management subsystem to allow intermediate data structures the processing of an unlimited amount of data by the use of a disk spilling mechanism. Also, we have implemented a way to manage concurrent access to disk of all threads participating in the computation. Finally, we have studied the effective use of the memory hierarchy by the data structures of the MapReduce frameworks and proposed a new implementation of partial MapReduce tasks to the input data set. The objective is to make a better use of the cache and to eliminate references to data blocks that are no longer in use. Our proposal was able to significantly reduce the main memory usage and improves the overall performance with the increasing of cache memory usage.
79

Sensores optoquímicos integrados basados en guías de onda

Puyol Bosch, M. del Mar (Maria del Mar) 29 November 2003 (has links)
Con el fin de solucionar los problemas derivados de la falta de sensibilidad o la alta complejidad de los sensores ópticos integrados basados en medidas de absorbancia, a lo largo de la tesis se diseñó y construyó una plataforma versátil, viable para el desarrollo de dispositivos sensores basados en óptica integrada, para la determinación selectiva de diferentes analitos. Éste se basa en un dispositivo construido mediante guías de onda planas, integradas en una matriz de silicio. Además, para simplificar su diseño instrumental, el acoplamiento del dispositivo a la fuente de luz y al detector se realiza mediante fibras ópticas.El diseño planteado para cumplir los requisitos citados consiste en un circuito microfabricado de guías de onda ARROW y en una membrana químicamente activa, de un determinado grosor, depositada en una zona definida del circuito de guías, que actúa simultáneamente como parte de la estructura plana de guiado y como elemento de reconocimiento. El mecanismo de transducción se basa en el fenómeno de absorción, que es modulado por la membrana selectiva al interaccionar con el analito presente en la disolución.Se formularon diversas membranas poliméricas que incorporaban cromoionóforos NIR sensibles a protón de la familia de las cetocianinas y se formuló y caracterizó una membrana modelo selectiva de ión cadmio compuesta por la combinación de una de las cetocianinas (5ee) evaluadas previamente en un sensor integrado, con un ionóforo comercial (ETH 5435) selectivo de cadmio. Su caracterización espectroscópica (estabilidad química y fotoquímica, posición de bandas, respuesta a pH, pKa, tiempo de respuesta) demostró su excelente comportamiento analítico. Se obtuvieron membranas completamente reversibles, de alta sensibilidad y respuesta rápida y reproducible.Para aprovechar las características de respuesta óptimas de las membranas poliméricas desarrolladas, que incorporaban cetocianinas como cromoionóforos de protón, éstas se incorporaron como elemento de reconocimiento de sensores ópticos integrados. Se diseñó un sistema de análisis por inyección en flujo como metodología simple, automática y reproducible para la caracterización de las membranas desarrolladas, y se integró el sensor como detector. Los resultados obtenidos probaron que una de las ventajas que ofrece el uso de la nueva configuración es el incremento de la sensibilidad sin necesidad de aumentar la concentración de cromoionóforo de la membrana, posibilidad que vendría limitada por su solubilidad, y sin aumentar el grosor de ésta, lo que provocaría un incremento del tiempo de respuesta. Para ambas configuraciones y en idénticas condiciones experimentales, se determinó el tiempo de respuesta de las membranas. Los resultados mostraron como la variación total en unidades de absorbancia conseguido para cada salto de concentración se multiplicaba al utilizar el sensor, mientras que el tiempo de respuesta permanecía equivalente en ambas configuraciones, señal inequívoca de que el grosor de las membranas utilizadas era similar. / The present work pretends to address some of the weak points of the absorbance techniques. Besides increasing the dye concentration in the membrane, which is limited by its solubility in the plasticizer, there are two effective alternatives to improve sensitivity: on the one hand, increasing the optical path length and on the other hand, changing the optically active reagent to another one with higher molar absortivity. With that in mind, we first designed and built a new integrated waveguide absorbance optode (IWAO) for chemical sensing based on radiation transmission through the core of a waveguide. The device consisted of a microfabricated planar waveguide circuit, based on antiresonant reflecting optical waveguide structures (ARROW), and on a chemically active membrane, of a suitable thickness, deposited in a defined region of the former and yielding one part of the light guiding planar structure. Concerning the transduction mechanism, it is established by absorbance/transmittance phenomena of the recognition optode membrane as it interacts with a given concentration of the analyte in the sample.We proceed evaluating the optical and analytical characteristics of a series of novel neutral pH indicators, a class of ketocyanine dyes in PVC membranes. Optical membranes were characterized initially with a conventional absorbance/transmittance flow cell in a continuous-flow system to perform a comparative study of the analytical response. All the parameters determining the membrane response were optimized in order to guarantee the same operational conditions, using the conventional technique as well as the IWAO. The absorbance change achieved with the conventional configuration was multiplied using the sensor almost for every step change, while the response times for both devices were comparable. As a result of the excellent elicited results, the developed IWAO became a very promising device, with large applicability that adapted existing absorbance schemes to the design and construction of novel specific optochemical sensors.Ketocyanine dyes appear to be completely soluble in the organic solvent used as the plasticizer, and no aggregation was observed during any of the experiments. The absorbance maxima of ketocyanine dyes in ethanol were slightly red-shifted (longer wavelength) in this less polar solvent, approaching the working wavelength of the IWAO optical system.Membranes showed good performance during calibrations and basicities were calculated from the equilibrium constant, KaMEM, of each ketocyanine in the membrane. Concerning their stability, photostability was studied in dry and humid conditions under the exposure of different light sources. None of the ketocyanine dyes suffered decomposition in the acid form, but all of them slowly decomposed at their basic form and it was possible to conclude that the tested dyes did not leach to the solution.Finally, analytical response characteristics as sensitivity, response time and reproducibility were checked. In conclusion, all of the prepared and tested membranes can be considered very sensitive, fast, and reversible optical transducers, suitable for pH determinations. The composition of a cadmium-selective membrane was optimized using one of the ketocyanine dyes characterized as a pH indicator in a PVC-polymeric membrane, in combination with a commercial cadmium ionophore. We performed a screen-printing like deposition technique to activate the planar sensor platform with this bulk optode. The sensor integration as a detector in a flow injection system (FIA) was proposed to obtain an automated, simple, and sufficiently reproducible analytical methodology with a high sample throughput.In conclusion, the proposed technologically improved IWAO made evident its appropriateness as a versatile platform for the development of ion-selective optical sensors, depending on the membrane composition, which also permitted to obtain disposable transducers. Actually, investigations are focused on improving ion-selective membranes as well as giving ruggedness and portability to the optical system for the future transference of technology and even though, taking profit of the employed technology to develop optical sensors based on other optical phenomena as fluorescence.
80

Characterization of s-oxidizing biomass through respirometric techniques under anoxic and aerobic conditions

Mora Garrido, Mabel 12 December 2014 (has links)
La monitorització de l’activitat biològica en biofiltres percoladors és complexa ja que implica l’estimació de la concentració de biomassa i el rendiment de creixement. Aquestes dades no són senzilles de calcular quan la biomassa creix de forma immobilitzada. En aquesta tesi es porta a terme la caracterització de biomassa sulfuroxidant extreta de diferents biofiltres percoladors, emprats per a la desulfuració de biogas, a través de tècniques respiromètriques i titrimètriques. Durant l’estudi realitzat amb biomassa SO-NR i tiosulfat com a donador d’electrons, no es va observar competència entre el consum de nitrat i de nitrit. Els productes finals de la reacció depenien de la relació inicial S2O3 2--S/NO3 --N però aquesta relació no tenia efectes sobre les velocitats de consum de tiosulfat ni de desnitrificació. Dels perfils respiromètrics també es va observar que els consums específics de nitrit depenien de les característiques de la biomassa. La respirometria anòxica acoblada a la titrimetria va ser la metodologia emprada per a resoldre l’estequiometria de la desnitrificació en dues etapes (NO3-NO2- N2). El model cinètic proposat per a descriure la desnitrificació es va calibrar i validar estimant els paràmetres cinètics que descrivien els perfils respiromètrics fent servir nitrat i nitrit amb biomassa aclimatada i no aclimatada a nitrit. Finalment, un cop a desnitrificació va ser ben caracteritzada, es va utilitzar sulfur com a donador d’electrons i es va proposar, calibrar i validar un model cinètic que descrivís completament el procés biològic. Un cop caracteritzada la biomassa SO-NR es va utilitzar la respirometria LFS per a estudiar els mecanismes implicats a la oxidació biològica de sulfur i sofre en condicions aeròbies. Fenòmens com l’stripping o oxidació química del suflur també es va caracteritzar ja que podien interferir a la mesura de l’activitat biològica. L’estequiometria del procés així com els mecanismes de degradació i el model cinètic es van proposar. El model es va calibrar i validar amb els perfils respiromètrics sense incloure cap selectivitat cap a la formació de sofre o sulfat en funció de la relació O2/S disponible. Es va observar que els bacteris consumien preferentment el sulfur tot i haver un excés d’oxigen al medi. En aquest cas es va utilitzar un model de consum de partícules per a descriure la oxidació del sofre ja que l’equació de Monod no descrivia un perfil tan sensible com el de l’oxigen dissolt. L’últim estudi inclòs en aquesta tesi és el d’aplicació d’una tècnica novedosa, la respirometria heterogènia, per a avaluar l’activitat biològica de les cèl·lules en estat immobilitzat. Es van estudiar els fenòmens de transferència de matèria, així com l’activitat sulfur-oxidant amb dos tipus de material de rebliment obtinguts de biofiltres percoladors. Es va desenvolupar un model matemàtic per a determinar els coeficients cinètics així com les propietats morfològiques del biofilm. Es va observar que la difusió de l’oxigen és el pas limitant en aquells biofilms amb elevada activitat biològica. / Monitoring the biological activity in biotrickling filters (BTF) is difficult since it implies estimating biomass concentration and its growth yield, which can hardly be measured in immobilized biomass systems. In this study, the characterization of sulfur oxidizing biomass (SOB) obtained from different desulfurizing BTFs was performed through the application of respirometric and titrimetric techniques. The study performed with SO-NR biomass and thiosulfate as electron donor revealed that no competitive inhibition occurred when nitrate and nitrite were present in the medium. Moreover, final bioreaction products depended on the initial S2O3 2--S/NO3 --N ratio although such ratio did not affect thiosulfate oxidation or denitrification rates. Moreover, respirometric profiles showed that the specific nitrite uptake rate depended on the biomass characteristics. Then, the coupling of respirometry and titrimetry was the method used to solve the two-step denitrification (NO3 - NO2 - N2) stoichiometry. Afterwards, a kinetic model describing denitrification associated to thiosulfate oxidation was calibrated and validated through the estimation of several kinetic parameters from the fitting of experimental respirometric profiles using the stoichiometry previously solved. The profiles were obtained using either nitrate or nitrite as electron acceptors for acclimated and non-acclimated biomass to nitrite. Finally, sulfide was used as electron donor and again a kinetic model was proposed, calibrated and validated using the procedure developed in previous chapters. After the characterization of SOB under anoxic conditions, the LFS respirometry was used in order to find out which were the mechanisms involved in biological sulfide oxidation under aerobic conditions. Other physical-chemical phenomena, as H2S stripping or chemical oxidation of H2S(aq), were characterized since they might cause interference over the biological activity measurement. Besides the stoichiometry of the process, a kinetic model describing each of the reactions occurring during sulfide oxidation was calibrated and validated. No product selectivity was found related with the O2/S ratio available in the medium. Moreover, it was found that sulfide was preferentially consumed and oxidized to elemental sulfur even though an excess of oxygen was present in the medium. The shrinking particle equation was included in the kinetic model to describe elemental sulfur oxidation since the oxygen profile could not be described with a simple Monod equation. As an innovative technique, the heterogeneous respirometry was applied to assess the biological activity of immobilized cells (biofilm). Mass transport and the activity of sulfide-oxidizing biofilms attached on two types of packed beds, originated from operative biotrickling filters, were studied under aerobic conditions. A mathematical model for the determination of kinetic-related parameters such as the maximum OUR and morphological properties of biofilm was developed and calibrated. It was found that the oxygen diffusion rate was the limiting step in the case of very active biofilms.

Page generated in 0.0348 seconds