• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 298
  • 104
  • 64
  • 28
  • 2
  • 1
  • 1
  • Tagged with
  • 498
  • 118
  • 101
  • 98
  • 85
  • 71
  • 58
  • 56
  • 56
  • 56
  • 56
  • 56
  • 56
  • 56
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

Analysis and Design of Bulk Acoustic Wave Filters Based on Acoustically Coupled Resonators

Corrales López, Edén 14 June 2011 (has links)
El ràpid creixement dels sistemes de telecomunicacions sense fils ha portat a una creixent demanda de dispositius mòbils amb requisits cada vegada més estrictes per als filtres de microones incloent un millor rendiment, miniaturització i la reducció de costos. Una nova tecnologia de filtres de RF s’ha consolidat en l'última dècada: la tecnologia BAW. Els filtres BAW són perfectament adequats com a filtres miniaturitzats i d'alt rendiment per a aplicacions d'alta freqüència. En comparació amb la tecnologia SAW, els filtres BAW proporcionen menors pèrdues d'inserció, una millor selectivitat, compatibilitat CMOS, millor maneig de potència i una major freqüència de treball. Un CRF BAW és un dels més recents filtres BAW que permet oferir una àmplia gamma de noves i interessants propietats en comparació dels seus predecessors. Basat en el concepte de ressonadors acoblats acústicament, es poden oferir respostes Chebyshev clàssiques i avançades, millor ample de banda, més miniaturització i conversió de mode. La complexitat d'un CRF és considerable en termes de disseny i fabricació, a causa de la quantitat de làmines que el conformen. El disseny de filtres BAW es basa en dimensionar les capes del dispositiu. El disseny és complex i els procediments d'optimització poden no ser eficients a causa de la quantitat de variables que intervenen en el procés. En aquest treball es presenta una metodologia d'anàlisi i síntesi. Les tècniques poden fer front a les estructures de diverses capes d'una manera directa. Es presenta un conjunt de models circuitals completament elèctrics que simplifiquen i recullen el comportament dels CRF, dispositius que funcionen tant en els dominis elèctric i mecànic. S'han establert un conjunt d'eines per analitzar el ressonador per mitjà de teoria de xarxes i és la base per a l'anàlisi d'estructures compostes de diversos ressonadors i múltiples capes de làmines primes. Es desenvolupa un model per al CRF utilitzant transformacions de xarxa i aproximacions respecte a les freqüències de funcionament dels dispositius BAW. Es presenta un anàlisi profund del BAW CRF amb els models proposats com una eina que permet guiar el procediment analític. L'anàlisi dels filtres facilita una millor comprensió del seu funcionament i una manera d'establir els límits de les respostes que poden oferir. Es presenten metodologies de disseny de filtres amb la finalitat d'obtenir les geometries de l'estructura i la topologia dels filtres BAW per complir amb les respostes prescrites. El disseny del filtre es dona a partir d'una comprensió clara dels seus mecanismes de filtratge de manera que facilita l'explotació de les seves característiques inherents. Les respostes avançades amb zeros de transmissió o els filtres de banda de rebuig procedents dels nous dispositius presentats es sintetitzen per mitjà de les metodologies proposades. / El rápido crecimiento de los sistemas de telecomunicaciones inalámbricas ha llevado a una creciente demanda de dispositivos móviles con requisitos cada vez más estrictos para los filtros de microondas incluyendo un mejor rendimiento, miniaturización y la reducción de costes. Una nueva tecnología de filtros de RF se ha consolidado en la última década: la tecnología BAW. Los filtros BAW son perfectamente adecuados como filtros miniaturizados y de alto rendimiento para aplicaciones de alta frecuencia. En comparación con la tecnología SAW, los filtros BAW proporcionan menores pérdidas de inserción, una mejor selectividad, compatibilidad CMOS, mejor manejo de potencia y una mayor frecuencia de trabajo. Un CRF BAW es uno de los más recientes filtros BAW que permite ofrecer una amplia gama de nuevas e interesantes propiedades en comparación con sus predecesores. Basado en el concepto de resonadores acoplados acústicamente, se pueden ofrecer respuestas Chebyshev clásicas y avanzadas, mejor ancho de banda, más miniaturización y conversión de modo. La complejidad de un CRF es considerable en términos de diseño y fabricación, debido a la cantidad de láminas que lo conforman. El diseño de filtros BAW se basa en dimensionar las capas del dispositivo. El diseño es complejo y los procedimientos de optimización pueden no ser eficientes debido a la cantidad de variables que intervienen en el proceso. En este trabajo se presenta una metodología de análisis y síntesis. Las técnicas pueden hacer frente a las estructuras de varias capas de una manera directa. Se presenta un conjunto de modelos circuitales completamente eléctricos que simplifican y recogen el comportamiento de los CRF, dispositivos que funcionan tanto en los dominios eléctrico y mecánico. Se han establecido un conjunto de herramientas para analizar el resonador mediante teoría de redes y es la base para el análisis de estructuras compuestas de varios resonadores y múltiples capas de láminas delgadas. Se desarrolla un modelo para el CRF utilizando transformaciones de red y aproximaciones respecto a las frecuencias de funcionamiento de los dispositivos BAW. Se presenta un análisis profundo del BAW CRF con los modelos propuestos como una herramienta que permite guiar el procedimiento analítico. El análisis de los filtros facilita una mejor comprensión de su funcionamiento y una manera de establecer los límites de las respuestas que pueden ofrecer. Se presentan metodologías de diseño de filtros con el fin de obtener las geometrías de la estructura y la topología de los filtros BAW para cumplir con las respuestas prescritas. El diseño del filtro se da a partir de una comprensión clara de sus mecanismos de filtrado de modo que facilita la explotación de sus características inherentes. Las respuestas avanzadas con ceros de transmisión o los filtros de banda de rechazo procedentes de los nuevos dispositivos presentados se sintetizan por medio de las metodologías propuestas. / The speedy growth of wireless telecommunication systems has led to an increasing demand for hand-held devices with more and more stringent requisites for microwave filters including better performance, miniaturization and reduced costs. A new RF filter technology has emerged during the last decade: BAW technology. BAW filters are perfectly suitable as miniaturized high performance filters for high frequency and power applications. Compared to SAW filter technology, BAW filter solutions can provide lower insertion loss, better selectivity, CMOS compatibility, higher power handling and higher operation frequency.A BAW CRF is one of the latest BAW filter topologies to offer a range of new and interesting properties compared to its predecessors. Based on the concept of acoustically coupled resonators, it can provide classical and advanced Chebyshev responses, better bandwidths, more miniaturization and mode conversion. The complexity of a CRF is considerable in terms of design and fabrication due to the quantity of films that it comprises.The design of BAW filters is based on sizing the layers of the physical device. It becomes complicated with this amount of layers, and optimization procedures may not be efficient due to the number of variables involved in the process. A methodology to analyze and synthesize BAW CRFs is presented in this work. The techniques can deal with multilayered structures in a straightforward way.A set of fully electric circuital models that simplify and gather the behavior of CRFs, devices that work both in the electrical and the mechanical domains, are presented. A set of tools to analyze the resonator by means of network theory is established and is the basis for analyzing structures composed of several resonators and multiple thin-film layers. A model for the most basic CRF is developed using network transformations and approximations regarding the frequencies of operation of the BAW devices.A profound analysis of BAW CRFs is presented using the proposed models as an enabling tool to guide the analytical procedure. The analysis of those filters facilitates a better understanding of their performance and a way to establish the limits on the responses that they can provide. Systematic filter design methodologies are presented in order to obtain the structure geometries and topologies of BAW filters to fulfill prescribed responses in such a way that fully time-consuming and sometimes not very controlled optimization-oriented procedures are avoided. The design of the filter from a clear understanding of its performances facilitates the exploitation of its inherent characteristics. Advanced responses with transmission zeros or stopband filters coming from new devices are synthesized by means of the proposed methodologies.
292

Perceptual Criteria on Image Compression

Moreno Escobar, Jesús Jaime 01 July 2011 (has links)
Hoy en día las imágenes digitales son usadas en muchas areas de nuestra vida cotidiana, pero estas tienden a ser cada vez más grandes. Este incremento de información nos lleva al problema del almacenamiento de las mismas. Por ejemplo, es común que la representación de un pixel a color ocupe 24 bits, donde los canales rojo, verde y azul se almacenen en 8 bits. Por lo que, este tipo de pixeles en color pueden representar uno de los 224 ¼ 16:78 millones de colores. Así, una imagen de 512 £ 512 que representa con 24 bits un pixel ocupa 786,432 bytes. Es por ello que la compresión es importante. Una característica importante de la compresión de imágenes es que esta puede ser con per didas o sin ellas. Una imagen es aceptable siempre y cuando dichas perdidas en la información de la imagen no sean percibidas por el ojo. Esto es posible al asumir que una porción de esta información es redundante. La compresión de imágenes sin pérdidas es definida como deco dificar matemáticamente la misma imagen que fue codificada. En la compresión de imágenes con pérdidas se necesita identificar dos características: la redundancia y la irrelevancia de in formación. Así la compresión con pérdidas modifica los datos de la imagen de tal manera que cuando estos son codificados y decodificados, la imagen recuperada es lo suficientemente pare cida a la original. Que tan parecida es la imagen recuperada en comparación con la original es definido previamente en proceso de codificación y depende de la implementación a ser desarrollada. En cuanto a la compresión con pérdidas, los actuales esquemas de compresión de imágenes eliminan información irrelevante utilizando criterios matemáticos. Uno de los problemas de estos esquemas es que a pesar de la calidad numérica de la imagen comprimida es baja, esta muestra una alta calidad visual, dado que no muestra una gran cantidad de artefactos visuales. Esto es debido a que dichos criterios matemáticos no toman en cuenta la información visual percibida por el Sistema Visual Humano. Por lo tanto, el objetivo de un sistema de compresión de imágenes diseñado para obtener imágenes que no muestren artefactos, aunque su calidad numérica puede ser baja, es eliminar la información que no es visible por el Sistema Visual Humano. Así, este trabajo de tesis doctoral propone explotar la redundancia visual existente en una imagen, reduciendo frecuencias imperceptibles para el sistema visual humano. Por lo que primeramente, se define una métrica de calidad de imagen que está altamente correlacionada con opiniones de observadores. La métrica propuesta pondera el bien conocido PSNR por medio de una modelo de inducción cromática (CwPSNR). Después, se propone un algoritmo compresor de imágenes, llamado Hi-SET, el cual explota la alta correlación de un vecindario de pixeles por medio de una función Fractal. Hi-SET posee las mismas características que tiene un compresor de imágenes moderno, como ser una algoritmo embedded que permite la transmisión progresiva. También se propone un cuantificador perceptual(½SQ), el cual es una modificación a la clásica cuantificación Dead-zone. ½SQes aplicado a un grupo entero de pixelesen una sub-banda Wavelet dada, es decir, se aplica una cuantificación global. A diferencia de lo anterior, la modificación propuesta permite hacer una cuantificación local tanto directa como inversa pixel-por-pixel introduciéndoles una distorsión perceptual que depende directamente de la información espacial del entorno del pixel. Combinando el método ½SQ con Hi-SET, se define un compresor perceptual de imágenes, llamado ©SET. Finalmente se presenta un método de codificación de areas de la Región de Interés, ½GBbBShift, la cual pondera perceptualmente los pixeles en dichas areas, en tanto que las areas que no pertenecen a la Región de Interés o el Fondo sólo contendrán aquellas que perceptualmente sean las más importantes. Los resultados expuestos en esta tesis indican que CwPSNR es el mejor indicador de calidad de imagen en las distorsiones más comunes de compresión como son JPEG y JPEG2000, dado que CwPSNR posee la mejor correlación con la opinión de observadores, dicha opinión está sujeta a los experimentos psicofísicos de las más importantes bases de datos en este campo, como son la TID2008, LIVE, CSIQ y IVC. Además, el codificador de imágenes Hi-SET obtiene mejores resultados que los obtenidos por JPEG2000 u otros algoritmos que utilizan el fractal de Hilbert. Así cuando a Hi-SET se la aplica la cuantificación perceptual propuesta, ©SET, este incrementa su eficiencia tanto objetiva como subjetiva. Cuando el método ½GBbBShift es aplicado a Hi-SET y este es comparado contra el método MaxShift aplicado al estándar JPEG2000 y a Hi-SET, se obtienen mejores resultados perceptuales comparando la calidad subjetiva de toda la imagen de dichos métodos. Tanto la cuantificación perceptual propuesta ½SQ como el método ½GBbBShift son algoritmos generales, los cuales pueden ser aplicados a otros algoritmos de compresión de imágenes basados en Transformada Wavelet tales como el mismo JPEG2000, SPIHT o SPECK, por citar algunos ejemplos. / Nowadays, digital images are used in many areas in everyday life, but they tend to be big. This increases amount of information leads us to the problem of image data storage. For example, it is common to have a representation a color pixel as a 24-bit number, where the channels red, green, and blue employ 8 bits each. In consequence, this kind of color pixel can specify one of 224 ¼ 16:78 million colors. Therefore, an image at a resolution of 512 £ 512 that allocates 24 bits per pixel, occupies 786,432 bytes. That is why image compression is important. An important feature of image compression is that it can be lossy or lossless. A compressed image is acceptable provided these losses of image information are not perceived by the eye. It is possible to assume that a portion of this information is redundant. Lossless Image Compression is defined as to mathematically decode the same image which was encoded. In Lossy Image Compression needs to identify two features inside the image: the redundancy and the irrelevancy of information. Thus, lossy compression modifies the image data in such a way when they are encoded and decoded, the recovered image is similar enough to the original one. How similar is the recovered image in comparison to the original image is defined prior to the compression process, and it depends on the implementation to be performed. In lossy compression, current image compression schemes remove information considered irrelevant by using mathematical criteria. One of the problems of these schemes is that although the numerical quality of the compressed image is low, it shows a high visual image quality, e.g. it does not show a lot of visible artifacts. It is because these mathematical criteria, used to remove information, do not take into account if the viewed information is perceived by the Human Visual System. Therefore, the aim of an image compression scheme designed to obtain images that do not show artifacts although their numerical quality can be low, is to eliminate the information that is not visible by the Human Visual System. Hence, this Ph.D. thesis proposes to exploit the visual redundancy existing in an image by reducing those features that can be unperceivable for the Human Visual System. First, we define an image quality assessment, which is highly correlated with the psychophysical experiments performed by human observers. The proposed CwPSNR metrics weights the well-known PSNR by using a particular perceptual low level model of the Human Visual System, e.g. the Chromatic Induction Wavelet Model (CIWaM). Second, we propose an image compression algorithm (called Hi-SET), which exploits the high correlation and self-similarity of pixels in a given area or neighborhood by means of a fractal function. Hi-SET possesses the main features that modern image compressors have, that is, it is an embedded coder, which allows a progressive transmission. Third, we propose a perceptual quantizer (½SQ), which is a modification of the uniform scalar quantizer. The ½SQ is applied to a pixel set in a certain Wavelet sub-band, that is, a global quantization. Unlike this, the proposed modification allows to perform a local pixel-by-pixel forward and inverse quantization, introducing into this process a perceptual distortion which depends on the surround spatial information of the pixel. Combining ½SQ method with the Hi-SET image compressor, we define a perceptual image compressor, called ©SET. Finally, a coding method for Region of Interest areas is presented, ½GBbBShift, which perceptually weights pixels into these areas and maintains only the more important perceivable features in the rest of the image. Results presented in this report show that CwPSNR is the best-ranked image quality method when it is applied to the most common image compression distortions such as JPEG and JPEG2000. CwPSNR shows the best correlation with the judgement of human observers, which is based on the results of psychophysical experiments obtained for relevant image quality databases such as TID2008, LIVE, CSIQ and IVC. Furthermore, Hi-SET coder obtains better results both for compression ratios and perceptual image quality than the JPEG2000 coder and other coders that use a Hilbert Fractal for image compression. Hence, when the proposed perceptual quantization is introduced to Hi-SET coder, our compressor improves its numerical and perceptual e±ciency. When ½GBbBShift method applied to Hi-SET is compared against MaxShift method applied to the JPEG2000 standard and Hi-SET, the images coded by our ROI method get the best results when the overall image quality is estimated. Both the proposed perceptual quantization and the ½GBbBShift method are generalized algorithms that can be applied to other Wavelet based image compression algorithms such as JPEG2000, SPIHT or SPECK.
293

Tecnologies reproductives aplicades a la conservació del burro Català

Taberner Brugué, Ester 21 June 2011 (has links)
L’objectiu general d’aquesta tesi és l’estudi de les característiques reproductives del mascle i de la femella del burro Català per aplicar tecnologies reproductives que potenciïn la seva cria i evitin l’extinció d’aquesta raça de burro. El primer treball va estudiar el comportament sexual, les característiques del cicle estral i la predicció de l’ovulació en la burra Catalana. Els signes de zel més característics observats en les burres foren l’obertura i tancament de la boca junt amb l’extensió de les orelles enrere, orinar i vulvejar. Es va determinar que la durada del cicle estral era de 24.9 ± 0.3 dies, on el zel tenia una durada de 5.6 ± 0.2 dies. Les ovulacions es produïen amb un diàmetre mig preovulatori de 44.9 ± 0.5 mm i es va observar un percentatge elevat d’ovulacions múltiples (44.3%). La combinació dels següents paràmetres: diàmetre fol·licular, textura fol·licular i comportament de zel van determinar-se com els millors predictors de l’ovulació. El segon treball va estudiar l’efecte de la dilució i la centrifugació del semen (dos mètodes d’eliminació del plasma seminal) sobre la viabilitat, la motilitat i l’estructura subpoblacional mòtil del semen de burro Català refrigerat a 5ºC durant 24, 48 i 72h. Es va observar que la centrifugació o una ràtio de dilució elevada (1:10) eren els tractaments que mantenien més òptimament la viabilitat espermàtica durant les primeres 48h de refrigeració. L’estructura de 4 subpoblacions espermàtiques mòtils es mantenia amb la dilució o centrifugació, ara bé, només les mostres centrifugades després de 24h de refrigeració (5ºC) mantenien exactament la mateixa proporció d’espermatozoides en cada subpoblació que les mostres de semen fresc. El tercer treball va avaluar els canvis en la viabilitat i la motilitat que pateixen els espermatozoides de ruc Català durant la refrigeració (2h) i posterior centrifugació a tres temperatures diferents (5, 15 i 20ºC). En tots els tractaments es van mantenir les 4 subpoblacions mòtils del semen del ruc, observant que la refrigeració i centrifugació a 20ºC era la que mantenia l’estructura subpoblacional espermàtica més similar al semen fresc de burro Català. El quart estudi va valorar els efectes de la congelació-descongelació del semen de burro Català en comparació amb el semen de porc, sobre l’estructura subpoblacional mòtil i la viabilitat dels espermatozoides. Les característiques de motilitat dels espermatozoides de burro i de porc van respondre de manera molt diferent al procés de congelació-descongelació, mantenint però en els dos casos l’estructura de 4 subpoblacions mòtils. Els canvis en els valors mitjans de motilitat en les dues espècies estudiades es van deure sobretot, a canvis en les proporcions dels espermatozoides inclosos en cada subpoblació específica. En l’últim treball es va desenvolupar un model per avaluar la funcionalitat espermàtica del semen fresc i congelat de burro Català mitjançant l’interacció dels espermatozoides amb oòcits bovins lliures de zona pel·lúcida. Els espermatozoides de burro van ser capaços de fusionar-se amb l’oolemma i descondensar-se i formar el pronucli masculí (85-94%). Es va observar que les mostres de semen fresc i descongelat amb una viabilitat elevada (>60%) tenien índex de penetració superiors a les mostres amb viabilitat baixa (<40%). Així doncs, es van obtenir correlacions positives significatives (P<0.01) entre el percentatge de fecundació i la viabilitat (r=0.84), i també amb alguns paràmetres de motilitat (VAP, r=0.56; VCL, r=0.61; and mean ALH, r=0.68). En conclusió, una predicció adequada de l’ovulació de les burres, juntament amb l’utilització dels mètodes òptims de maneig i congelació del semen de ruc Català contribuiran positivament a l’aplicació de tecnologies reproductives en programes de cria que ajudin a evitar l’extinció d’aquesta raça. / The aim of this work is the knowledge of Catalonian donkey reproductive features of its females and males in order to apply reproductive technologies to maximize the production of live foals and help conserve the breed. In the first work we studied the reproductive behaviour, oestrous cycle characteristics and indicators that predict the moment of ovulation of the Catalonian donkey. The main signs of oestrus detected were mouth clapping, urinating and contraction and relaxation of the labia of the vulva with eversion of the clitoris. The length of the oestrus cycle was 24.9 ± 0.3 days, with oestrus itself lasting 5.6 ± 0.2 days. The mean diameter of the preovulatory follicle at day -1 was 44.9 ± 0.5 mm and we observed high incidence of multiple ovulations (44.3%). The combination of follicle size, follicle texture and oestrous behaviour were the best predictors of ovulation. In the second study we evaluated the effects of dilution and centrifugation (two methods of reducing the influence of the seminal plasma) on the survival of spermatozoa and the structure of motile sperm cell subpopulations in refrigerated Catalonian donkey semen at 24, 48 and 72h. At 48h, more surviving spermatozoa were seen in the more diluted (1:10) and in the centrifuged semen samples. The four donkey motile sperm subpopulations were maintained by refrigeration and centrifugation, moreover only centrifuged samples and only at 24h (5ºC) showed exactly the same motile sperm subpopulation proportions as recorded for fresh sperm. In the third work we assessed the effect of three storage temperatures (5, 15, 20ºC) on the survival and motility of Catalonian donkey sperm during transport (2h) to the laboratory for centrifugation. All treatments maintained the four motile sperm subpopulation, but 2h of storage at 20ºC followed by centrifugation was the treatment that maintained subpopulation structure more similar than fresh samples. In the fourth study we evaluated the influence of freeze/thawing on motile sperm subpopulations and sperm viability in ejaculates from two phylogenetically different mammalian species, boar and donkey. Boar and donkey sperm respond very differently in their mean motion characteristics to freezing/thawing, this process did not change the existence of a 4-subpopulations structure in the ejaculates. Motility changes induced by freezing/thawing protocol are especially linked to changes in the specific percentage of each of the motile sperm subpopulations. In the last work we studied the interaction between fresh/frozen-thawed donkey spermatozoa and zona pellucida (ZP)-free bovine oocytes in an attempt to develop a model for assessing cryopreserved Catalonian donkey sperm function. The donkey spermatozoa were able to fuse with the oolema and even to decondense and form the male pronucleus (85-94%). Fresh or frozen-thawed high viability (>60%) spermatozoa had higher penetration percentage than fresh or frozen/thawed low viability (<40%) spermatozoa. A significant positive correlation (P<0.01) was detected between percentage fertilization and viability (r=0.84), and between percentage fertilization and certain CASA parameters (VAP, r=0.56; VCL, r=0.61; and mean ALH, r=0.68). In conclusion, the exact moment prediction of ovulation in Catalonian jennies and adequate donkey semen manipulation and cryopreservation should have a positive impact upon the reproductive technologies application. Such knowledge should help maximize the production of live foals and help conserve the breed.
294

Environment-Independent Moving Cast Shadow Suppression in Video Surveillance

Amato, Ariel 16 March 2012 (has links)
Aquesta tesi està orientada a la detecció i l’eliminació d’ombres en moviment. Les ombres es poden definir com una part de l’escena que no està directament il·luminada, pel fet que la font d’il·luminació es troba obstruïda per un o diversos objectes. Sovint, les ombres en moviment que es troben en imatges o en seqüències de vídeo són causa d’errors en l’anàlisi del comportament humà. Això es deu a que les ombres poden causar una degradació dels resultats dels algorismes de processament d’imatges aplicats a: detecció d’objectes, segmentació, vídeo vigilància o en propòsits similars. En aquesta tesi primer s’analitzen exhaustivament els mètodes de detecció d’ombres en moviment, i després amb l’objectiu de compensar les seves limitacions es proposa un nou mètode de detecció i eliminació d’aquest tipus d’ombres. El mètode proposat no fa servir informació a priori de l’escena, ni tampoc es restringeix a un tipus d’escena en concret. A més, el mètode proposat pot detectar tant ombres acromàtiques com també les cromàtiques, fins i tot quan hi ha camuflatge (és a dir, quan hi ha una forta similitud de color entre el foreground i l’ombra). Aquest mètode explota una propietat de constància local de color aconseguida a causa de la supressió de la reflectància en les regions amb ombres. Per detectar les regions amb ombres en una escena, els valors de la imatge del background són dividits pels valors de la imatge actual, tots dos en l’espai de color RGB. Al llarg de la tesi es demostra com aquesta divisió serà utilitzada per detectar segments amb gradients baixos i constants, que al seu torn s’utilitzen per distingir entre ombres i foregrounds. Els resultats experimentals duts a terme sobre base de dades públiques mostren un rendiment superior dels mètodes proposats en aquesta Tesi, comparat amb els mètodes actuals més sofisticats de detecci ó i eliminació d’ombres. A més els resultats demostren que el mètode proposat és robust i precís a l’hora detectar diferents tipus d’ombres en diferents tipus de vídeos. / This thesis is devoted to moving shadows detection and suppression. Shadows could be defined as the parts of the scene that are not directly illuminated by a light source due to obstructing object or objects. Often, moving shadows in images sequences are undesirable since they could cause degradation of the expected results during processing of images for object detection, segmentation, scene surveillance or similar purposes. In this thesis first moving shadow detection methods are exhaustively overviewed. Beside the mentioned methods from literature and to compensate their limitations a new moving shadow detection method is proposed. It requires no prior knowledge about the scene, nor is it restricted to assumptions about specific scene structures. Furthermore, the technique can detect both achromatic and chromatic shadows even in the presence of camouflage that occurs when foreground regions are very similar in color to shadowed regions. The method exploits local color constancy properties due to reflectance suppression over shadowed regions. To detect shadowed regions in a scene the values of the background image are divided by values of the current frame in the RGB color space. In the thesis how this luminance ratio can be used to identify segments with low gradient constancy is shown, which in turn distinguish shadows from foreground. Experimental results on a collection of publicly available datasets illustrate the superior performance of the proposed method compared with the most sophisticated state-of-the-art shadow detection algorithms. These results show that the proposed approach is robust and accurate over a broad range of shadow types and challenging video conditions.
295

Monolithic packaging and transduction approaches for CMOS-MEMS resonators

Marigó Ferrer, Eloi 20 December 2012 (has links)
El gran increment en el rendiment dels MEMS i la seva aplicació a multitud de camps ha motivat la seva recerca i desenvolupament. Des de la primera demostració d’un MEMS, moltes aplicacions han sorgit, essent el camp dels sensors el seu sector més competitiu. Aquesta dissertació tracta sobre dispositius MEMS amb aplicacions en el domini de la radiofreqüència, com per exemple ressonadors i oscil·ladors amb l’objectiu d’utilitzar-los com a referències de freqüència. El mètode implementat en el disseny i fabricació de tots els dispositius presentats en aquesta tesis es basa en una tecnologia comercial CMOS de 0.35µm. La utilització d’una tecnologia CMOS estàndard proporciona la capacitat d’integrar monolíticament els dispositius MEMS amb circuits CMOS incrementant-ne el rendiment i la fiabilitat. Relacionat amb l’àrea de fabricació, s’ha dissenyat, fabricat i caracteritzat un encapsulat per ressonadors CMOS-MEMS. S’han utilitzat varies aproximacions per aconseguir el segellat de la cavitat. També s’han encapsulat diferents tipus de ressonadors MEMS. S’ha demostrat que l’encapsulat proporciona protecció addicional als dispositius MEMS mantenint-ne la seva fiabilitat. Aquesta tesis també s’ha centrat en dos mètodes de transducció: capacitiu i piezoresistiu. S’han fabricat i mesurat diferents dispositius CMOS-MEMS amb sensat capacitiu amb freqüències dins de les bandes d’HF i VHF. S’han testejat oscil·ladors basats en diferents estructures mecàniques demostrant unes bones prestacions amb petites senyals de polarització. Des del punt de vista de transducció piezoresistiva s’han fabricat i testejat també diferents estructures mecàniques ressonants, essent la mesura obtinguda amb el pont de polisilici la demostració de l’aplicació del esquema de transducció piezoresistiu a ressonadors CMOS-MEMS. / The increasingly performance of MEMS and their applicability to a wide range of fields has motivated the research and development of such devices. From the first demonstration of MEMS several applications have grown being the field of sensors their most competitive area. The present dissertation deals with MEMS devices in radiofrequency domain such as resonators and oscillators with the aim to be used as frequency references. The approach employed in the design and fabrication of all the devices presented in this thesis is based on a 0.35µm commercial CMOS technology. The employment of a standard CMOS technology provides the capability to monolithically integrate MEMS devices with CMOS circuits enhancing their performance and reliability. Related with the fabrication, a package for CMOS-MEMS resonators has been designed, fabricated and characterized. Several approaches have been employed to perform the sealing of the cavity and different resonators were packaged. It is demonstrated that the package provides additional protection to the MEMS devices maintaining their reliability. The thesis was also focused on two major transduction methods: capacitive and piezoresistive. Different CMOS-MEMS devices with capacitive transduction were fabricated and measured providing resonant frequencies on the HF and VHF range. Some oscillators based on DETF and Free-free mechanical structures were also tested, demonstrating good performance with low biasing signals. From the piezoresistive sensing point of view several resonators were also fabricated and tested, being the measure obtained from a CCB the demonstration of the applicability of piezoresistive transduction to polysilicon CMOS-MEMS resonators.
296

Cardiac workstation and dynamic model to assist in coronary tree analysis

Toledo Morales, Ricardo 13 July 2001 (has links)
This thesis explores the issues involved in automatic coronary vessel analysis using deformable models and estimation algorithms. The work is carried out as a consequence of a previous international research and development project on multimedia and teleworking in medicine (radiology imaging). After developing and validating a multimedia workstation from a user perspective, the experience obtained showed the convenience to incorporate new computer vision tools to assist the physicians during the image assessment in the diagnostic process. The work presented is a part of a computer assisted diagnosis system within a telemedicine system.Focusing on cardiac imaging, the first step is to adapt the workstation to such image modality, then the goal is to build a computerised coronary tree model, able to incorporate 3D static (anatomical) and dynamic (vessel movements) data. Such a model is useful to increase the knowledge necessary when dealing with a difficult image modality in computer vision, like coronary angiography. To build the model, many computer vision problems have to be addressed. From low-level tasks as vessel detection up to high level ones like image understanding are necessarily covered. Mainly, deformable models (snakes) and estimation techniques are discussed and used with innovative ideas through the model building process. Ought to the tight dependence of the deformable models on the low level image feature detectors, new methods to learn the vessels based on statistical analysis and fine tune the detector are proposed increasing the segmentation confidence. A new statistical potential map is developed within a new energy minimising scheme. Snakes are also applied in the 3D-reconstruction process. A graph is designed and used to hold the knowledge of the complete model. The novel approach for vessel analysis and the final model were validated and the results are very encouraging.
297

Un modelo sintáctico para la representación, segmentación y reconocimiento de símbolos texturados en doucmentos gráficos

Sánchez Albaladejo, Gemma 05 November 2001 (has links)
El análisis de documentos es una de las áreas científicas de referencia de la Visión por Computador. Se ocupa de la identificación de entidades gráficas en un documento. Dentro de este área el reconocimiento de símbolos es un problema complejo y en el que existen todavía retos importantes, y puede definirse como la extracción de aquellas entidades gráficas con un significado determinado dentro del contexto en el que se enmarque el documento. Los símbolos los podemos dividir en dos clases principalmente, los basados en prototipos y los texturados, es decir símbolos que tienen alguna de sus partes formada por una textura estructurada.Las texturas estructuradas se definen por uno o varios elementos o texels que se distribuyen en el espacio siguiendo unas reglas de emplazamiento. En nuestro modelo de textura estructurada consideraremos que estos texels son polígonos cerrados o segmentos de línea. Análogamente, un plano o documento a reconocer se modeliza por medio de un grafo de regiones de adyacencia, en el que los nodos representan los polígonos encontrados en el plano y las aristas las relaciones entre ellos.El trabajo realizado tiene dos partes bien diferenciadas, la segmentación y el reconocimiento de texturas. En la primera, segmentamos texturas por medio de un clustering jerárquico sobre el grafo que representa el plano. De esta manera obtenemos una serie de clusters de polígonos similares con reglas de emplazamiento similares. Así los clusters donde encontramos un número suficiente de elementos están formando una textura y su representante es el polígono y la vecindad medios calculados. Cuando es una textura compuesta y está formada por más de un texel encontramos clusters solapados, y cada uno de ellos nos indica uno de los texels que forman la textura. La segunda fase infiere una representación de la textura a partir de los representantes de los clusters. Esta representación es una gramática de grafo que permite producciones de error. El proceso de inferencia gramatical se realiza teniendo en cuenta los texels que forman la textura y sus reglas de emplazamiento. A partir de ellas se calculan de forma automática los ciclos cerrados que forman estas vecindades y se generan las reglas de la gramática de grafo. Al final se introducen producciones de error para tolerar texturas distorsionadas por texels partidos o fusionados. Una vez la gramática ha sido calculada se reconoce el símbolo representado por ella mediante un parser que analiza un grafo de entrada y recorre los nodos del mismo que cumplen las reglas de la gramática agrupándolos en uno o varios clusters que serán las ocurrencias del símbolo en el grafo presentado.En resumen, en este trabajo proponemos soluciones para segmentar, mediante el clustering de formas, texturas estructuradas, y modelizar y reconocer un símbolo texturado mediante una gramática de grafo y el análisis sintáctico que podemos realizar con ella sobre un grafo, respectivamente.Palabras clave: Análisis de documentos gráficos, reconocimiento de símbolos, texturas estructuradas, reconocimiento sintáctico, gramáticas de grafo. / After decades of activity, Document Analysis continues being one of the main scientific areas in Computer Vision. The aim of the graphical document analysis is to identify graphical entities in a document. Symbol recognition is a complex problem in Graphical Document Analysis, and it still have important challenges for the scientific community. Symbol Recognition can be defined as the extraction of graphical entities which have a special meaning in the context of the analyzed document. Symbolscan be mainly divided in two classes, the prototyped-based symbols and the textured symbols, that means symbols with one or more of its parts formed by a structural texture.Structural textures are defined by one or more elements or texels distributed in the space following placement rules. In our structural texture model we consider texels as closed polygonals or line segments. On the other hand a document or plan to be analyzed is modeled by means of a Region Adjacency Graph, where the nodes represent polygonals found in the original document and the edges the relations among them.This dissertation has two parts well defined, the segmentation and the recognition of textures. In the first part, textures are segmented by means of a hierarchical clustering over the graph that represents the plan. In that way a set of clusters, formed by similar polygonals placed following similar rules, are obtained. Then the clusters with a certain number of elements are considered to form a texture and their representative is presented by the mean polygonal and the mean neighbourhood, both computed. When the texture is composed of more than one kind of texels, the clusters appear overlapped, one for each kind of texel forming the texture. The second part is devoted to infer the texture representation from the representative of the clusters. This representation is a graph grammar with error productions. The grammar inference process is done bearing in mind the texels forming the texture and their placement rules. From these rules the closed loops are computed automatically and the rules of the graph grammar are generated. At the end the error productions are introduced to tolerate textures distorted by cut or merged texels. Once the grammar is computed the symbol represented by it is recognized by parsing an input graph and visiting all the nodes following the rules of the grammar, and grouping them in one orseveral clusters which are the instances of the symbol in the input graph.To summarize, in this work a solution to segment structural textures, by means of shape clustering, is proposed. Then solutions to modelize a textured symbol by means of a grammar, and to recognize it by parsing with that grammar over an input graph, are presented.Key words: Graphical Document Analysis, SymbolRecognition, Structural Textures, Syntactical Pattern Recognition, Graph Grammars.
298

Perceptual approach to a computational colour texture representation for surface inspection

Baldrich i Caselles, Ramon 13 December 2001 (has links)
El principal objectiu d'aquest treball de tesi és tractar el problema de la representació de la textura en color des del punt de vista de la visió per computador. L'extensió dels mètodes classics de processament de textura per imatges en nivells de grisos als canals d'una imatge color no assegura resultats semblants als de la percepció humana en aquesta tasca. Els mecanismes d'inducció cromàtica del sistema visual humà, estudiats en psicofísica, són fonamentals en la dependència que crea l'entorn en la percepció del color. La inducció cromàtica inclou dos efectes complementaris: l'assimilació i el contrast cromàtic. Mentre el primer ja ha estat mesurat des de la psicofísica i extés a la visió per computador, molts aspectes del segon encara queden per fer. La contribució principal d'aquesta tesi és la definició d'un operador computacional que simula el fenòmen del contrast cromàtic i que té un comportament coherent amb el del sistema visual humà en diferents problemes de la percepcció de la textura en color, ja que permet enfatitzar les diferències de color en distribucions que són quasibé unimodals i així millorar la segmentació de les regions de color. El problema que encara queda obert és la realització de mesures psicofísiques pels paràmetres de l'operador, tal com es va fer amb l's-cielab per al procés d'assimilació.La definició de representacions computacionals de textura i color perceptuals és un objectiu de gran importància en els problemes d'inspecció automàtica de superfícies en els que els dispositius de la colorimetria clàssica no permeten donar bones mesures d'aparença de color. La segona contribució de la tesi defineix una representació computacional basada en mesures globals de color incloent-hi l'assimilació de color i mesures locals de les propietats de les regions segmentades considerant el contrast cromàtic. Aquesta representació és aplicada a la classificació de gres porcelànic.Tenint en compte que s'han de realitzar mesures molt acurades de petites diferències, s'ha dedicat una part d'aquest treball a l'adquisició d'imatges en color, i en concret a aconseguir bones propietats de constància de color. En aquest sentit, la darrera contribució de la tesi és la definició d'un algorisme de contància de color en línea per a una càmera lineal d'alta precisió de color. Aquest mètode s'ha basat en el model lineal diagonal de constància de color prèviament garantit amb una transformació que canvia les propietats de la sensibilitat de la càmera. / The main goal of this thesis is to deal with the colour texture representation problem from a computer vision point of view. It is easy to demonstrate that the extension of classical grey level methods for texture processing to the three channels of the corresponding colour texture does not succeed in having a human-like behaviour on this visual task. Chromatic induction mechanisms of the human visual system, which have been widely studied in psychophysics, play an important role on the dependency of the colour perception from its surround. Chromatic induction includes two complementary effects: chromatic assimilation and chromatic contrast. While the former has been psychophysically measured and lately extended to computer vision, some aspects on the last one still remain to be measured. The main contribution of this thesis is a computational operator that simulates the contrast induction phenomena that has demonstrated a coherent behaviour on different texture colour perception problems, since it allows to emphasise colour differences on almost-unimodal colour distributions and consequently improving the segmentation of colour regions. An open problem that will remain open from this work is the psychophysical measurement of the operator parameters, in the same sense as it was done with the s-cielab for the assimilation process.A perceptually consistent colour texture computational representation is a goal of extreme importance in automatic colour-textured surface inspection problems, where the classic colorimetric tools does not succeed in given good colour appearance measurements. In this scope, a second contribution is a colour-texture representation based on global colour features considering colour assimilation and local features based on properties of colour blobs considering colour contrast. This representation is applied to an automatic tile classification problem.Since an important accuracy is needed to measure such small differences, we have devoted a great part of this work to the colour acquisition issue, and to the problem of achieving good colour constancy properties on the acquired images. In this sense, a last contribution of this work has been to define an on-line colour constancy algorithm for a high colour precision scan line camera based on a diagonal linear colour constancy model previously guaranteed by linear transform changing the camera sensitivity properties.
299

Seguimiento visual robusto en entornos complejos

Varona Gómez, Javier 14 December 2001 (has links)
El seguimiento visual de objetos se puede expresar como un problema de estimación, donde se desea encontrar los valores que describen la trayectoria de los objetos, pero sólo se dispone de observaciones. En esta Tesis se presentan dos aproximaciones para resolver este problema en aplicaciones complejas de visión por computador. La primera aproximación se basa en la utilización de la información del contexto donde tiene lugar el seguimiento. Como resultado se presenta una aplicación de anotación de vÌdeo: la reconstrucción 3D de jugadas de un partido de fútbol. Escogiendo un esquema Bayesiano de seguimiento visual, la segunda aproximación es un algoritmo que utiliza como observaciones los valores de apariencia de los píxels de la imagen. Este algoritmo, denominado iTrack, se basa en la construcción y ajuste de un modelo estadístico de la apariencia del objeto que se desea seguir. Para mostrar la utilidad del nuevo algoritmo se presenta una aplicación de vÌdeo vigilancia automática. Este problema es difícil de resolver debido a la diversidad de escenarios y de condiciones de adquisición. / Visual tracking can be stated as an estimation problem. The main goal is to estimate the values that describe the object trajectories, but we only have observations of their true values. In this Thesis, we present two approaches to solve the problem in complex computer vision applications. The first approach is based on using the application context information. To show how the environment knowledge is a tracking valid approach, we present a video annotation application: the 3D reconstruction of a soccer match.Using the Bayesian probabilistic scheme, the second approach that we present is a visual tracking algorithm that uses directly the image values like observations. This algorithm, that we named iTrack, is based on a statistical model of the object appearance. To show the new algorithm performance we present an automatic video surveillance application. This problem is difficult due to the possible different scenes and the environment conditions.
300

On cascading small decision trees

Minguillón Alfonso, Julià 18 September 2002 (has links)
Aquesta tesi tracta sobre la utilització d'arbres de decisió petits per a la classificació i la mineria de dades. La idea intuïtiva darrera d'aquesta tesi és que una seqüència d'arbres de decisió petits pot rendir millor que un arbre de decisió gran, reduint tan el cost d'entrenament com el d'explotació.El nostre primer objectiu va ser desenvolupar un sistema capaç de reconèixer diferents tipus d'elements presents en un document com ara el fons, text, línies horitzontals i verticals, dibuixos esquemàtics i imatges. Aleshores, cada element pot ser tractat d'acord a les seves característiques. Per exemple, el fons s'elimina i no és processat, mentre que les altres regions serien comprimides usant l'algorisme apropiat, JPEG amb pèrdua per a les imatges i un mètode sense pèrdua per a la resta, per exemple. Els primers experiments usant arbres de decisió varen mostrar que els arbres de decisió construïts eren massa grans i que patien de sobre-entrenament. Aleshores, vàrem tractar d'aprofitar la redundància espacial present en les imatges, utilitzant una aproximació de resolució múltiple: si un bloc gran no pot ser correctament classificat, trencar-lo en quatre sub-blocs i repetir el procés recursivament per a cada sub-bloc, usant tot el coneixement que s'hagi calculat amb anterioritat. Els blocs que no poden ser processats per una mida de bloc donada s'etiqueten com a "mixed", pel que la paraula progressiu pren sentit: una primera versió de poca resolució de la imatge classificada és obtinguda amb el primer classificador, i és refinada pel segon, el tercer, etc., fins que una versió final és obtinguda amb l'últim classificador del muntatge. De fet, l'ús de l'esquema progressiu porta a l'ús d'arbres de decisió més petits, ja que ja no cal un classificador complex. En lloc de construir un classificador gran i complex per a classificar tot el conjunt d'entrenament, només provem de resoldre la part més fàcil del problema de classificació, retardant la resta per a un segon classificador, etc.La idea bàsica d'aquesta tesi és, doncs, un compromís entre el cost i la precisió sota una restricció de confiança. Una primera classificació es efectuada a baix cost; si un element és classificat amb una confiança elevada, s'accepta, i si no ho és, es rebutja i s'efectua una segona classificació, etc. És bàsicament, una variació del paradigma de "cascading", on un primer classificador s'usa per a calcular informació addicional per a cada element d'entrada, que serà usada per a millorar la precisió de classificació d'un segon classificador, etc. El que presentem en aquesta tesi és, bàsicament, una extensió del paradigma de "cascading" i una avaluació empírica exhaustiva dels paràmetres involucrats en la creació d'arbres de decisió progressius. Alguns aspectes teòrics relacionats als arbres de decisió progressius com la complexitat del sistema, per exemple, també són tractats. / This thesis is about using small decision trees for classification and data mining. The intuitive idea behind this thesis is that a sequence of small decision trees may perform better than a large decision tree, reducing both training and exploitation costs.Our first goal was to develop a system capable to recognize several kinds of elements present in a document such as background, text, horizontal and vertical lines, line drawings and images. Then, each element would be treated accordingly to its characteristics. For example, background regions would be removed and not processed at all, while the other regions would be compressed using an appropriate algorithm, the lossy JPEG standard operation mode for images and a lossless method for the rest, for instance. Our first experiments using decision trees showed that the decision trees we built were too large and they suffered from overfitting. Then, we tried to take advantage of spatial redundancy present in images, using a multi-resolution approach: if a large block cannot be correctly classified, split it in four subblocks and repeat the process recursively for each subblock, using all previous computed knowledge about such block. Blocks that could not be processed at a given block size were labeled as mixed, so the word progressive came up: a first low resolution version of the classified image is obtained with the first classifier, and it is refined by the second one, the third one, etc, until a final version is obtained with the last classifier in the ensemble. Furthermore, the use of the progressive scheme yield to the use of smaller decision trees, as we no longer need a complex classifier. Instead of building a large and complex classifier for classifying the whole input training set, we only try to solve the easiest part of the classification problem, delaying the rest for a second classifier, and so.The basic idea in this thesis is, therefore, a trade-off between cost and accuracy under a confidence constraint. A first classification is performed at a low cost; if an element is classified with a high confidence, it is accepted, and if not, it is rejected and a second classification is performed, and so. It is, basically, a variation of the cascading paradigm, where a first classifier is used to compute additional information from each input sample, information that will be used to improve classification accuracy by a second classifier, and so on. What we present in this thesis, basically, is an extension of the cascading paradigm and an exhaustive empirical evaluation of the parameters involved in the creation of progressive decision trees. Some basic theoretical issues related to progressive decision trees such as system complexity, for example, are also addressed. / Esta tesis trata sobre la utilización de árboles de decisión pequeños para la clasificación y la minería de datos. La idea intuitiva detrás de esta tesis es que una secuencia de árboles de decisión pequeños puede rendir mejor que un árbol de decisión grande, reduciendo tanto el coste de entrenamiento como el de explotación. Nuestro primer objetivo fue desarrollar un sistema capaz de reconocer diferentes tipos de elementos presentes en un documento, como el fondo, texto, líneas horizontales y verticales, dibujos esquemáticos y imágenes. Entonces, cada elemento puede ser tratado de acuerdo a sus características. Por ejemplo, el fondo se elimina y no se procesa, mientras que las otras regiones serían comprimidas usando el algoritmo apropiado, JPEG con pérdida para las imágenes y un método sin pérdida para el resto, por ejemplo. Los primeros experimentos usando árboles de decisión mostraron que los árboles de decisión construidos eran demasiado grandes y que sufrían de sobre-entrenamiento. Entonces, se trató de aprovechar la redundancia espacial presente en las imágenes, utilizando una aproximación de resolución múltiple: si un bloque grande no puede ser correctamente clasificado, romperlo en cuatro sub-bloques y repetir el proceso recursivamente para cada sub-bloque, usando todo el conocimiento que se haya calculado con anterioridad. Los bloques que no pueden ser procesados para una medida de bloque dada se etiquetan como "mixed", por lo que la palabra progresivo toma sentido: una primera versión de poca resolución de la imagen clasificada se obtiene con el primer clasificador, y se refina por el segundo, el tercero, etc., hasta que una versión final es obtenida con el último clasificador del montaje. De hecho, el uso del esquema progresivo lleva al uso de árboles de decisión más pequeños, ya que ya no es necesario un clasificador complejo. En lugar de construir un clasificador grande y complejo para clasificar todo el conjunto de entrenamiento, sólo tratamos de resolver la parte más fácil del problema de clasificación, retardando el resto para un segundo clasificador, etc.La idea básica de esta tesis es, entonces, un compromiso entre el coste y la precisión bajo una restricción de confianza. Una primera clasificación es efectuada a bajo coste; si un elemento es clasificado con una confianza elevada, se acepta, y si no lo es, se rechaza y se efectúa una segunda clasificación, etc. Es básicamente, una variación del paradigma de "cascading", donde un primer clasificador se usa para calcular información adicional para cada elemento de entrada, que será usada para mejorar la precisión de clasificación de un segundo clasificador, etc. Lo que presentamos en esta tesis es, básicamente, una extensión del paradigma de "cascading" y una evaluación empírica exhaustiva de los parámetros involucrados en la creación de árboles de decisión progresivos. Algunos aspectos teóricos relacionados con los árboles de decisión progresivos como la complejidad del sistema, por ejemplo, también son tratados.

Page generated in 0.0335 seconds