Spelling suggestions: "subject:"tecnologies"" "subject:"thecnologies""
281 |
Scratchpad-oriented address generation for low-power embedded VLIW processorsTalavera Velilla, Guillermo 15 October 2009 (has links)
Actualmente, los sistemas encastados están creciendo a un ritmo impresionante y proporcionan cada vez aplicaciones más sofisticadas. Un conjunto de creciente importancia son los sistemas multimedia portátiles de tiempo real y los sistemas de comunicación de procesado digital de señal: teléfonos móviles, PDAs, cámaras digitales, consolas portátiles de juegos, terminales multimedia, netbooks, etc. Estos sistemas requieren computación específica de alto rendimiento, generalmente con restricciones de tiempo real y calidad de servicio (Quality of Service - QoS), que han de ejecutarse con un nivel bajo de consumo para extender la vida de la batería y evitar el calentamiento del dispositivo. También se requiere una arquitectura flexible para satisfacer las restricciones del "time-to-market". En consecuencia, los sistemas encastados necesitan una solución programable, de bajo consumo y alta capacidad de computación para satisfacer todos los requerimientos.Las arquitecturas de tipo Very Long Instruction Word parecen una buena solución ya que proporcionan el suficiente rendimiento a bajo consumo con la programabilidad requerida. Estas arquitecturas se asientan sobre el esfuerzo del compilador para extraer el paralelismo disponible a nivel datos y de instrucciones para mantener las unidades computacionales ocupadas todo el rato. Con la densidad de los transistores doblando cada 18 meses, están emergiendo arquitecturas cada vez más complejas con un alto número de recursos computacionales ejecutándose en paralelo. Con esta, cada vez mayor, computación paralela, el acceso a los datos se está convirtiendo en el mayor impedimento que limita la posible extracción del paralelismo. Para aliviar este problema, en las actuales arquitecturas, una unidad especial trabaja en paralelo con los principales elementos computacionales para asegurar una eficiente transmisión de datos: la Unidad Generadora de Direcciones (Address Generator Unit), que puede implementarse de diferentes formas.El propósito de esta tesis es probar que optimizar el proceso de la generación de direcciones es una manera eficiente de solucionar el proceso de acceder a los datos al mismo tiempo que disminuye el tiempo de ejecución y el consumo de energía.Esta tesis evalúa la efectividad de los diferentes dispositivos que actualmente se usan en los sistemas encastados, argumenta el uso de procesadores de tipo "very long instruction word" y presenta la infraestructura de compilador y exploración arquitectural usada en los experimentos. Esta tesis también presenta una clasificación sistemática de los generadores de direcciones, un repaso de las diferentes técnicas de optimización actuales acorde con esta clasificación y una metodología, usando técnicas ya publicadas, sistemática y óptima que reduce gradualmente la energía necesitada. También se introduce el entorno de trabajo que permite una exploración arquitectural sistemática y los métodos usados para obtener una unidad de generación de direcciones. Los resultados de este unidad de generación de direcciones reconfigurable se muestran en diferentes aplicaciones de referencia (benchmarks) y la metodología sistemática se muestra en una aplicación completa real. / Nowadays Embedded Systems are growing at an impressive rate and provide more and more sophisticated applications. An increasingly important set of embedded systems are real-time portable multimedia and digital signal processing communication systems: cellular phones, PDAs, digital cameras, handheld gaming consoles, multimedia terminals, netbooks, etc. These systems require high performance specific computations, usually with real-time and Quality of Service (QoS) constraints, which should run at a low energy level to extend battery life and avoid heating. A flexible system architecture is also required to successfully meet short time-to-market restrictions. Hence, embedded systems need a programmable, low power and high performance solution in order to deal with these requirements.Very Long Instruction Word architectures seem a good solution for providing enough computational performance at low-power with the required programmability to speed the time-to-market. Those architectures rely on compiler effort to exploit the available instruction and data parallelism to keep the data path busy all the time. With the density of transistors doubling each 18 months, more and more complex architectures with a high number of computational resources running in parallel are emerging. With this increasing parallel computation, the access to data is becoming the main bottleneck that limits the available parallelism. To alleviate this problem, in current embedded architectures, a special unit works in parallel with the main computing elements to ensure efficient feed and storage of the data: the Address Generator Unit, which comes in many flavors. The purpose of this dissertation is to prove that optimizing the process of address generation is an effective way of solving the problem of accessing data while decreasing execution time and energy consumption.As a first step, this thesis evaluates the effectiveness of different state-of-the-art devices commonly used in the embedded domain, argues for the use of very long instruction word processors and presents the compiler and architecture framework used for our experiments. This thesis also presents a systematic classification of address generators, a review of literature according to the classification of the different optimizations on the address generation process and a step-wise methodology that gradually reduces energy reusing techniques that already have been published. The systematic architecture exploration framework and methods used to obtain a reconfigurable address generation unit are also introduced.Results of the reconfigurable address generator unit are shown on several benchmarks and applications, and the complete step-wise methodology is demonstrated on a real-life example.
|
282 |
Towards Robust Multiple-Target Tracking in Unconstrained Human-Populated EnvironmentsRowe, Daniel 08 February 2008 (has links)
No description available.
|
283 |
Theory and Algorithms on the Median Graph. Application to Graph-based Classification and ClusteringFerrer Sumsi, Miquel 06 June 2008 (has links)
Donat un conjunt d'objectes, el concepte genèric de mediana està definit com l'objecte amb la suma de distàncies a tot el conjunt, més petita. Sovint, aquest concepte és usat per a obtenir el representant del conjunt. En el reconeixement estructural de patrons, els grafs han estat usats normalment per a representar objectes complexos. En el domini dels grafs, el concepte de mediana és conegut com median graph. Potencialment, té les mateixes aplicacions que el concepte de mediana per poder ser usat com a representant d'un conjunt de grafs. Tot i la seva simple definició i les potencials aplicacions, s'ha demostrat que el seu càlcul és una tasca extremadament complexa. Tots els algorismes existents només han estat capaços de treballar amb conjunts petits de grafs, i per tant, la seva aplicació ha estat limitada en molts casos a usar dades sintètiques sense significat real. Així, tot i el seu potencial, ha restat com un concepte eminentment teòric. L'objectiu principal d'aquesta tesi doctoral és el d'investigar a fons la teoria i l'algorísmica relacionada amb el concepte de medinan graph, amb l'objectiu final d'extendre la seva aplicabilitat i lliurar tot el seu potencial al món de les aplicacions reals. Per això, presentem nous resultats teòrics i també nous algorismes per al seu càlcul. Des d'un punt de vista teòric aquesta tesi fa dues aportacions fonamentals. Per una banda, s'introdueix el nou concepte d'spectral median graph. Per altra banda es mostra que certes de les propietats teòriques del median graph poden ser millorades sota determinades condicions. Més enllà de les aportacioncs teòriques, proposem cinc noves alternatives per al seu càlcul. La primera d'elles és una conseqüència directa del concepte d'spectral median graph. Després, basats en les millores de les propietats teòriques, presentem dues alternatives més per a la seva obtenció. Finalment, s'introdueix una nova tècnica per al càlcul del median basat en el mapeig de grafs en espais de vectors, i es proposen dos nous algorismes més. L'avaluació experimental dels mètodes proposats utilitzant una base de dades semi-artificial (símbols gràfics) i dues amb dades reals (mollècules i pàgines web), mostra que aquests mètodes són molt més eficients que els existents. A més, per primera vegada, hem demostrat que el median graph pot ser un bon representant d'un conjunt d'objectes utilitzant grans quantitats de dades. Hem dut a terme experiments de classificació i clustering que validen aquesta hipòtesi i permeten preveure una pròspera aplicació del median graph a un bon nombre d'algorismes d'aprenentatge. / Given a set of objects, the generic concept of median is defined as the object with the smallest sum of distances to all the objects in the set. It has been often used as a good alternative to obtain a representative of the set. In structural pattern recognition, graphs are normally used to represent structured objects. In the graph domain, the concept analogous to the median is known as the median graph. By extension, it has the same potential applications as the generic median in order to be used as the representative of a set of graphs. Despite its simple definition and potential applications, its computation has been shown as an extremely complex task. All the existing algorithms can only deal with small sets of graphs, and its application has been constrained in most cases to the use of synthetic data with no real meaning. Thus, it has mainly remained in the box of the theoretical concepts. The main objective of this work is to further investigate both the theory and the algorithmic underlying the concept of the median graph with the final objective to extend its applicability and bring all its potential to the world of real applications. To this end, new theory and new algorithms for its computation are reported. From a theoretical point of view, this thesis makes two main contributions. On one hand, the new concept of spectral median graph. On the other hand, we show that some of the existing theoretical properties of the median graph can be improved under some specific conditions. In addition to these theoretical contributions, we propose five new ways to compute the median graph. One of them is a direct consequence of the spectral median graph concept. In addition, we provide two new algorithms based on the new theoretical properties. Finally, we present a novel technique for the median graph computation based on graph embedding into vector spaces. With this technique two more new algorithms are presented. The experimental evaluation of the proposed methods on one semi-artificial and two real-world datasets, representing graphical symbols, molecules and webpages, shows that these methods are much more ecient than the existing ones. In addition, we have been able to proof for the first time that the median graph can be a good representative of a class in large datasets. We have performed some classification and clustering experiments that validate this hypothesis and permit to foresee a successful application of the median graph to a variety of machine learning algorithms.
|
284 |
Geometric and Structural-based Symbol Spotting. Application to Focused Retrieval in Graphic Document CollectionsRusiñol Sanabra, Marçal 18 June 2009 (has links)
No description available.
|
285 |
Exploring Arterial Dynamics and Structures in IntraVascular UltraSound SequencesHernàndez i Sabaté, Aura 07 July 2009 (has links)
Les malalties cardiovasculars són una de les principals causes de mortalitat als països desenvolupats. La majoria d'elles són degudes a malalties arterials (especialment les coron ries), que vénen causades per l'acumulació de placa. Aquesta patologia estreny el flux sanguini (estenosi) i afecta les propietats elàstiques i bio-mecàniques (arteriosclerosi) de les artèries. En les últimes dècades, l'Ecografia Intra-Coronària (EIC) ha esdevingut una tècnica usual de diagnòstic per la imatge i seguiment de les malalties coronàries. L'EIC està basada en un cateterisme que mostra una seqüència d'imatges corresponents a seccions de l'artèria sota estudi. La inspecció visual de cadascuna d'aquestes imatges proporciona informació sobre el percentatge d'estenosi, mentre que la inspecció de les vistes longitudinals propociona informació sobre les propietats bio-mecàniques, que pot prevenir un desenllaç fatal de la malaltia cardiovascular. Per una banda, la dinàmica arterial (deguda al batec del cor, entre d'altres) és un dels principals artefactes per poder explorar les propietats biomecàniques. Al mateix temps, les mesures manuals d'estenosi requereixen un traçat manual de les vores del vas, tasca feixuga que consumeix molt de temps i que pot patir variabilitat entre observadors.Aquesta tesi proposa vàries eines de processament d'imatge per explorar la dinàmica de les artèries i les seves estructures. Presentem un model físic per extreure, analitzar i corregir la dinàmica rígida transversal dels vasos i per recuperar la fase cardíaca. A més, introduïm un mètode estadístic-determinista per a la detecció automàtica de les vores del vas. En particular, l'enfoquem a segmentar l'adventícia. Un protocol de validació acurat per assegurar una aplicació clínica fiable dels mètodes és un pas crucial en qualsevol proposta d'algorisme. En aquesta tesi tenim especial cura de dissenyar protocols de validació per a cadascuna de les tècniques proposades i contribuïmm a la validació de la dinàmica in vivo amb un indicador objectiu i quantitatiu per mesurar la quantitat de moviment suprimida. / Cardiovascular diseases are a leading cause of death in developed countries. Most of them are caused by arterial (specially coronary) diseases, mainly caused by plaque accumulation. Such pathology narrows blood flow (stenosis) and affects artery bio-mechanical elastic properties (atherosclerosis). In the last decades, IntraVascular UltraSound (IVUS) has become a usual imaging technique for the diagnosis and follow up of arterial diseases. IVUS is a catheter-based imaging technique which shows a sequence of cross sections of the artery under study. Inspection of a single image gives information about the percentage of stenosis. Meanwhile, inspection of longitudinal views provides information about artery bio-mechanical properties, which can prevent a fatal outcome of the cardiovascular disease. On one hand, dynamics of arteries (due to heart pumping among others) is a major artifact for exploring tissue bio-mechanical properties. On the other one, manual stenosis measurements require a manual tracing of vessel borders, which is a time-consuming task and might suffer from inter-observer variations.This PhD thesis proposes several image processing tools for exploring vessel dynamics and structures. We present a physics-based model to extract, analyze and correct vessel in-plane rigid dynamics and to retrieve cardiac phase. Furthermore, we introduce a deterministic-statistical method for automatic vessel borders detection. In particular, we address adventitia layer segmentation. An accurate validation protocol to ensure reliable clinical applicability of the methods is a crucial step in any proposal of an algorithm. In this thesis we take special care in designing a validation protocol for each approach proposed and we contribute to the in vivo dynamics validation with a quantitative and objective score to measure the amount of motion suppressed.
|
286 |
Probabilistic Darwin Machines: A new approach to develop Evolutionary Object Detection SystemsBaró i Solé, Xavier 03 April 2009 (has links)
Des dels principis de la informàtica, s'ha intentat dotar als ordinadors de la capacitat per realitzar moltes de les tasques quotidianes de les persones. Un dels problemes més estudiats i encara menys entesos actualment és la capacitat d'aprendre a partir de les nostres experiències i generalitzar els coneixements adquirits.Una de les tasques inconscients per a les persones i que més interès està despertant en àmbit científics des del principi, és el que es coneix com a reconeixement de patrons. La creació de models del món que ens envolta, ens serveix per a reconèixer objectes del nostre entorn, predir situacions, identificar conductes, etc. Tota aquesta informació ens permet adaptar-nos i interactuar amb el nostre entorn. S'ha arribat a relacionar la capacitat d'adaptació d'un ésser al seu entorn amb la quantitat de patrons que és capaç d'identificar.Quan parlem de reconeixement de patrons en el camp de la Visió per Computador, ens referim a la capacitat d'identificar objectes a partir de la informació continguda en una o més imatges. En aquest camp s'ha avançat molt en els últims anys, i ara ja som capaços d'obtenir resultats "útils" en entorns reals, tot i que encara estem molt lluny de tenir un sistema amb la mateixa capacitat d'abstracció i tan robust com el sistema visual humà.En aquesta tesi, s'estudia el detector de cares de Viola i Jones, un dels mètode més estesos per resoldre la detecció d'objectes. Primerament, s'analitza la manera de descriure els objectes a partir d'informació de contrastos d'il·luminació en zones adjacents de les imatges, i posteriorment com aquesta informació és organitzada per crear estructures més complexes. Com a resultat d'aquest estudi, i comparant amb altres metodologies, s'identifiquen dos punts dèbils en el mètode de detecció de Viola i Jones. El primer fa referència a la descripció dels objectes, i la segona és una limitació de l'algorisme d'aprenentatge, que dificulta la utilització de millors descriptors.La descripció dels objectes utilitzant les característiques de Haar, limita la informació extreta a zones connexes de l'objecte. En el cas de voler comparar zones distants, s'ha d'optar per grans mides de les característiques, que fan que els valors obtinguts depenguin més del promig de valors d'il·luminació de l'objecte, que de les zones que es volen comparar. Amb l'objectiu de poder utilitzar aquest tipus d'informacions no locals, s'intenta introduir els dipols dissociats en l'esquema de detecció d'objectes.El problema amb el que ens trobem en voler utilitzar aquest tipus de descriptors, és que la gran cardinalitat del conjunt de característiques, fa inviable la utilització de l'Adaboost, l'algorisme utilitzat per a l'aprenentatge. El motiu és que durant el procés d'aprenentatge, es fa un anàlisi exhaustiu de tot l'espai d'hipòtesis, i al ser tant gran, el temps necessari per a l'aprenentatge esdevé prohibitiu. Per eliminar aquesta limitació, s'introdueixen mètodes evolutius dins de l'esquema de l'Adaboost i s'estudia els efectes d'aquest canvi en la capacitat d'aprenentatge. Les conclusions extretes són que no només continua essent capaç d'aprendre, sinó que la velocitat de convergència no és afectada significativament.Aquest nou Adaboost amb estratègies evolutives obre la porta a la utilització de conjunts de característiques amb cardinalitats arbitràries, el que ens permet indagar en noves formes de descriure els nostres objectes, com per exemple utilitzant els dipols dissociats. El primer que fem és comparar la capacitat d'aprenentatge del mètode utilitzant les característiques de Haar i els dipols dissociats. Com a resultat d'aquesta comparació, el que veiem és que els dos tipus de descriptors tenen un poder de representació molt similar, i depenent del problema en que s'apliquen, uns s'adapten una mica millor que els altres. Amb l'objectiu d'aconseguir un sistema de descripció capaç d'aprofitar els punts forts tant de Haar com dels dipols, es proposa la utilització d'un nou tipus de característiques, els dipols dissociats amb pesos, els quals combinen els detectors d'estructures que fan robustes les característiques de Haar amb la capacitat d'utilitzar informació no local dels dipols dissociats. A les proves realitzades, aquest nou conjunt de característiques obté millors resultats en tots els problemes en que s'ha comparat amb les característiques de Haar i amb els dipols dissociats.Per tal de validar la fiabilitat dels diferents mètodes, i poder fer comparatives entre ells, s'ha utilitzat un conjunt de bases de dades públiques per a diferents problemes, tals com la detecció de cares, la detecció de texts, la detecció de vianants i la detecció de cotxes. A més a més, els mètodes també s'han provat sobre una base de dades més extensa, amb la finalitat de detectar senyals de trànsit en entorns de carretera i urbans. / Ever since computers were invented, we have wondered whether they might perform some of the human quotidian tasks. One of the most studied and still nowadays less understood problem is the capacity to learn from our experiences and how we generalize the knowledge that we acquire.One of that unaware tasks for the persons and that more interest is awakening in different scientific areas since the beginning, is the one that is known as pattern recognition. The creation of models that represent the world that surrounds us, help us for recognizing objects in our environment, to predict situations, to identify behaviors... All this information allows us to adapt ourselves and to interact with our environment. The capacity of adaptation of individuals to their environment has been related to the amount of patterns that are capable of identifying.When we speak about pattern recognition in the field of Computer Vision, we refer to the ability to identify objects using the information contained in one or more images. Although the progress in the last years, and the fact that nowadays we are already able to obtain "useful" results in real environments, we are still very far from having a system with the same capacity of abstraction and robustness as the human visual system.In this thesis, the face detector of Viola & Jones is studied as the paradigmatic and most extended approach to the object detection problem. Firstly, we analyze the way to describe the objects using comparisons of the illumination values in adjacent zones of the images, and how this information is organized later to create more complex structures. As a result of this study, two weak points are identified in this family of methods: The first makes reference to the description of the objects, and the second is a limitation of the learning algorithm, which hampers the utilization of best descriptors.Describing objects using Haar-like features limits the extracted information to connected regions of the object. In the case we want to compare distant zones, large contiguous regions must be used, which provokes that the obtained values depend more on the average of lighting values of the object than in the regions we are wanted to compare. With the goal to be able to use this type of non local information, we introduce the Dissociated Dipoles into the outline of objects detection.The problem using this type of descriptors is that the great cardinality of this feature set makes unfeasible the use of Adaboost as learning algorithm. The reason is that during the learning process, an exhaustive search is made over the space of hypotheses, and since it is enormous, the necessary time for learning becomes prohibitive. Although we studied this phenomenon on the Viola & Jones approach, it is a general problem for most of the approaches, where learning methods introduce a limitation on the descriptors that can be used, and therefore, on the quality of the object description. In order to remove this limitation, we introduce evolutionary methods into the Adaboost algorithm, studying the effects of this modification on the learning ability. Our experiments conclude that not only it continues being able to learn, but its convergence speed is not significantly altered.This new Adaboost with evolutionary strategies opens the door to the use of feature sets with an arbitrary cardinality, which allows us to investigate new ways to describe our objects, such as the use of Dissociated Dipoles. We first compare the learning ability of this evolutionary Adaboost using Haar-like features and Dissociated Dipoles, and from the results of this comparison, we conclude that both types of descriptors have similar representation power, but depends on the problem they are applied, one adapts a little better than the other. With the aim of obtaining a descriptor capable of share the strong points from both Haar-like and Dissociated Dipoles, we propose a new type of feature, the Weighted Dissociated Dipoles, which combines the robustness of the structure detectors present in the Haar-like features, with the Dissociated Dipoles ability to use non local information. In the experiments we carried out, this new feature set obtains better results in all problems we test, compared with the use of Haar-like features and Dissociated Dipoles.In order to test the performance of each method, and compare the different methods, we use a set of public databases, which covers face detection, text detection, pedestrian detection, and cars detection. In addition, our methods are tested to face a traffic sign detection problem, over large databases containing both, road and urban scenes.
|
287 |
On Reed-Muller and related quaternary codesFernández Córdoba, Cristina 04 October 2004 (has links)
No description available.
|
288 |
Model-Based JPEG2000 rate control methodsAulí Llinàs, Francesc 05 December 2006 (has links)
Aquesta recerca està centrada en l'escalabilitat qualitativa de l'estàndard de compressió d'imatges JPEG2000. L'escalabilitat qualitativa és una característica fonamental que permet el truncament de la tira de bits a diferents punts sense penalitzar la qualitat de la imatge recuperada. L'escalabilitat qualitativa és també fonamental en transmissions d'imatges interactives, ja que permet la transmissió de finestres d'interès a diferents qualitats. El JPEG2000 aconsegueix escalabilitat qualitativa a partir del mètode de control de factor de compressió utilitzat en el procés de compressió, que empotra capes de qualitat a la tira de bits. En alguns escenaris, aquesta arquitectura pot causar dos problemàtiques: per una banda, quan el procés de codificació acaba, el número i distribució de les capes de qualitat és permanent, causant una manca d'escalabilitat qualitativa a tires de bits amb una o poques capes de qualitat. Per altra banda, el mètode de control de factor de compressió construeix capes de qualitat considerant la optimització de la raó distorsió per l'àrea completa de la imatge, i això pot provocar que la distribució de les capes de qualitat per la transmissió de finestres d'interès no sigui adequada. Aquesta tesis introdueix tres mètodes de control de factor de compressió que proveeixen escalabilitat qualitativa per finestres d'interès, o per tota l'àrea de la imatge, encara que la tira de bits contingui una o poques capes de qualitat. El primer mètode està basat en una simple estratègia d'entrellaçat (CPI) que modela la raó distorsió a partir d'una aproximació clàssica. Un anàlisis acurat del CPI motiva el segon mètode, basat en un ordre d'escaneig invers i una concatenació de passades de codificació (ROC). El tercer mètode es beneficia dels models de raó distorsió del CPI i ROC, desenvolupant una novedosa aproximació basada en la caracterització de la raó distorsió dels blocs de codificació dins una subbanda (CoRD). Els resultats experimentals suggereixen que tant el CPI com el ROC són capaços de proporcionar escalabilitat qualitativa a tires de bits, encara que continguin una o poques capes de qualitat, aconseguint un rendiment de codificació pràcticament equivalent a l'obtingut amb l'ús de capes de qualitat. Tot i això, els resultats del CPI no estan ben balancejats per les diferents raons de compressió i el ROC presenta irregularitats segons el corpus d'imatges. CoRD millora els resultats de CPI i ROC i aconsegueix un rendiment ben balancejat. A més, CoRD obté un rendiment de compressió una mica millor que l'aconseguit amb l'ús de capes de qualitat. La complexitat computacional del CPI, ROC i CoRD és, a la pràctica, negligible, fent-los adequats per el seu ús en transmissions interactives d'imatges. / This work is focused on the quality scalability of the JPEG2000 image compression standard. Quality scalability is an important feature that allows the truncation of the code-stream at different bit-rates without penalizing the coding performance. Quality scalability is also fundamental in interactive image transmissions to allow the delivery of Windows of Interest (WOI) at increasing qualities. JPEG2000 achieves quality scalability through the rate control method used in the encoding process, which embeds quality layers to the code-stream. In some scenarios, this architecture might raise two drawbacks: on the one hand, when the coding process finishes, the number and bit-rates of quality layers are fixed, causing a lack of quality scalability to code-streams encoded with a single or few quality layers. On the other hand, the rate control method constructs quality layers considering the rate¬distortion optimization of the complete image, and this might not allocate the quality layers adequately for the delivery of a WOI at increasing qualities. This thesis introduces three rate control methods that supply quality scalability for WOIs, or for the complete image, even if the code-stream contains a single or few quality layers. The first method is based on a simple Coding Passes Interleaving (CPI) that models the rate-distortion through a classical approach. An accurate analysis of CPI motivates the second rate control method, which introduces simple modifications to CPI based on a Reverse subband scanning Order and coding passes Concatenation (ROC). The third method benefits from the rate-distortion models of CPI and ROC, developing an approach based on a novel Characterization of the Rate-Distortion slope (CoRD) that estimates the rate-distortion of the code¬blocks within a subband. Experimental results suggest that CPI and ROC are able to supply quality scalability to code-streams, even if they contain a single or few quality layers, achieving a coding performance almost equivalent to the one obtained with the use of quality layers. However, the results of CPI are unbalanced among bit-rates, and ROC presents an irregular coding performance for some corpus of images. CoRD outperforms CPI and ROC achieving well-balanced and regular results and, in addition, it obtains a slightly better coding performance than the one achieved with the use of quality layers. The computational complexity of CPI, ROC and CoRD is negligible in practice, making them suitable to control interactive image transmissions.
|
289 |
Variability of atmospheric aerosols at urban, regional and continental backgrounds in the western mediterranean basinPérez Lozano, Noemí 13 July 2010 (has links)
El estudio de los niveles y composición del material particulado atmosférico (PM) medido simultáneamente en diferentes ambientes a escala regional se llevó a cabo en la cuenca del Mediterráneo Occidental con el fin de entender las fuentes y patrones de transformación y transporte de aerosoles en esta zona. Para esto, la medida de niveles y caracterización química de PM10, PM2.5 y PM1 se llevó a cabo en tres estaciones de monitoreo: Montsec (MSC, fondo continental, 1570 msnm), Montseny (MSY, fondo regional, 720 msnm) y Barcelona (BCN, fondo urbano, 68 msnm). Además, se midieron niveles de número de partículas (N) y carbono negro (BC) en BCN. Durante el invierno, la frecuente estabilidad atmosférica induce el estancamiento de masas de aire produciendo importantes episodios de contaminación en BCN. Sin embargo, MSY y, más frecuentemente MSC, quedan aislados de la contaminación regional. En determinados escenarios, el desarrollo de la capa límite y las brisas resultan en el transporte de masas de aire contaminadas a zonas rurales, aumentando notablemente los niveles de PM en función de la altitud y la distancia a las zonas fuente. Durante el verano, la circulación de brisas favorece la dispersión, mezcla y envejecimiento de contaminantes a escala regional y la reducción de las diferencias entre BCN, MSY y MSC. Se midieron niveles similares de algunos componentes (materia orgánica, sulfato) a escala regional. Los niveles de materia mineral aumentan en verano por una resuspensión favorecida y una mayor frecuencia de intrusiones africanas, más significativamente en el MSC, dado su impacto en altura. La mayor contribución al PM10 en BCN se debe principalmente al tráfico (50% del PM10), resultante de las emisiones del tráfico primarias, nitrato y aerosoles secundarios envejecidos. La materia mineral se origina por resuspensión del polvo de carretera por vehículos pero también resuspensión por viento y obras. La contribución regional en BCN (25%) es principalmente materia mineral, nitrato y sulfato amónico. La variabilidad horaria de los diferentes parámetros de medida de aerosoles en BCN (N, BC, PM10, PM2.5 y PM1) está muy marcada por emisiones de tráfico y meteorología (especialmente brisas). Sin embargo, algunos parámetros no se rigen solamente por emisiones directas del tráfico, como PM2.5-10 (resuspensión) y N (emisiones de partículas ultrafinas y procesos de nucleación fotoquímica). La influencia de las emisiones del tráfico en los niveles de partículas finas en BCN se refleja en los niveles anuales de PM1, que aumentan de 2003 a 2007 relacionados con un aumento progresivo del tráfico y la flota diesel en BCN. Sin embargo se observó una tendencia decreciente en las fracciones gruesas en BCN y MSY, que se atribuye a la meteorología y a cambios en emisiones industriales. El estudio simultáneo de diferentes parámetros ha mostrado que el control de PM1 (modos de nucleación y acumulación) y/o BC (procesos de combustión), y PM10, (combustión y aerosoles generados mecánicamente) puede ser una estrategia mejor que la combinación de PM2.5 y PM10 como estándares de medida de calidad del aire. La medida en paralelo de aerosoles en fondos urbano, regional y continental ha sido una estrategia útil para entender la fenomenología de aerosoles en la cuenca del Mediterráneo Occidental. Las emisiones urbanas e industriales tienen un impacto considerable en los niveles y composición de PM en zonas rurales situadas a diferentes alturas, tanto en verano, con una importante recirculación y mezcla de masas de aire a escala regional, como en invierno, con transporte de contaminantes activado por brisas. El gran impacto de la contaminación urbana a escala regional demuestra la importancia de aplicar estrategias de reducción de emisiones de tráfico urbano, a fin de mejorar la calidad del aire no sólo a nivel local, sino también a escala regional. / A detailed study of atmospheric particulate matter (PM) levels and composition measured simultaneously in different environments at a regional scale was performed in the Western Mediterranean Basin in order to understand the sources, transformation and transport of tropospheric aerosols in this area. In this direction, the monitoring of PM10, PM2.5 and PM1 levels and chemical characterization was carried out at three monitoring stations: Montsec (MSC, continental background, 1570 m.a.s.l.), Montseny (MSY, regional background, 720 m.a.s.l.) and Barcelona (BCN, urban background, 68 m.a.s.l.). In addition, number concentration (N) and black carbon (BC) levels were monitored at BCN. During winter, the frequent anticyclonic atmospheric stability induces the stagnation of air masses that produce important pollution episodes at BCN. However, atmospheric decoupling leaves MSY and, more frequently MSC, isolated from regional pollution during several days. In specific scenarios, the growth of the boundary layer and development of mountain breezes, activated by solar radiation, result in the transport of polluted air masses accumulated in the valley to the rural sites, increasing markedly PM levels at a different rate depending on the altitude and distance to the source areas. During summer, intense breeze circulations and atmospheric mixing favour the dispersion, recirculation and ageing of pollutants at a regional scale, reducing the differences between the urban and the rural sites. Similar levels of some components (organic matter or sulphate) were measured at a regional scale. Mineral matter levels increase during the summer, because of a favoured dust resuspension and higher frequency of African dust outbreaks, more significantly at MSC given the impact of African dust at higher altitudes. The major contribution to PM10 in BCN was mainly related to road traffic (50% of PM10), resulting from primary traffic emissions, secondary nitrate and aged secondary aerosols. Anthropogenic dust may originate from road dust resuspension by vehicles, but also wind resuspension and construction/demolition works. The regional contribution at the urban site (25%) was mainly mineral dust, ammonium sulphate and nitrate. The hourly variability of aerosol measurement parameters (N, BC, PM10, PM2.5 and PM1) at BCN is very influenced by road traffic emissions and meteorology (especially breezes). However, some parameters are not only governed by traffic exhaust emissions, as PM2.5-10 (dust resuspension processes) and N (direct ultrafine particle emissions but also photochemical nucleation processes). The influence of road traffic emissions on the levels of fine PM at BCN is reflected in PM1 mean annual levels, showing an increasing trend from 2003 to 2007 and correlation with the progressive rise in road traffic flow and diesel fleet in BCN. However a decreasing trend was observed for the coarser fractions at BCN and MSY, attributed to meteorology and changes in industrial emissions. The simultaneous study of different parameters showed that the monitoring of PM1 (nucleation and accumulation modes) and/or BC (combustion processes), and PM10 (combustion and mechanically-generated aerosols) may be a better strategy than the combination of PM2.5 and PM10 measurements as air quality standards. The parallel monitoring of aerosols at urban, regional and continental backgrounds was a useful strategy in order to understand the phenomenology of aerosols in the WMB. Urban and industrial emissions have a considerable impact in PM levels and composition in rural areas at different altitudes, both in summer, with important atmospheric recirculation and mixing of air masses at a regional scale, and winter, with breeze-activated transport of stagnated urban pollutants. The high contribution of urban emissions and the transport of air masses at a regional scale demonstrate the importance of applying emission abatement strategies for urban road traffic, in order to improve air quality not only at a local, but also at a regional scale.
|
290 |
Multi-Oriented and multi-scaled text character analysis and recognition in graphical documents and their apllications to document image retrievalPratim Roy, Partha 03 November 2010 (has links)
With the advent research of Document Image Analysis and Recognition (DIAR), an
important line of research is explored on indexing and retrieval of graphics rich docu-
ments. It aims at nding relevant documents relying on segmentation and recognition
of text and graphics components underlying in non-standard layout where commercial
OCRs can not be applied due to complexity. This thesis is focused towards text infor-
mation extraction approaches in graphical documents and retrieval of such documents
using text information.
Automatic text recognition in graphical documents (map, engineering drawing,
etc.) involves many challenges because text characters are usually printed in multi-
oriented and multi-scale way along with di erent graphical objects. Text characters
are used to annotate the graphical curve lines and hence, many times they follow
curvi-linear paths too. For OCR of such documents, individual text lines and their
corresponding words/characters need to be extracted.
For recognition of multi-font, multi-scale and multi-oriented characters, we have
proposed a feature descriptor for character shape using angular information from con-
tour pixels to take care of the invariance nature. To improve the e ciency of OCR, an
approach towards the segmentation of multi-oriented touching strings into individual
characters is also discussed. Convex hull based background information is used to
segment a touching string into possible primitive segments and later these primitive
segments are merged to get optimum segmentation using dynamic programming. To
overcome the touching/overlapping problem of text with graphical lines, a character
spotting approach using SIFT and skeleton information is included. Afterwards, we
propose a novel method to extract individual curvi-linear text lines using the fore-
ground and background information of the characters of the text and a water reservoir
concept is used to utilize the background information.
We have also formulated the methodologies for graphical document retrieval ap-
plications using query words and seals. The retrieval approaches are performed using
recognition results of individual components in the document. Given a query text,
the system extracts positional knowledge from the query word and uses the same to
generate hypothetical locations in the document. Indexing of documents is also per-
formed based on automatic detection of seals from documents containing cluttered
background. A seal is characterized by scale and rotation invariant spatial feature
descriptors computed from labelled text characters and a concept based on the Generalized Hough Transform is used to locate the seal in documents.
Keywords: Document Image Analysis, Graphics Recognition, Dynamic Pro-
gramming, Generalized Hough Transform, Character Recognition, Touching Charac-
ter Segmentation, Text/Graphics Separation, Curve-Line Separation, Word Retrieval,
Seal Detection and Recognition.
|
Page generated in 0.0365 seconds