• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 208
  • 72
  • 21
  • 1
  • Tagged with
  • 301
  • 301
  • 301
  • 82
  • 47
  • 45
  • 44
  • 35
  • 35
  • 35
  • 32
  • 32
  • 24
  • 22
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Case-based diagnosis of batch processes based on latent structures

Berjaga Moliné, Xavier 14 November 2013 (has links)
The aim of this thesis is to present a methodological approach for the automatic monitoring of batch processes based on a combination of statistical models and machine learning methods. The former is used to model the process based on the relationships among the different monitored variables throughout time, while the latter is used to improve the diagnosis capabilities of the system. Statistical methods do not relate faulty observations with its root cause (they only list the subset of variables whose behaviour has been altered) and they lack of learning capabilities. By using case-based reasoning (CBR) for the diagnosis, faulty observations can be associated with more significant information (like causes). Statistical models also provide a new representation of the observations, on an orthogonal basis, that improves the use of the distance-based approaches of the CBR, giving a better performance / L'objectiu d'aquesta tesi és la de presentar un mètode automàtic per al monitoratge dels processos per lots basat en la combinació de models estadístics i mètodes d'aprenentatge automàtic. El primer s'utilitza per modelar el procés mitjançant les relacions més significatives entre les variables mesurades al llarg del temps, mentre que el segon s'utilitza per millorar la capacitat de diagnosi del sistema. Els mètodes estadístics no relacionen una observació amb falla amb l'origen d'aquesta al mateix temps que no tenen capacitat d'aprenentatge. El fet d'utilitzar raonament basat en casos per a la diagnosi permet relacionar les observacions amb falla amb informació més significativa (com seria la causa de la falla). Els models estadístics també proporcionen una nova representació de les observacions, en una base ortogonal, que facilita l'aplicabilitat dels mètodes basats en distàncies del raonament basat en casos, tot millorant-ne els resultats obtinguts
52

A Global Approach to Vision-Based Pedestrian Detection for Advanced Driver Assistance Systems

Gerónimo Gómez, David 12 February 2010 (has links)
A començaments del segle XXI, els accidents de tràfic han esdevingut un greu problema no només pels països desenvolupats sino també pels emergents. Com en altres àrees científiques on la Intel·ligència Artificial s'ha transformat en un actor principal, els sistemes avançats d'assistència al conductor, i concretament els sistemes de protecció de vianants basats en Visió per Computador, han esdevingut una important línia d'investigació adressada a millorar la seguretat dels vianants. Tanmateix, el repte és d'una complexitat considerable donada la variabilitat dels humans (p.e., roba, mida, relació d'aspecte, forma, etc.), la naturalesa dinàmica dels sistemes d'abord i els entorns no estructurats en moviment que representen els escenaris urbans. A més, els requeriments de rendiment son rigorosos en termes de cost computacional i d'indexos de detecció. En aquesta tesi, en comptes de centrar-nos en millorar tasques específiques com sol ser freqüent a la literatura, presentem una aproximació global al problema. Aquesta visió global comença per la proposta d'una arquitectura genèrica pensada per a ser utilitzada com a marc tant per a la revisió de la literatura com per a organitzar les tècniques estudiades al llarg de la tesi. A continuació enfoquem la recerca en tasques com la segmentació dels objectes en primer pla, la classificació d'objectes i el refinament tot seguint una visió general i explorant aspectes que normalment no son analitzats. A l'hora de fer els experiments, també presentem una nova base de dades que consisteix en tres subconjunts, cadascun adressat a l'evaluació de les diferents tasques del sistema. Els resultats presentats en aquesta tesi no només finalitzen amb la proposta d'un sistema de detecció de vianants sino que van un pas més enllà indicant noves idees, formalitzant algoritmes proposats i ja existents, introduïnt noves tècniques i evaluant el seu rendiment, el qual esperem que aporti nous fonaments per a la futura investigació en aquesta àrea. / At the beginning of the 21th century, traffic accidents have become a major problem not only for developed countries but also for emerging ones. As in other scientific areas in which Artificial Intelligence is becoming a key actor, advanced driver assistance systems, and concretely pedestrian protection systems based on Computer Vision, are becoming a strong topic of research aimed at improving the safety of pedestrians. However, the challenge is of considerable complexity due to the varying appearance of humans (e.g., clothes, size, aspect ratio, shape, etc.), the dynamic nature of on-board systems and the unstructured moving environments that urban scenarios represent. In addition, the required performance is demanding both in terms of computational time and detection rates. In this thesis, instead of focusing on improving specific tasks as it is frequent in the literature, we present a global approach to the problem. Such a global overview starts by the proposal of a generic architecture to be used as a framework both to review the literature and to organize the studied techniques along the thesis. We then focus the research on tasks such as foreground segmentation, object classification and refinement following a general viewpoint and exploring aspects that are not usually analyzed. In order to perform the experiments, we also present a novel pedestrian dataset that consists of three subsets, each one addressed to the evaluation of a different specific task in the system. The results presented in this thesis not only end with a proposal of a pedestrian detection system but also go one step beyond by pointing out new insights, formalizing existing and proposed algorithms, introducing new techniques and evaluating their performance, which we hope will provide new foundations for future research in the area.
53

Real-time multimedia on off-the-shelf operating systems: from timeliness dataflow models to pattern languages

Arumí Albó, Pau 30 June 2009 (has links)
Els sistemes multimèdia basats en programari capaços de processar àudio, vídeo i gràfics a temps-real són omnipresents avui en dia. Els trobem no només a les estacions de treball de sobre-taula sinó també als dispositius ultra-lleugers com els telèfons mòbils. Degut a que la majoria de processament es realitza mitjançant programari, usant abstraccions del maquinari i els serveis oferts pel sistema operatiu i les piles de llibreries que hi ha per sota, el desenvolupament ràpid d'aplicacions esdevé possible. A més d'aquesta immediatesa i exibilitat (comparat amb les plataformes orientades al maquinari), aquests plataformes també ofereixen capacitats d'operar en temps-real amb uns límits de latència apropiats. Malgrat tot això, els experts en el domini dels multimèdia s'enfronten a un desafiament seriós: les funcionalitats i complexitat de les seves aplicacions creixen ràpidament; mentrestant, els requeriments de temps-real (com ara la baixa latència) i els estàndards de fiabilitat augmenten. La present tesi es centra en l'objectiu de proporcionar una caixa d'eines als experts en el domini que els permeti modelar i prototipar sistemes de processament multimèdia. Aquestes eines contenen plataformes i construccions que reecteixen els requeriments del domini i de l'aplicació, i no de propietats accidentals de la implementació (com ara la sincronització entre threads i manegament de buffers). En aquest context ataquem dos problemes diferents però relacionats:la manca de models de computació adequats pel processament de fluxos multimèdia en temps-real, i la manca d'abstraccions apropiades i mètodes sistemàtics de desenvolupament de programari que suportin els esmentats models. Existeixen molts models de computació orientats-a-l'actor i ofereixen millors abstraccions que les tècniques d'enginyeria del programari dominants, per construir sistemes multimèdia de temps-real. La família de les Process Networks i els models Dataflow basades en xarxes d'actors de processat del senyal interconnectats són els més adequats pel processament de fluxos continus. Aquests models permeten expressar els dissenys de forma propera al domini del problema (en comptes de centrar-se en detalls de la implementació), i possibiliten una millor modularització i composició jeràrquica del sistema. Això és possible perquè el model no sobreespecifica com els actors s'han d'executar, sinó que només imposa dependències de dades en un estil de llenguatge declaratiu. Aquests models admeten el processat multi-freqüència i, per tant, planificacions complexes de les execucions dels actors. Però tenen un problema: els models no incorporen el concepte de temps d'una forma útil i, en conseqüència, les planifiacions periòdiques no garanteixen un comportament de temps-real i de baixa latència. Aquesta dissertació soluciona aquesta limitació a base de descriure formalment un nou model que hem anomenat Time-Triggered Synchronous Dataflow (TTSDF). En aquest nou model les planificacions periòdiques són intercalades per vàries "activacions" temporalment-disparades (time-triggered) de forma que les entrades i sortides de la xarxa de processat poden ser servides de forma regular. El model TTSDF té la mateixa expressivitat (o, en altres paraules, té computabilitat equivalent) que el model Synchronous Dataow (SDF). Però a més, té l'avantatge que garanteix la operativitat en temps-real, amb mínima latència i absència de forats i des-sincronitzacions a la sortida. Finalment, permet el balancejat de la càrrega en temps d'execució entre diferents activacions de callbacks i la paralel·lització dels actors. Els models orientats-a-l'actor no són solucions directament aplicables; no són suficients per construir sistemes multimèdia amb una metodologia sistemàtica i pròpia d'una enginyeria. També afrontem aquest problema i, per solucionar-lo, proposem un catàleg de patrons de disseny específics del domini organitzats en un llenguatge de patrons. Aquest llenguatge de patrons permet el refús del disseny, posant una especial atenció al context en el qual el disseny-solució és aplicable, les forces enfrontades que necessita balancejar i les implicacions de la seva aplicació. Els patrons proposats es centren en com: organitzar diferents tipus de connexions entre els actors, transferir dades entre els actors, habilitar la comunicació dels humans amb l'enginy del dataflow, i finalment, prototipar de forma ràpida interfícies gràfiques d'usuari per sobre de l'enginy del dataflow, creant aplicacions completes i extensibles. Com a cas d'estudi, presentem un entorn de desenvolupament (framework) orientat-a-objectes (CLAM), i aplicacions específiques construïdes al seu damunt, que fan ús extensiu del model TTSDF i els patrons contribuïts en aquesta tesi. / Software-based multimedia systems that deal with real-time audio, video and graphics processing are pervasive today, not only in desktop workstations but also in ultra-light devices such as smart-phones. The fact that most of the processing is done in software, using the high-level hardware abstractions and services offered by the underlying operating systems and library stacks, enables for quick application development. Added to this exibility and immediacy (compared to hardware oriented platforms), such platforms also offer soft real-time capabilities with appropriate latency bounds. Nevertheless, experts in the multimedia domain face a serious challenge: the features and complexity of their applications are growing rapidly; meanwhile, real-time requirements (such as low latency) and reliability standards increase. This thesis focus on providing multimedia domain experts with workbench of tools they can use to model and prototype multimedia processing systems. Such tools contain platforms and constructs that reect the requirements of the domain and application, and not accidental properties of the implementation (such as thread synchronization and buffers management). In this context, we address two distinct but related problems: the lack of models of computation that can deal with continuous multimedia streams processing in real-time, and the lack of appropriate abstractions and systematic development methods that support such models. Many actor-oriented models of computation exist and they offer better abstractions than prevailing software engineering techniques (such as object-orientation) for building real-time multimedia systems. The family of Process Networks and Dataow models based on networks of connected processing actors are the most suited for continuous stream processing. Such models allow to express designs close to the problem domain (instead of focusing in implementation details such as threads synchronization), and enable better modularization and hierarchical composition. This is possible because the model does not over-specify how the actors must run, but only imposes data dependencies in a declarative language fashion. These models deal with multi-rate processing and hence complex periodic actor's execution schedulings. The problem is that the models do not incorporate the concept of time in a useful way and, hence, the periodic schedules do not guarantee real-time and low latency requirements. This dissertation overcomes this shortcoming by formally describing a new model that we named Time-Triggered Synchronous Dataow (TTSDF), whose periodic schedules can be interleaved by several time-triggered activations" so that inputs and outputs of the processing graph are regularly serviced. The TTSDF model has the same expressiveness (or equivalent computability) than the Synchronous Dataow (SDF) model, with the advantage that it guarantees minimum latency and absence of gaps and jitter in the output. Additionally, it enables run-time load balancing between callback activations and parallelization. Actor-oriented models are not off-the-shelf solutions and do not suffice for building multimedia systems in a systematic and engineering approach. We address this problem by proposing a catalog of domain-speciffic design patterns organized in a pattern language. This pattern language provides design reuse paying special attention to the context in which a design solution is applicable, the competing forces it needs to balance and the implications of its application. The proposed patterns focus on how to: organize different kinds of actors connections, transfer tokens between actors, enable human interaction with the dataow engine, and finally, rapid prototype user interfaces on top of the dataow engine, creating complete and extensible applications. As a case study, we present an object-oriented framework (CLAM), and speciffic applications built upon it, that makes extensive use of the contributed TTSDF model and patterns.
54

Modelos QSPR/QSAR/QSTR basados en sistemas neuronales cognitivos

Espinosa Porragas, Gabriela 16 September 2002 (has links)
Un área sumamente interesante dentro del modelado molecular es el diseño de nuevos compuestos. Con sus propiedades definidas antes de ser sintetizados. Los métodos QSPR/QSAR han demostrado que las relaciones entre la estructura molecular y las propiedades físico químicas o actividades biológicas de los compuestos se pueden cuantificar matemáticamente a partir de parámetros estructurales simples. Las redes neuronales (ANN) constituyen una alternativa para el desarrollo de algoritmos predictivos aplicados en diversos campos como: análisis masivo de bases de datos, para subsanar los obstáculos derivados de la selección o la multicolinealidad de variables, así como la sensibilidad de los modelos a la presencia de ruido en los datos de entrada al sistema neuronal. En la mayoría de los casos, las redes neuronales han dado mejores resultados que los métodos de regresión multilineal (MLR), el análisis de componentes principales (PCA), o los métodos de mínimos cuadrados parciales (PLS) debido a la no linealidad inherente en los modelos de redes. En los últimos años el interés por los modelos QSPR/QSAR basados en redes neuronales se ha incrementado. La principal ventaja de los modelos de redes recae en el hecho que un modelo QSAR/QSPR puede desarrollarse sin especificar a priori la forma analítica del modelo. Las redes neuronales son especialmente útiles para establecer las complejas relaciones existentes entre la salida del modelo (propiedades físico químicas o biológicas) y la entrada del modelo (descriptores moleculares). Además, permiten clasificar los compuestos de acuerdo a sus descriptores moleculares y usar esta información para seleccionar el conjunto de índices capaz de caracterizar mejor al conjunto de moléculas. Los modelos QSPR basados en redes usan principalmente algoritmos del tipo backpropagation. Backpropagation es un sistema basado en un aprendizaje por minimización del error. Sin embargo, ya que los compuestos químicos pueden clasificarse en grupos de acuerdo a su similitud molecular, es factible usar un clasificador cognitivo como fuzzy ARTMAP para crear una representación simultánea de la estructura y de la propiedad objetivo. Este tipo de sistema cognitivo usa un aprendizaje competitivo, en el cual hay una activa búsqueda de la categoría o la hipótesis cuyos prototipos provean una mejor representación de los datos de entrada (estructura química).En el presente trabajo se propone y se estudia una metodología que integra dos sistemas cognitivos SOM y fuzzy ARTMAP para obtener modelos QSAR/QSPR. Los modelos estiman diferentes propiedades como las temperaturas de transición de fase (temperatura de ebullición, temperatura de fusión) y propiedades críticas (temperatura y presión), así como la actividad biológica de compuestos orgánicos diversos (indicadores de toxicidad). Dentro de este contexto, se comparan la selección de variables realizados por métodos tradicionales (PCA, o métodos combinatorios) con la realizada usando mapas auto-organizados (SOM).El conjunto de descriptores moleculares más factible se obtiene escogiendo un representante de cada categoría de índices, en particular aquel índice con la correlación más alta con respecto a la propiedad objetivo. El proceso continúa añadiendo índices en orden decreciente de correlación. Este proceso concluye cuando una medida de disimilitud entre mapas para los diferentes conjuntos de descriptores alcanza un valor mínimo, lo cual indica que el añadir descriptores adicionales no provee información complementaria a la clasificación de los compuestos estudiados. El conjunto de descriptores seleccionados se usa como vector de entrada a la red fuzzy ARTMAP modificada para poder predecir. Los modelos propuestos QSPR/QSAR para predecir propiedades tanto físico químicas como actividades biológicas predice mejor que los modelos obtenidos con métodos como backpropagation o métodos de contribución de grupos en los casos en los que se apliquen dichos métodos. / One of the most attractive applications of computer-aided techniques in molecular modeling stands on the possibility of assessing certain molecular properties before the molecule is synthesized. The field of Quantitative Structure Activity/Property Relationships (QSAR/QSPR) has demonstrated that the biological activity and the physical properties of a set of compounds can be mathematically related to some "simple" molecular structure parameters. Artificial neural network (ANN) approaches provide an alternative to established predictive algorithms for analyzing massive chemical databases, potentially overcoming obstacles arising from variable selection, multicollinearity, specification of important parameters, and sensitivy to erroneous values. In most instances, ANN's have proven to be better than MLR, PCA or PLS because of their ability to handle non-linear associations. In the last years there has been a growing interest in the application of neural networks to the development of QSAR/QSPR. The mayor advantage of ANN lies in the fact QSAR/QSPR can be developed without having to a priori specify an analytical form for the correlation model. The NN approach is especially suited for mapping complex non-linear relationships that exists between model output (physicochemical or biological properties) and input model (molecular descriptors). The NN approach could also be used to classify chemicals according to their chemical descriptors and used this information to select the most suitable indices capable of characterize the set of molecules. Existing neural networks based QSAR/QSPR for estimating properties of chemicals have relied primarily on backpropagation architecture. Backpropagation are an error based learning system in which adaptive weights are dynamically revised so as to minimize estimation errors of target values. However, since chemical compounds can be classified into various structural categories, it is also feasible to use cognitive classifiers such as fuzzy ARTMAP cognitive system, for unsupervised learning of categories, which represent structure and properties simultaneously. This class of neural networks uses a match-based learning, in that it actively searches for recognition categories or hypotheses whose prototype provides an acceptable match to input data. The current study have been proposed a new QSAR/QSPR fuzzy ARTMAP neural network based models for predicting diverse physical properties such as phase transition temperatures (boiling and melting points) and critical properties (temperature and pressure) and the biological activities (toxicity indicators) of diverse set of compounds. In addition, traditional pre-screening methods to determine de minimum set of inputs parameters have been compared with novel methodology based in self organized maps algorithms. The most suitable set of molecular descriptor was obtained by choosing a representative from each cluster, in particular the index that presented the highest correlation with the target variable, and additional indices afterwards in order of decreasing correlation. The selection process ended when a dissimilarity measure between the maps for the different sets of descriptors reached a minimum valued, indicating that the inclusion of more descriptors did not add supplementary information. The optimal subset of descriptors was finally used as input to a fuzzy ARTMAP architecture modified to effect predictive capabilities. The proposed QSPR/QSAR model predicted physicochemical or biological activities significantly better than backpropagation neural networks or traditional approaches such as group contribution methods when they applied.
55

Variational methods for exemplar-based image inpainting and gradient-domain video editing

Arias Martínez, Pablo 18 October 2013 (has links)
In this thesis we tackle two problems which deal with filling-in the information in a region of an image or a video, where the data is either missing or has to be replaced. These problems have applications in the context of image and video editing. The first is image inpainting, and aims at obtaining a visually plausible completion in a region in which data is missing due to damage or occlusion. The second problem concerns the propagation of an editing performed by a user in one or two reference frames of a video, throughout the rest of the video. Both problems are of theoretical interest since their analysis involves an understanding of the self-similarity in natural images and videos. At a high level, the common theme in both problems, is the exploitation and imposition of a model of redundancy (or self-similarity) to fill-in missing parts of a signal. / En esta tesis consideramos dos problemas que tratan el completado de una imagen o un video en una región en la que los datos o bien faltan (por ejemplo porque han sido dañados) o bien tienen que ser sustituídos. Estos problemas tienen aplicación en el contexto de edición de imagen y video. El primero de estos problemas es el de inpainting de imágenes, cuyo objetivo es dar una completación plausible en la región en la que faltan datos. El segundo problema consiste en la propagación de una edición proporcionada por un usuario en un cuadro de un video, a los demás cuadros. Además de su aplicación práctica, ambos problemas son de interés teórico, ya que su análisis requiere una compresión de la estructura de auto-similitud de las imagenes y videos naturales. De hecho, a nivel conceptual ambos temas tienen en común el cómo aprovechar e imponer la redundancia de una señal para completar partes faltantes.
56

Disseny de hardware específic per a l'extracció de característiques i comparació d'empremtes dactilars.

Cañellas Alberich, Nicolau 01 December 2006 (has links)
El mètode d'identificació mitjançant empremta dactilar és un dels més fiables que es coneixen i un seriós candidat a ser incorporat a les activitats diàries. En els darrers anys la biometria d'empremta dactilar s'ha anat acostant al gran públic i ja no és estranya la utilització de sistemes automàtics de verificació dactilar per a l'accés a certes instal·lacions.El mercat es dirigeix cap a un tipus de targetes personals que integren un sensor d'empremta dactilar junt a un dispositiu en el que es facin totes les etapes de l'algorisme biomètric. Dins d'aquest context, la tesi busca la integració de sistemes biomètrics y targetes intel·ligents amb l'objectiu d'implementar un "embedded security system" capaç d'evitar possibles usos fraudulents mitjançant la verificació de la identitat del titular a partir de la utilització de la biometria d'empremta dactilar.Tradicionalment, els algorismes utilitzats per a fer l'extracció de característiques d'empremtes dactilars es basen en la successiva aplicació de complexes funcions de processat d'imatge. El desenvolupament d'aquests algorismes es fa pensant en la correcta extracció de les característiques, però fins ara no s'ha pensat en una optimització del cost o de la portabilitat; els sistemes s'han desenvolupat sobre una plataforma amb un ordenador personal, o utilitzant un microprocessador d'elevades prestacions (i cost), o fins i tot fent servir un processador digital de senyal (DSP) específic.En el marc d'aquesta tesi s'ha desenvolupat un algorisme per a l'extracció de les característiques físiques de les empremtes dactilars; el processat, que es fa directament sobre la imatge de l'empremta en escala de grisos, no precisa de multiplicadors ni divisors, ni realitza operacions en coma flotant. Com que la correcta estimació de les direccions de les línies de l'empremta acostuma a ser la part més crítica, i computacionalment més costosa, dels algorismes d'extracció de característiques, també s'ha dissenyat un algorisme específic per a dur a terme aquesta operació.Amb la finalitat d'obtenir un sistema d'extracció en temps real apte per a ser implementat en microprocessadors de baix cost, s'ha fet el codisseny d'un sistema hardware - software. Així, s'han implementat els coprocessadors corresponents a la realització per hardware tant dels algorismes d'estimació de direcció com de la resta de itasques crítiques; aquestes s'han identificat analitzant el perfil d'execució dels algorismes dissenyats.El mètode d'estimació de la direcció que s'ha dissenyat incorpora una novadora optimització de càlcul, que s'adapta a les necessitats específiques de precisió i evita la realització d'operacions d'alt cost computacional. A la orientació calculada se li associa un valor numèric, indicatiu de la fiabilitat de l'estimació, que facilitarà la realització d'una fase prèvia de segmentació de l'empremta, un punt important en el procés d'extracció, i que, habitualment, s'ha estudiat de forma separada al procés d'extracció.Totes aquestes modificacions ens permetran fer un dispositiu electrònic (hardware + software) de dimensions petites, baix cost i alta qualitat en els resultats, tenint-se així la possibilitat d'utilitzar la identificació o l'autentificació d'empremtes dactilars en nous camps d'aplicació. / El método de identificación mediante huella dactilar es uno de los más fiables que se conocen y un serio candidato a ser incorporado a la vida cotidiana. En los últimos años la biometría de huella dactilar se ha ido acercando al gran público y ya no es extraña la utilización de sistemas automáticos de verificación dactilar para el acceso a algunas instalaciones.El mercado se encamina hacia un tipo de tarjetas personales que integren un sensor de huella dactilar junto a un dispositivo en el que se lleven a cabo todos los pasos del algoritmo biométrico. Dentro de este contexto, la tesis persigue la integración de sistemas biométricos y tarjetas inteligentes con el objetivo de implementar un "embedded security system" capaz de evitar posibles usos fraudulentos mediante la verificación de la identidad del titular a partir de la utilización de la biometría de huella dactilar.Tradicionalmente, los algoritmos utilizados para realizar la extracción de características de huellas dactilares se basan en la sucesiva aplicación de complicadas funciones de procesado de imagen. El desarrollo de estos algoritmos se realiza pensando en la correcta extracción de las características, pero hasta la fecha no se ha pensado en una optimización del coste o de la portabilidad; los sistemas se han desarrollado sobre una plataforma con un ordenador personal, o empleando un microprocesador de altas prestaciones (y coste), cuando no un procesador digital de señal (DSP) específico.En el marco de esta tesis se ha desarrollado un algoritmo para la extracción de las características físicas de las huellas dactilares; el procesado, que se realiza directamente sobre la imagen de la huella en escala de grises, no precisa de productos ni divisiones ni operaciones en coma flotante. Puesto que la correcta estimación de las direcciones de las líneas de la huella suele ser la parte más crítica, y computacionalmente más costosa, de los algoritmos de extracción de características, también se ha desarrollado un algoritmo específico para realizar esta operación.Con objeto de disponer de un sistema de extracción en tiempo real apto para ser implementado en microprocesadores de bajo coste, se ha realizado el codiseño de un sistema hardware - software. Así, se han implementado los coprocesadores correspondientes a la realización mediante hardware de los algoritmos de estimación de iiidirección así como del resto de tareas críticas; éstas se han identificado analizando el perfil de ejecución de los algoritmos diseñados.El método de estimación de la dirección diseñado incorpora una novedosa optimización de cálculo, que se adapta a las necesidades específicas de precisión y evita la realización de operaciones de elevado coste computacional. A la orientación calculada se le asocia un valor numérico, indicativo de la fiabilidad en la estimación, que va a facilitar la realización de una fase previa de segmentación de la huella, un punto importante en el proceso de extracción, y que, habitualmente, se ha venido estudiando de forma separada al proceso de extracción.Todas estas modificaciones nos permitirán realizar un dispositivo electrónico (hardware + software) de pequeñas dimensiones, bajo coste y alta calidad en los resultados, obteniendo así la posibilidad de la utilización de la identificación o autentificación de huellas dactilares en nuevos campos de aplicación. / Fingerprint-based biometrics is one of the more reliable identification methods, and a serious candidate for being used in the daily life. In recent years a lot of new devices incorporate fingerprint biometrics and it is not strange the utilization of automatic fingerprint identification systems for monitoring the access into restricted areas.The society is evolving towards a new kind of smart cards, joining a fingerprint sensor together with a device capable of performing all of the biometric identification steps. In this framework, the thesis focuses in the integration of biometric systems and smart cards; the target is the implementation of an embedded security system, based in fingerprint biometrics, in order to avoid fraudulent accesses by means of identity verification.Traditionally, the algorithms used in fingerprint features extraction have been based in the recursive iteration of complex image processing functions. These algorithms have been designed looking only for the correct feature extraction but, until now, there is not any algorithm designed bearing in mind a cost or a portability optimization; the systems have been developed over a personal computer based platform, or using a high feature (and cost) microprocessor, or over an specific digital signal processing (DSP) device.This work develops a new algorithm for the extraction of the fingerprint physical details (minutiae) directly from a grey scale image; the algorithm does not need any product or division and neither any floating point operation. As the correct estimation of the ridge lines direction usually becomes the most critical step, and computationally most expensive, of the minutiae extraction algorithms, it has also been developed a specific algorithm for this specific task.In order to develop an real-time automatic identification system, fitted to be implemented in low cost microprocessors, it has been carried out the co-design of a hardware - software system. So, the respective coprocessors have been designed: the one related to the hardware implementation of the ridge lines directions estimation and other dedicated to the rest of critical tasks; these have been identified executing the software version of the algorithm and analyzing execution profile.The ridge orientation estimation method introduces an original computing method, which is adapted to the specific precision needs and saves the use of high computational cost operations. A numerical value, indicative of the estimation reliability, is associated to the computed orientation. This value will be used to simplify the execution of a fingerprint segmentation step, previous to the feature extraction. Usually this step has been carried out as an independent part of the process with the consequent increase in the total computational cost.With the presented set of functions and algorithms, and their hardware counterparts (hardware software co-design), it is developed an electronic device with little size, low cost, and high quality results. As a result, the thesis brings new application fields for the personal identification based in fingerprint biometry.
57

From music similarity to music recommendation : computational approaches based on audio features and metadata

Bogdanov, Dmitry 06 September 2013 (has links)
Aquest treball es centra en el modelatge d'usuari per la recomanació musical i desenvolupa algoritmes per la comprensió automàtica i visualització de preferències musicals. Primer, es proposa un model d'usuari construït a partir d'un conjunt de peces musicals. En segon lloc, s'estudien mètodes d’estimació de similitud musical, treballant exclusivament en el contingut d'àudio. Es proposen noves mètriques basades en la informació tímbrica, temporal, tonal i semàntica. En tercer lloc, es proposen diversos mètodes de recomanació musical que utilitzen aquestes mètriques i que milloren amb un filtratge addicional basat en metadades. També es proposa un mètode senzill basat en metadades editorials. En quart lloc, es presenten els predictors de preferència rellevants a nivell acústic i semàntic. Finalment, es presenta un mètode de visualització de preferències que millora l'experiència d'usuari en sistemes de recomanació. / In this work we focus on user modeling for music recommendation and develop algorithms for computational understanding and visualization of music preferences. Firstly, we propose a user model starting from an explicit set of music tracks provided by the user as evidence of his/her preferences. Secondly, we study approaches to music similarity, working solely on audio content and propose a number of novel measures working with timbral, temporal, tonal, and semantic information about music. Thirdly, we propose distance-based and probabilistic recommendation approaches working with explicitly given preference examples. We employ content-based music similarity measures and propose filtering by metadata to improve results of purely content-based recommenders. Moreover, we propose a lightweight approach working exclusively on editorial metadata. Fourthly, we demonstrate important predictors of preference from both acoustical and semantic perspectives. Finally, we demonstrate a preference visualization approach which allows to enhance user experience in recommender systems.
58

Audio source separation for music in low-latency and high-latency scenarios

Marxer Piñón, Ricard 09 September 2013 (has links)
Aquesta tesi proposa mètodes per tractar les limitacions de les tècniques existents de separació de fonts musicals en condicions de baixa i alta latència. En primer lloc, ens centrem en els mètodes amb un baix cost computacional i baixa latència. Proposem l'ús de la regularització de Tikhonov com a mètode de descomposició de l'espectre en el context de baixa latència. El comparem amb les tècniques existents en tasques d'estimació i seguiment dels tons, que són passos crucials en molts mètodes de separació. A continuació utilitzem i avaluem el mètode de descomposició de l'espectre en tasques de separació de veu cantada, baix i percussió. En segon lloc, proposem diversos mètodes d'alta latència que milloren la separació de la veu cantada, gràcies al modelatge de components específics, com la respiració i les consonants. Finalment, explorem l'ús de correlacions temporals i anotacions manuals per millorar la separació dels instruments de percussió i dels senyals musicals polifònics complexes. / Esta tesis propone métodos para tratar las limitaciones de las técnicas existentes de separación de fuentes musicales en condiciones de baja y alta latencia. En primer lugar, nos centramos en los métodos con un bajo coste computacional y baja latencia. Proponemos el uso de la regularización de Tikhonov como método de descomposición del espectro en el contexto de baja latencia. Lo comparamos con las técnicas existentes en tareas de estimación y seguimiento de los tonos, que son pasos cruciales en muchos métodos de separación. A continuación utilizamos y evaluamos el método de descomposición del espectro en tareas de separación de voz cantada, bajo y percusión. En segundo lugar, proponemos varios métodos de alta latencia que mejoran la separación de la voz cantada, gracias al modelado de componentes que a menudo no se toman en cuenta, como la respiración y las consonantes. Finalmente, exploramos el uso de correlaciones temporales y anotaciones manuales para mejorar la separación de los instrumentos de percusión y señales musicales polifónicas complejas. / This thesis proposes specific methods to address the limitations of current music source separation methods in low-latency and high-latency scenarios. First, we focus on methods with low computational cost and low latency. We propose the use of Tikhonov regularization as a method for spectrum decomposition in the low-latency context. We compare it to existing techniques in pitch estimation and tracking tasks, crucial steps in many separation methods. We then use the proposed spectrum decomposition method in low-latency separation tasks targeting singing voice, bass and drums. Second, we propose several high-latency methods that improve the separation of singing voice by modeling components that are often not accounted for, such as breathiness and consonants. Finally, we explore using temporal correlations and human annotations to enhance the separation of drums and complex polyphonic music signals.
59

Non-stationary sinusoidal analysis

Muševič, Sašo 10 September 2013 (has links)
Muchos tipos de señales que encontramos a diario pertenecen a la categoría de sinusoides no estacionarias. Una gran parte de esas señales son sonidos que presentan una gran variedad de características: acústicos/electrónicos, sonidos instrumentales harmónicos/impulsivos, habla/canto, y la mezcla de todos ellos que podemos encontrar en la música. Durante décadas la comunidad científica ha estudiado y analizado ese tipo de señales. El motivo principal es la gran utilidad de los avances científicos en una gran variedad de áreas, desde aplicaciones médicas, financiera y ópticas, a procesado de radares o sonar, y también a análisis de sistemas. La estimación precisa de los parámetros de sinusoides no estacionarias es una de las tareas más comunes en procesado digital de señales, y por lo tanto un elemento fundamental e indispensable para una gran variedad de aplicaciones. Las transformaciones de tiempo y frecuencia clásicas son solamente apropiadas para señales con variación lenta de amplitud y frecuencia. Esta suposición no suele cumplirse en la práctica, lo que conlleva una degradación de calidad y la aparición de artefactos. Además, la resolución temporal y frecuencial no se puede incrementar arbitrariamente debido al conocido principio de incertidumbre de Heisenberg. \\ El principal objetivo de esta tesis es revisar y mejorar los métodos existentes para el análisis de sinusoides no estacionarias, y también proponer nuevas estrategias y aproximaciones. Esta disertación contribuye sustancialmente a los análisis sinusoidales existentes: a) realiza una evaluación crítica del estado del arte y describe con gran detalle los métodos de análisis existentes, b) aporta mejoras sustanciales a algunos de los métodos existentes más prometedores, c) propone varias aproximaciones nuevas para el análisis de los modelos sinusoidales existentes i d) propone un modelo sinusoidal muy general y flexible con un algoritmo de análisis directo y rápido. / Many types of everyday signals fall into the non-stationary sinusoids category. A large family of such signals represent audio, including acoustic/electronic, pitched/transient instrument sounds, human speech/singing voice, and a mixture of all: music. Analysis of such signals has been in the focus of the research community for decades. The main reason for such intense focus is the wide applicability of the research achievements to medical, financial and optical applications, as well as radar/sonar signal processing and system analysis. Accurate estimation of sinusoidal parameters is one of the most common digital signal processing tasks and thus represents an indispensable building block of a wide variety of applications. Classic time-frequency transformations are appropriate only for signals with slowly varying amplitude and frequency content - an assumption often violated in practice. In such cases, reduced readability and the presence of artefacts represent a significant problem. Time and frequency resolu
60

Modelling tonal context dynamics by temporal multi-scale analysis

Martorell Domínguez, Agustín 19 September 2013 (has links)
This work explores the multidimensional, ambiguous and temporal characteristics of tonality. The approach relies on interfacing pitch-spaces with time vs. time-scale descriptions. In this combined representation, the spatial and temporal hierarchies of tonality are evidenced simultaneously and in relation to each other. A visual exploration method is proposed for the analysis of tonal context in music works, using a simple model of tonal induction. The method is extended for the analysis of music based on tonal systems beyond the major-minor paradigm. Two perceptual studies are approached from this descriptive framework. The first study evidences the impact of time-scale in a simple mode of tonal induction, and analyses the mathematical artefacts introduced by evaluations in scaled spaces. In the second study, a model of contextual instability is proposed and discussed in relation to the modelling of tonal tension. The analysis and representation methods are then generalised, through a set-class theoretical domain. / Esta tesis analiza la naturaleza ambigua, multidimensional y temporal de la tonalidad. El método propuesto parte de la conexión entre espacios tonales y descripciones en tiempo y escala temporal. Esta representación conjunta pone de manifiesto la relación entre las jerarquías espaciales y temporales de la tonalidad. Utilizando un modelo simple de inducción tonal, se propone un método de exploración visual del contexto tonal en obras musicales. Dos estudios perceptuales son abordados desde el entorno descriptivo propuesto. En el primer estudio, se pone en evidencia el impacto de la escala temporal como parámetro de un modelo simple de inducción tonal, y se analizan los artificios matemáticos introducidos por evaluaciones en espacios escalados dimensionalmente. En el segundo estudio se propone un modelo de inestabilidad contextual, y se analiza en relación al modelado de la tensión tonal. El método de análisis se generaliza, a través de una categorización contextual en set-classes.

Page generated in 0.1318 seconds