• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 208
  • 72
  • 21
  • 1
  • Tagged with
  • 301
  • 301
  • 301
  • 82
  • 47
  • 45
  • 44
  • 35
  • 35
  • 35
  • 32
  • 32
  • 24
  • 22
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Contribució a l'etapa de filtratge en l'estudi d'imatges de ressonància magnètica funcional. Aplicació a l'anàlisi d'una tasca d'atenció sostinguda

Bartés i Serrallonga, Manel 15 December 2014 (has links)
L'objectiu d'aquesta tesi és contribuir a trobar mètodes d’eliminació de soroll en imatges de ressonància magnètica funcional, que difereixin dels tradicionals i que permetin una major extracció d’informació durant el procés d’anàlisis. El primer capítol fa una introducció a la ressonància magnètica funcional. El segon capítol explica molt breument la problemàtica que provoquen les altes concentracions de soroll a les dades. El capítol número tres fa un repàs de les contribucions portades a terme durant la realització d’aquest treball. El quart capítol exposa de manera breu les estades de recerca portades a terme. El cinquè capítol està dedicat a resoldre el problema de la presència de soroll en les imatges de ressonància magnètica i planteja l’ús de diferents tècniques de filtratge. El capítol sis es focalitza en els resultats obtinguts, tant amb dades artificials com experimentals i fa una discussió de les implicacions d’aquests. Finalment, el setè capítol mostra les conclusions. / El objetivo de esta tesis es contribuir a encontrar métodos de eliminación de ruido en imágenes de resonancia magnética funcional, que difieran de los tradicionales y que permitan una mayor extracción de información durante el proceso de análisis. El primer capítulo hace una introducción a la resonancia magnética funcional. El segundo capítulo explica muy brevemente la problemática que provocan las altas concentraciones de ruido en los datos. El capítulo número tres hace un repaso de las contribuciones realizadas durante la realización de este trabajo. El cuarto capítulo expone de manera breve las estancias de investigación llevadas a cabo. El quinto capítulo está dedicado a resolver el problema de la presencia de ruido en las imágenes de resonancia magnética y plantea el uso de diferentes técnicas de filtrado. El capítulo seis se focaliza en los resultados obtenidos, tanto con datos artificiales como experimentales y hace una discusión de las implicaciones de estos. Finalmente, el séptimo capítulo muestra las conclusiones. / The aim of this thesis is to contribute to find methods of noise removal in functional magnetic resonance imaging, which differ from the traditional and allow a greater extraction of information during the process of analysis. The first chapter introduces the functional magnetic resonance imaging. The second chapter explains briefly the problems that cause high levels of noise in the data. The chapter number three is a review of the contributions carried out during the realization of this work. The fourth chapter presents briefly the research stays performed. The fifth chapter focuses on solving the problem of the presence of noise in magnetic resonance imaging and proposes the use of different filtering techniques as a solution. The chapter 6 is focused on the results, with both artificial and experimental data and discusses the different results. Finally, the seventh chapter shows the conclusions.
42

The Anatomical, physiological and computational principles of adaptive learning in the cerebellum: the micro and macrocircuits of the brain

Zucca, Riccardo 13 February 2015 (has links)
The human brain is undoubtedly the most complex product of evolution. Understanding how complex behaviour is generated by the intricacy of hundred billion of neurons and synapses fascinated scientists and philosophers for millennia. The multiscale trait of the central nervous system is a hallmark of its architecture and brain functions emerge from the interaction of its components at di erent temporal and spatial scales. A full understanding cannot be achieved unless we approach this complexity at these di erent scales, with techniques that are sensitive to these various levels of organization. Here we propose a convergent approach to scale up from local to global organization of the brain that relies on experimental, computational and behavioral methods, mainly focusing on the cerebellum and the neocortex. Through electrophysiological, neuro-prosthetic and behavioral studies on a reduced animal preparation, we provide further evidence about the central role of the climbing bre signal in precisely modulating the overall activity and ne{tuning the learning process in a basic functional cerebellar microcircuit. Having identi ed the properties of a single microcircuit, how could the computational principles be extended to a larger scale that includes also the polysynaptic connectivity with the neocortex? To tackle this question, we propose a computational approach that integrates reconstruction of anatomical structural data of the neocortex with biophysical neuronal dynamics, that we employed to infer patterns of neuronal activation in healthy and simulated disease. However, the brain operates vii in a natural environment that is continuously evolving. To reconcile the reductionist approach with the real demands of an operating brain, while maintaining a high degree of control, we propose an hybrid approach that mixes virtual{reality with wearable devices that we validated in a conditioning task. We show that such approach can overcome the limitations of the classical laboratory settings thus providing a more ecological framework to infer functional principles. Altogether, this thesis work advances our understanding of the cerebellar mechanisms involved during the acquisition of adaptive motor behaviors. Moreover, it paves the way for using a convergence of computational and experimental approaches that o er complementary views of brain organization to address questions about functions in health and disease, which cannot be reduced to a single observational scale or method.
43

Designing, testing and modelling two innovative non-conventional buckling restrained braces for seismic resistant buildings

Piedrafita Francos, Daniel 01 December 2014 (has links)
In this thesis two all-steel BRB have been designed, manufactured and tested, and both satisfy the testing protocols required by EU and US codes. They are composed of a steel slotted restraining unit which stabilizes the steel core. The first one, the Modular Buckling Restrained Brace (MBRB), is composed by several seriated modules which contain several dissipation units connected in parallel, which yield under shear forces. Although it has good hysteretic response and a high ductility, its core is heavy and expensive to manufacture. The second one,the Slotted Buckling Restraining Brace (SBRB), solves these two shortcomings. It yields under axial forces, like the conventional BRBs, but the usual solid core has been substituted by a perforated plate. The core is a one-piece element composed of two lateral bands, of a nearly uniform section and designed to yield, connected by stabilizing bridges, which behave elastic. The buckling prevention of the lateral bands is done by the restraining unit and the stabilizing bridges. Design expressions have been proposed to design both devices, and a numerical material model have been formulated and implemented in commercial finite element method software to numerically simulate the behavior of the braces, which will reduce the need of full scale tests for its design / En la present tesi, dos BVR totalment metàl·lics s’han dissenyat, fabricat i assajat, satisfent tots dos els requeriments dels protocols definits per les normes europees i americanes. Estan formats per un element de travat ranurat que estabilitza el nucli metàl·lic. El primer d’ells, el Braç de Vinclament Restringit Modular (BVRM), està format per diversos mòduls seriats que a la vegada contenen diverses unitats de dissipació, que plastifiquen sota esforços tallants, connectades en paral·lel. Tot i que té un bon comportament histerètic i una gran ductilitat, el nucli és pesat i difícil de fabricar. El segon braç, anomenat Braç de Vinclament Restringit Ranurat (BVRR), soluciona aquests inconvenients. Plastifica sota esforços axials, de la mateixa manera que els BVR convencionals, però el nucli massís és substituït per una platina perforada. Aquest nucli consisteix en un únic element composat per dos bandes laterals, dissenyades per a plastificar i amb una secció quasi constant, connectades per diversos ponts estabilitzadors que es mantenen sempre en el seu rang elàstic. Aquests ponts, juntament amb l’element de travat, impedeixen el vinclament de les bandes laterals. S’han proposat diverses expressions de disseny pels dos braços. S’ha formulat i implementat, en un programa d’elements finits comercial, un model de material per a simular numèricament el comportament dels braços, reduint així la dependència dels assajos a escala real durant el seu procés de disseny
44

Facing the Challenge of Automated Negotiation with Humans

Fàbregues, Àngela 13 December 2012 (has links)
El camp de recerca en negociació ha estat estudiat des de diferents perspectives. Entre elles: la teoria de jocs, la psicologia, els negocis, la neuro-economia, i la psico-farmacologia. L'estudi computacional de la negociació s'anomena negociació automàtica. La majoria de les feines sobre negociació automàtica assumeixen que els agents són racionals, i els problemes estàtics. En canvi, els éssers humans són racionalment limitats, i els problemes acostumen a ser dinàmics. Sovint resulta impossible explorar l'espai de negociació complet degut a l'esgotament del temps i al dinamisme del problema. En el moment en què es troba una solució òptima, aquesta ja ha deixat de ser òptima des de fa temps. Els actuals bancs de proves disponibles sobre negociació automàtica es troben amb els mateixos problemes. Els que pretenen ser compatibles amb agents humans assumeixen que aquests són racionals, o utilitzen dominis artificials que requereixen una instrucció intensiva dels éssers humans per tal que puguin participar en els experiments. Aquesta tesi contribueix a la negociació automàtica definint una arquitectura d'agent adequada per a negociar amb els humans, i un banc de proves que resol els problemes existents a l'hora d'incloure humans en els experiments. L'arquitectura d'agent s'anomena HANA, permet múltiples negociacions bilaterals sobre accions a realitzar, i s'ocupa de la pre-negociació tot cercant bons conjunts d'accions i ofertes. Es tracta d'una arquitectura modular basada en un model ecològic de la racionalitat. L'estat mental de l'agent es representa amb graus de creences, desitjos dinàmics i intencions generals. Utilitzem una nova tècnica de cerca&negociació on la cerca i la negociació van de la mà: una proporcionant ofertes per a proposar, i l'altra compromisos per a podar l'espai de cerca, i informació per a afinar l'avaluació de les ofertes. Es defineixen diverses estratègies de negociació que es poden combinar dinàmicament. L'arquitectura és extensible permetent la incorporació de nous models de comportament. El banc de proves s'anomena DipGame i es basa en un joc de taula molt popular on ser un bon negociador és crucial per a guanyar. Aquest banc de proves permet l'estudi de les relacions, les emocions i les coalicions que tenen lloc durant successives negociacions entre éssers humans. Hi ha moltes oportunitats d'estudi en diversos temes de recerca, tots ells vinculats a la negociació. L'estudi d'un tema o d'un altre es selecciona restringir el llenguatge utilitzat durant el joc. El banc de proves proporciona un marc pel desenvolupament d'agents i diverses eines de negociació per a la representació dels missatges i la comunicació entre ells. DipGame dóna suport a l'execució d'experiments utilitzant un programa anomenat GameManager, i facilita la inclusió dels éssers humans amb un altre programa anomenat ChatApp. A més, es dóna suport a l'anàlisi dels resultats amb un programa diferent anomenat DipTools. Aquesta tesi es completa amb una definició formal del problema, una especificació formal del joc i l'aplicació del treball a la indústria dels jocs / The research field of negotiation has been studied from many different perspectives, among them: game theory, psychology, business, neuroeconomics, and psychopharmacology. The computational study of negotiations is denoted by automated negotiation. Most works on automated negotiation assume rational agents and static negotiation problems. However, humans are rationally bounded, and their negotiations are usually dynamic. It is often impossible to explore the complete negotiation space due to time limitations and the dynamics of the problem. By the time that an optimal solution is found, the solution is not optimal any more. Currently available testbeds on automated negotiation share the same shortcomings. Those testbeds that intend to involve humans in experiments assume that humans are rational, or are defined over artificial domains that require intense instruction of experiment participants. This thesis contributes to automated negotiation defining an agent architecture suitable to negotiate with humans, and a testbed that allows for an easy participation of humans in experiments. We denote the agent architecture by HANA. It allows multiple bilateral negotiations about actions, and deals with pre-negotiation looking for good enough sets of actions and offers. It is a modular architecture based on an ecological model of rationality. The mental state of the agent is represented as graded beliefs, dynamic desires and general intentions. We use a novel search&negotiation technique where search and negotiation go hand in hand: the former providing offers to propose, and the later providing commitments for pruning the search space, and information for fine-tuning the evaluation of offers. Several negotiation strategies are provided that can be dynamically combined. The architecture is extensible, allowing the incorporation of new behavioural models. The name of the testbed is DipGame. It is based on a popular board game where being a skilled negotiator is crucial for winning. DipGame allows the study of relationships, emotions, and coalitions that take place during successive negotiations involving humans. There are many research opportunities in different topics all of them connected to negotiation. The study of a topic or another is selected constraining the negotiation language used during the game. The testbed provides a framework for agent development, and several negotiation utilities for the representation of messages and communication among agents. It assists the execution of experiments using a graphical software application called GameManager. It facilitates the inclusion of humans with another application called ChatApp. Moreover, the analysis of results is supported by a different application called DipTools. This thesis is completed with a formal definition of the problem, a formal specification of the game, and the application of the work to the game industry.
45

Study of the theoretical bounds and practical limits of time synchronization protocols using an Ethernet FPGA platform

Nicolau Jené, Carles 07 February 2011 (has links)
The goal of synchronization is to align/synchronize the time and frequency scales of all nodes within a network. In industrial applications, synchronization enables simultaneous triggering of distributed events and synchronous data acquisition at di erent nodes. For wide distributed systems, such as Internet, clock synchronization is advantageous for maintaining end-to-end Quality of Service (QoS). Ethernet is the technology of choice for the future networks. Its low cost, the ever increasing data rates and low complexity and maintenance are key enablers for adopting it at all geographical scales and applications, ranging from the Network Provider to the industrial level. However, low cost and simplicity that characterizes the legacy Ethernet are only part of its attraction. The challenge is that it was initially conceived as a 'best-e ort' and asynchronous oriented technology, limitations that di cult its adoption to handle, for example, timesensitive applications in the industrial eld, or carrier-class transport of services, from the Network Provider perspective. To better support new applications with tight synchronization requirements, standardization bodies and equipment manufacturers are making considerable e orts to extend its functionalities and release solutions to meet the synchronization requirements of new applications. High accuracy time synchronization is a key enabler for o ering such carrierclass QoS and handling distributed applications with stringent synchronization needs. Today's Ethernet-based approaches that deliver time synchronization rely on timestamped packets that distribute to the network. The acts of timestamping and sending the packet are crucial for achieving high accuracy synchronization, as they are exposed to a number of delay variabilities from the source to the destination node that impair the synchronization accuracy between nodes. As the timestamping is a key component for actual synchronization protocols, the main goal in this work is to evaluate the impact of these sources of inaccuracies of Ethernet layers on the synchronization accuracy between nodes. The followed evaluation method is based on a real prototype utilizing a low-cost platform FPGAs. The inherent complexity of these devices poses an additional challenge to the evaluation process, especially if the addressed synchronization accuracies are at the level of few nanoseconds. Therefore, this work also discusses and proposes methods to overcome platform-dependent limitations. Additionally, this work proposes a di erent perspective for Ethernet technology which consists on envisioning the legacy Ethernet with a time synchronization functionality. We believe that such a new capability would allow Ethernet to better handle time sensitive applications and to be independent and compatible from and with the higher layers while keeping its initial philosophy: low-cost, simplicity and asynchronous technology. / L'objectiu de la sincronització és alinear/sincronitzar les escales de temps de tots els nodes d'una xarxa. En aplicacions industrials, la sincronització permet l'inici simultani d'esdeveniments distribuïts o l'adquisició de dades de forma síncrona als diferents nodes. En grans sistemes distribuïts, com per exemple l'Internet, la sincronització és bene ciosa per mantenir Qualitat de Servei (QdS) entre dos nodes distants entre si. Ethernet és la tecnologia d'el lecció per les xarxes del futur. El seu baix cost, les contínues actualitzacions de velocitat i la baixa complexitat i manteniment són els activadors per adoptar-la a tots els nivells geogrà cs i aplicacions, des de Proveïdors de Xarxa en xarxes metropolitanes, a aplicacions industrials en xarxes locals. No obstant, el baix cost i simplicitat que caracteritzen a Ethernet constitueixen només una part del seu interés. El problema és que aquesta va ser originalment concebuda com una tecnologia de serveis mínims i asíncrona, dues limitacions que di culten la seva adopció en aplicacions amb fortes restriccions de temps, tant en el camp industrial com en el transport de serveis de qualitat d'operadora. Per tal de suportar noves aplicacions amb fortes restriccions de temps, diversos organismes d'estandardització i fabricants d'equipament estan treballant activament per extendre les seves funcionalitats i llançar solucions per tal de complir amb nous requeriments de sincronització. La sincronització de temps d'alta exactitud és clau per oferir serveis d'alt QdS i suportar aplicacions distribuïdes que necessitin fortes restriccions de temps. Les solucions d'avui dia basades en Ethernet que entreguen sincronització de temps es basen en distribuïr paquets amb una marca de temps a la xarxa. Les accions d'inserir la marca de temps i enviar el paquet són decisives per aconseguir sincronització d'alta exactitud ja que estan exposades a un nombre de variabilitats de retard des de l'origen ns el destí que empitjoren l'exactitud de la sincronització entre nodes. Degut a que l'acció d'inserir la marca de temps és un component clau pels protocols de sincronització actuals, l'objectiu principal en aquesta Tesi és avaluar l'impacte d'aquestes fonts d'inexactitud de les capes d'Ethernet en la sincronitzaci ó entre nodes. El mètode d'avaluació està basat en un prototipus real utilitzant plataformes basades en matrius de portes lògiques programables per camp (de l'anglès, Field Programmable Gate Arrays (FPGA)) de baix cost. La inherent complexitat d'aquests dispositius suposa un repte addicional al procés d'avaluació, especialment si s'adreçen exactituds de sincronització de nivells de pocs nanosegons. Aleshores, aquesta Tesi també debat i proposa mètodes per vèncer les limitacions dependents de la plataforma. A més, aquesta Tesi proposa una perspectiva diferent per a la tecnologia Ethernet, la qual consisteix en extendre l'Ethernet inicial amb una funcionalitat de sincronització. Creiem que una funcionalitat com aquesta permetria a Ethernet suportar aplicacions amb fortes restriccions de temps amb independència de, i compatibilitat amb capes més altes tot mantenint la seva loso a inicial: baix cost, simplicitat i tecnologia asíncrona.
46

An ID-based mutually authenticated edge-to-edge security architecture for bridged provider networks to secure layer-2 communications

Ferdous Wahid, Khan 26 May 2011 (has links)
IEEE standardized a Layer-2 security, named Media Access Control security (MACsec), for interoperability. It provides link-based security through hop-by-hop operation. The link-constrained security of MACsec eliminates the confidentiality of user data inside bridges. Hence, high-speed Ethernet-based Broadband networks are susceptible to attacks in large network deployment, where bridges need to be resided in street cabinets, road side poles or public places for easy user access. We propose an ID-based mutually authenticated edge-to-edge security architecture to address this remaining gap (i.e., secure bridging) in layer-2 service provider networks. The major challenge for this scenario is the combination of complete security, simplicity, better performance and scalability in a single solution. Our solution addresses all challenges and simplifies- key distribution by an extension of 802.1x-EAP authentication protocol, key agreement by an ID-based mutually authenticated two-pass key agreement protocol and secure data transmission by a modification of the replay protection mechanism of 802.1AE. / IEEE va estandarditzar seguretat a nivell 2, anomenada Media Access Control, que s'enfoca a proporcionar interoperabilitat, seguretat a nivell d'enllaç, i operació salt-a-salt. La seguretat restringida de MACsec elimina la confidencialitat de les dades de l'usuari dins dels dispositius. Per tant, les xarxes d'alta velocitat basades en Ethernet són susceptibles als atacs en grans desplegaments, on els bridges han de ser guardats a distribuïdors a nivell de carrer o llocs públics d'accés fàcil. Per fer front al problema a les xarxes de proveïdors de capa 2 aquí proposem una arquitectura de seguretat extrem-a-extrem, autenticada mútuament i basada en identitat. El principal repte per a aquest escenari és la combinació d'una seguretat completa, simplicitat, millor rendiment i escalabilitat en una única solució. La nostra solució ataca tots els reptes i simplifica- (1) la distribució de claus mitjançant una ampliació del protocol d'autenticació 802.1x-EAP protocol, (2) l'acord de claus amb un protocol de doble passada autenticat mútuament i basat en identitat, i (3) la transmissió segura de dades mitjançant una modificació del mecanisme de 'protecció de resposta' de 802.1AE.
47

Producción d Tableros de fibras a partir de Miscanthus Sinensis

Velásquez Jiménez, Jorge Alberto 05 July 2002 (has links)
Se han logrado fabricar tableros de fibras sin aditivos de calidad comercial a partir de Miscanthus sinensis. El M. sinensis es una planta tipo caña de origen asiático cuyo cultivo ha sido adaptado a las condiciones europeas y está siendo estudiada como sustituto de cultivos agroalimentarios. El M. sinensis ha sido pretratado con vapor, posteriormente se ha secado, molido y prensado para formar los tableros. Se han optimizado tanto las condiciones del pretratamiento como las del prensado. Los tableros de fibras obtenidos se pueden utilizar como materiales de construcción sustitutos de la madera y de los plásticos. El hecho de que no tengan aditivos sintéticos representa una gran ventaja pues las resinas utilizadas hasta ahora como aditivos son derivados del petróleo (recurso no renovable). Por otra parte las emisiones de algunos residuos de dichas resinas en el producto final están sometidas a una legislación ambiental muy severa. Actualmente los tableros de fibras se fabrican, principalmente, a partir de madera. El M. sinensis, comparado con la madera, ofrece un mayor rendimiento pues para su cultivo se requiere menos área y menos tiempo. Uno de los mayores problemas de los tableros de fibras hechos a partir de plantas anuales como el M. sinensis es el rápido deterioro que sufren en ambientes húmedos, el pretratamiento con vapor disminuye drásticamente dicha sensibilidad a la humedad.También se ha verificado que la adición, de hasta un 30%, de lignina kraft a los tableros mejora algunas propiedades mecánicas sin deteriorar las demás características. La lignina kraft es un residuo de la madera utilizada en la producción del papel y actualmente se usa como combustible en las papeleras. La lignina dentro de los tableros cumple funciones adhesivas y de relleno. / To manufacture commercial quality binderless fibreboards from Miscanthus sinensishas been possible. The M. sinensis is a plant type cane from Asia whose cultivation hasbeen adapted to the European conditions and it is being studied as substitute ofagroalimentary cultivations. The M. sinensis has been steam exploded, later on it hasdried, milled and pressed to form the boards. The steam explosion and the pressingconditions have been optimised. The obtained fibreboards can be used as constructionmaterials substituting wood and plastics. The fibreboards don't have synthetic additives,this represents a great advantage since the resins used today as additives are petroleumderived (non-renewable resource). On the other hand the emissions of some residuals ofthis resins in the final product are subjected to a very severe environmental legislation.At the moment the fibreboards are manufactured from wood mainly. The M. sinensis,compared with the wood, offers a better yield since its cultivation required less area andless time. The main problem in the fibreboards from annual plants as the M. sinensis isthe fast deterioration that these suffer in humid atmospheres, the steam explosiondiminishes drastically this humidity sensibility.Also has been verified that the addition of kraft lignin to the boards (until 30%)improvement some mechanical properties without deteriorating the other fibreboardscharacteristics. Kraft lignin is a wood residual in the paper production and at themoment it is used as fuel in the mills. The lignin inside the boards develops adhesiveand filling functions.
48

Looking at Faces: Detection, Tracking and Pose Estimation

Al Haj, Murad 22 February 2013 (has links)
Els éssers humans podem percebre molt fàcilment les cares, les podem seguir en l’espai i temps, així com descodificar el seu contingut, com la seva postura, identitat o expressió. No obstant això, tot i moltes dècades d’investigació per desenvolupar un sistema amb percepció automàtica de cares, segueix sent difícil d’aconseguir una solució completa en àrees com la detecció de cares, el reconeixement de l’expressió facial, la estimació de la posició o el reconeixement de la cara. Això és degut a que la percepció facial automàtica abasta moltes àrees importants i difícils de la visió per computador: les aplicacions finals abasten una gamma molt àmplia com la vídeo vigilància, interacció humà-ordinador, la indexació i recuperació del contingut d’imatges, la identificació biomètrica , la codificació de vídeo i el reconeixement de l’edat i / o sexe. En particular, aquesta tesi està dedicada a tres grans problemes en la percepció automàtica de cares: la detecció de rostres, el seguiment de cares i l’estimació de la posició facial. En el camp de la detecció de rostres, es presenta un model que utilitza múltiples heurístiques senzilles ad-hoc basades en píxels per detectar les regions de la imatge corresponents a pell humana. A més, s’han estudiat diferents espais de color per determinar si hi ha alguna transformació d’espai de color que pugui millorar la detecció del color de la pell. Els resultats experimentals mostren que la separabilitat no augmenta gaire en altres espais de color en comparació amb l’obtinguda en l’espai RGB. A partir del millor espai de color trobat, s’ha dissenyat un detector de cares capaç de generalitzar amb èxit en diferentes escenes. Com a segona aportació, s’ha desenvolupat un algorisme per al seguiment robust i precís de la cara, dins d’un marc unificat que combina l’estimació dels paràmetres facials amb el control d’una càmera activa, per al seguiment de cares mitjançant una càmera Pa- Tilt-Zoom. Un filtre de Kalman estès permet estimar conjuntament les coordenades món dels objectes i la posició de la càmera. La sortida s’utilitza per accionar un controlador PID per tal de realitzar un seguiment reactiu del rostre, generant les accions de control correctes no només per mantenir un zoom-in a la cara per maximitzar la mida, sinó també per poder allunyar i reduir el risc de perdre l’objectiu. Encara que aquest treball està principalment motivat per fer un seguiment de cares, es pot aplicar fàcilment com ajuda d’un detector d’objectes per rastrejar una escena amb una càmera activa. L’aplicabilitat del mètode s’ha demostrat tant en entorns simulats com a escenaris reals. S’ha dedicat l’última i més important part d’aquesta tesi a l’estimació de la posició del cap. En la majoria de treballs previs per a l’estimació de la posició del cap, s’especifiquen les cares manualment. Per tant, els resultats detallats no tenen en compte una possible desalineació de la cara, encara que tant en regressió com en classificació, els algoritmes són generalment sensibles a un error en localització: si l’objecte no està ben alineat amb el model après, la comparació entre les característiques de l’objecte en la imatge i les del model condueix a errors. En aquest últim capítol, es proposa un mètode basat en regressió per mínims quadrats parcials per estimar la posició i a més resoldre simultàniament l’alineació de la cara. Les contribucions en aquesta part són de dos tipus: 1) es mostra que el mètode proposat assoleix millors resultats que l’estat de l’art i 2) es desenvolupa una tècnica per reduir la desalineació basat en factors PLS que milloren l’aprenentatge basat en múltiples instàncies sense la necessitat de tornar a aprendre o d’haver d’incloure mostres mal alineades, ambdós pasos normalment necessaris en l’aprenentatge basat en múltiples instàncies. / Los seres humanos pueden percibir muy fácilmente las caras, las pueden seguir en el espacio y tiempo, así como decodificar su contenido, como su postura, identidad y expresión. Sin embargo, a pesar de muchas décadas de investigación para desarrollar un sistema con percepción automática de caras, una solución completa sigue siendo difícil de alcanzar en áreas como la detección de caras, el reconocimiento de la expresión facial, la estimación de la posición o el reconocimiento del rostro. Esto es debido a que la percepción facial automática involucra muchas áreas importantes y difíciles de la visión por computador, cuyas aplicaciones finales abarcan una gama muy amplia como la video vigilancia, interacción humano-computadora, la indexación y recuperación del contenido de imágenes, la identificación biométrica, la codificación de vídeo y el reconocimiento de la edad y/o sexo. En particular, esta tesis está dedicada a tres grandes problemas en la percepción automática de caras: la detección de rostros, el seguimiento de caras y la estimación de la posición facial. En el campo de la detección de rostros, se presenta un modelo que utiliza múltiples heurísticas sencillas ad-hoc basadas en píxeles para detectar las regiones de la imagen correspondientes a piel humana. Además, se han estudiado diferentes espacios de color para determinar si existe alguna transformación de espacio de color que puede mejorar la detección del color de la piel. Los resultados experimentales muestran que la separabilidad no aumenta demasiado en otros espacios de color en comparación con la obtenida en el espacio RGB. A partir del mejor espacio de color, se ha diseñado un detector de caras capaz de generalizar en diferentes escenarios con éxito. Como segunda aportación, se ha desarrollado un algoritmo para el seguimiento robusto y preciso de la cara, dentro de un marco unificado que combina la estimación de los parámetros faciales con el control de una cámara activa, para el seguimiento de caras mediante una cámara Pan-Tilt-Zoom. Un filtro de Kalman extendido permite estimar conjuntamente las coordenadas mundo de los objetos así como la posición de la cámara. La salida se utiliza para accionar un controlador PID con el fin de realizar un seguimiento reactivo del rostro, generando las acciones de control correctas no solo para mantener un zoom-in en la cara para maximizar el tamaño, sino también para poder alejarse y reducir el riesgo de perder el objetivo. Aunque este trabajo está principalmente motivado para realizar un seguimiento de caras, se puede aplicar fácilmente como ayuda de un detector de objetos para rastrear una escena con una cámara activa. La aplicabilidad del método se ha demostrado tanto en entornos simulados como en escenarios reales. Se ha dedicado la última y más importante parte de esta tesis a la estimación de la postura de la cabeza. En la mayoría de trabajos previos para la estimación de la posición de la cabeza, se especifica manualmente las caras. Por tanto, los resultados detallados no tienen en cuenta una posible desalineación de la cara, aunque tanto en regresión como en clasificación, los algoritmos son generalmente sensibles a este error en localización: si el objeto no está bien alineado con el modelo aprendido, la comparación entre las características del objeto en la imagen y las del modelo conduce a errores. En este último capítulo, se propone un método basado en regresión por mínimos cuadrados parciales para estimar la postura y además resolver la alineación de la cara simultáneamente. Las contribuciones en esta parte son de dos tipos: 1) se muestra que el método propuesto alcanza mejores resultados que el estado del arte y 2) se desarrolla una técnica para reducir la desalineación basado en factores PLS que mejoran el aprendizaje basado en múltiples instancias sin la necesidad de re-aprender o tener que incluir muestras mal alineadas, ambos normalmente necesarios en el aprendizaje basado en múltiples instancias. / Humans can effortlessly perceive faces, follow them over space and time, and decode their rich content, such as pose, identity and expression. However, despite many decades of research on automatic facial perception in areas like face detection, expression recognition, pose estimation and face recognition, and despite many successes, a complete solution remains elusive. Automatic facial perception encompasses many important and challenging areas of computer vision and its applications span a very wide range; these applications include video surveillance, human-computer interaction, content-based image retrieval, biometric identification, video coding and age/gender recognition. This thesis is dedicated to three problems in automatic face perception, namely face detection, face tracking and pose estimation. In face detection, an initial simple model is presented that uses pixel-based heuristics to segment skin locations and hand-crafted rules to return the locations of the faces present in the image. Different colorspaces are studied to judge whether a colorspace transformation can aid skin color detection. Experimental results show that the separability does not increase in other colorspaces when compared to the RGB space. The output of this study is used in the design of a more complex face detector that is able to successfully generalize to different scenarios. In face tracking, we present a framework that combines estimation and control in a joint scheme to track a face with a single pan-tilt-zoom camera. An extended Kalman filter is used to jointly estimate the object world-coordinates and the camera position. The output of the filter is used to drive a PID controller in order to reactively track a face, taking correct decisions when to zoom-in on the face to maximize the size and when to zoom-out to reduce the risk of losing the target. While this work is mainly motivated by tracking faces, it can be easily applied atop of any detector to track different objects. The applicability of this method is demonstrated on simulated as well as real-life scenarios. The last and most important part of this thesis is dedicate to monocular head pose estimation. In most prior work on heads pose estimation, the positions of the faces on which the pose is to be estimated are specified manually. Therefore, the results are reported without studying the effect of misalignment. Regression, as well as classification, algorithms are generally sensitive to localization error. If the object is not accurately registered with the learned model, the comparison between the object features and the model features leads to errors. In this chapter, we propose a method based on partial least squares regression to estimate pose and solve the alignment problem simultaneously. The contributions of this part are two-fold: 1) we show that the proposed method achieves better than state-of-the-art results on the estimation problem and 2) we develop a technique to reduce misalignment based on the learned PLS factors that outperform multiple instance learning (MIL) without the need for any re-training or the inclusion of misaligned samples in the training process, as normally done in MIL.
49

Estrategias de control para sistemas bilineales aplicadas a los convertidores de potencia DD-DC

García Esteban, Mauricio 16 March 2001 (has links)
En este trabajo se presenta, por medio del procedimiento sistemático de selección, definición y adecuación de estrategias generales del control no--lineal, seis diferentes algoritmos propuestos que permiten efectuar el análisis y diseño del control retroalimentado para la regulación de los circuitos convertidores DC--DC, y sus modelos derivados, atendiendo a sus características intrínsecas de estructuras dinámicas no--lineales, con parámetros de valores inciertos y además de presentar, respuesta de fase no--mínima en la regulación directa del voltaje de salida. Proceso que dio como resultado diversos aportes teóricos en la línea de investigación de los convertidores DC--DC, y del control no--lineal.Al realizar al análisis del sistema y diseño del control, de los modelos promedio obtenidos vía PWM (ver capítulo II), existe un aporte con las siguientes estrategias adaptables en línea: Primero, para la regulación directa del voltaje de salida, se combina el método del vector sobreparametrizado, con la propuesta necesaria de realizar el desarrollo de reinicios en el controlador sobre un ajuste "seudo--deslizante". Segundo, se efectúa la regulación indirecta del voltaje de salida con el método de diseño del control denominado "salto atrás" (backstepping), aportando una nueva Forma Canónica de control generada a partir del sistema transformado de imperfecciones en variables de fase generalizadas, definida al linealizar el sistema. Ambas estrategias permiten el ajuste de los parámetros constantes pero inciertos en el modelo del controlador, con la característica de estar desarrollados sobre la base de una linealización nominalmente exacta.Igualmente se analiza, demuestra y se aporta el hecho que los modelos de estado promedio, o modelados de frecuencia de conmutación infinita, de los circuitos convertidores de corriente continua, coinciden con los que se obtienen en este trabajo con técnicas que describen a los sistemas Euler--Lagrange. A partir de estos modelos se aporta una metodología para llevar ha cabo la regulación indirecta del voltaje de salida en los circuitos convertidores. Posteriormente, nuevamente existe una aportación al realizar la estrategia de diseño de controladores adaptativos basados en pasividad he inclusive se extiende la metodología para proponer un algoritmo de control adaptable que solvente la estabilización en una versión de tres convertidores "boost" en cascada. Ambas estrategias aprovechan las restricciones físicas del sistema, y en particular sus propiedades energéticas. Alternativamente se innova al analizar y diseñar el sistema de control para la estabilización y seguimiento de señales de los convertidores derivados, sobre la base de modelos en tiempo discreto sustentados mediante una discretización exacta de la corriente muestreada en el inductor. / A variety of nonlinear feedback controllers, or duty ratio synthesizers, they are derived for the stabilization and reference signal tracking problems, strategies of regulation based in the stabilization of the average input current via the Pulse Width Modulation (PWM), in Dc to Dc power supplies, of the buck, boost and buck-boost types. First contribution, is that the adaptive controllers designed are Euler_Lagrange systems, and they correspond reasonably to a set of average Euler_Lagrange parameters. This procedure, generate useful connections of the associated pasivity based controllers with those of the differential flatness and sliding mode controllers. The second contribution, rather different a adaptive feedback strategy is adopted by resorting to an approach inspired by adaptive backstepping controller design methodology. Finally an exact nonlinear model in discrete time is derived for the dc to dc converters, and stabilization problem are solved on the basis of the steady state considerations about the input current "ripple". Through computer simulations, all of the feedback controllers proposed, they showed robustness with respect to unmodelled stochastic perturbation inputs affecting the value of the external voltage source.
50

Illumination and Object Reflectance Modeling

Beigpour, Shida 05 April 2013 (has links)
El modelado de la reflectancia de las superficies es una clave importante para la comprensión de escenas. Un modelo de reflectancia preciso, basado en las leyes de la física, nos permite alcanzar resultados realísticos y físicamente plausibles. Además, el uso de tal modelo nos permite establecer un conocimiento más profundo acerca de la interacción de la luz con las superficies de los objetos, y resulta crucial para una variedad de aplicaciones de visión por computador. Debido a la alta complejidad de los modelos de reflectancia, la gran mayoría de las aplicaciones existentes de visión por computador basan sus métodos en suposiciones simplificadoras, tales como la reflectancia lambertiana o la iluminación uniforme para ser capaz de resolver sus problemas. Sin embargo, en escenas del mundo real, los objetos tienden a exhibir reflexiones más complejas (difusas y especulares), y además se ven afectados por las características y la cromaticidad de los iluminantes. En esta tesis, se incorpora un modelo de reflexión más realista para aplicaciones de visión por computador. Para abordar tal fenómeno físico complejo, extendemos los modelos de reflectancia de los objetos del estado-del-arte mediante la introducción de un Modelo de Reflexión Dicromático Multi-Iluminante (MIDR). Usando MIDR somos capaces de modelar y descomponer la reflectancia de un objeto con especularidades complejas bajo múltiples iluminantes que presentan sombras e interreflexiones. Se demuestra que este modelo nos permite realizar una recolorización realista de los objetos iluminados por luces de colores y múltiples iluminantes. Además se propone un método "local" de estimación del iluminante para modelar las escenas con iluminación no uniforme (por ejemplo, una escena al aire libre con un cielo azul y un sol amarillo, una escena interior con iluminación combinada con la iluminación al aire libre a través de una ventana, o cualquier otro caso en el que dos o más luces con diferentes colores iluminan diferentes partes de la escena). El método propuesto aprovecha un modelo probabilístico basado en grafos y resuelve el problema rededefiniendo la estimación como un problema de minimización de energía. Este método nos proporciona estimaciones locales del iluminante que mejoran en gran medida a los métodos del estado-del-arte en constancia de color. Por otra parte, hemos capturado nuestro propia base de datos multi-iluminante, que consiste de escenas complejas y condiciones de iluminación al aire libre o de laboratorio. Con ésta se demuestra la mejora lograda usando nuestro método con respecto a los métodos del estado-del-arte para la estimación automática del iluminante local. Se demuestra que tener un modelo más realista y preciso de la iluminación de la escena y la reflectancia de los objetos, mejora en gran medida la calidad en muchas tareas de visión por ordenador y gráficos por computador. Mostramos ejemplos de mejora en el balance automático de blanco, reiluminación de escenas y en la recolorización de objetos. La teoría propuesta se puede emplear también para mejorar la denominación automática de colores, la detección de objetos, el reconocimiento y la segmentación, que están entre las tendencias más populares de la visión por computador. / Surface reflectance modeling is an important key to scene understanding. An accurate reflectance model which is based on the laws of physics allows us to achieve realistic and physically plausible results. Using such model, a more profound knowledge about the interaction of light with objects surfaces can be established which proves crucial to variety of computer vision application. Due to high complexity of the reflectance model, the vast majority of the existing computer vision applications base their methods on simplifying assumptions such as Lambertian reflectance or uniform illumination to be able to solve their problem. However, in real world scenes, objects tend to exhibit more complex reflections (diffuse and specular) and are furthermore affected by the characteristics and chromaticity of the illuminants. In this thesis, we incorporate a more realistic reflection model in computer vision applications. To address such complex physical phenomenon, we extend the state-of-the-art object reflectance models by introducing a Multi-Illuminant Dichromatic Reflection model (MIDR). Using MIDR we are able to model and decompose the reflectance of an object with complex specularities under multiple illuminants presenting shadows and inter-reflections. We show that this permits us to perform realistic re-coloring of objects lit by colored lights, and multiple illuminants. Furthermore, we propose a “local” illuminant estimation method in order to model the scenes with non-uniform illumination (e.g., an outdoor scene with a blue sky and a yellow sun, a scene with indoor lighting combined with outdoor lighting through a window, or any other case in which two or more lights with distinct colors illuminating different parts of the scene). The proposed method takes advantage of a probabilistic and graph-based model and solves the problem by re-defining the estimation problem as an energy minimization. This method provides us with local illuminant estimations which improve greatly over state-of-the-art color constancy methods. Moreover, we captured our own multi-illuminant dataset which consists of complex scenes and illumination conditions both outdoor and in laboratory conditions. We show improvement achieved using our method over state-of-the-art methods for local illuminant estimation. We demonstrate that having a more realistic and accurate model of the scene illumination and object reflectance greatly improves the quality of many computer vision and computer graphics tasks. We show examples of improved automatic white balance, scene relighting, and object re-coloring. The proposed theory can be employed in order to improve color naming, object detection, recognition, and segmentation which are among the most popular computer vision trends.

Page generated in 0.0689 seconds