• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 298
  • 104
  • 64
  • 28
  • 2
  • 1
  • 1
  • Tagged with
  • 498
  • 118
  • 101
  • 98
  • 85
  • 71
  • 58
  • 56
  • 56
  • 56
  • 56
  • 56
  • 56
  • 56
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Caracterització a escala nanomètrica de la degradació I. Ruptura dielèctrica del SiO2 en dispositius MOS mitjançant CAFM

Porti i Pujal, Marc 04 April 2003 (has links)
La progressiva reducció del gruix de l'òxid de porta (SiO2) en dispositius MOS sense el corresponent escalat en tensions, ha donat lloc a l'aparició de mecanismes de fallada (ruptura forta, HBD; ruptura suau, SBD; ruptura progressiva, PBD; o corrents de fuites, SILC) que en limiten la seva fiabilitat. Alguns d'aquests mecanismes, menys severs que la ruptura forta (SBD, PBD i SILC), han plantejat nous interrogants a l'hora d'establir la relació que hi ha entre la ruptura (BD) de l'òxid i la fallada del dispositiu o circuit del qual forma part. Per aquest motiu, a fi de determinar el grau de sensibilitat dels circuits a la ruptura dielèctrica, cal estudiar amb més profunditat els factors que en controlen la seva severitat. En aquest sentit, els tests estàndards de caracterització elèctrica no representen de manera gaire acurada les condicions reals d'estrés dels dispositius MOS. Treballs recents, en canvi, indiquen que l'estrés limitat en corrent (CLS), sí permet simular millor les condicions reals d'operació.Actualment és àmpliament acceptat que la ruptura de l'òxid és (i) un fenomen extremadament local que es desencadena en àrees de l'ordre de 10-13-10-12cm2 i (ii) la conseqüència d'un procés de degradació en el qual l'estructura de l'òxid es modifica progressivament i que s'ha associat a la generació de trampes durant l'estrés elèctric. El caràcter extremadament local d'aquests fenòmens fa que sigui necessària una anàlisi a la mateixa escala on tenen lloc: a escala nanomètrica. Amb aquesta finalitat, en aquesta tesi s'ha analitzat la fenomenologia de pre- i post-ruptura en capes primes de SiO2 (2.9-5.9nm) amb C-AFM (Conductive Atomic Force Microscope). L'elevada resolució lateral d'aquesta tècnica (~10nm) ha permès caracteritzar la degradació i la ruptura dielèctrica (així com l'efecte del límit de corrent) d'òxids de porta a escala nanomètrica. Durant l'etapa de degradació, s'han observat canvis sobtats i transitoris en la conductivitat de l'òxid, atribuïts a l'atrapament/ desatrapament de càrregues elementals en els defectes generats durant l'estrés elèctric. Aquesta fenomenologia s'ha relacionat amb el soroll de pre-ruptura observat en dispositius de grandària microelectrònica. El soroll de pre-ruptura s'ha registrat en estressos a tensió constant (CVS) en forma de RTS (Random Telegraph Signal). Una anàlisi temporal i freqüencial demostra que els resultats obtinguts són compatibles amb els corresponents a estructures amb elèctrode de porta. A més, amb C-AFM s'ha pogut mesurar d'una manera directa la característica I-V d'un spot de pre-ruptura i s'ha trobat que té un comportament similar a l'observat en memòries flash amb corrents de fuites anòmals. En aquesta tesi també s'ha analitzat la ruptura de l'òxid, fent especial èmfasi en els efectes del límit de corrent en l'esdeveniment BD. Òxids de porta sense elèctrode metàl.lic s'han estressat amb la punta del microscopi amb i sense límit de corrent fins a desencadenar la ruptura. Després de l'esdeveniment BD, s'han registrat corrents més elevats en la zona afectada i, en alguns casos, també s'han observat canvis en les imatges topogràfiques. Aquests canvis morfològics s'han relacionat amb la càrrega elèctrica negativa present a l'òxid després de la ruptura (BINC), que s'ha associat amb el mal estructural induït durant l'esdeveniment BD. La quantitat de BINC s'ha estimat a partir de les alçades de les protuberàncies observades en les imatges topogràfiques obtingudes amb C-AFM i s'ha trobat que és superior en el cas d'estressos sense límit de corrent. A partir de les imatges de corrent també s'ha trobat que la ruptura, tot i desencadenar-se en àrees molt petites (de l'ordre de ~100nm2), es propaga lateralment a àrees veïnes SBD. El valor de SBD es veu fortament afectat per la severitat de la ruptura dielèctrica que, al mateix temps, depèn del corrent que flueix a través de l'òxid en el moment en el qual es desencadena l'esdeveniment BD. Quan s'apliquen CLS, SBD està limitada a un àrea de ~3.1 104nm2 mentre que, quan no hi ha límit de corrent, les àrees afectades són superiors (~1.6 105nm2). Aquests resultats doncs, demostren que el límit de corrent no permet el desenvolupament complet del canal percolatiu, deixant l'òxid en un estat metaestable que es perllonga fins que les condicions elèctriques d'estrés canvien. Finalment, també s'ha demostrat que amb C-AFM és possible localitzar i analitzar spots de ruptura induïts en dispositius microelectrònics (amb elèctrode de porta) mitjançant les tècniques de caracterització estàndard. Tots aquests resultats demostren la capacitat del C-AFM d'analitzar en detall l'efecte del límit de corrent en la ruptura dielèctrica, així com l'impacte de la ruptura en la funcionalitat del dispositiu microelectrònic. / The progressive decrease of the gate oxide (SiO2) thickness in MOS devices without the corresponding bias voltages scaling, has provoked the appearance of failure mechanisms (hard breakdown, HBD; soft breakdown, SBD; progressive breakdown, PBD; and the stress induced leakage current, SILC) that limit the oxide reliability. Some of these mechanisms (SBD, PBD and SILC) are not as hard as the HBD event, and that has questioned the relation between the oxide breakdown (BD) and the device or circuit failure. For this reason, to determine the actual sensitivity of circuits to oxide breakdown, it is necessary to study the factors that control the severity of the BD event. In this direction, the standard electrical tests are not representative of the actual stress conditions of MOS devices. Recent works, however, point out the current limited stress (CLS) as a better testing methodology to simulate the actual operation conditions. Nowadays it is accepted that the oxide failure is (i) an extremely local phenomenon that takes place in areas of the order of 10-12-10-13cm2 and (ii) the consequence of a degradation stage during which the oxide structure is progressively modified, and that has been associated to the generation of defects during the electrical stress. The extremely local nature of both phenomenon makes necessary an analysis at the same scale where they take place: at a nanometer scale. With this purpose, in this thesis the pre- and post-BD phenomenology has been analysed in thin SiO2 films (2.9-5.9nm) with C-AFM (Conductive Atomic Force Microscope). The high lateral resolution of this technique (~10nm) allows the electrical characterization of the degradation and breakdown event (as well as the effect of the current limitation) of gate oxides at a nanometer scale.During the degradation stage, sudden changes of the oxide conductivity have been observed, attributed to the trapping/detrapping of elementary charges in/from the defects generated during the electrical stress. This phenomenology has been related to the pre-BD noise observed in microelectronic devices. This pre-BD noise is measured during a Constant Voltage Stress (CVS) in form of Random Telegraph Signal (RTS). A time and frequency analysis show compatible parameters to those obtained in poly-gated structure. Moreover, the C-AFM has allowed the direct measurement of the I-V curve of a fluctuating spot, which has been found to be similar to those reported for the anomalous leakage current in flash memory devices.The BD of the oxide has been also analysed in this thesis, paying an special attention to the effects of a current limitation during the BD transient. Bare oxides have been stressed until BD using the tip of the microscope as the metal electrode, with and without setting a current limit. After BD, larger currents are measured at the BD location (as expected) and, sometimes, some changes are also observed in the topography images. These morphological changes have been related to the negative charge present in the oxide after the oxide BD (BINC), which has been associated to the structural damage induced by the BD event. The amount of BINC has been quantified from the heights of the hillocks observed in the C-AFM topography images and has been found to be larger in the case of non-limited current stresses. From the current images, it has been shown that, although the BD takes place in a very small area (So, few hundreds of nm2) it is laterally propagated to a larger area, SBD. The value of SBD is strongly affected by the BD hardness which, at the same time, depends on the current that flows at the location where BD is triggered. When CLS are applied, the growth of SBD is limited to an area of ~3.1 104nm2 whereas, when there is no current limit, larger areas are affected ( ~1.6 105nm2). The results also show that the current limit does not allow the complete development of the BD path, leaving the oxide in a metastable configuration that lasts until the electrical environment is changed. Finally, it has also been demonstrated that with C-AFM it is possible to locate and characterize BD spots induced in microelectronic devices (poly-gated) with standard electrical tests. The results show that C-AFM is a powerful tool to analyze in detail the effect of current limitation on the breakdown event and, conversely, the impact of BD on the device and circuit performance.
22

Referència de tensió compensada en temperatura i de resposta adaptativa a la variació de la tensió d'alimentació per a interfícies de sensors capacitius en sistemes de conversió freqüencial

Aragonés Ortiz, Raúl 26 September 2012 (has links)
Les tècniques d'adquisició de senyal a nivell freqüencial ofereixen unes prestacions que són especialment adequades en la construcció de sistemes per a l’adquisició de senyal i pre-procés (ROICs) de dades en sistemes basats en sensors. En particular, en la construcció de sistemes amb sensors sense condicionament i en sensors capacitius, les tècniques d'adquisició de senyal basades en convertidors de capacitat a freqüència (CtoF) i de freqüència a codi binari (Fto#) presenten un millor rendiment en temps real i unes millors característiques electròniques en comparació amb els tradicionals convertidors analògic-digitals. Per les característiques que presenten els senyals freqüencials, aquestes tècniques estan especialment indicades en aplicacions que treballen en ambients sorollosos, donat que permeten gaudir d’un rang d’entrada més elevat, proporcionant una multiplexació fàcil en sistemes d'adquisició multicanal, alhora que mantenen excel·lents precisions, consums reduïts i baixos costos de disseny. El treball Referència de tensió compensada en temperatura i de resposta adaptativa a la variació de la tensió d’alimentació per a interfícies de sensors capacitius en sistemes de conversió freqüencial introdueix millores en l’aplicació de tècniques clàssiques Fto# i presenta el disseny d’un circuit CtoF que millora les prestacions dels circuits d’adquisició de senyal de característiques similars presentats en la literatura. El circuit CtoF està compost per la unió d’un oscil·lador de relaxació més un circuit de referència en voltatge o bandgap: - L’oscil·lador de relaxació de baix consum està dissenyat per treballar en aplicacions de baixa freqüència (fins a uns pocs MHz) i mostra un bon marge de soroll de fase (-103,3 dBc/Hz a 612KHz), amb una baixa dependència a les variacions de la tensió d’alimentació. - El circuit bandgap dissenyat millora les prestacions de bandgaps similars presentats en la literatura. Té un consum d'energia baix (26μA), un bon PSRR (-49dB a 10MHz) i una molt baixa dependència a variacions de la temperatura (només 16 ppm/ºC). El disseny particular d’aquest bandgap mostra una dependència amb la tensió d’alimentació específicament calculada per a ser acoblat a l’oscil·lador de relaxació. - La unió del bandgap i de l’oscil·lador de relaxació conformen el CtoF final. Respecte a l’aïllament del CtoF les variacions de la tensió d’alimentació, cal notar que una variació del 20% de VDD, provoca una variació de només el 0,67% en la freqüència de sortida, mostrant el millor resultat de la literatura. El circuit CtoF s’ha integrat en un ROIC. La verificació final del circuit mostra que les millores introduïdes (en relació a resultats presentats en la literatura) en quan a rang de capacitats d'entrada, compensació de la temperatura, consum d'energia i PSRR, es deuen en gran mesura a l’acoblament del nou circuit de referència en voltatge amb l’oscil·lador de relaxació. / The characteristics provided by frequency signal acquisition techniques are particularly suitable for read-out integrated circuits (ROICs) in sensor-based systems. In particular, in the construction of systems with not conditioned sensors and capacitive sensors, signal acquisition techniques based on capacitance-to-frequency converters (CtoF) and frequency-to-code converters (Fto#) show better real-time performance and better electronic characteristics when compared to traditional analog-digital converters techniques. These techniques present good frequency signal features: high input ranges, can built multiplexed multichannel acquisition systems, have excellent precision, low consumption and low cost design. It is for this that they are specially adequate to work in noisy environments. This work entitled Reference voltage and temperature compensated with adaptive response to power supply changes for capacitive sensors interfaces in frequency conversion systems introduces improvements in the application of classical Fto# techniques and presents the design of a CtoF circuit that improves the signal acquisition circuits performances shown by similar works presented in the literature. The CtoF design consists of two circuits: a relaxation oscillator circuit and a bandgap reference voltage: • The low power relaxation oscillator is designed to work in low frequency applications (up to a few MHz) and shows a good phase noise margin (-103.3 dBc / Hz at 612KHz), with a low dependence on power supply variations. • The designed bandgap circuit improves the performance of similar bandgaps presented in the literature. It has a low power consumption (26μA), good PSRR (-49dB at 10 MHz) and a low dependence on temperature variations (only 16 ppm/°C). The design of this particular bandgap allows compensating the power supply dependence of the low power relaxation oscillator. • The union of the bandgap circuit and the relaxation oscillator makes the final CtoF. Regarding the dependence of CtoF to power supply variations, it is stated that a variation of 20% of VDD causes a variation of only 0.67% in the output frequency, showing the best result in the literature. The CtoF circuit has been integrated into a ROIC. The final verification of the circuit shows that the improvements (in comparison to results presented in the literature) in input range, temperature compensation, PSRR and power consumption are due to the coupling of the new bandgap with the relaxation oscillator.
23

Extensions and applications of the Virtual Reference Feedback Tuning

Rojas Fernández, David 11 October 2011 (has links)
En este trabajo, la técnica de control basada en datos "Virtual Reference Feedback Tuning" es tratada de diferentes maneras. Por un lado, las capacidades del método son extendidas con varias propuestas que permiten un uso más amplio del método. Una topología de control alternativa de dos grados de libertad es considerada, así como su aplicación a un controlador proporcional-integral. El caso de múltiples entradas múltiples salidas también se ha abordado mediante la adición de una selección automática de emparejamiento entre las salidas y las variables manipuladas. El método también es aplicado a la topología de Modelo de Control Interno a fin de proponer una prueba de estabilidad robusta basada exclusivamente en datos. Todas estas extensiones se aplicaron a tres casos importantes. En primer lugar, el control de plantas de tratamiento de aguas residuales es considerado. El objetivo de control, en este caso es mantener el efluente de la planta con una baja concentración de contaminantes mientras se trata de consumir la menor cantidad de energía posible. Tanto el caso de múltiples entradas múltiples salidas como el caso descentralizado son utilizados, dando buenos resultados para este sistema complejo. En segundo lugar, la selección de emparejamiento se aplica a una planta basada en celdas de combustible de óxido sólido. La tensión de salida y el exceso de oxígeno se controlan mediante la manipulación del combustible y el flujo de aire. Finalmente, los controladores de dos grados de libertad se aplican a una planta de neutralización del pH mediante el control de la velocidad de flujo de ácido. / In this work the data-driven control technique “Virtual Reference Feedback Tuning” is treated in different ways. In one hand, the capabilities of the method are extended with several proposed variations that allow a wider use of the method. An alternative two degrees of freedom control topology is considered, as well as its application to proportional-integral control. The multiple-inputs multiple-outputs case is also tackled, adding an automatic pairing selection between outputs and manipulated variables. The method is applied to the Internal Model Control topology in order to propose a robust stability test based entirely on data. All these extensions were applied to three important cases. In first place, the control of wastewater treatment plants is considered. The control objective in this case is to maintain the effluent of the plant with a low concentration of pollutants while trying to consume as less energy as possible. Both the multiple-inputs multiple-outputs and the decentralized case are used, yielding good results for this complex system. Second, the pairing selection is applied to a solid-oxide fuel cell plant. The output voltage and the oxygen excess is controlled by manipulating the fuel and the air flow rates. Finally the two degrees of freedom controllers are applied to a pH neutralization plant by controlling the acid flow rate.
24

Coscheduling Cooperativo: una propuesta de coscheduling orientada a clusters no dedicados multiprogramados

Giné, Francesc 18 June 2004 (has links)
Diferentes estudios realizados sobre el grado de utilización de los recursos de cómputo (CPU y memoria) en una red de PCs (cluster/NOW), han puesto de manifiesto que un elevado porcentaje de los mismos están infrautilizados. La posibilidad de utilizar esta potencia de cálculo para la ejecución de aplicaciones distribuidas con un rendimiento equivalente a un MPP, sin perturbar el trabajo del usuario local de cada workstation, ha sido objeto de estudio en este trabajo. Este doble objetivo puede ser alcanzado mediante el uso de técnicas de tiempo compartido. Un problema intrínseco de las técnicas de tiempo compartido es el modo de garantizar la coplanificación de aquellas tareas distribuidas que se comunican entre si; siendo este problema conocido como coscheduling. El principal objetivo del coscheduling es minimizar el tiempo de espera de las tareas distribuidas ante los eventos de comunicación y sincronización. El coscheduling puede ser alcanzado mediante la asignación de la CPU acorde con la ocurrencia de ciertos eventos locales, tradicionalmente de comunicación. De este modo, todas las tareas de una misma aplicación distribuida podrán progresar coordinadamente a lo largo del cluster.Este nuevo marco de trabajo impone, en nuestro modo de ver, un replanteamiento del problema clásico del coscheduling de aplicaciones distribuidas. El fin del coscheduling no solamente se debe restringir a decidir cuándo deben ser asignados los recursos de cómputo a las aplicaciones distribuidas, finalidad de las técnicas de coscheduling tradicionales, si no también cuántos recursos deben asignarse a cada aplicación. Este doble propósito nos ha llevado a desarrollar una nueva propuesta de coscheduling, denominada CoScheduling Cooperativo (CSC), orientada a la coordinación de múltiples aplicaciones paralelas en un entorno cluster no dedicado.CSC, a diferencia de las propuestas de coscheduling tradicionales, gestiona los recursos de cómputo de cada nodo, tanto en función de la ocurrencia de determinados eventos locales (de memoria, de CPU, de comunicación y de actividad del usuario local), como de la recepción de aquellos eventos ocurridos en nodos remotos y que han modificado los recursos asociados a los procesos cooperantes. El análisis de estos eventos permite a CSC adaptar los recursos de cómputo del cluster a las necesidades de ambos tipos de usuarios; el usuario local, caracterizado por unos elevados requerimientos de interactividad, y el usuario de las aplicaciones paralelas, en el cual priman los requerimientos de cómputo y de comunicación. De este modo, CSC puede gestionar la ejecución de múltiples aplicaciones paralelas simultáneamente, hecho que conlleva una mejor eficiencia en el uso de los recursos de cómputo disponibles.CSC ha sido implementado en un entorno Linux-PVM. Esta implementación ha permitido evaluar su rendimiento, con respecto a las políticas de coscheduling tradicionales, tanto en un entorno cluster controlado como en un entorno cluster productivo. La experimentación realizada ha mostrado como CSC obtiene unos resultados globales mejores que el resto de políticas evaluadas, tanto en lo que respecta al rendimiento de las aplicaciones del usuario local como de las aplicaciones distribuidas. Los resultados obtenidos por CSC demuestran que el desarrollo de políticas de planificación a corto plazo orientadas a entornos no dedicados permiten explotar, de una manera eficiente, todos aquellos recursos de cómputo disponibles, obteniendo unas métricas de speedup satisfactorias (en muchos casos superior a la mitad del número de tareas de la aplicación) y provocando un overhead inapreciable para el usuario local.
25

Application of CMOS-MEMS integrated resonators to RF communication systems

López Méndez, Joan Lluís 21 September 2009 (has links)
Els dispositius MEMS han demostrat la seva utilitat en un gran ventall d'aplicacions de sensat i actuació. L'extensió al domini de RF d'aquests elements mecànics són ara una de les peces clau per sistemes altament reconfigurables referències de freqüència i processadors de senyals. Aquesta tesi es centra en algunes de les aplicacions dels dispositius MEMS en el domini de RF: referències de freqüència per oscil·ladors, filtres i mescladors. Els resonadors que es presenten en aquesta tesi s'han fabricat completament en tecnologies CMOS comercials per aprofitar la integració de MEMS i circuiteria complementària i el baix cost de fabricació d'aquestes tecnologies. Diferents tipus de ressonadors MEMS s'han dissenyat i fabricat a fi d'avaluar les seves prestacions en diferents propietats. La validesa de la tècnica emprada per fabricar els MEMS en tecnologies CMOS futures s'ha demostrat fabricant i testant amb èxit resonadors MEMS en dos tecnologies diferents: de diferents fàbriques i nodes tecnològics (0.35um i 0.18um). La freqüència de ressonància d'aquests dispositius mecànics es troben a les bandes de HF i VHF. Tots aquests dispositius basats en bigues flexurals, presenten un major factor de qualitat Q que els tancs LC integrats i són a més a més sintonizables en freqüència, amb una mida inferior a la dels citats tancs LC. Els ressonadors MEMS-CMOS descrita a la tesi presenten un valor de Qxf en el rang entre 1GHz i els 10GHz mesurats a l'aire. Aquests valors es milloren mesurant al buit arribant als 100GHz, majors a qualsevol altre ressonador basat en tecnologia CMOS. Les aplicacions de mesclat i filtrat de senyals també s'estudien. Dins d'aquestes aplicacions, la meta és definir una banda passant plana combinant diferents ressonadors. El prototipus d'un filtre paral·lel basat en ponts i un amplificador diferencial CMOS monolític presenta una banda passant plana de 200kHz a una freqüència central de 21.66MHz quan es mesura a l'aire. També es demostra el filtrat emprant un únic ressonador del tipus tuning fork. Com a mesclador, és destacable la possibilitat de convertir a alta i baixa senyals de 1GHz amb un ressonador de 22MHz Com a oscil·ladors monolítics, es mostra un oscil·lador operatiu per tensions DC baixes (<5V), gràcies a la reducció del gap del ressonador. L'oscil·lador basat en un tuning fork aconsegueix valors de soroll de fase de -87dBc/Hz@10kHz i -98.7dBc/Hz@100kHz, millor que altres oscil·ladors CMOS monolític reportats. / MEMS devices demonstrated a wide range of sensing and actuation applications. These mechanical elements present nowadays extension to the RF world as key elements for highly reconfigurable systems, frequency references and signal processors. This thesis focuses on some of the applications of MEMS devices in the RF domain: frequency references for oscillators, filters and mixers. The resonators presented in this thesis are completely fabricated in commercial CMOS technologies to take profit of monolithic MEMS and complementary circuitry integration and low cost fabrication inherent of these technologies. Several kinds of MEMS resonators (clamped-clamped beams, free-free beams and double ended tuning forks) were designed and fabricated to evaluate their performance according to different properties. Two different CMOS technologies, from two different foundries and also different technological node (0.35um and 0.18um) were successfully used to validate the monolithic fabrication approach on future CMOS technologies. The resonance frequencies of these resonators are located on the HF and VHF range. All these devices, based on flexural beams, show superior Q than integrated LC tanks and are also tunable. Moreover, their size is significatively lower than the one of the aforementioned LC tanks. The CMOS-MEMS resonators reported in this thesis show a Qxf value in the range between 1GHz and 10GHz in air and these values are further improved in vacuum up to 100GHz, higher than any other reported resonator based on CMOS technology. Filtering and mixing applications were also studied. The goal in these applications was to define a flat band-pass combining different resonators. A prototype of parallel filter was measured using two CC-beams and a monolithic CMOS differential amplifier. The filter shows a flat bandpass up to 200kHz in air at a center frequency of 21.66MHz. Filtering with a single resonator was also demostrated with a DETF. A mixer based on a 22MHz CC-beam resonator was able to up and downconvert a signal from/to 1GHz. Monolithic oscillators with MEMS elements as frequency references have shown oscillation with a reduced applied DC voltage (<5V) thanks to the reduction of the gap. The DETF based oscillator shows good phase noise performance of -87dBc/Hz@10kHz and -98.7dBc/Hz@100kHz better than previously reported monolithic oscillators whereas operating at a lower DC voltage.
26

Fault Tolerance Configuration for Uncoordinated Checkpoints

Fialho de Queiroz, Leonardo 08 July 2011 (has links)
La tendencia general de los computadores paralelos es crecer en complejidad y en número de componentes. La miniaturización y la concentración de dichos elementos es la principal causa de la aparición y aumento de los fallos en estos computadores. Asimismo, para permitir la ejecución correcta de las aplicaciones paralelas, existe la necesidad de proveer soporte y de tolerar fallos en estos entornos. Una estrategia amplamente utilizada es el rollback-recovery, que consiste en guardar periódicamente el estado de la aplicación y, en caso de fallos, reanudar la aplicación desde el último estado guardado. El uso de estos protocolos añade una sobrecarga al tiempo de ejecución de la aplicación. Con el uso de protocolos de checkpoints no coordinados, es fácil estimar el tiempo total de ejecución de una aplicación, así como también la frecuencia en la cual estos checkpoints deben ser guardados. Actualmente, existen modelos precisos para estimar estos tiempos. Sin embargo, el uso de protocolos de checkpoints coordinados, puede no ser la mejor solución para proveer tolerancia a fallos en los computadores paralelos de próxima generación. En otras palabras, el actual paradigma de tolerancia a fallos para computadores paralelos, no es adecuado para los futuros sistemas. Los protocolos de tolerancia a fallos no coordinados permiten que, cada proceso de la aplicación paralela guarde su estado independientemente de los demás procesos; la combinación de estos protocolos con técnicas de log de eventos eliminan los inconvenientes de los protocolos no coordinados, como el efecto domino y la aparición de mensajes huérfanos. Esta combinación representa el paradigma emergente de tolerancia a fallos para aplicaciones paralelas escalables. Actualmente, no hay modelos adecuados para estimar el tiempo de ejecución de aplicaciones paralelas que están siendo protegidas por checkpoints no coordinados. Así como tampoco existen modelos para calcular la frecuencia en que dichos checkpoints deben ser creados. El objetivo de esta tesis es, definir los modelos específicos para cada uno de los paradigmas: el coordinado y el no coordinado. Los modelos proveen una estimación del tiempo total de ejecución de las aplicaciones cuando están protegidas por cualquiera de los dos paradigmas. Además, se propone una metodología para definir el valor de las variables necesarias para calcular el intervalo de checkpoints. La principal motivación de este trabajo es proveer el conocimiento necesario para enfrentar el paradigma emergente de tolerancia a fallos y hacerlo asequible para los usuarios de las aplicaciones paralelas. / Parallel computers are growing in complexity and in number of components. The components miniaturisation and concentration are the major root causes of the failures increasingly seen on these computers. Thus, in order to achieve the execution end, parallel application should use a fault tolerance strategy. A widely used strategy is the rollback-recovery, which consists of saving the application state periodically. In the event of a fault occurring, the application resumes it execution from the most recent saved state. These fault tolerance protocols include an overhead on the parallel application execution. Using a coordinated checkpointing protocol it becomes easy to estimate the application execution time, as well as to calculate the frequency in which checkpoints should be taken. In fact, there are very precise models to estimate the application execution time and the checkpoint interval nowadays. However, the use of the coordinated checkpointing may not be the best solution to provide fault tolerance on the next-generation parallel computers. In other words, the current paradigm of fault tolerance for parallel applications is not suitable for the future parallel computer. Fault tolerance protocols such as uncoordinated checkpointing permits that each process of the parallel application saves its state independently of other processes. The combination of uncoordinated checkpointing with logging of message-passing events avoids the inconvenience of this sort of protocol, such as the domino effect and orphan messages. This is the emergent paradigm of fault tolerance for scalable parallel applications. For instance, there is no model suitable to estimate the execution time of a parallel application protected by uncoordinated checkpointing. As well as there is no convenient model to calculate the frequency in which those checkpoints should be taken. The objective of this thesis is to define suitable models that can be used with each paradigm: the coordinated and the uncoordinated. These models should provide an estimation of the application wall time clock running under each fault tolerance paradigm, as well a methodology to define the value of the variables used to calculate the checkpointing interval. The main motivation of this work is to provide at the same time the knowledge necessary to face the emergent fault tolerance paradigm and make it suitable to be used by parallel applications users.
27

R/parallel Parallel Computing for R in non‐dedicated environments

Vera Rodríguez, Gonzalo 21 July 2010 (has links)
Traditionally, parallel computing has been associated with special purpose applications designed to run in complex computing clusters, specifically set up with a software stack of dedicated libraries together with advanced administration tools to manage co Traditionally, parallel computing has been associated with special purpose applications designed to run in complex computing clusters, specifically set up with a software stack of dedicated libraries together with advanced administration tools to manage complex IT infrastructures. These High Performance Computing (HPC) solutions, although being the most efficient solutions in terms of performance and scalability, impose technical and practical barriers for most common scientists whom, with reduced IT knowledge, time and resources, are unable to embrace classical HPC solutions without considerable efforts. Moreover, two important technology advances are increasing the need for parallel computing. For example in the bioinformatics field, and similarly in other experimental science disciplines, new high throughput screening devices are generating huge amounts of data within very short time which requires their analysis in equally short time periods to avoid delaying experimental analysis. Another important technological change involves the design of new processor chips. To increase raw performance the current strategy is to increase the number of processing units per chip, so to make use of the new processing capacities parallel applications are required. In both cases we find users that may need to update their current sequential applications and computing resources to achieve the increased processing capacities required for their particular needs. Since parallel computing is becoming a natural option for obtaining increased performance and it is required by new computer systems, solutions adapted for the mainstream should be developed for a seamless adoption. In order to enable the adoption of parallel computing, new methods and technologies are required to remove or mitigate the current barriers and obstacles that prevent many users from evolving their sequential running environments. A particular scenario that specially suffers from these problems and that is considered as a practical case in this work consists of bioinformaticians analyzing molecular data with methods written with the R language. In many cases, with long datasets, they have to wait for days and weeks for their data to be processed or perform the cumbersome task of manually splitting their data, look for available computers to run these subsets and collect back the previously scattered results. Most of these applications written in R are based on parallel loops. A loop is called a parallel loop if there is no data dependency among all its iterations, and therefore any iteration can be processed in any order or even simultaneously, so they are susceptible of being parallelized. Parallel loops are found in a large number of scientific applications. Previous contributions deal with partial aspects of the problems suffered by this kind of users, such as providing access to additional computing resources or enabling the codification of parallel problems, but none takes proper care of providing complete solutions without considering advanced users with access to traditional HPC platforms. Our contribution consists in the design and evaluation of methods to enable the easy parallelization of applications based in parallel loops written in R using non-dedicated environments as a computing platform and considering users without proper experience in parallel computing or system management skills. As a proof of concept, and in order to evaluate the feasibility of our proposal, an extension of R, called R/parallel, has been developed to test our ideas in real environments with real bioinformatics problems. The results show that even in situations with a reduced level of information about the running environment and with a high degree of uncertainty about the quantity and quality of the available resources it is possible to provide a software layer to enable users without previous knowledge and skills adapt their applications with a minimal effort and perform concurrent computations using the available computers. Additionally of proving the feasibility of our proposal, a new self-scheduling scheme, suitable for parallel loops in dynamics environments has been contributed, the results of which show that it is possible to obtain improved performance levels compared to previous contributions in best-effort environments. The main conclusion is that, even in situations with limited information about the environment and the involved technologies, it is possible to provide the mechanisms that will allow users without proper knowledge and time restrictions to conveniently make use and take advantage of parallel computing technologies, so closing the gap between classical HPC solutions and the mainstream of users of common applications, in our case, based in parallel loops with R. mplex IT infrastructures. These High Performance Computing (HPC) solutions, although being the most efficient solutions in terms of performance and scalability, impose technical and practical barriers for most common scientists whom, with reduced IT knowledge, time and resources, are unable to embrace classical HPC solutions without considerable efforts. Moreover, two important technology advances are increasing the need for parallel computing. For example in the bioinformatics field, and similarly in other experimental science disciplines, new high throughput screening devices are generating huge amounts of data within very short time which requires their analysis in equally short time periods to avoid delaying experimental analysis. Another important technological change involves the design of new processor chips. To increase raw performance the current strategy is to increase the number of processing units per chip, so to make use of the new processing capacities parallel applications are required. In both cases we find users that may need to update their current sequential applications and computing resources to achieve the increased processing capacities required for their particular needs. Since parallel computing is becoming a natural option for obtaining increased performance and it is required by new computer systems, solutions adapted for the mainstream should be developed for a seamless adoption. In order to enable the adoption of parallel computing, new methods and technologies are required to remove or mitigate the current barriers and obstacles that prevent many users from evolving their sequential running environments. A particular scenario that specially suffers from these problems and that is considered as a practical case in this work consists of bioinformaticians analyzing molecular data with methods written with the R language. In many cases, with long datasets, they have to wait for days and weeks for their data to be processed or perform the cumbersome task of manually splitting their data, look for available computers to run these subsets and collect back the previously scattered results. Most of these applications written in R are based on parallel loops. A loop is called a parallel loop if there is no data dependency among all its iterations, and therefore any iteration can be processed in any order or even simultaneously, so they are susceptible of being parallelized. Parallel loops are found in a large number of scientific applications. Previous contributions deal with partial aspects of the problems suffered by this kind of users, such as providing access to additional computing resources or enabling the codification of parallel problems, but none takes proper care of providing complete solutions without considering advanced users with access to traditional HPC platforms. Our contribution consists in the design and evaluation of methods to enable the easy parallelization of applications based in parallel loops written in R using non-dedicated environments as a computing platform and considering users without proper experience in parallel computing or system management skills. As a proof of concept, and in order to evaluate the feasibility of our proposal, an extension of R, called R/parallel, has been developed to test our ideas in real environments with real bioinformatics problems. The results show that even in situations with a reduced level of information about the running environment and with a high degree of uncertainty about the quantity and quality of the available resources it is possible to provide a software layer to enable users without previous knowledge and skills adapt their applications with a minimal effort and perform concurrent computations using the available computers. Additionally of proving the feasibility of our proposal, a new self-scheduling scheme, suitable for parallel loops in dynamics environments has been contributed, the results of which show that it is possible to obtain improved performance levels compared to previous contributions in best-effort environments. The main conclusion is that, even in situations with limited information about the environment and the involved technologies, it is possible to provide the mechanisms that will allow users without proper knowledge and time restrictions to conveniently make use and take advantage of parallel computing technologies, so closing the gap between classical HPC solutions and the mainstream of users of common applications, in our case, based in parallel loops with R.
28

A computational model of eye guidance, searching for text in real scene images

Clavelli, Antonio 13 October 2014 (has links)
La cerca d’objectes de text en imatges d’escena reals és un problema obert i una àrea de cerca molt activa la visió per computador. S’han proposat un gran nombre de mètodes basats en l’extensió dels mètodes des de l’anàlisi de documents o inspirat en mètodes de detecció d’objectes. No obstant això, el problema de la cerca d’objectes en imatges d’escena reals segueix sent un problema extremadament difícil a causa de la gran variabilitat en l’aparen¸ca dels objectes. Aquesta tesi es basa en els més recents troballes en la literatura de l’atenció visual, introduint un nou model computacional de visió guiada que apunta descriure la cerca de text en imatges d’escenes reals. En primer lloc es presenten els resultats més pertinents de la literatura científica en relació amb l’atenció visual, els moviments oculars i la cerca visual. Els més rellevants models d’atenció són discutits i integrats amb recents observacions sobre la funció dels anomenats ’top-down constraints’ i l’emergent necessitat d’un model estratificat d’atenció en què la saliència no és l’únic factor guia d’atenció. L’atenció visual s’explica per la interacció de diversos factors moduladors, com ara objectes, valor, plans i saliència. S’introdueix la nostra formulació probabilística dels mecanismes d’atenció en es- cenes reals per a la tasca de cerca d’objectes. El model es basa en l’argument que el desplegament d’atenció depèn de dos processos diferents però interactuants: un procés d’atenció que assigna valor a les fonts d’informació i un procés motor que uneix flexiblement informació amb l’acció. En aquest marc, l’elecció d’on buscar la propera tasca és dependent i orientada a les classes d’objectes incrustats en imatges d’escenes reals. La dependència de la tasca es té en compte en explotar el valor i la recompensa de contemplar certes parts o proto-objectes de la imatge que proporcionen una esclarissada representació dels objectes en l’escena. A la secció experimental prova el model en condicions de laboratori, comparant les simulacions del model amb dades d’experiments de eye tracking. La comparació és qualitativa en termes de trajectòries d’exploració i quantitativa, en termes de similitud estadística de l’amplitud de moviments oculars. Els experiments s’han realitzat amb dades de eye tracking tant d’un conjunt de dades públic de rostre humans i text, tant amb un nou conjunt de dades de eye tracking i d’imatges urbanes amb text. L’última part d’aquesta tesi es dedica a estudiar en quina mesura el model proposat pot respondre del desplegament d’atenció en un entorn complex. S’ha utilitzat un dispositiu mòbil de eye tracking i una metodologia desenvolupada específicament per comparar les dades simulades amb les dades gravades de eye tracking. Tal configuració permet posar a prova el model en la tasca de cerca de text molt semblant a una cerca real, en la condició d’informació visual incompleta. / La búsqueda de objetos de texto en imágenes de escena reales es un problema abierto y un área de investigación muy activa la visión por computador. Se han propuesto un gran número de métodos basados en la extensión de los métodos desde el análisis de documentos o inspirado en métodos de detección de objetos. Sin embargo, el problema de la búsqueda de objetos en imágenes de escena reales sigue siendo un problema extremadamente difícil debido a la gran variabilidad en la apariencia de los objetos. Esta tesis se basa en los más recientes hallazgos en la literatura de la atención visual, introduciendo un nuevo modelo computacional de visión guiada que apunta a describir la búsqueda de texto en imágenes de escenas reales. En primer lugar se presentan los resultados mas pertinentes de la literatura científica en relación con la atención visual, los movimientos oculares y la búsqueda visual. Los mas relevantes modelos de atención son discutidos e integrados con recientes obser- vaciones sobre la función de los denominados ’top-down constraints’ y la emergente necesidad de un modelo estratificado de atención en el que la saliencia no es el único factor guía de atención. La atención visual se explica por la interacción de varios factores moduladores, tales como objetos, valor, planes y saliencia. Se introduce nuestra formulación probabilística de los mecanismos de atención en escenas reales para la tarea de búsqueda de objetos. El modelo se basa en el argumento de que el despliegue de atención depende de dos procesos distintos pero interactuantes: un proceso de atención que asigna valor a las fuentes de información y un proceso motor que une flexiblemente información con la acción. En ese marco, la elección de dónde buscar la próxima tarea es dependiente y orientada a las clases de objetos incrustados en imágenes de escenas reales. La dependencia de la tarea se tiene en cuenta al explotar el valor y la recompensa de contemplar ciertas partes o proto-objetos de la imagen que proporcionan una rala representación de los objetos en la escena. En la sección experimental se prueba el modelo en condiciones de laboratorio, comparando las simulaciones del modelo con datos de experimentos de eye tracking. La comparación es cualitativa en términos de trayectorias de exploración y cuanti- tativa, en términos de similitud estadística de la amplitud de movimientos oculares. Los experimentos se han realizado con datos de eye tracking tanto de un conjunto de datos públicos de rostros humanos y texto, tanto con un nuevo conjunto de datos de eye tracking y de imágenes urbanas con texto. La última parte de esta tesis se dedica a estudiar en qué medida el modelo prop- uesto puede responder del despliegue de atención en un entorno complejo. Se ha utilizado un dispositivo móvil de eye tracking y una metodología desarrollada es- pecíficamente para comparar los datos simulados con los datos grabados de eye track- ing. Tal configuración permite poner a prueba el modelo en la tarea de búsqueda de texto muy parecida a una búsqueda real, en la condición de información visual incompleta. / Searching for text objects in real scene images is an open problem and a very ac- tive computer vision research area. A large number of methods have been proposed tackling the text search as extension of the ones from the document analysis field or inspired by general purpose object detection methods. However the general problem of object search in real scene images remains an extremely challenging problem due to the huge variability in object appearance. This thesis builds on top of the most recent findings in the visual attention literature presenting a novel computational model of eye guidance aiming to better describe text object search in real scene images. First are presented the relevant state-of-the-art results from the visual attention literature regarding eye movements and visual search. Relevant models of attention are discussed and integrated with recent observations on the role of top-down con- straints and the emerging need for a layered model of attention in which saliency is not the only factor guiding attention. Visual attention is then explained by the interaction of several modulating factors, such as objects, value, plans and saliency. Then we introduce our probabilistic formulation of attention deployment in real scene. The model is based on the rationale that oculomotor control depends on two interacting but distinct processes: an attentional process that assigns value to the sources of information and motor process that flexibly links information with action. In such framework, the choice of where to look next is task-dependent and oriented to classes of objects embedded within pictures of complex scenes. The dependence on task is taken into account by exploiting the value and the reward of gazing at certain image patches or proto-objects that provide a sparse representation of the scene objects. In the experimental section the model is tested in laboratory condition, compar- ing model simulations with data from eye tracking experiments. The comparison is qualitative in terms of observable scan paths and quantitative in terms of statisti- cal similarity of gaze shift amplitude. Experiments are performed using eye tracking data from both a publicly available dataset of face and text and from newly performed eye-tracking experiments on a dataset of street view pictures containing text. The last part of this thesis is dedicated to study the extent to which the proposed model can account for human eye movements in a low constrained setting. We used a mobile eye tracking device and an ad-hoc developed methodology to compare model simulated eye data with the human eye data from mobile eye tracking recordings. Such setting allow to test the model in an incomplete visual information condition, reproducing a close to real-life search task.
29

Estudi de l'expressió i secreció de proteïnes recombinants (agarasa i lacasa) en una soca SipY- de Streptomyces lividans

Vidal Gabarró, Marcel·la 18 November 2014 (has links)
La producció de proteïnes homòlogues i heteròlogues a escala industrial requereix sistemes d’expressió variats i eficients. Els bacteris grampositius, com Streptomyces, poden ser una alternativa per a la producció de proteïnes recombinants ja que aquestes són produïdes i secretades al medi. La seqüenciació del genoma d’algunes espècies de Streptomyces i el seu anàlisi post-genòmic ha permès determinar i caracteritzar la seva maquinària de secreció. Així, se sap que els precursors de les proteïnes que s’han de secretar són exportats majoritàriament per una via principal de secreció (via Sec) o bé per una via secundària (via Tat). Aquests precursors contenen un pèptid senyal de tipus I que permet la seva correcta translocació a través de la membrana plasmàtica, la seqüència del qual determina per quina de les dues vies es dirigeix. Un cop translocades, les peptidases senyal de tipus I (SPases) processen la majoria d’aquestes proteïnes secretades i les alliberen al medi extracel·lular en la seva forma madura. Estudis previs en la maquinària de secreció han determinat que Streptomyces lividans té quatre peptidases senyal Sip (SipW, SipX, SipY i SipZ) de les quals, SipY és la que desenvolupa el paper majoritari. La soca deficient en aquesta proteïna SipY té la capacitat de secreció notablement afectada però, paradoxalment, és un bon hoste per a la sobreproducció de proteïnes secretades, ja que presenta una activitat proteàsica considerablement disminuïda. En aquest treball s’ha estudiat la producció d’agarasa i de lacasa en la soca SipY- (S. lividans ΔsipY) a escala de bioreactor per avaluar si aquesta soca pot ser considerada com a possible hoste per a la producció de proteïnes recombinants per la indústria. Aquestes dues proteïnes se secreten majoritàriament per la via Tat. En el cas de l’enzim agarasa, el gen expressat prové de S. coelicolor A3(2) i s’ha produït l’enzim en discontinu amb la soca salvatge (S. lividans TK21pAGAs5) i la soca mutada (S. lividans ΔsipYpAGAs5). La soca S. lividans ΔsipYpAGAs5 ha presentat una millor producció i s’ha seleccionat el medi més adequat per tal de produir aquesta proteïna estudiant el seu comportament operant en continu. També s’han estudiat diferents estratègies en discontinu alimentat, entre les quals la major producció s’ha obtingut amb una addició de mannitol i evitant que aquesta font de carboni s’esgoti en el medi. En el cas de la lacasa, s’han construït tres soques en les quals el gen de la pròpia lacasa de S. lividans és regulat per tres promotors diferents: el promotor propi de la lacasa, el promotor del gen de resistència a eritromicina i el promotor del gen agarasa de S. coelicolor. La soca en el qual el gen és regulat pel promotor del gen agarasa (S. lividans ΔsipYpFD-DagA-laccase) ha estat seleccionada i s’ha estudiat la producció de l’enzim utilitzant mannitol o glucosa com a font de carboni en discontinu i discontinu alimentat. En l’operació en discontinu alimentat van ser necessàries dues addicions de glucosa per assolir els mateixos nivells de producció que amb una addició de mannitol. / Recombinant protein production on industrial scale requires varied and efficient expression systems. Gram-positive bacteria such as Streptomyces, may be an alternative since proteins are secreted through the medium. The sequence of the genome of several Streptomyces species and their post-genomic analysis has allowed to determine and characterize the secretion machinery. Two secretion pathways are mainly use in Streptomyces: Sec pathway and Tat pathway. Protein precursors contain type I signal peptide that allows a proper translocation though membrane and whose sequence determines which pathway must be used in order to export each protein. During its translocation, type I signal peptidases (SPases) cleave the signal peptide leading the secretion of the mature protein through the medium. Previous studies on the secretory machinery have described four signal peptidases in Streptomyces lividans (SipW, SipX, SipY and Sip Z) and they have postulate SipY as the one which develops the main role in protein secretion. SipY deficient strain has a secretion ability significantly affected but, paradoxically, it is a good host for the protein overproduction since it has a considerably reduced protease activity. In this work, we have studied the production of agarase and laccase in SipY- strain (S. lividans ΔsipY) in a bioreactor scale to assess whether this strain can be considered as a host for the production of recombinant proteins in the industry. These two proteins are mainly secreted by Tat pathway. Firstly, agarase from S. coelicolor A3(2) was cloned in a multicopy plasmid in S. lividans wild type strain and SipY- mutant strain (S. lividans TK21pAGAs5 and S. lividans ΔsipYpAGAs5). Batch cultures have been carried out and S. lividans ΔsipYpAGAs5 of which has presented better agarase production and it has been selected. Appropriated medium has been also selected operating in continuous. Secondly, focusing on laccase production, three strains have been constructed in which the homologous gene of S. lividans is regulated by three different promoters: its own promoter, the promoter of erythromycin resistance gene and the S. coelicolor agarase promoter. The strain in which the laccase gene is regulated by agarase promoter (S. lividans ΔsipYpFD-DagAplaccase) has been selected and studied in batch and fed-batch mode using mannitol or glucoses as carbon source. In fed-batch cultures, two glucose addition have been necessary to achieve the same production as unic mannitol addition.
30

Monocular Depth Cues in Computer Vision Applications

Cheda, Diego 14 December 2012 (has links)
La percepción de la profundidad es un aspecto clave en la visión humana. El ser humano realiza esta tarea sin esfuerzo alguno con el objetivo de efectuar diversas actividades cotidianas. A menudo, la percepción de la profundidad se ha asociado con la visión binocular. Pese a esto, los seres humanos tienen una capacidad asombrosa de percibir las relaciones de profundidad, incluso a partir de una sola imagen, mediante el uso de varias pistas monoculares. En el campo de la visión por ordenador, si la información de la profundidad de una imagen estuviera disponible, muchas tareas podr´ıan ser planteadas desde una perspectiva diferente en aras de un mayor rendimiento y robustez. Sin embargo, dada una única imagen, esta posibilidad es generalmente descartada, ya que la obtención de la información de profundidad es frecuentemente obtenida por las técnicas de reconstrucción tridimensional, que requieren dos o más imágenes de la misma escena tomadas desde diferentes puntos de vista. Recientemente, algunas propuestas han demostrado que es posible obtener información de profundidad a partir de imágenes individuales. En esencia, la idea es aprovechar el conocimiento a priori de las condiciones de adquisición de la imagen y de la escena observada para estimar la profundidad empleando pistas pictóricas monoculares. Estos enfoques tratan de estimar con precisión los mapas de profundidad de la escena empleando técnicas computacionalmente costosas. Sin embargo, muchos algoritmos de visión por ordenador no necesitan un mapa de profundidad detallado de la imagen. De hecho, sólo una descripción en profundidad aproximada puede ser muy valiosa en muchos problemas. En nuestro trabajo, hemos demostrado que incluso la información aproximada de profundidad puede integrarse en diferentes tareas siguiendo una estrategia holística con el fin de obtener resultados más precisos y robustos. En ese sentido, hemos propuesto una técnica simple, pero fiable, por medio de la cual regiones de la imagen de una escena se clasifican en rangos de profundidad discretos para construir un mapa tosco de la profundidad. Sobre la base de esta representación, hemos explorado la utilidad de nuestro método en tres dominios de aplicación desde puntos de vista novedosos: la estimación de la rotación de la cámara, la estimación del fondo de una escena y la generación de ventanas de interés para la detección de peatones. En el primer caso, calculamos la rotación de la cámara montada en un veh´ıculo en movimiento mediante dos nuevos m˜A c ⃝todos que identifican elementos distantes en la imagen a través de nuestros mapas de profundidad. En la reconstrucción del fondo de una imagen, propusimos un método novedoso que penaliza las regiones cercanas en una función de coste que integra, además, información del color y del movimiento. Por último, empleamos la información geométrica y de la profundidad de una escena para la generación de peatones candidatos. Este método reduce significativamente el número de ventanas generadas, las cuales serán posteriormente procesadas por un clasificador de peatones. En todos los casos, los resultados muestran que los enfoques basados en la profundidad contribuyen a un mejor rendimiento de las aplicaciones estudidadas. / Depth perception is a key aspect of human vision. It is a routine and essential visual task that the human do effortlessly in many daily activities. This has often been associated with stereo vision, but humans have an amazing ability to perceive depth relations even from a single image by using several monocular cues. In the computer vision field, if image depth information were available, many tasks could be posed from a different perspective for the sake of higher performance and robustness. Nevertheless, given a single image, this possibility is usually discarded, since obtaining depth information has frequently been performed by three-dimensional reconstruction techniques, requiring two or more images of the same scene taken from different viewpoints. Recently, some proposals have shown the feasibility of computing depth information from single images. In essence, the idea is to take advantage of a priori knowledge of the acquisition conditions and the observed scene to estimate depth from monocular pictorial cues. These approaches try to precisely estimate the scene depth maps by employing computationally demanding techniques. However, to assist many computer vision algorithms, it is not really necessary computing a costly and detailed depth map of the image. Indeed, just a rough depth description can be very valuable in many problems. In this thesis, we have demonstrated how coarse depth information can be integrated in different tasks following holistic and alternative strategies to obtain more precise and robustness results. In that sense, we have proposed a simple, but reliable enough technique, whereby image scene regions are categorized into discrete depth ranges to build a coarse depth map. Based on this representation, we have explored the potential usefulness of our method in three application domains from novel viewpoints: camera rotation parameters estimation, background estimation and pedestrian candidate generation. In the first case, we have computed camera rotation mounted in a moving vehicle from two novels methods that identify distant elements in the image, where the translation component of the image flow field is negligible. In background estimation, we have proposed a novel method to reconstruct the background by penalizing close regions in a cost function, which integrates color, motion, and depth terms. Finally, we have benefited of geometric and depth information available on single images for pedestrian candidate generation to significantly reduce the number of generated windows to be further processed by a pedestrian classifier. In all cases, results have shown that our depth-based approaches contribute to better performances.

Page generated in 0.0842 seconds